Perkembangan Kecerdasan Buatan Mendorong Desakan Kawal Selia ‘Robot Pembunuh’,Peace and Security


Baik, inilah ringkasan artikel berita PBB bertajuk “As AI evolves, pressure mounts to regulate ‘killer robots’” yang diterbitkan pada 1 Jun 2025, ditulis dalam bahasa Melayu dengan gaya yang mudah difahami:

Perkembangan Kecerdasan Buatan Mendorong Desakan Kawal Selia ‘Robot Pembunuh’

Artikel berita ini menekankan tekanan yang semakin meningkat untuk mengawal selia penggunaan kecerdasan buatan (AI) dalam senjata, khususnya yang sering digelar ‘robot pembunuh’. Isu utama di sini ialah kebimbangan mengenai senjata autonomi sepenuhnya yang boleh membuat keputusan sendiri untuk menyerang dan membunuh tanpa campur tangan manusia.

Apa itu ‘Robot Pembunuh’?

‘Robot pembunuh’, atau lebih tepat lagi Sistem Senjata Autonomi Maut (Lethal Autonomous Weapons Systems – LAWS), adalah senjata yang menggunakan AI untuk memilih dan menyerang sasaran tanpa memerlukan arahan langsung daripada manusia. Bayangkan dron yang diprogramkan untuk mengenali dan menghapuskan jenis sasaran tertentu, seperti kereta kebal musuh atau bahkan individu yang dikenal pasti melalui pengecaman wajah.

Mengapa Perlu Dikawal Selia?

Terdapat beberapa alasan mengapa banyak pihak mendesak untuk mengawal selia ‘robot pembunuh’:

  • Isu Etika: Memberi mesin kuasa untuk menentukan hidup dan mati menimbulkan persoalan etika yang mendalam. Adakah wajar mesin membuat keputusan yang berkaitan dengan nyawa manusia?
  • Akauntabiliti: Sekiranya robot melakukan kesilapan dan membunuh orang awam, siapa yang bertanggungjawab? Pengatur cara? Komander tentera? Atau robot itu sendiri? Ketiadaan akauntabiliti yang jelas adalah membimbangkan.
  • Proliferasi: Jika teknologi ini tidak dikawal, ia berpotensi tersebar luas dan digunakan oleh negara-negara atau kumpulan yang tidak bertanggungjawab, meningkatkan risiko konflik dan ketidakstabilan global.
  • Perang Tidak Sengaja: Sistem AI yang kompleks boleh membuat kesilapan, dan jika kesilapan ini berlaku dalam konteks peperangan, ia boleh membawa kepada serangan yang tidak disengajakan dan peningkatan konflik.
  • Diskriminasi: Algoritma AI boleh bias, dan jika bias ini digunakan dalam sistem senjata, ia boleh menyebabkan sasaran yang tidak adil atau diskriminasi terhadap kumpulan tertentu.

Apa yang Sedang Dilakukan?

Pertubuhan Bangsa-Bangsa Bersatu (PBB) dan pelbagai negara sedang membincangkan isu ini dan mempertimbangkan pelbagai pilihan untuk mengawal selia ‘robot pembunuh’. Pilihan-pilihan ini termasuk:

  • Larangan Sepenuhnya: Melarang pembangunan, penggunaan, dan penyebaran senjata autonomi maut.
  • Kawalan Manusia: Memastikan bahawa manusia sentiasa terlibat dalam keputusan kritikal mengenai penggunaan kekuatan, termasuk memilih dan menyerang sasaran.
  • Kerangka Kerja Undang-Undang: Mewujudkan kerangka kerja undang-undang antarabangsa yang jelas untuk penggunaan AI dalam senjata, termasuk garis panduan etika dan akauntabiliti.

Kesimpulan

Perkembangan pesat AI telah menimbulkan cabaran baru dalam bidang keselamatan dan keamanan. Desakan untuk mengawal selia ‘robot pembunuh’ adalah respons kepada kebimbangan etika, keselamatan, dan kestabilan yang ditimbulkan oleh senjata autonomi. Perbincangan dan rundingan di peringkat antarabangsa akan terus berlangsung untuk mencari jalan terbaik dalam menangani isu ini. Masa depan peperangan dan peranan manusia dalam membuat keputusan penting berada di persimpangan jalan.


As AI evolves, pressure mounts to regulate ‘killer robots’


AI telah menyampaikan berita.

Soalan berikut digunakan untuk mendapatkan jawapan dari Google Gemini:

Pada 2025-06-01 12:00, ‘As AI evolves, pressure mounts to regulate ‘killer robots’’ telah diterbitkan menurut Peace and Security. Sila tulis artikel terperinci dengan maklumat berkaitan dalam cara yang mudah difahami. Sila jawab dalam Bahasa Melayu.


758

Leave a Comment