Etika AI Bergelut Dengan Pukulan Satu-Dua Berapi Kedua-dua Sistem Senjata Autonomi Berasaskan AI Dan Eksploitasi Sistem Autonomi Didorong AI Yang Disenjata Secara Syaitan

Robot berkaki empat menari yang menakjubkan itu.

Saya pasti anda telah melihat video tular mengenai sistem robot berkaki empat yang menari dan berjoget dengan cara yang kelihatan menggembirakan dan seperti anjing. Kami nampaknya seronok melihat robot yang dipacu AI itu semasa mereka memanjat halangan dan kelihatan mendapat pijakan yang halus apabila bertenggek di atas kotak atau selepas diletakkan dengan tidak menentu di atas kabinet yang lapuk. Pengendali manusia mereka kadang-kadang akan mencucuk atau menolak robot berkaki empat yang bermain-main, yang kelihatan sangat tidak adil dan boleh menimbulkan kemarahan anda terhadap layanan kurang ajar oleh manusia-manusia dalang tersebut.

Saya tertanya-tanya sama ada anda pernah melihat video yang tidak begitu viral dengan kaliber yang sama sekali berbeza.

Persiapkan diri anda.

Terdapat video yang disiarkan secara meluas yang menunjukkan jenis robot berkaki empat yang sama yang telah dilengkapi dengan senjata yang jelas dari satu jenis atau yang lain.

Sebagai contoh, senapang mesin atau senjata api yang serupa dipasang di atas robot menari dan berlari yang biasa dilakukan. Terdapat kaitan elektronik antara robot berkaki empat dan mekanisme penembakan senjata. Alat berjalan komputer yang kini bersenjata ditunjukkan berjalan ke tempat sasaran bullseye telah diletakkan, dan mesingan itu ditembakkan dengan ganas ke sasaran. Selepas memaku sasaran yang sebahagiannya musnah, robot berkaki empat itu menari dan berlari mengelilingi halangan berdekatan dan berbaris untuk mengulangi aksi yang sama berulang kali pada sasaran baharu yang lain.

Tidak seperti yang anda jangkakan untuk dilihat. Ini sudah tentu menghilangkan rasa ringan dan kegembiraan relatif daripada terus terang menonton robot berkaki empat yang peluk itu melakukan perkara mereka. Selamat datang ke realiti yang keras nampaknya tidak bersalah sistem autonomi yang ditukar atau diubah menjadi senjata tajam. Dengan sedikit usaha, anda boleh semalaman mempunyai sistem autonomi yang dianggap "tidak bersenjata" dipasang semula untuk mengandungi senjata lengkap.

Ia hampir mudah-peasy dalam beberapa keadaan.

Saya akan membincangkan topik yang sangat kontroversi ini dan membincangkan keraguan Etika AI yang timbul. Kami akan menempuh perjalanan ke dalam sistem autonomi, AI, kenderaan autonomi, persenjataan dan pelbagai isu pertempuran AI Etika yang berkaitan. Untuk liputan berterusan dan meluas saya tentang Etika AI dan AI Etika, lihat pautan di sini and pautan di sini, Hanya untuk menamakan beberapa.

Mari kita mulakan dengan beberapa batu kunci asas.

Demi perbincangan, terima bahawa terdapat dua cara utama untuk mengkategorikan sistem autonomi yang telah dipersenjatai dengan persenjataan:

1) Sistem Senjata Autonomi (mengikut reka bentuk)

2) Sistem Autonomi yang Bersenjata (oleh selepas fakta)

Terdapat perbezaan penting antara kedua-dua kategori.

Dalam contoh pertama, kami akan mentakrifkan sistem senjata autonomi untuk menjadi dari awal penciptaan berkomputer yang bertujuan untuk menjadi senjata. Pemaju mempunyai fikiran bahawa mereka mahu mencipta senjata. Pencarian eksplisit mereka adalah untuk menghasilkan senjata. Mereka tahu bahawa mereka boleh menggabungkan persenjataan secara menyeluruh dengan teknologi sistem autonomi terkini. Ini adalah senjata yang menunggangi gelombang teknologi tinggi yang mencapai pergerakan autonomi dan tindakan autonomi (saya akan menghuraikan lebih lanjut, sebentar lagi).

Sebaliknya, dalam contoh kedua, kita akan mempertimbangkan masalah sistem autonomi yang tidak mempunyai kecenderungan tertentu terhadap persenjataan sama sekali. Ini adalah sistem autonomi yang dibangunkan untuk tujuan lain. Bayangkan kenderaan autonomi seperti kereta pandu sendiri yang akan digunakan untuk menyediakan mobiliti untuk semua dan membantu dalam mengurangkan beribu-ribu kematian tahunan yang berlaku disebabkan oleh pemanduan manusia dan kereta kendalian manusia (lihat liputan mendalam saya di pautan di sini). Nampaknya bukan senjata yang diambil kira bagi mereka yang bersemangat yang meningkatkan usaha untuk membawa manusia keluar dari belakang roda dan meletakkan AI ke tempat duduk pemandu.

Tetapi sistem autonomi yang tidak berbahaya itu boleh dipersenjatai jika manusia mahu berbuat demikian.

Saya merujuk kepada kategori kedua ini kemudian sebagai sistem autonomi yang dipersenjatai. Sistem autonomi pada asalnya dan dibuat secara khusyuk untuk tujuan yang mungkin bukan senjata. Walaupun begitu, harapan altruistik yang diimpikan telah dicabut oleh seseorang di suatu tempat yang mendapat idea berkomplot bahawa rekaan ini boleh dijadikan senjata. Secara tiba-tiba, sistem autonomi yang kelihatan mesra telah menjadi senjata maut dengan menandai beberapa bentuk keupayaan senjata (seperti robot berkaki empat seperti anjing yang disebutkan sebelum ini yang mempunyai mesingan atau senjata api serupa yang ditambahkan pada ciri mereka) .

Malangnya, kedua-dua kategori itu berakhir agak di tempat yang sama, iaitu menyediakan kapasiti menggunakan sistem autonomi untuk persenjataan secara berpotensi maut.

Proses untuk sampai ke titik akhir itu mungkin berbeza.

Untuk sistem autonomi bersenjata secara terang-terangan yang dipatok sebagai senjata, aspek persenjataan biasanya di hadapan dan di tengah. Anda mungkin mengatakan bahawa aspek-aspek sistem autonomi dililitkan di sekeliling asas apa-apa senjata yang sedang dipertimbangkan. Proses pemikiran oleh pembangun agak mengikut garis bagaimana senjata boleh mengeksploitasi kemunculan sistem autonomi.

Perspektif lain biasanya tidak sama sekali dengan pemikiran itu. Pembangun mahu memperoleh sistem autonomi yang canggih, mungkin untuk kebaikan manusia. Pembangun ini meletakkan hati dan jiwa ikhlas mereka untuk membuat sistem autonomi. Ini adalah teras ciptaan mereka. Mereka mungkin tidak membayangkan bahawa sesiapa akan merampas atau menumbangkan peranti mereka yang sangat bermanfaat. Mereka sangat terpikat dengan faedah masyarakat yang dikaitkan dengan sistem autonomi yang dibentuk dan dihasilkan.

Pada satu ketika, katakan pihak ketiga menyedari bahawa sistem autonomi boleh disusun semula untuk dijadikan senjata. Mungkin mereka menipu pemaju untuk membenarkan mereka mempunyai sistem autonomi untuk tujuan yang didakwa tinggi. Di sebalik pintu tertutup, penjahat ini memilih untuk secara diam-diam menambah kapasiti persenjataan pada sistem autonomi. Voila, tidak bersalah bertukar menjadi senjata langsung.

Perkara tidak perlu diteruskan dengan cara itu.

Mungkin pemaju diberitahu bahawa mereka sedang membangunkan sistem autonomi yang tidak bersalah, namun mereka yang membiayai atau mengarahkan usaha itu mempunyai tujuan lain dalam fikiran. Mungkin usaha sistem autonomi sememangnya bermula dengan tidak bersalah, tetapi apabila bil-bil terpaksa dibayar, kepimpinan memutuskan perjanjian dengan sumber pembiayaan yang mahukan sistem autonomi atas sebab-sebab jahat. Kemungkinan lain adalah bahawa pemaju tahu bahawa penggunaan kemudian mungkin untuk persenjataan tetapi mereka menganggap bahawa mereka akan menyeberangi jambatan yang mengerikan itu apabila atau jika ia timbul. Dan lain-lain.

Terdapat banyak dan banyak jalan yang berbeza-beza tentang bagaimana ini semua berlaku.

Anda mungkin mendapati minat yang saya telah terangkan dalam lajur sebelumnya bahawa terdapat peningkatan kesedaran Etika AI mengenai dwi-guna unsur AI kontemporari, lihat pautan di sini. Izinkan saya membawa anda secara ringkas.

Sistem AI yang dibayangkan untuk kebaikan kadangkala berada di ambang keburukan, mungkin melalui beberapa perubahan yang agak mudah, dan sejajar dengan itu dianggap sebagai bersifat dwiguna. Dalam berita baru-baru ini ialah sistem AI yang dibina untuk menemui bahan kimia yang mungkin pembunuh, yang mana pembangun ingin memastikan bahawa kita boleh mengelak atau berhati-hati terhadap bahan kimia yang tidak difikirkan sedemikian. Ternyata AI boleh diubah suai dengan mudah untuk mendedahkan bahan kimia pembunuh itu dengan setia dan dengan itu berpotensi membenarkan penjahat mengetahui jenis bahan kimia yang berpotensi memasak untuk rancangan jahat mereka.

Sistem autonomi boleh dibuktikan sesuai dengan sampul dwi-guna itu.

Pada tahap tertentu, itulah sebabnya AI Etika dan AI Etika adalah topik yang sangat penting. Arahan Etika AI mendorong kita untuk terus berwaspada. Ahli teknologi AI kadang-kadang boleh menjadi sibuk dengan teknologi, terutamanya pengoptimuman teknologi tinggi. Mereka tidak semestinya mempertimbangkan kesan masyarakat yang lebih besar. Mempunyai minda Etika AI dan berbuat demikian secara bersepadu kepada pembangunan dan penempatan AI adalah penting untuk menghasilkan AI yang sesuai, termasuk (mungkin secara mengejutkan atau ironisnya) penilaian tentang cara AI Etika diterima pakai oleh firma.

Selain menggunakan peraturan Etika AI secara umum, terdapat persoalan yang sepadan sama ada kita harus mempunyai undang-undang untuk mengawal pelbagai penggunaan AI. Undang-undang baharu sedang dibicarakan di peringkat persekutuan, negeri dan tempatan yang membimbangkan julat dan sifat cara AI harus dicipta. Usaha untuk merangka dan menggubal undang-undang tersebut adalah secara beransur-ansur. Etika AI berfungsi sebagai perhentian yang dianggap, sekurang-kurangnya, dan hampir pasti pada tahap tertentu akan dimasukkan secara langsung ke dalam undang-undang baharu tersebut.

Harap maklum bahawa sesetengah pihak bertegas berhujah bahawa kita tidak memerlukan undang-undang baharu yang meliputi AI dan undang-undang sedia ada adalah mencukupi. Malah, mereka memberi amaran bahawa jika kita menggubal beberapa undang-undang AI ini, kita akan mengurangkan angsa emas dengan mengekang kemajuan dalam AI yang menawarkan kelebihan masyarakat yang besar.

Autonomi Dan Senjata Sebagai Dua Sila

Terdapat kata kunci yang digunakan oleh sesetengah pihak untuk memberi amaran tentang semua jenis sistem autonomi bersenjata, yang dicipta secara kolektif sebagai bot penyembelih.

Ini membawa satu aspek tambahan yang perlu kita fikirkan.

Adakah sistem senjata autonomi dan/atau sistem autonomi yang telah dipersenjatai mestilah mempunyai kelebihan robot yang mematikan atau membunuh?

Ada yang berpendapat bahawa kita boleh melakukannya dengan jelas tidak mematikan sistem autonomi bersenjata juga. Oleh itu, dalam pandangan itu, nampaknya amat tidak sesuai untuk menggunakan frasa seperti bot penyembelih atau robot pembunuh. Varian yang tidak boleh membawa maut berkemungkinan dapat menundukkan atau menimbulkan bahaya yang tidak membawa maut. Sistem sedemikian tidak membunuh, ia mempunyai kapasiti penjanaan kecederaan yang lebih rendah. Jangan melebih-lebihkan kebolehan, katakan mereka yang menegaskan kita tidak perlu sibuk dengan kiasan mesin pembunuh secara terang-terangan.

Oleh itu, kita mungkin mempunyai ini:

  • Sistem senjata autonomi maut
  • Sistem autonomi maut yang telah dipersenjatai
  • Sistem senjata autonomi yang tidak mematikan
  • Sistem autonomi tidak mematikan yang telah dipersenjatai

Sudah tentu, hujah balas adalah bahawa mana-mana sistem autonomi yang telah dipersenjatai nampaknya mempunyai potensi untuk meluncur ke alam maut, walaupun kononnya hanya dibayangkan untuk digunakan secara tidak mematikan. Pertambahan dua langkah daripada tidak maut kepada maut akan dilakukan dengan cepat sebaik sahaja anda sudah mempunyai senjata di tengah-tengah sistem autonomi. Anda akan bersusah payah untuk memberikan jaminan kuku besi bahawa yang tidak boleh membawa maut tidak akan masuk ke arena maut (walaupun ada yang cuba melakukannya, dalam bentuk matematik).

Sebelum kita pergi lebih jauh ke dalam topik keseluruhan sistem autonomi dan persenjataan ini, mungkin berguna untuk menunjukkan sesuatu yang lain yang walaupun mungkin jelas tidak semestinya kelihatan di atas fikiran.

Di sini adalah:

  • Terdapat aspek AI yang merupakan sebahagian daripada sistem autonomi
  • Terdapat aspek persenjataan yang menjadi bahagian persenjataan dalam persamaan ini
  • AI mungkin juga saling berkaitan dengan persenjataan

Mari kita bongkarkan itu.

Kami akan menganggap bahawa sistem autonomi hari ini memerlukan AI sebagai cara berkomputer asas untuk menghasilkan aspek autonomi. Saya menyebut ini kerana anda boleh cuba berhujah bahawa kami mungkin menggunakan teknologi dan teknik bukan berkaitan AI untuk melakukan sistem autonomi, yang walaupun benar, nampaknya semakin kurang berkemungkinan. Pada asasnya, AI cenderung untuk membenarkan tahap autonomi yang lebih tinggi, dan kebanyakannya memanfaatkan teknologi tinggi AI dengan sewajarnya.

Okey, jadi kami mempunyai keupayaan berasaskan AI yang diselitkan entah bagaimana dalam sistem autonomi dan bertindak untuk membimbing dan mengawal sistem autonomi.

Simpan itu di hujung jari anda sebagai peraturan biasa.

Nampak jelas bahawa kita juga perlu mempunyai beberapa bentuk persenjataan, jika tidak mengapa kita membincangkan topik sistem autonomi di sini and senjata. Jadi, ya, jelas sekali, ada senjata dari satu jenis atau yang lain.

Saya tidak akan mendalami jenis persenjataan yang mungkin digunakan. Anda hanya boleh menggantikan apa sahaja senjata yang terlintas di fikiran. Mungkin ada senjata yang tepat. Mungkin terdapat senjata pemusnah berorientasikan massa. Ia mungkin sesuatu dengan peluru atau peluru. Ia mungkin sesuatu yang mempunyai bahan kimia atau komponen meruap atom. Senarai itu tidak berkesudahan.

Pertimbangan tambahan ialah sama ada AI saling berkaitan atau tidak dengan persenjataan. AI mungkin hanya membawa senjata untuk menunggang. Dalam kes robot berkaki empat yang menembak pistol, mungkin pistol itu dilepaskan oleh manusia yang mempunyai alat kawalan jauh yang disambungkan kepada pencetus senjata. Robot seperti anjing itu menavigasi adegan dan kemudian terpulang kepada manusia jauh untuk menarik picu.

Sebaliknya, AI mungkin menjadi penarik pencetus, seolah-olah. AI mungkin telah direka untuk bukan sahaja mengemudi dan bergerak tetapi juga mengaktifkan senjata juga. Dalam erti kata itu, AI melakukan segala-galanya dari A hingga Z. Tidak ada pergantungan kepada manusia yang jauh untuk melakukan bahagian senjata. AI diprogramkan untuk melakukannya.

Untuk menjelaskan kemudian dalam kes penggunaan khusus sistem autonomi yang dipersenjatai, kami mempunyai kemungkinan jenis ini:

  • Sistem Autonomi: AI menjalankan sistem autonomi sepenuhnya dengan sendiri
  • Sistem Autonomi: AI menjalankan sistem autonomi, tetapi manusia-dalam-gelung juga boleh campur tangan
  • senjata: Manusia jauh menjalankan senjata (AI tidak)
  • senjata: AI menjalankan persenjataan, tetapi manusia-dalam-gelung juga boleh campur tangan
  • senjata: AI menjalankan persenjataan sepenuhnya dengan sendiri

Saya sebelum ini telah membincangkan variasi mempunyai manusia-dalam-gelung berkenaan sistem autonomi dan kenderaan autonomi, lihat pautan di sini.

Apabila anda menonton video berorientasikan keseronokan robot berkaki empat yang menari dan berlari, mereka biasanya sepatutnya menjadi robot yang dikendalikan secara eksklusif oleh AI (baik, itu adalah adat atau etika yang dianggap wajar di kalangan mereka yang mendalam. dalam perkara-perkara ini). Itulah yang anda mungkin juga wajar menganggapnya. Sudah tentu, anda tidak tahu itu dengan pasti. Mungkin pengendali manusia jauh sedang membimbing robot. Terdapat juga kemungkinan bahawa AI melakukan sebahagian daripada panduan, dan pengendali manusia jauh juga berbuat demikian, mungkin membantu AI jika robot mendapat kedudukan yang sukar dan tidak boleh mengira cara yang berdaya maju untuk menggoyangkan dirinya secara bebas.

Intinya di sini ialah terdapat banyak perisa tentang bagaimana AI dan sistem autonomi serta persenjataan dapat digabungkan. Ada yang mempunyai AI yang menjalankan sistem autonomi tetapi tidak menjalankan persenjataan. Seorang manusia mungkin mengendalikan senjata dari jauh. Sudut lain ialah persenjataan mungkin diaktifkan terlebih dahulu, dan sistem autonomi menghantar senjata yang diaktifkan, oleh itu AI tidak mengambil bahagian secara langsung dalam mencetuskan senjata itu sendiri dan sebaliknya bertindak sebagai kenderaan penghantaran. Dan boleh jadi bahawa AI adalah pepatah jack-of-all-trades dan melakukan keseluruhan keseluruhan aspek sistem autonomi kepada penggunaan senjata juga.

Ambil pilihan anda.

Sementara itu, harap maklum bahawa manusia-dalam-gelung adalah faktor besar apabila ia melibatkan perdebatan mengenai topik ini.

Garis pemisah oleh sesetengah orang ialah jika AI melakukan penyasaran dan menembak (atau apa sahaja yang diperlukan oleh senjata) maka keseluruhan kit dan caboodle telah menyeberang ke tanah yang tidak ada. Ini nampaknya berbeza daripada senjata api-dan-lupa konvensional yang mempunyai pilihan yang ditentukan manusia sebelum disasarkan, seperti dron rondaan yang mempunyai peluru berpandu yang sedia untuk menembak ke sasaran yang telah sudah dipilih oleh manusia.

Ada yang tertanya-tanya mengapa sistem autonomi yang dipersenjatai tidak selalunya termasuk manusia-dalam-gelung sepanjang proses sistem autonomi berada dalam status yang sedang dijalankan. Nampaknya kita mungkin lebih baik jika keperluan yang ketat ialah semua sistem autonomi bersenjata sedemikian perlu mempunyai manusia-dalam-gelung, sama ada berbuat demikian untuk pengendalian sistem autonomi atau untuk mengendalikan persenjataan (atau untuk kedua-duanya) . Menjaga tangan manusia yang diandaikan pasti dan mantap dalam campuran AI ini mungkin kelihatan sangat bijak.

Bersedia untuk senarai panjang sebab mengapa ini tidak semestinya boleh dilaksanakan.

Pertimbangkan kesukaran ini:

  • Human-in-the-loop mungkin tidak cukup pantas untuk bertindak balas tepat pada masanya
  • Human-in-the-loop mungkin tidak mempunyai maklumat yang mencukupi untuk bertindak balas dengan patuh
  • Human-in-the-loop mungkin tidak tersedia pada masa yang diperlukan
  • Human-in-the-loop mungkin tidak membuat keputusan dan tidak akan bertindak apabila diperlukan
  • Human-in-the-loop mungkin membuat keputusan "salah" (secara relatif)
  • Human-in-the-loop mungkin tidak boleh diakses daripada sistem pada masa yang diperlukan
  • Human-in-the-loop mungkin keliru dan terharu
  • Dll

Anda sudah pasti tergoda untuk melihat senarai kelemahan dan keterbatasan manusia itu dan kemudian membuat kesimpulan yang sungguh-sungguh bahawa masuk akal untuk mengeluarkan manusia dalam gelung dan sentiasa menggunakan AI. Ini mungkin sama ada untuk mengecualikan manusia-dalam-gelung atau mungkin mempunyai AI dapat mengatasi reka bentuk manusia-dalam-gelung yang telah tertanam. Lihat analisis saya tentang bagaimana perselisihan faham antara AI dan manusia-dalam-gelung boleh membawa kepada situasi tidak menentu, diliputi di pautan di sini.

Selalunya, senarai yang meremehkan jenis kelemahan tertumpu manusia masa nyata ini dibiarkan dengan sendirinya dan meninggalkan kesan yang berlarutan bahawa AI entah bagaimana mesti melompat dan menghadkan pilihan yang lebih bijak daripada mempunyai manusia-dalam-gelung . Jangan jatuh ke dalam perangkap khianat itu. Terdapat pertukaran yang serius yang terlibat.

Pertimbangkan kesan AI ini:

  • AI mungkin menghadapi ralat yang menyebabkan ia sesat
  • AI mungkin terharu dan terkunci secara tidak responsif
  • AI mungkin mengandungi pepijat pembangun yang menyebabkan tingkah laku tidak menentu
  • AI mungkin rosak dengan virus penjahat yang ditanam
  • AI mungkin diambil alih oleh penggodam siber dalam masa nyata
  • AI mungkin dianggap tidak dapat diramalkan kerana kerumitan
  • AI mungkin secara pengiraan membuat keputusan "salah" (secara relatif)
  • Dll

Saya percaya bahawa anda dapat melihat bahawa terdapat pertukaran antara menggunakan manusia-dalam-gelung berbanding bergantung sepenuhnya pada AI. Sekiranya anda tergoda untuk mencadangkan bahawa penyelesaian sedia adalah menggunakan kedua-duanya, saya hanya ingin menekankan bahawa anda boleh mendapatkan yang terbaik daripada kedua-dua dunia, tetapi anda juga boleh mendapatkan yang paling teruk daripada kedua-dua dunia. Jangan menganggap bahawa ia akan sentiasa dan pasti menjadi yang terbaik dari kedua-dua dunia.

Anda mungkin agak terkejut dengan salah satu kelemahan yang disenaraikan di atas tentang AI, khususnya bahawa AI mungkin tidak menentu. Kami sudah biasa mempercayai bahawa AI sepatutnya logik dan tepat secara matematik. Oleh itu, anda juga mungkin menjangkakan bahawa AI akan dapat diramal sepenuhnya. Kita sepatutnya tahu apa yang akan dilakukan oleh AI. Tempoh, tamat cerita.

Maaf untuk meletupkan belon itu tetapi mitos kebolehramalan ini adalah salah nama. Saiz dan kerumitan AI zaman moden selalunya adalah rawa yang tidak dapat diramalkan dengan sempurna. Ini dilihat dalam kekecohan AI Etika tentang beberapa penggunaan Pembelajaran Mesin (ML) dan Pembelajaran Dalam (DL) hari ini. Saya akan menerangkan sedikit lagi sebentar.

Selain itu, anda mungkin ingin melihat analisis terbaru saya tentang arah aliran yang akan datang ke arah cuba memastikan sistem AI yang boleh disahkan dan dibuktikan secara matematik melalui keselamatan AI terkini, di pautan di sini.

Memikirkan Peraturan Jalan Raya

Saya telah menyebut pengertian sasaran dan sasaran, yang merupakan terminologi yang agak sarat yang patut diberi perhatian.

Kita boleh renungkan ini:

  • Sasaran iaitu manusia
  • Sasaran yang bukan manusia tetapi adalah makhluk hidup
  • Sasaran yang ditafsirkan sebagai harta

Katakan kita mempunyai sistem autonomi yang telah dipersenjatai. AI digunakan untuk membimbing sistem autonomi dan digunakan untuk persenjataan. AI melakukan segala-galanya dari A hingga Z. Tiada peruntukan untuk manusia-dalam-gelung. Dari segi penyasaran, AI akan memilih sasaran. Tidak ada pra-penyasaran yang telah ditetapkan oleh manusia. Sebaliknya, AI telah diprogramkan untuk secara amnya memastikan sama ada terdapat manusia yang akan disasarkan (mungkin mengimbas tindakan bermusuhan, jenis pakaian seragam tertentu, dan sebagainya).

Dengan saya setakat ini?

Senario ini adalah senario yang paling banyak menimbulkan bantahan mengenai sistem autonomi bersenjata.

Kebimbangan yang dinyatakan ialah AI sedang melakukan (sekurang-kurangnya) tiga perkara yang tidak sepatutnya ia lakukan:

  • Menyasarkan manusia sebagai sasaran
  • Penyasaran tanpa menggunakan manusia-dalam-gelung
  • Berpotensi bertindak tidak dapat diramalkanly

Perhatikan bahawa terdapat sebutan yang jelas tentang kebimbangan tentang AI yang tidak dapat diramalkan. Mungkin walaupun AI telah diprogramkan untuk menyasarkan jenis manusia tertentu, pengaturcaraan AI bukanlah seperti yang kami fikirkan, dan AI akhirnya menyasarkan "persahabatan" sebagai tambahan kepada mereka yang sepatutnya ditafsirkan oleh AI sebagai "bermusuhan. ” (atau, mungkin sebagai ganti). Selain itu, walaupun kita memilih untuk memasukkan peruntukan manusia dalam gelung, ketidakpastian AI mungkin bermakna apabila AI sepatutnya berunding dengan manusia dalam gelung, ia gagal melakukannya. begitu dan bertindak tanpa sebarang campur tangan manusia.

Anda mungkin mendapati minat bahawa Jawatankuasa Palang Merah Antarabangsa (ICRC) telah menawarkan kedudukan menyeluruh tiga perkara mengenai sistem senjata autonomi yang menghuraikan jenis kebimbangan ini (mengikut laman web ICRC):

1. “Sistem senjata autonomi yang tidak dapat diramalkan harus diperintah dengan jelas keluar, terutamanya kerana kesan sewenang-wenangnya. Ini paling baik dicapai dengan larangan terhadap sistem senjata autonomi yang direka atau digunakan dengan cara yang kesannya tidak dapat difahami, diramal dan dijelaskan dengan secukupnya."

2. “Berdasarkan pertimbangan etika untuk melindungi kemanusiaan, dan untuk menegakkan peraturan undang-undang kemanusiaan antarabangsa untuk perlindungan orang awam dan pejuang hors de combat, penggunaan sistem senjata autonomi untuk menyasarkan manusia harus diketepikan. Ini paling baik dicapai melalui larangan ke atas sistem senjata autonomi yang direka atau digunakan untuk menggunakan kekerasan terhadap orang."

3. “Untuk melindungi orang awam dan objek awam, menegakkan peraturan undang-undang kemanusiaan antarabangsa dan melindungi kemanusiaan, reka bentuk dan penggunaan sistem senjata autonomi yang tidak akan dilarang harus dikawal, termasuk melalui gabungan: had pada jenis sasaran, seperti mengekang mereka kepada objek yang merupakan objektif ketenteraan secara semula jadi; had pada tempoh, skop geografi dan skala penggunaan, termasuk untuk membolehkan penghakiman dan kawalan manusia berhubung dengan serangan tertentu; had pada situasi penggunaan, seperti mengekang mereka kepada situasi di mana orang awam atau objek awam tidak hadir; rkeperluan untuk interaksi manusia-mesin, terutamanya untuk memastikan penyeliaan manusia yang berkesan, dan campur tangan dan penyahaktifan yang tepat pada masanya.”

Mengenai pandangan yang berkaitan, Pertubuhan Bangsa-Bangsa Bersatu (PBB) melalui Konvensyen mengenai Senjata Konvensional Tertentu (CCW) di Geneva telah menubuhkan sebelas Prinsip Panduan tidak mengikat mengenai Senjata Autonomi Maut, seperti laporan rasmi yang disiarkan dalam talian (merangkumi rujukan kepada Kemanusiaan Antarabangsa yang berkaitan. Peruntukan undang-undang atau IHL):

(a) Undang-undang kemanusiaan antarabangsa terus digunakan sepenuhnya untuk semua sistem senjata, termasuk potensi pembangunan dan penggunaan sistem senjata autonomi yang boleh membawa maut;

(b) Tanggungjawab manusia terhadap keputusan penggunaan sistem senjata mesti dikekalkan kerana akauntabiliti tidak boleh dipindahkan kepada mesin. Ini harus dipertimbangkan dalam keseluruhan kitaran hayat sistem senjata;

(c) Interaksi manusia-mesin, yang mungkin mengambil pelbagai bentuk dan dilaksanakan pada pelbagai peringkat kitaran hayat senjata, harus memastikan bahawa potensi penggunaan sistem senjata berdasarkan teknologi baru muncul dalam bidang sistem senjata autonomi maut adalah dalam pematuhan undang-undang antarabangsa yang terpakai, khususnya IHL. Dalam menentukan kualiti dan tahap interaksi manusia-mesin, pelbagai faktor harus dipertimbangkan termasuk konteks operasi, dan ciri-ciri dan keupayaan sistem senjata secara keseluruhan;

(d) Kebertanggungjawaban untuk membangunkan, menggunakan dan menggunakan mana-mana sistem senjata yang baru muncul dalam rangka kerja CCW mesti dipastikan mengikut undang-undang antarabangsa yang terpakai, termasuk melalui pengendalian sistem sedemikian dalam rantaian perintah dan kawalan manusia yang bertanggungjawab;

(e) Selaras dengan kewajipan Negara di bawah undang-undang antarabangsa, dalam kajian, pembangunan, pemerolehan, atau penggunaan senjata baru, cara atau kaedah peperangan, penentuan mesti dibuat sama ada penggunaannya akan, dalam beberapa atau semua keadaan, menjadi. dilarang oleh undang-undang antarabangsa;

(f) Apabila membangunkan atau memperoleh sistem senjata baharu berdasarkan teknologi baru muncul dalam bidang sistem senjata autonomi maut, keselamatan fizikal, perlindungan bukan fizikal yang sesuai (termasuk keselamatan siber terhadap penggodaman atau penipuan data), risiko pemerolehan oleh kumpulan pengganas dan risiko percambahan harus dipertimbangkan;

(g) Penilaian risiko dan langkah-langkah mitigasi hendaklah menjadi sebahagian daripada kitaran reka bentuk, pembangunan, ujian dan penggunaan teknologi baru muncul dalam mana-mana sistem senjata;

(h) Pertimbangan harus diberikan kepada penggunaan teknologi baru muncul dalam bidang sistem senjata autonomi maut dalam menegakkan pematuhan IHL dan kewajipan undang-undang antarabangsa lain yang berkenaan;

(i) Dalam merangka langkah-langkah dasar yang berpotensi, teknologi baru muncul dalam bidang sistem senjata autonomi yang boleh membawa maut tidak seharusnya dijadikan antropomorfik;

(j) Perbincangan dan sebarang langkah dasar yang berpotensi diambil dalam konteks CCW tidak seharusnya menghalang kemajuan atau akses kepada penggunaan teknologi autonomi pintar secara aman;

(k) CCW menawarkan rangka kerja yang sesuai untuk menangani isu teknologi baru muncul dalam bidang sistem senjata autonomi maut dalam konteks objektif dan tujuan Konvensyen, yang bertujuan untuk mencapai keseimbangan antara keperluan ketenteraan dan pertimbangan kemanusiaan.

Kekacauan Yang Kita Temui

Pelbagai undang-undang perang, undang-undang konflik bersenjata, atau IHL (Undang-undang Kemanusiaan Antarabangsa) ini berfungsi sebagai panduan penting dan sentiasa menjanjikan untuk mempertimbangkan perkara yang mungkin kita cuba lakukan mengenai kemunculan sistem autonomi yang dipersenjatai, sama ada dengan reka bentuk batu kunci atau dengan kaedah selepas fakta.

Kami benar-benar berharap agar larangan ke atas sistem autonomi bersenjata maut akan dipatuhi dengan ketat dan patuh. Masalahnya ialah banyak ruang goyang pasti akan ditemui secara licik dalam mana-mana larangan yang paling ikhlas. Seperti yang mereka katakan, peraturan dimaksudkan untuk dilanggar. Anda boleh bertaruh bahawa apabila keadaan menjadi longgar, riffraff akan mengatasi jurang dan cuba mengenyitkan mata mengikut peraturan.

Berikut adalah beberapa kemungkinan kelemahan yang patut dipertimbangkan:

  • Tuntutan Tidak Mematikan. Buat tidak mematikan sistem senjata autonomi (nampaknya baik kerana ia berada di luar sempadan larangan), yang kemudiannya anda boleh bertukar menjadi maut (anda hanya akan melampaui larangan pada saat-saat akhir).
  • Tuntutan Sistem Autonomi Sahaja. Tegakkan larangan itu dengan tidak membuat sistem autonomi yang memfokuskan maut, sementara itu, membuat sebanyak mungkin kemajuan dalam merangka sistem autonomi harian yang belum (belum) bersenjata tetapi anda boleh mengubah suai menjadi senjata.
  • Tuntutan Tidak Bersepadu Sebagai Satu. Buat sistem autonomi yang sama sekali tidak bersenjata, dan apabila tiba masanya, persenjataan piggyback sedemikian rupa sehingga anda boleh cuba berhujah sekeras-kerasnya bahawa ia adalah dua elemen yang berasingan dan oleh itu berpendapat bahawa ia tidak termasuk dalam rubrik all-in-one. sistem senjata autonomi atau sepupunya.
  • Tuntutan Bahawa Ia Bukan Autonomi. Buat sistem senjata yang nampaknya tidak mempunyai kapasiti autonomi. Tinggalkan ruang dalam sistem yang mungkin bukan autonomi ini untuk menurunkan autonomi berasaskan AI. Apabila diperlukan, pasangkan autonomi dan anda bersedia untuk melancarkan (sehingga itu, nampaknya anda tidak melanggar larangan).
  • lain-lain

Terdapat banyak lagi kesukaran yang dinyatakan dengan cuba mengharamkan sistem senjata autonomi yang boleh membawa maut. Saya akan membincangkan beberapa lagi daripada mereka.

Sesetengah pakar berpendapat bahawa larangan tidak begitu berguna dan sebaliknya perlu ada peruntukan kawal selia. Ideanya ialah alat-alat ini akan dibenarkan tetapi dikawal ketat. Satu litani penggunaan yang sah dibentangkan, bersama dengan cara penyasaran yang sah, jenis keupayaan yang sah, perkadaran yang sah, dan seumpamanya.

Pada pandangan mereka, larangan langsung adalah seperti meletakkan kepala anda di dalam pasir dan berpura-pura bahawa gajah di dalam bilik tidak wujud. Pertikaian ini walaupun membuat darah mendidih mereka yang menentang dengan hujah bahawa dengan memulakan larangan anda dapat mengurangkan secara dramatik godaan untuk mengikuti sistem jenis ini. Pasti, ada yang akan mempamerkan larangan itu, tetapi sekurang-kurangnya diharapkan kebanyakannya tidak. Anda kemudiannya boleh menumpukan perhatian anda kepada orang yang mempamerkan dan tidak perlu memecah perhatian anda kepada semua orang.

Berputar-putar perdebatan ini berjalan.

Satu lagi kebimbangan yang sering diperhatikan ialah walaupun yang baik mematuhi larangan, yang buruk tidak akan. Ini meletakkan yang baik dalam postur yang buruk. Yang buruk akan mempunyai sistem autonomi bersenjata seperti ini dan yang baik tidak. Apabila perkara didedahkan bahawa yang buruk memilikinya, sudah terlambat untuk yang baik mengejarnya. Pendek kata, satu-satunya perkara yang bijak untuk dilakukan ialah bersedia untuk melawan api dengan api.

Terdapat juga perbalahan pencegahan klasik. Jika yang baik memilih untuk membuat sistem autonomi bersenjata, ini boleh digunakan untuk menghalang yang buruk daripada berusaha untuk terlibat dalam perebutan. Sama ada yang baik akan dipersenjatai dengan lebih baik dan dengan itu menghalang yang buruk, atau yang baik akan bersedia apabila yang buruk mungkin mendedahkan bahawa mereka telah secara sembunyi-sembunyi mencipta sistem tersebut selama ini.

Kaunter kepada kaunter ini ialah dengan membuat sistem autonomi bersenjata, anda sedang melancarkan perlumbaan senjata. Pihak lain akan berusaha untuk mendapatkan perkara yang sama. Walaupun mereka secara teknologi tidak dapat mencipta sistem sedemikian semula, mereka kini akan dapat mencuri rancangan yang "baik", merekayasa songsang keberanian berteknologi tinggi, atau meniru apa sahaja yang mereka nampak sebagai percubaan dan benar. cara untuk menyiapkan kerja.

Aha, ada yang membalas, semua ini mungkin membawa kepada pengurangan konflik dengan kemiripan antara satu sama lain. Jika pihak A mengetahui bahawa pihak B mempunyai senjata sistem autonomi yang mematikan itu, dan pihak B mengetahui bahawa pihak A mempunyai senjata itu, mereka mungkin duduk diam dan tidak terlibat. Ini mempunyai aura yang tersendiri iaitu getaran kemusnahan yang saling terjamin (MAD).

Dan sebagainya.

AI Dalam Autonomi

Mari pastikan kita berada di halaman yang sama tentang sifat AI hari ini.

Tidak ada AI hari ini yang hidup. Kami tidak mempunyai ini. Kami tidak tahu sama ada kecerdasan buatan boleh dilakukan. Tiada siapa yang boleh meramalkan dengan tepat sama ada kita akan mencapai AI sentient, mahupun sama ada AI sentient entah bagaimana secara ajaib akan timbul secara spontan dalam bentuk supernova kognitif pengiraan (biasanya dirujuk sebagai ketunggalan, lihat liputan saya di pautan di sini).

Jenis AI yang saya fokuskan terdiri daripada AI bukan makhluk yang kita ada hari ini. Jika kita mahu membuat spekulasi liar sentimen AI, perbincangan ini boleh pergi ke arah yang sangat berbeza. AI yang hidup sepatutnya berkualiti manusia. Anda perlu mempertimbangkan bahawa AI yang hidup adalah setara dengan kognitif manusia. Lebih-lebih lagi, memandangkan ada yang membuat spekulasi bahawa kita mungkin mempunyai AI super-pintar, boleh dibayangkan bahawa AI sedemikian akhirnya boleh menjadi lebih pintar daripada manusia (untuk penerokaan saya tentang AI super-pintar sebagai kemungkinan, lihat liputan di sini).

Mari kita simpan perkara yang lebih sederhana dan pertimbangkan pengiraan AI bukan makhluk hari ini.

Sedar bahawa AI hari ini tidak dapat "berfikir" dalam apa jua cara yang setanding dengan pemikiran manusia. Apabila anda berinteraksi dengan Alexa atau Siri, kapasiti perbualan mungkin kelihatan serupa dengan kapasiti manusia, tetapi realitinya ialah ia adalah pengiraan dan tidak mempunyai kognisi manusia. Era terbaru AI telah menggunakan Pembelajaran Mesin (ML) dan Pembelajaran Dalam (DL) secara meluas, yang memanfaatkan padanan corak pengiraan. Ini telah membawa kepada sistem AI yang mempunyai rupa kecenderungan seperti manusia. Sementara itu, tidak ada mana-mana AI hari ini yang mempunyai rupa akal dan juga tidak mempunyai sebarang keajaiban kognitif pemikiran manusia yang teguh.

Berhati-hati dalam membuat antropomorfosis AI hari ini.

ML/DL ialah satu bentuk padanan corak pengiraan. Pendekatan biasa ialah anda mengumpulkan data tentang tugas membuat keputusan. Anda memasukkan data ke dalam model komputer ML/DL. Model tersebut berusaha untuk mencari corak matematik. Selepas menemui corak sedemikian, jika didapati, sistem AI kemudian akan menggunakan corak tersebut apabila menemui data baharu. Selepas pembentangan data baharu, corak berdasarkan data "lama" atau sejarah digunakan untuk membuat keputusan semasa.

Saya rasa anda boleh meneka ke mana arahnya. Jika manusia yang telah membuat keputusan yang bercorak telah memasukkan berat sebelah yang tidak diingini, kemungkinan besar data tersebut mencerminkannya dengan cara yang halus tetapi ketara. Pembelajaran Mesin atau Pembelajaran Dalam padanan corak pengiraan hanya akan cuba meniru data secara matematik dengan sewajarnya. Tidak ada kesamaan akal sehat atau aspek lain dari pemodelan buatan AI.

Tambahan pula, pembangun AI mungkin tidak menyedari apa yang sedang berlaku. Matematik misteri dalam ML/DL mungkin menyukarkan untuk menghilangkan bias yang kini tersembunyi. Anda berhak berharap dan menjangkakan bahawa pembangun AI akan menguji bias yang mungkin terkubur, walaupun ini lebih rumit daripada yang kelihatan. Peluang kukuh wujud bahawa walaupun dengan ujian yang agak meluas bahawa akan terdapat berat sebelah masih tertanam dalam model padanan corak ML/DL.

Anda boleh menggunakan pepatah yang terkenal atau terkenal tentang sampah masuk sampah. Masalahnya, ini lebih mirip kepada bias-in yang secara licik diselitkan sebagai bias yang tenggelam dalam AI. Algoritma membuat keputusan (ADM) AI secara aksiomatik menjadi sarat dengan ketidaksamaan.

Tidak baik.

Dengan latar belakang asas tambahan itu, kami beralih sekali lagi kepada sistem autonomi dan topik persenjataan. Kami sebelum ini melihat bahawa AI memasuki komponen sistem autonomi dan juga boleh memasuki komponen persenjataan. AI hari ini tidak berperasaan. Ini patut diulang dan saya akan menyerlahkan ini untuk mendapatkan cerapan tambahan tentang perkara ini.

Mari kita terokai beberapa senario untuk melihat bagaimana ini merupakan pertimbangan yang penting. Saya akan keluar seketika daripada orientasi masa perang mengenai topik ini dan mempamerkan cara ia meresap ke dalam banyak lingkungan sosial yang lain. Mantapkan diri anda dengan sewajarnya.

Sistem autonomi berasaskan AI seperti kenderaan autonomi yang akan kami katakan tiada kaitan dengan senjata sedang berjalan di seluruh kawasan biasa. Seorang manusia datang untuk menggunakan kenderaan autonomi itu. Orang itu bersenjatakan senjata firasat. Anggapkan untuk perbincangan dalam senario khusus ini bahawa orang itu mempunyai sesuatu yang tidak diingini dalam fikiran. Orang itu masuk ke dalam kenderaan autonomi (membawa senjata mereka, disembunyikan atau tidak disembunyikan, sama ada dengan cara).

Kenderaan autonomi meneruskan ke mana-mana destinasi yang diminta oleh penunggang. Dalam kes ini, AI hanya memprogramkan penumpang ini dari satu lokasi pikap ke destinasi yang ditetapkan, sama seperti yang telah dilakukan selama mungkin berpuluh-puluh atau beratus-ratus perjalanan, setiap hari.

Jika ini adalah pemandu manusia dan kenderaan yang dipandu manusia, mungkin ada kemungkinan pemandu manusia itu menyedari bahawa penumpang itu bersenjata dan nampaknya mempunyai niat yang tidak diingini. Pemandu manusia mungkin enggan memandu kenderaan itu. Atau pemandu manusia mungkin memandu ke balai polis. Atau mungkin pemandu manusia mungkin cuba menundukkan penumpang bersenjata (contoh yang dilaporkan wujud) atau menghalang penumpang daripada menggunakan senjata mereka. Ia agak rumit, dan sebarang variasi boleh wujud. Anda akan sukar untuk menegaskan bahawa hanya ada satu jawapan yang tepat untuk menyelesaikan masalah sedemikian. Malangnya, keadaan itu menjengkelkan dan jelas berbahaya.

AI dalam kes ini tidak mungkin diprogramkan untuk mana-mana jenis kemungkinan tersebut. Pendek kata, penumpang bersenjata mungkin boleh menggunakan senjata mereka, berbuat demikian dari dalam kenderaan autonomi, semasa perjalanan memandu. Sistem pemanduan AI akan terus bergerak dan kenderaan autonomi akan terus menuju ke penetapan penumpang yang dinyatakan (dengan mengandaikan bahawa destinasi itu tidak dianggap di luar sempadan).

Kebanyakan sistem pemanduan AI kontemporari hanya akan memfokuskan secara pengiraan pada jalan raya dan bukan pada usaha penunggang.

Perkara boleh menjadi lebih teruk daripada ini.

Katakan seseorang ingin membawa banyak barangan runcit ke tempat yang mengambil makanan tambahan untuk mereka yang memerlukan. Orang itu meminta kenderaan autonomi dan meletakkan beg barangan runcit ke tempat duduk belakang kenderaan. Mereka tidak akan pergi bersama-sama untuk perjalanan dan hanya menggunakan kenderaan autonomi untuk menghantar beg makanan untuk mereka.

Nampak sangat baik.

Bayangkan bahawa orang yang kurang ajar memilih untuk meletakkan beberapa bentuk persenjataan ke dalam kenderaan autonomi dan bukannya tanggapan yang lebih aman tentang beg runcit. Saya fikir anda boleh meneka apa yang mungkin berlaku. Ini adalah kebimbangan yang saya ajak berulang kali dalam ruangan saya dan memberi amaran awal bahawa kita perlu mengatasinya lebih awal daripada kemudian.

Satu tindak balas yang ditawarkan kepada jenis senario ini ialah mungkin semua kenderaan autonomi boleh diprogramkan untuk menggunakan kamera mereka dan penderia lain untuk mencuba dan mengesan sama ada bakal penumpang bersenjata dan mempunyai niat jahat. Mungkin AI akan diprogramkan untuk melakukan ini. Atau AI secara elektronik dan senyap memberi amaran kepada pengendali manusia jauh yang kemudiannya akan melalui kamera secara visual dan sebaliknya memeriksa dan mungkin berinteraksi dengan penumpang. Ini semua adalah sebahagian daripada tin cacing yang kompleks dan berpotensi sukar dikawal, sehingga menimbulkan isu privasi yang sengit dan pelbagai kebimbangan AI Etika berpotensi lain. Lihat liputan saya di pautan di sini.

Alternatif lain yang agak serupa ialah AI mengandungi beberapa jenis pengaturcaraan etika terbenam yang cuba membolehkan AI membuat pertimbangan etika atau moral yang biasanya dikhaskan untuk pembuat keputusan manusia. Saya telah meneliti jenis pembuatan peramal etika pengiraan tertanam AI ini, lihat pautan di sini and pautan di sini.

Berbalik kepada senario medan perang, bayangkan bahawa sistem senjata autonomi maut sedang melayari zon pertempuran. AI mengendalikan sistem autonomi. AI mengendalikan senjata di atas kapal. Kami sebelum ini telah membayangkan kemungkinan bahawa AI mungkin diprogramkan untuk mengimbas pergerakan yang kelihatan bermusuhan atau penunjuk lain sasaran manusia yang dianggap sebagai pejuang yang sah.

Sekiranya AI yang sama ini mempunyai beberapa jenis komponen berorientasikan etika yang berusaha untuk mempertimbangkan secara pengiraan perkara yang mungkin dilakukan oleh manusia dalam gelung, bertindak dalam erti kata sebagai pengganti mempunyai manusia dalam gelung?

Ada yang berkata ya, mari kita kejar ini. Ada yang berundur ketakutan dan mengatakan ia sama ada mustahil atau sebaliknya melanggar kesucian kemanusiaan.

Satu lagi tin cacing.

Kesimpulan

Bagi anda yang berminat dengan topik ini, banyak lagi yang perlu dibincangkan.

Saya akan memberi anda rasa cepat tentang satu teka-teki yang mengganggu.

Kami biasanya menjangkakan bahawa manusia akhirnya akan bertanggungjawab atas apa sahaja yang berlaku semasa perang. Jika AI mengawal sistem senjata autonomi atau mengawal sistem autonomi yang mungkin telah dipersenjatai, dan sistem ini melakukan sesuatu di medan perang yang dipercayai tidak wajar, siapa atau apa yang harus dipersalahkan untuk ini?

Anda mungkin berpendapat bahawa AI harus bertanggungjawab. Tetapi, jika ya, apakah maksudnya sebenarnya? Kami belum lagi menganggap AI hari ini sebagai penjelmaan keperibadian undang-undang, lihat penjelasan saya di pautan di sini. Tiada menyematkan ekor pada keldai dalam kes AI. Mungkin jika AI suatu hari nanti menjadi peka, anda boleh cuba melakukannya. Sehingga itu, ini adalah sedikit jangkauan (tambahan, jenis penalti atau kesan yang akan dikenakan AI, lihat analisis saya di pautan di sini and pautan di sini, sebagai contoh).

Jika AI bukan suspek yang bertanggungjawab, kita mungkin secara semula jadi akan mengatakan bahawa apa sahaja manusia atau manusia yang mencipta AI harus bertanggungjawab. Bolehkah anda melakukan ini jika AI hanya menjalankan sistem autonomi dan beberapa manusia datang yang menggabungkannya dengan persenjataan? Adakah anda mengejar pembangun AI? Atau mereka yang menggunakan AI? Atau hanya pelakon senjata?

Saya percaya anda mendapat idea bahawa saya hanya menyentuh puncak gunung ais dalam perbincangan hangat saya.

Buat masa ini, mari kita ke hadapan dan menggulung wacana ini. Anda mungkin masih ingat bahawa John Lyly masuk Euphues: The Anatomy Of Wit pada tahun 1578 dengan tidak dapat dilupakan menyatakan bahawa semuanya adil dalam cinta dan peperangan.

Adakah dia akan memikirkan kemunculan sistem senjata autonomi dan begitu juga kemunculan sistem autonomi yang dipersenjatai?

Kita pastinya perlu meletakkan perkara ini di atas fikiran kita dengan segera.

Sumber: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- sistem-senjata-dan-eksploitasi-sistem-autonomi-didorong-ai-yang-bersenjata-syaitan/