Etika AI Dan Undang-undang AI Menanyakan Soalan Sulit Mengenai Ikrar Baru Itu Dengan Menari Pembuat Robot Mengatakan Mereka Akan Mengelakkan Senjata AI

Anda mungkin pernah melihat minggu lepas dalam berita atau perasan di media sosial ikrar yang diumumkan oleh beberapa pembuat robot tentang tujuan mereka yang mengaku untuk mengelakkan penggunaan senjata AI bagi robot tujuan umum. Saya akan memberitahu anda butirannya sebentar lagi, jadi jangan risau jika anda tidak mengetahui perkara itu.

Reaksi terhadap pengisytiharan ini adalah pantas dan, mungkin seperti biasa dalam masyarakat kita yang terpolarisasi, menjadi pujian dan ada kalanya mengkritik atau meragui secara mengejek.

Ia adalah kisah dua dunia.

Dalam satu dunia, ada yang mengatakan bahawa inilah yang kita perlukan bertanggungjawab Pemaju robot AI untuk mengisytiharkan.

Syukurlah kerana berada di pihak yang betul dalam isu yang secara beransur-ansur akan semakin ketara dan lebih membimbangkan. Robot menari yang comel itu merisaukan kerana agak mudah untuk menggerakkan semula mereka untuk membawa senjata dan digunakan dengan cara yang paling teruk (anda boleh menyemaknya sendiri dengan pergi ke media sosial dan terdapat banyak video yang mempamerkan robot menari yang bersenjatakan mesingan dan persenjataan lain).

Bahagian lain syiling ini mengatakan bahawa apa yang dipanggil ikrar tidak lebih daripada muslihat pemasaran atau perhubungan awam (sebagai nota sampingan, adakah sesiapa yang biasa dengan perbezaan antara ikrar dan derma?). Bagaimanapun, mereka yang ragu-ragu menggesa bahawa ini adalah isyarat kebaikan yang tidak terkawal dalam konteks robot menari. Anda lihat, meratapi hakikat bahawa robot tujuan umum boleh dipersenjatai sudah tentu merupakan pertimbangan yang berbaloi dan dicari-cari, walaupun sekadar mendakwa bahawa pembuat tidak akan berbuat demikian berkemungkinan satu janji kosong, sesetengah pihak menegaskan.

Secara keseluruhannya, keseluruhan perkara ini membawakan satu set pertimbangan Etika AI dan Undang-undang AI yang cukup besar. Kami akan membongkar topik ini dengan teliti dan melihat bagaimana ini adalah dua serangan terhadap kekacauan AI yang beretika dan sah. Untuk liputan berterusan dan meluas saya tentang Etika AI dan Undang-undang AI, lihat pautan di sini and pautan di sini, Hanya untuk menamakan beberapa.

Saya juga akan merujuk sepanjang perbincangan ini kepada analisis terdahulu saya tentang bahaya penggunaan senjata AI, seperti penilaian mendalam saya di pautan di sini. Anda mungkin ingin melihat wacana itu untuk mendapatkan butiran tambahan di belakang tabir.

Surat Terbuka Yang Membuka Tin Cacing

Mari kita mulakan analisis ini dengan melakukan penerokaan langkah demi langkah yang teliti terhadap Surat Terbuka yang diterbitkan baru-baru ini oleh enam pembuat robot termaju yang agak terkenal, iaitu Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics dan Unitree. Pada umumnya, saya meneka bahawa anda telah melihat terutamanya robot Boston Dynamics, seperti robot yang berlari-lari dengan merangkak. Mereka kelihatan seolah-olah mereka seperti anjing dan kami gembira melihat mereka berpusing-pusing.

Seperti yang telah saya amaran sebelum ini dan berulang kali, penggunaan robot "menari" sedemikian sebagai cara untuk meyakinkan orang ramai bahawa robot ini comel dan comel menyedihkan mengelirukan dan menyeleweng ke dalam perangkap yang berlimpah untuk mentransformasikannya. Kami mula memikirkan kepingan logam dan plastik yang mengeras ini seolah-olah ia adalah setara dengan anjing yang setia dipeluk. Kesediaan kami untuk menerima robot ini adalah berdasarkan rasa selamat dan jaminan yang palsu. Sudah tentu, anda perlu membuat banyak wang dan kemungkinan untuk berbuat demikian dipertingkatkan dengan berarak mengelilingi robot menari, tetapi ini sayangnya meninggalkan atau seolah-olah menyembunyikan fakta sebenar bahawa robot ini adalah robot dan AI yang mengawal robot boleh direka secara salah. atau terkial-kial.

Pertimbangkan kesan AI ini (dipetik daripada artikel saya tentang persenjataan AI, ditemui di pautan di sini):

  • AI mungkin menghadapi ralat yang menyebabkan ia sesat
  • AI mungkin terharu dan terkunci secara tidak responsif
  • AI mungkin mengandungi pepijat pembangun yang menyebabkan tingkah laku tidak menentu
  • AI mungkin rosak dengan virus penjahat yang ditanam
  • AI mungkin diambil alih oleh penggodam siber dalam masa nyata
  • AI mungkin dianggap tidak dapat diramalkan kerana kerumitan
  • AI mungkin secara pengiraan membuat keputusan "salah" (secara relatif)
  • Dll

Itu adalah perkara mengenai AI yang merupakan jenis yang benar-benar direka semasa permulaan untuk melakukan perkara yang betul.

Selain daripada pertimbangan tersebut, anda perlu memasukkan sistem AI yang dibuat dari awal untuk melakukan perkara yang tidak baik. Anda boleh mempunyai AI yang dibuat untuk tujuan yang berfaedah, sering dirujuk sebagai AI Untuk Kebaikan. Anda juga boleh mempunyai AI yang sengaja dibuat untuk tujuan yang tidak baik, dikenali sebagai AI Untuk Buruk. Tambahan pula, anda boleh mempunyai AI Untuk Kebaikan yang rosak atau diubah menjadi menjadi AI Untuk Buruk.

Ngomong-ngomong, semua ini tidak ada kaitan dengan AI menjadi peka, yang saya nyatakan kerana ada yang terus berteriak bahawa AI hari ini sama ada berperasaan atau hampir menjadi makhluk. Tidak begitu. Saya membahagikan mitos tersebut dalam analisis saya di pautan di sini.

Mari kita pastikan bahawa kita berada di halaman yang sama tentang sifat AI hari ini.

Tidak ada AI hari ini yang hidup. Kami tidak mempunyai ini. Kami tidak tahu sama ada kecerdasan buatan boleh dilakukan. Tiada siapa yang boleh meramalkan dengan tepat sama ada kita akan mencapai AI sentient, mahupun sama ada AI sentient entah bagaimana secara ajaib akan timbul secara spontan dalam bentuk supernova kognitif pengiraan (biasanya dirujuk sebagai ketunggalan, lihat liputan saya di pautan di sini).

Jenis AI yang saya fokuskan terdiri daripada AI bukan makhluk yang kita ada hari ini. Jika kita ingin membuat spekulasi liar tentang AI yang hidup, perbincangan ini boleh pergi ke arah yang sangat berbeza. AI yang hidup sepatutnya berkualiti manusia. Anda perlu mempertimbangkan bahawa AI yang hidup adalah setara dengan kognitif manusia. Lebih-lebih lagi, memandangkan sesetengah orang membuat spekulasi bahawa kita mungkin mempunyai AI super-pintar, boleh dibayangkan bahawa AI sedemikian akhirnya boleh menjadi lebih pintar daripada manusia (untuk penerokaan saya tentang AI super-pintar sebagai kemungkinan, lihat liputan di sini).

Saya amat menyarankan agar kita menyimpan perkara-perkara di bawah ke bumi dan mempertimbangkan AI bukan perasaan pengiraan hari ini.

Sedar bahawa AI hari ini tidak dapat "berfikir" dalam apa jua cara yang setanding dengan pemikiran manusia. Apabila anda berinteraksi dengan Alexa atau Siri, kapasiti perbualan mungkin kelihatan serupa dengan kapasiti manusia, tetapi realitinya ialah ia adalah pengiraan dan tidak mempunyai kognisi manusia. Era terbaru AI telah menggunakan Pembelajaran Mesin (ML) dan Pembelajaran Dalam (DL) secara meluas, yang memanfaatkan padanan corak pengiraan. Ini telah membawa kepada sistem AI yang mempunyai rupa kecenderungan seperti manusia. Sementara itu, tidak ada mana-mana AI hari ini yang mempunyai rupa akal dan juga tidak mempunyai sebarang keajaiban kognitif pemikiran manusia yang teguh.

Berhati-hati dalam membuat antropomorfosis AI hari ini.

ML/DL ialah satu bentuk padanan corak pengiraan. Pendekatan biasa ialah anda mengumpulkan data tentang tugas membuat keputusan. Anda memasukkan data ke dalam model komputer ML/DL. Model tersebut berusaha untuk mencari corak matematik. Selepas menemui corak sedemikian, jika didapati, sistem AI kemudian akan menggunakan corak tersebut apabila menemui data baharu. Selepas pembentangan data baharu, corak berdasarkan data "lama" atau sejarah digunakan untuk membuat keputusan semasa.

Saya rasa anda boleh meneka ke mana arahnya. Jika manusia yang telah membuat keputusan yang bercorak telah memasukkan berat sebelah yang tidak diingini, kemungkinan besar data tersebut mencerminkannya dengan cara yang halus tetapi ketara. Pembelajaran Mesin atau Pembelajaran Dalam padanan corak pengiraan hanya akan cuba meniru data secara matematik dengan sewajarnya. Tidak ada kesamaan akal sehat atau aspek lain dari pemodelan buatan AI.

Tambahan pula, pembangun AI mungkin tidak menyedari apa yang sedang berlaku. Matematik misteri dalam ML/DL mungkin menyukarkan untuk menghilangkan bias yang kini tersembunyi. Anda berhak berharap dan menjangkakan bahawa pembangun AI akan menguji bias yang mungkin terkubur, walaupun ini lebih rumit daripada yang kelihatan. Peluang yang kukuh wujud walaupun dengan ujian yang agak meluas bahawa akan terdapat berat sebelah masih tertanam dalam model padanan corak ML/DL.

Anda boleh menggunakan pepatah yang terkenal atau terkenal tentang sampah masuk sampah. Masalahnya, ini lebih mirip kepada bias-in yang secara licik diselitkan sebagai bias yang tenggelam dalam AI. Algoritma membuat keputusan (ADM) AI secara aksiomatik menjadi sarat dengan ketidaksamaan.

Tidak baik.

Semua ini mempunyai implikasi Etika AI yang ketara dan menawarkan tetingkap berguna ke dalam pelajaran yang dipelajari (walaupun sebelum semua pelajaran berlaku) apabila cuba menggubal AI.

Selain menggunakan peraturan Etika AI secara umum, terdapat persoalan yang sepadan sama ada kita harus mempunyai undang-undang untuk mengawal pelbagai penggunaan AI. Undang-undang baharu sedang dibicarakan di peringkat persekutuan, negeri dan tempatan yang membimbangkan julat dan sifat cara AI harus dicipta. Usaha untuk merangka dan menggubal undang-undang tersebut adalah secara beransur-ansur. Etika AI berfungsi sebagai perhentian yang dianggap, sekurang-kurangnya, dan hampir pasti pada tahap tertentu akan dimasukkan secara langsung ke dalam undang-undang baharu tersebut.

Harap maklum bahawa sesetengah pihak bertegas berhujah bahawa kita tidak memerlukan undang-undang baharu yang meliputi AI dan undang-undang sedia ada adalah mencukupi. Mereka memberi amaran bahawa jika kita menggubal beberapa undang-undang AI ini, kita akan membunuh angsa emas dengan mengekang kemajuan dalam AI yang menawarkan kelebihan masyarakat yang besar.

Dalam lajur sebelumnya, saya telah membincangkan pelbagai usaha nasional dan antarabangsa untuk merangka dan menggubal undang-undang yang mengawal selia AI, lihat pautan di sini, sebagai contoh. Saya juga telah merangkumi pelbagai prinsip dan garis panduan Etika AI yang telah dikenal pasti dan diterima pakai oleh pelbagai negara, termasuk contohnya usaha Pertubuhan Bangsa-Bangsa Bersatu seperti set Etika AI UNESCO yang diterima pakai oleh hampir 200 negara, lihat pautan di sini.

Berikut ialah senarai kunci penting bagi kriteria atau ciri AI Etika berkenaan sistem AI yang telah saya terokai dengan teliti sebelum ini:

  • Ketelusan
  • Keadilan & Kesaksamaan
  • Non-Maleficence
  • tanggungjawab
  • Privasi
  • Kebaikan
  • Kebebasan & Autonomi
  • Amanah
  • Sustainability
  • Martabat
  • Perpaduan

Prinsip Etika AI tersebut sepatutnya digunakan secara bersungguh-sungguh oleh pembangun AI, bersama-sama dengan prinsip-prinsip yang menguruskan usaha pembangunan AI, dan juga prinsip-prinsip yang akhirnya meletakkan dan melaksanakan penyelenggaraan pada sistem AI.

Semua pihak berkepentingan sepanjang keseluruhan kitaran hayat pembangunan dan penggunaan AI dianggap dalam skop pematuhan dengan norma AI Etika yang telah ditetapkan. Ini adalah sorotan penting kerana andaian biasa ialah "pengekod sahaja" atau mereka yang memprogramkan AI tertakluk kepada pematuhan kepada tanggapan Etika AI. Seperti yang ditekankan di sini sebelum ini, ia memerlukan sebuah kampung untuk mencipta dan membina AI, dan untuk itu seluruh kampung perlu dikuasai dan mematuhi peraturan Etika AI.

Sekarang saya telah meletakkan asas yang berguna untuk memasuki Surat Terbuka, kami bersedia untuk menyelami.

Tajuk mata pelajaran rasmi Surat Terbuka adalah ini:

  • "Surat Terbuka kepada Industri Robotik dan Komuniti kita, Robot Tujuan Am Tidak Harus Disenjata” (seperti yang disiarkan dalam talian).

Setakat ini, sangat baik.

Tajuknya hampir kelihatan seperti ais krim dan pai epal. Bagaimanakah sesiapa boleh mempertikaikan ini sebagai panggilan dahulu untuk mengelakkan penggunaan robot AI?

Teruskan membaca untuk melihat.

Pertama, sebagai bahan pertimbangan, berikut ialah perenggan pembukaan rasmi Surat Terbuka:

  • “Kami adalah beberapa syarikat terkemuka dunia yang berdedikasi untuk memperkenalkan generasi baharu robotik mudah alih termaju kepada masyarakat. Robot generasi baharu ini lebih mudah diakses, lebih mudah untuk dikendalikan, lebih autonomi, mampu milik dan boleh disesuaikan daripada generasi sebelumnya, serta mampu menavigasi ke lokasi yang sebelum ini tidak boleh diakses oleh teknologi automatik atau kawalan jauh. Kami percaya bahawa robot mudah alih termaju akan memberikan manfaat yang besar kepada masyarakat sebagai rakan sekerja dalam industri dan teman di rumah kami” (seperti yang disiarkan dalam talian).

Sisi cerah untuk kemunculan jenis robot ini ialah kita boleh menjangkakan banyak faedah besar akan muncul. Tidak syak lagi. Anda mungkin mempunyai robot di rumah anda yang boleh melakukan aktiviti seperti Jetson seperti membersihkan rumah anda, mencuci pinggan mangkuk dan kerja-kerja lain di sekeliling rumah. Kami akan mempunyai robot canggih untuk digunakan di kilang dan kemudahan pembuatan. Robot berpotensi merangkak atau bergerak ke ruang sempit seperti apabila bangunan runtuh dan nyawa manusia dipertaruhkan untuk diselamatkan. Dan sebagainya.

Di samping itu, anda mungkin mendapati liputan mata kritikal saya baru-baru ini mengenai Hari AI Tesla, di mana beberapa jenis robot berjalan telah digambarkan oleh Elon Musk sebagai masa depan untuk Tesla dan masyarakat, lihat pautan di sini.

Berbalik kepada perkara yang dihadapi. Apabila serius membincangkan robot menari atau robot berjalan, kita perlu mengambil kira secara bertimbang rasa atau jumlah ROI (Pulangan Pelaburan) penggunaan AI ini. Kita tidak seharusnya membiarkan diri kita terlalu terpikat dengan faedah apabila terdapat juga kos yang perlu dipertimbangkan.

Mainan baru yang berkilat boleh mempunyai tepi yang agak tajam.

Semua ini mendorong titik penting tetapi agak senyap bahawa sebahagian daripada sebab isu persenjataan AI timbul sekarang adalah disebabkan oleh kemajuan AI ke arah aktiviti autonomi. Kami biasanya menjangkakan bahawa senjata biasanya dikendalikan oleh manusia. Seorang manusia membuat keputusan sama ada untuk menembak atau menggunakan senjata itu. Kita mungkin boleh menganggap manusia itu bertanggungjawab atas tindakan mereka.

AI yang direka untuk bekerja secara autonomi atau yang boleh ditipu untuk berbuat demikian nampaknya akan mengeluarkan manusia daripada gelung. AI kemudiannya secara algoritma membuat keputusan pengiraan yang akhirnya boleh membunuh atau membahayakan manusia. Selain kebimbangan yang jelas tentang kekurangan kawalan ke atas AI, anda juga mempunyai keraguan bahawa kami mungkin mempunyai masa yang sukar untuk menyematkan tanggungjawab terhadap tindakan AI. Kami tidak mempunyai manusia yang menjadi penghasut kami yang jelas.

Saya sedar bahawa sesetengah pihak percaya bahawa kita harus secara mudah dan terus menganggap AI bertanggungjawab ke atas tindakannya, seolah-olah AI telah mencapai kesedaran atau sebaliknya telah diberikan keperibadian undang-undang (lihat liputan saya tentang perdebatan mengenai AI yang memperoleh keperibadian undang-undang di pautan di sini). Itu tidak akan berfungsi buat masa ini. Kita perlu mengesan AI kepada manusia yang sama ada menciptanya atau yang meletakkannya. Mereka sudah pasti akan cuba mengelak tanggungjawab secara sah dengan cuba menegaskan bahawa AI melampaui apa yang mereka bayangkan. Ini adalah perbalahan yang semakin meningkat yang perlu kita tangani (lihat tulisan Undang-undang AI saya untuk mendapatkan pandangan tentang isu perbalahan yang terlibat).

Pertubuhan Bangsa-Bangsa Bersatu (PBB) melalui Konvensyen mengenai Senjata Konvensional Tertentu (CCW) di Geneva telah menetapkan sebelas Prinsip Panduan yang tidak mengikat mengenai Senjata Autonomi Mematikan, seperti dalam laporan rasmi yang disiarkan dalam talian (merangkumi rujukan kepada Undang-undang Kemanusiaan Antarabangsa atau provis IHL yang berkaitan) , termasuk:

(a) Undang-undang kemanusiaan antarabangsa terus digunakan sepenuhnya untuk semua sistem senjata, termasuk potensi pembangunan dan penggunaan sistem senjata autonomi yang boleh membawa maut;

(b) Tanggungjawab manusia terhadap keputusan penggunaan sistem senjata mesti dikekalkan kerana akauntabiliti tidak boleh dipindahkan kepada mesin. Ini harus dipertimbangkan dalam keseluruhan kitaran hayat sistem senjata;

(c) Interaksi manusia-mesin, yang mungkin mengambil pelbagai bentuk dan dilaksanakan pada pelbagai peringkat kitaran hayat senjata, harus memastikan bahawa potensi penggunaan sistem senjata berdasarkan teknologi baru muncul dalam bidang sistem senjata autonomi maut adalah dalam pematuhan undang-undang antarabangsa yang terpakai, khususnya IHL. Dalam menentukan kualiti dan tahap interaksi manusia-mesin, pelbagai faktor harus dipertimbangkan termasuk konteks operasi, dan ciri-ciri dan keupayaan sistem senjata secara keseluruhan;

(d) Kebertanggungjawaban untuk membangunkan, menggunakan dan menggunakan mana-mana sistem senjata yang baru muncul dalam rangka kerja CCW mesti dipastikan mengikut undang-undang antarabangsa yang terpakai, termasuk melalui pengendalian sistem sedemikian dalam rantaian perintah dan kawalan manusia yang bertanggungjawab;

(e) Selaras dengan kewajipan Negara di bawah undang-undang antarabangsa, dalam kajian, pembangunan, pemerolehan, atau penggunaan senjata baru, cara atau kaedah peperangan, penentuan mesti dibuat sama ada penggunaannya akan, dalam beberapa atau semua keadaan, menjadi. dilarang oleh undang-undang antarabangsa;

(f) Apabila membangunkan atau memperoleh sistem senjata baharu berdasarkan teknologi baru muncul dalam bidang sistem senjata autonomi maut, keselamatan fizikal, perlindungan bukan fizikal yang sesuai (termasuk keselamatan siber terhadap penggodaman atau penipuan data), risiko pemerolehan oleh kumpulan pengganas dan risiko percambahan harus dipertimbangkan;

(g) Penilaian risiko dan langkah-langkah mitigasi hendaklah menjadi sebahagian daripada kitaran reka bentuk, pembangunan, ujian dan penggunaan teknologi baru muncul dalam mana-mana sistem senjata;

(h) Pertimbangan harus diberikan kepada penggunaan teknologi baru muncul dalam bidang sistem senjata autonomi maut dalam menegakkan pematuhan IHL dan kewajipan undang-undang antarabangsa lain yang berkenaan;

(i) Dalam merangka langkah-langkah dasar yang berpotensi, teknologi baru muncul dalam bidang sistem senjata autonomi yang boleh membawa maut tidak seharusnya dijadikan antropomorfik;

(j) Perbincangan dan sebarang langkah dasar yang berpotensi diambil dalam konteks CCW tidak seharusnya menghalang kemajuan atau akses kepada penggunaan teknologi autonomi pintar secara aman;

(k) CCW menawarkan rangka kerja yang sesuai untuk menangani isu teknologi baru muncul dalam bidang sistem senjata autonomi maut dalam konteks objektif dan tujuan Konvensyen, yang bertujuan untuk mencapai keseimbangan antara keperluan ketenteraan dan pertimbangan kemanusiaan.

Ini dan pelbagai undang-undang perang dan undang-undang konflik bersenjata yang lain, atau IHL (Undang-undang Kemanusiaan Antarabangsa) berfungsi sebagai panduan penting dan sentiasa menjanjikan untuk mempertimbangkan perkara yang mungkin kita cuba lakukan mengenai kemunculan sistem autonomi yang dipersenjatai, sama ada dengan batu kunci. reka bentuk atau melalui kaedah selepas fakta.

Ada yang mengatakan kita harus mengharamkan secara terang-terangan sistem autonomi AI yang boleh dipersenjatai. Betul, dunia harus meletakkan kakinya dan dengan tegas menuntut bahawa sistem autonomi AI tidak boleh dipersenjatai. Larangan total akan dikenakan. Tamat cerita. Noktah, noktah.

Baiklah, kami benar-benar berharap agar larangan terhadap sistem autonomi yang menggunakan senjata maut akan dipatuhi dengan ketat dan patuh. Masalahnya ialah banyak ruang goyang pasti akan ditemui secara licik dalam mana-mana larangan yang paling ikhlas. Seperti yang mereka katakan, peraturan dimaksudkan untuk dilanggar. Anda boleh bertaruh bahawa apabila keadaan menjadi longgar, riffraff akan mengatasi jurang dan cuba mengenyitkan mata mengikut peraturan.

Berikut adalah beberapa kemungkinan kelemahan yang patut dipertimbangkan:

  • Tuntutan Tidak Mematikan. Buat sistem senjata autonomi yang tidak boleh membawa maut (nampaknya baik kerana ia berada di luar sempadan larangan), yang kemudiannya anda boleh bertukar menjadi maut (anda hanya akan melampaui larangan pada saat-saat akhir).
  • Tuntutan Sistem Autonomi Sahaja. Tegakkan larangan itu dengan tidak membuat sistem autonomi yang memfokuskan maut, sementara itu, membuat sebanyak mungkin kemajuan dalam merangka sistem autonomi harian yang belum (belum) bersenjata tetapi anda boleh mengubah suai menjadi senjata.
  • Tuntutan Tidak Bersepadu Sebagai Satu. Buat sistem autonomi yang sama sekali tidak dipersenjatai, dan apabila tiba masanya, persenjataan piggyback sedemikian rupa sehingga anda boleh cuba berhujah sekeras-kerasnya bahawa ia adalah dua elemen yang berasingan dan oleh itu berpendapat bahawa ia tidak termasuk dalam rubrik all-in-one. sistem senjata autonomi atau sepupunya.
  • Tuntutan Bahawa Ia Bukan Autonomi. Buat sistem senjata yang nampaknya tidak mempunyai kapasiti autonomi. Tinggalkan ruang dalam sistem yang mungkin bukan autonomi ini untuk menurunkan autonomi berasaskan AI. Apabila diperlukan, pasangkan autonomi dan anda bersedia untuk melancarkan (sehingga itu, nampaknya anda tidak melanggar larangan).
  • lain-lain

Terdapat banyak lagi kesukaran yang dinyatakan dengan cuba mengharamkan sistem senjata autonomi yang boleh membawa maut. Saya akan membincangkan beberapa lagi daripada mereka.

Sesetengah pakar berpendapat bahawa larangan tidak begitu berguna dan sebaliknya perlu ada peruntukan kawal selia. Ideanya ialah alat-alat ini akan dibenarkan tetapi dikawal ketat. Satu litani penggunaan yang sah dibentangkan, bersama dengan cara penyasaran yang sah, jenis keupayaan yang sah, perkadaran yang sah, dan seumpamanya.

Pada pandangan mereka, larangan langsung adalah seperti meletakkan kepala anda di dalam pasir dan berpura-pura bahawa gajah di dalam bilik tidak wujud. Pertikaian ini walaupun membuat darah mendidih mereka yang menentang dengan hujah bahawa dengan memulakan larangan anda dapat mengurangkan secara dramatik godaan untuk mengikuti sistem jenis ini. Pasti, ada yang akan mempamerkan larangan itu, tetapi sekurang-kurangnya diharapkan kebanyakannya tidak. Anda kemudiannya boleh menumpukan perhatian anda kepada orang yang mempamerkan dan tidak perlu memecah perhatian anda kepada semua orang.

Berputar-putar perdebatan ini berjalan.

Satu lagi kebimbangan yang sering diperhatikan ialah walaupun yang baik mematuhi larangan, yang buruk tidak akan. Ini meletakkan yang baik dalam postur yang buruk. Yang buruk akan mempunyai sistem autonomi bersenjata seperti ini dan yang baik tidak. Apabila perkara didedahkan bahawa yang buruk memilikinya, sudah terlambat untuk yang baik mengejarnya. Pendek kata, satu-satunya perkara yang bijak untuk dilakukan ialah bersedia untuk melawan api dengan api.

Terdapat juga perbalahan pencegahan klasik. Jika yang baik memilih untuk membuat sistem autonomi bersenjata, ini boleh digunakan untuk menghalang yang buruk daripada berusaha untuk terlibat dalam perebutan. Sama ada yang baik akan dipersenjatai dengan lebih baik dan dengan itu menghalang yang buruk, atau yang baik akan bersedia apabila yang buruk mungkin mendedahkan bahawa mereka secara diam-diam telah mencipta sistem tersebut selama ini.

Kaunter kepada kaunter ini ialah dengan membuat sistem autonomi bersenjata, anda sedang melancarkan perlumbaan senjata. Pihak lain akan berusaha untuk mendapatkan perkara yang sama. Walaupun mereka secara teknologi tidak dapat mencipta sistem sedemikian semula, mereka kini akan dapat mencuri rancangan yang "baik", merekayasa songsang keberanian berteknologi tinggi, atau meniru apa sahaja yang mereka nampak sebagai percubaan dan benar. cara untuk menyiapkan kerja.

Aha, ada yang membalas, semua ini mungkin membawa kepada pengurangan konflik dengan kesamaan. Jika pihak A mengetahui bahawa pihak B mempunyai senjata sistem autonomi yang mematikan itu, dan pihak B mengetahui bahawa pihak A mempunyai senjata itu, mereka mungkin duduk diam dan tidak terlibat. Ini mempunyai aura yang tersendiri iaitu getaran kemusnahan yang saling terjamin (MAD).

Dan sebagainya.

Meneliti Perenggan Kedua

Kami telah membincangkan banyak perkara di sini dan hanya setakat ini mempertimbangkan perenggan pertama atau pembukaan Surat Terbuka (terdapat empat perenggan kesemuanya).

Masa untuk melihat perenggan kedua, di sini anda pergi:

  • “Seperti mana-mana teknologi baharu yang menawarkan keupayaan baharu, kemunculan robot mudah alih termaju menawarkan kemungkinan penyalahgunaan. Orang yang tidak boleh dipercayai boleh menggunakannya untuk menceroboh hak sivil atau untuk mengancam, membahayakan atau menakut-nakutkan orang lain. Satu bidang yang menjadi perhatian khusus ialah persenjataan. Kami percaya bahawa menambahkan senjata pada robot yang dikendalikan dari jauh atau secara autonomi, tersedia secara meluas kepada orang ramai, dan mampu menavigasi ke lokasi yang sebelum ini tidak boleh diakses di mana orang tinggal dan bekerja, menimbulkan risiko baharu bahaya dan isu etika yang serius. Aplikasi bersenjata robot yang baru berkemampuan ini juga akan menjejaskan kepercayaan orang ramai terhadap teknologi dengan cara yang merosakkan manfaat besar yang akan mereka bawa kepada masyarakat. Atas sebab ini, kami tidak menyokong penggunaan senjata bagi robot tujuan am mobiliti maju kami. Bagi kami yang pernah bercakap mengenai isu ini pada masa lalu, dan mereka yang terlibat buat kali pertama, kami kini berasa tergesa-gesa baharu memandangkan kebimbangan orang ramai yang semakin meningkat dalam beberapa bulan kebelakangan ini disebabkan oleh sebilangan kecil orang yang telah secara nyata mengumumkan tindakan sementara mereka. usaha untuk mempersenjatai robot yang tersedia secara komersial” (seperti yang disiarkan dalam talian).

Setelah membaca perenggan kedua itu, saya harap anda dapat melihat bagaimana wacana awal saya di sini mengenai persenjataan AI menjadi perhatian.

Mari kita periksa beberapa perkara tambahan.

Satu yang agak membimbangkan tentang aspek perkataan tertentu yang telah menimbulkan keresahan oleh sesetengah pihak ialah naratif itu seolah-olah menekankan bahawa "orang yang tidak boleh dipercayai" boleh menyalahgunakan robot AI ini. Ya, sememangnya, mungkin orang jahat atau penjahat yang membawa tindakan keji yang akan "menyalahgunakan" robot AI.

Pada masa yang sama, seperti yang ditunjukkan pada permulaan perbincangan ini, kita juga perlu menjelaskan bahawa AI itu sendiri boleh menjadi serba salah, mungkin disebabkan oleh pepijat atau ralat terbenam dan komplikasi lain seperti itu. Kebimbangan yang dinyatakan ialah hanya menekankan peluang orang yang tidak boleh dipercayai adalah bahawa ia seolah-olah mengabaikan kemungkinan buruk yang lain. Walaupun kebanyakan syarikat dan vendor AI enggan mengakuinya, terdapat banyak masalah sistem AI yang boleh menjejaskan keselamatan dan kebolehpercayaan sistem autonomi. Untuk liputan saya tentang keselamatan AI dan keperluan untuk perlindungan yang ketat dan boleh dibuktikan, lihat pautan di sini, Sebagai contoh.

Satu lagi perkara penting yang telah timbul di kalangan mereka yang telah memeriksa Surat Terbuka melibatkan dakwaan yang disertakan bahawa akhirnya boleh mengurangkan kepercayaan orang ramai yang dikaitkan dengan robot AI.

Di satu pihak, ini adalah dakwaan yang sah. Jika robot AI digunakan untuk melakukan pembidaan jahat, anda boleh bertaruh bahawa orang ramai akan menjadi agak stim. Apabila orang ramai berasa teruja, anda boleh bertaruh bahawa penggubal undang-undang akan terlibat dan berusaha untuk menggubal undang-undang yang menyekat robot AI dan pembuat robot AI. Ini seterusnya boleh melumpuhkan industri robotik AI jika undang-undang itu merangkumi semua dan menutup usaha yang melibatkan faedah robotik AI. Dalam erti kata lain, bayi itu boleh dibuang dengan air mandian (ungkapan lama, mungkin layak untuk dibersarakan).

Persoalan jelas yang ditimbulkan juga ialah sama ada dakwaan tentang mengelakkan pengurangan kepercayaan orang ramai terhadap robot AI adalah kredo yang mementingkan diri sendiri atau sama ada ia adalah untuk kebaikan kita semua (bolehkah kedua-duanya?).

Awak tentukan.

Kami kini sampai ke bahagian Surat Terbuka yang sangat berisi:

  • “Kami berjanji bahawa kami tidak akan mempersenjatai robot tujuan am mobiliti maju kami atau perisian yang kami bangunkan yang membolehkan robotik maju dan kami tidak akan menyokong orang lain untuk berbuat demikian. Apabila boleh, kami akan menyemak dengan teliti aplikasi yang dimaksudkan oleh pelanggan kami untuk mengelakkan potensi persenjataan. Kami juga berjanji untuk meneroka pembangunan ciri teknologi yang boleh mengurangkan atau mengurangkan risiko ini. Untuk menjadi jelas, kami tidak mengambil isu dengan teknologi sedia ada yang digunakan oleh negara dan agensi kerajaan mereka untuk mempertahankan diri dan menegakkan undang-undang mereka” (seperti yang disiarkan dalam talian).

Kita boleh membongkar ini.

Duduk dan sediakan diri anda dengan sewajarnya.

Adakah anda bersedia untuk beberapa polarisasi yang berapi-api?

Di sisi yang menguntungkan, ada yang secara lantang mengisytiharkan bahawa pembuat robot AI ini akan membuat ikrar sedemikian. Nampaknya pembuat robot ini bersyukur akan berusaha untuk tidak menggunakan robot "tujuan am mobiliti lanjutan" mereka. Di samping itu, Surat Terbuka mengatakan bahawa mereka tidak akan menyokong orang lain yang berbuat demikian.

Pengkritik tertanya-tanya sama ada terdapat beberapa perkataan yang bijak sedang berlaku.

Sebagai contoh, di manakah "mobiliti lanjutan" bermula dan berakhir? Jika pembuat robot sedang merangka a mudah-Robot AI mobiliti dan bukannya robot canggih (yang merupakan jargon teknikal yang tidak ditentukan), adakah itu dikecualikan daripada skop perkara yang akan tidak menjadi senjata? Oleh itu, nampaknya, tidak mengapa untuk menggunakan robot AI mobiliti mudah, selagi ia tidak dipanggil maju.

Perkara yang sama berlaku untuk frasa robot tujuan umum. Jika robot AI direka khusus untuk persenjataan dan oleh itu tidak boleh kita katakan a tujuan am robot, adakah itu menjadi pengecualian yang berdaya maju daripada skop?

Anda mungkin berdalih dengan berdalih ini dan berhujah dengan bersungguh-sungguh bahawa ini hanyalah Surat Terbuka dan bukan dokumen undang-undang setebal lima puluh muka surat yang menjelaskan setiap sudut dan celah.

Ini membawa kita kepada keraguan tahap makro yang diluahkan oleh sesetengah pihak. Pada dasarnya, apakah yang dimaksudkan dengan "ikrar"?

Ada yang bertanya, mana daging lembu?

Sebuah syarikat yang membuat ikrar seperti ini nampaknya berbuat demikian tanpa sebarang kepentingan sebenar dalam permainan. Jika petinggi mana-mana firma yang mendaftar untuk ikrar ini memutuskan untuk tidak lagi menghormati ikrar itu, apakah yang berlaku kepada firma itu? Adakah para eksekutif akan ditindas secara ringkas? Adakah syarikat akan tutup dan memohon maaf kerana telah melanggar ikrar? Dan sebagainya.

Setakat yang boleh disimpulkan, tiada penalti atau penalti tertentu untuk sebarang pelanggaran ikrar.

Anda mungkin berpendapat bahawa terdapat kemungkinan kerosakan reputasi. Firma pengikrar mungkin dikritik di pasaran kerana telah membuat ikrar bahawa ia tidak lagi dipatuhi. Sudah tentu, ini juga mengandaikan bahawa orang akan ingat bahawa ikrar itu dibuat. Ia juga menganggap bahawa pelanggaran ikrar akan dikesan entah bagaimana (nampaknya tidak mungkin firma akan memberitahu semua jika ia berbuat demikian). Pelanggar ikrar perlu dipanggil tetapi isu sebegitu mungkin menjadi bunyi bising dalam tsunami berita yang berterusan tentang pembuat robotik AI.

Pertimbangkan sudut lain yang telah muncul.

Firma pengikrar dibeli oleh firma yang lebih besar. Firma yang lebih besar memilih untuk mula menukar robot tujuan am mobiliti canggih kepada versi bersenjata AI.

Adakah ini melanggar ikrar?

Firma yang lebih besar mungkin menegaskan bahawa ia bukan pelanggaran kerana mereka (firma yang lebih besar) tidak pernah membuat ikrar. Sementara itu, robot AI yang tidak berbahaya yang telah disatukan dan direka oleh firma yang lebih kecil, berbuat demikian dengan niat yang kelihatan paling altruistik, hampir semalaman dirombak menjadi dipersenjatai.

Semacam menjejaskan ikrar, walaupun anda mungkin mengatakan bahawa firma yang lebih kecil tidak tahu bahawa ini akan berlaku suatu hari nanti. Mereka bersungguh-sungguh dalam keinginan mereka. Ia adalah di luar kawalan mereka tentang perkara yang dipilih oleh firma pembelian yang lebih besar.

Ada juga yang bertanya sama ada terdapat sebarang liabiliti undang-undang dalam hal ini.

Sebuah firma pengikrar memutuskan beberapa bulan dari sekarang bahawa ia tidak akan menunaikan ikrar itu. Mereka telah berubah hati. Bolehkah firma itu didakwa kerana telah meninggalkan ikrar yang dibuatnya? Siapa yang akan menuntut? Apa yang akan menjadi asas untuk tuntutan mahkamah? Pelbagai isu undang-undang timbul. Seperti yang mereka katakan, anda boleh menyaman hampir sesiapa sahaja, tetapi sama ada anda akan menang adalah perkara yang berbeza sama sekali.

Fikirkan ini dengan cara lain. Firma yang berikrar mendapat peluang untuk membuat tawaran yang sangat besar untuk menjual sejumlah besar robot tujuan am mobiliti canggihnya kepada syarikat besar yang sanggup membayar melalui hidung untuk mendapatkan robot tersebut. Ia adalah salah satu daripada tawaran pembelian berjuta-juta dolar sekali seumur hidup.

Apakah yang perlu dilakukan oleh syarikat robotik AI?

Jika firma pengikrar robotik AI didagangkan secara terbuka, mereka hampir pasti akan menyasarkan untuk membuat penjualan (perkara yang sama boleh dikatakan tentang firma milik persendirian, walaupun tidak begitu). Bayangkan bahawa firma pengikrar bimbang pembeli mungkin cuba mempersenjatai robot, walaupun katakan tidak ada perbincangan sedemikian di atas meja. Cuma khabarnya pembeli mungkin berbuat demikian.

Sehubungan itu, firma pengikrar memasukkan pelesenan mereka bahawa robot itu tidak boleh dipersenjatai. Pembeli menolak bahasa ini dan menjauhi pembelian.

Berapakah keuntungan yang diperolehi oleh firma robotik AI yang dicagarkan itu?

Adakah terdapat titik di mana keuntungan dalam tangan melebihi kemasukan keperluan sekatan pelesenan (atau, mungkin secara sah menyatakan sekatan untuk membenarkan ruang goyang dan masih membuat perjanjian itu berlaku)? Saya fikir anda boleh melihat kebingungan yang terlibat. Banyak senario sedemikian mudah dibayangkan. Persoalannya ialah sama ada ikrar ini akan mempunyai gigi. Jika ya, apakah jenis gigi?

Ringkasnya, seperti yang dinyatakan pada permulaan perbincangan ini, ada yang menyatakan bahawa ikrar jenis ini sedang dibuat, sementara yang lain mengambil pandangan yang lebih malap sama ada ikrar itu akan menahan air.

Kita teruskan.

Mendapatkan Ikrar

Perenggan keempat dan terakhir Surat Terbuka mengatakan ini:

  • “Kami faham bahawa komitmen kami sahaja tidak mencukupi untuk menangani sepenuhnya risiko ini, dan oleh itu kami menyeru penggubal dasar untuk bekerjasama dengan kami untuk mempromosikan penggunaan robot ini dengan selamat dan untuk melarang penyalahgunaannya. Kami juga menyeru setiap organisasi, pembangun, penyelidik dan pengguna dalam komuniti robotik untuk membuat ikrar yang sama untuk tidak membina, memberi kebenaran, menyokong atau mendayakan lampiran persenjataan pada robot tersebut. Kami yakin bahawa manfaat untuk manusia teknologi ini sangat mengatasi risiko penyalahgunaan, dan kami teruja dengan masa depan yang cerah di mana manusia dan robot bekerja secara berdampingan untuk menangani beberapa cabaran dunia” (seperti yang disiarkan dalam talian).

Bahagian terakhir Surat Terbuka ini mempunyai beberapa elemen tambahan yang telah menimbulkan kemarahan.

Memanggil penggubal dasar boleh dinasihatkan dengan baik atau kurang nasihat, sesetengah pihak menegaskan. Anda mungkin mendapat penggubal dasar yang tidak mahir dalam perkara ini yang kemudiannya melaksanakan undang-undang dan peraturan klasik yang tergesa-gesa untuk menghakimi dan membuat yang merampas kemajuan pada robot AI. Mengikut perkara yang dibuat sebelum ini, mungkin inovasi yang mendorong kemajuan robotik AI akan terganggu atau terpijak.

Lebih baik pastikan anda tahu apa yang anda minta, kata pengkritik.

Sudah tentu, hujah balasnya ialah naratif itu dengan jelas menyatakan bahawa penggubal dasar harus bekerjasama dengan firma robotik AI untuk memikirkan cara membuat undang-undang dan peraturan sedemikian secara wajar. Balasan kepada hujah balas adalah bahawa penggubal dasar mungkin dilihat sebagai memandang kepada pembuat robotik AI jika mereka memenuhi kehendak mereka. Kaunter kepada kaunter hujah balas adalah bahawa secara semula jadi adalah satu keperluan untuk bekerja dengan mereka yang mengetahui tentang teknologi itu, jika tidak, hasilnya akan berpotensi menjadi sukar. Dan lain-lain.

Atas dasar yang mungkin berdalih, ada yang mengalami pedih ulu hati melalui talian yang menyeru semua orang untuk membuat ikrar yang sama untuk tidak melampirkan persenjataan kepada robot tujuan am mobiliti maju. Kata kunci di sana ialah perkataan melampirkan. Jika seseorang membuat robot AI yang menggabungkan atau membenamkan persenjataan dengan lancar, itu nampaknya memahami perkataan melampirkan sesuatu. Anda boleh melihatnya sekarang, seseorang dengan keras berhujah bahawa senjata itu tidak dipasang, ia adalah sebahagian daripada robot AI. Berhentilah, kata mereka, kita tidak berada dalam skop ikrar itu, malah mereka boleh berkata sebaliknya.

Ini membawa satu lagi aduan tentang kekurangan ikrar yang melekat.

Bolehkah firma atau sesiapa sahaja yang memilih untuk membuat ikrar ini mengisytiharkan diri mereka tidak dicagarkan pada bila-bila masa yang mereka ingin berbuat demikian dan atas apa jua sebab yang mereka inginkan?

Rupanya begitu.

Terdapat banyak perkara tentang membuat ikrar dan daya tarikan yang mereka wujudkan.

Kesimpulan

Ya, anda mungkin berkata, syarikat-syarikat ini yang cuba melakukan perkara yang betul semakin terpedaya kerana cuba melakukan perkara yang betul.

Apa yang datang dari dunia kita?

Sesiapa yang membuat ikrar sebegitu harus diberi manfaat daripada keraguan, anda mungkin akan mengekalkannya. Mereka melangkah keluar ke ruang awam untuk membuat sumbangan yang berani dan penting. Jika kita mula mencemuh mereka kerana berbuat demikian, sudah tentu ia akan memburukkan lagi keadaan. Tiada siapa yang mahu membuat ikrar seperti itu. Firma dan lain-lain tidak akan mencuba. Mereka akan bersembunyi dan tidak memberi amaran kepada masyarakat tentang apa yang boleh menjadi robot menari kesayangan itu dengan bahaya.

Orang yang ragu-ragu mengisytiharkan bahawa cara untuk menjadikan masyarakat bijak memerlukan tindakan lain, seperti menggugurkan tindakan khayalan mempamerkan robot AI yang menari bermain-main. Atau sekurang-kurangnya menjadikannya satu tindakan yang lebih seimbang. Sebagai contoh, daripada hanya meniru anjing kesayangan yang setia kepada haiwan kesayangan, gambarkan bagaimana robot menari boleh menjadi lebih mirip dengan serigala marah yang dilepaskan liar yang boleh merobek manusia tanpa ragu-ragu.

Itu akan mendapat perhatian lebih daripada ikrar, mereka memohon.

Ikrar sudah pasti boleh menjadi teka-teki.

Seperti yang dinyatakan oleh Mahatma Gandhi dengan fasih: "Tidak kira betapa eksplisitnya ikrar, orang akan mengubah dan memutar-belit teks untuk memenuhi tujuan mereka sendiri."

Mungkin untuk menyimpulkan di sini dengan nota yang menggembirakan, Thomas Jefferson berkata ini mengenai ikrar: "Kami saling berjanji antara satu sama lain hidup kami, kekayaan kami, dan kehormatan suci kami."

Apabila bercakap tentang robot AI, autonomi mereka, persenjataan mereka, dan seumpamanya, kita semua akhirnya akan berada dalam perkara ini bersama-sama. Ikrar kita bersama perlu sekurang-kurangnya bahawa kita akan mengekalkan perkara ini di hadapan, kita akan berusaha untuk mencari jalan untuk menghadapi kemajuan ini, dan entah bagaimana mencari jalan ke arah mendapatkan kehormatan kita, kekayaan kita, dan kehidupan kita.

Bolehkah kita berikrar untuk itu?

Saya harap begitu.

Sumber: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- pembuat robot-mengatakan-mereka-akan-menghindar-ai-senjata/