Etika AI Bergelut Dengan Kemalangan AI Yang Tidak Dapat Dielakkan, Yang Melibatkan Kereta Pandu Sendiri Autonomi Juga

Adakah anda mungkin mengenali seseorang yang kelihatan sangat terdedah kepada kemalangan?

Nampaknya kita semua begitu.

Mungkin orang itu adalah jenis yang suka tergelincir pada kulit pisang atau mengetuk pasu berharga di ruang tamu anda. Mereka adalah magnet manusia untuk kemalangan dari satu jenis atau yang lain. Ia boleh menjadi sangat teruk sehingga anda tidak suka berada di dekat mereka pada masa-masa tertentu. Anda mungkin mendapat limpahan yang tidak menyenangkan atau mengalami akibat buruk daripada salah satu kemalangan yang tidak menyenangkan mereka.

Tetapi mungkin kita terlalu keras apabila mencadangkan bahawa sesiapa sahaja lebih terdedah kepada kemalangan daripada orang lain. Hujah boleh dibuat bahawa kemalangan boleh berlaku kepada mana-mana daripada kita. Kita semua tertakluk kepada kemungkinan melakukan atau terlibat dalam kemalangan. Yang terbaik daripada kami termasuk.

Mari kita timbunkan di atas perbincangan ini satu soalan tambahan yang menjengkelkan.

Adakah kemalangan tidak dapat dielakkan?

Dalam erti kata lain, tidak kira betapa sukarnya kita cuba untuk mencegah kemalangan, boleh jadi masih ada peluang dan kepastian muktamad bahawa kemalangan akan berlaku. Anda boleh berusaha untuk melindungi dunia daripada kemalangan. Itu nampaknya sangat berhemat. Tetapi satu cara atau yang lain, kemalangan masih akan menimbulkan kepala hodoh mereka.

Seperti yang mereka katakan, kemalangan sedang menunggu untuk berlaku.

Mungkin berguna untuk menjelaskan apa yang dimaksudkan dengan merujuk kepada beberapa peristiwa sebagai dilabelkan sebagai kemalangan. Definisi kamus biasa ialah kemalangan ialah sejenis kejadian yang berlaku tanpa diduga dan tidak disengajakan, yang mana terdapat hasil yang malang yang terdiri daripada rupa kerosakan atau kecederaan.

Buka dengan teliti definisi itu.

Insiden tersebut di luar jangkaan. Ini menunjukkan bahawa kami seolah-olah tidak menyedari bahawa kemalangan itu sendiri akan timbul.

Insiden tersebut adalah tidak disengajakan. Ini menunjukkan bahawa kita harus menolak keadaan di mana seseorang dengan sengaja ingin kejadian itu berlaku. Jika seorang pelawak meletakkan kulit pisang di atas lantai di mana mereka tahu orang yang tidak bernasib baik dan tidak curiga akan melangkah, anda akan berasa sukar untuk menegaskan bahawa orang yang tersandung itu telah mengalami kemalangan. Mereka sebaliknya telah ditipu dan secara licik dibawa ke dalam perangkap.

Takrifan itu juga termasuk kriteria bahawa hasilnya adalah malang. Kemalangan dalam cahaya ini mesti membawa kepada hasil yang masam. Orang yang secara tidak sengaja mengetuk pasu telah retak dan mungkin merosakkan barang yang digemari sehingga tidak dapat dibaiki. Pemilik pasu dicederakan kerana kehilangan nilai. Orang yang terserempak dengan pasu itu mungkin berhutang dengan pemiliknya atas kehilangan itu. Syurga melarang sesiapa sahaja yang terpotong atau dibuang akibat pecahnya pasu itu.

Demi keseimbangan yang sama, kami mungkin ingin ambil perhatian bahawa terdapat juga kemalangan yang dipanggil "baik". Seseorang boleh mendapati diri mereka bernasib baik atau memperoleh beberapa faedah penting lain akibat daripada kemalangan. Salah satu contoh yang paling sering disebut terdiri daripada Sir Alexander Fleming dan penemuan penisilinnya yang terkenal. Ceritanya dia agak cuai di makmalnya dan sekembalinya dari percutian dua minggu dia menemui acuan pada salah satu pinggan kulturnya. Dilaporkan, beliau berkata demikian mengenai perkara itu: “Seseorang kadangkala menemui apa yang tidak dicarinya. Apabila saya bangun selepas subuh pada 28 September 1928, saya pastinya tidak bercadang untuk merevolusikan semua ubat dengan menemui antibiotik atau pembunuh bakteria yang pertama di dunia. Tetapi saya rasa itulah yang saya lakukan.”

Kami akan mengetepikan kemalangan yang menguntungkan dan memberi tumpuan di sini pada kemalangan yang menyedihkan. Kemalangan versi muka bermasam muka adalah tempat akibat buruk itu boleh mengancam nyawa atau membawa hasil yang membebankan. Seboleh-bolehnya, kemalangan buruk yang ingin kami kurangkan (dan, sudah tentu, kemalangan terbalik yang kami ingin maksimumkan, jika itu boleh dilakukan, walaupun saya akan membincangkan varian wajah tersenyum itu dalam lajur kemudian).

Saya ingin mengulas sedikit soalan terdahulu tentang kemalangan yang tidak dapat dielakkan. Setakat ini, kami telah mengekalkan perhatian kami pada kemalangan yang berlaku dalam kejadian tertentu orang tunggal. Tidak dinafikan bahawa kemalangan juga boleh memberi kesan kepada ramai orang sekaligus. Ini boleh ditemui terutamanya apabila orang ramai tenggelam dalam sistem yang kompleks dari satu jenis atau yang lain.

Sediakan diri anda untuk variasi soalan yang diapungkan sebelum ini.

Adakah kemalangan sistem tidak dapat dielakkan?

Kita harus memikirkan perkara ini.

Katakan lantai kilang dibentangkan untuk membuat bahagian untuk kereta. Mereka yang mereka bentuk kilang itu katakan sangat prihatin terhadap kemalangan pekerja yang mungkin berlaku. Pekerja kilang diwajibkan memakai topi keledar pada setiap masa. Papan tanda di kilang menggesa agar berhati-hati terhadap kemalangan dan berhati-hati dalam kerja anda. Semua langkah berjaga-jaga diambil untuk mengelakkan kemalangan daripada berlaku.

Dalam sistem ini, kita mungkin berharap bahawa tiada siapa yang akan mengalami kemalangan. Adakah anda percaya bahawa tiada kemungkinan kemalangan berlaku? Saya berani mencadangkan bahawa tiada pemikir yang munasabah akan bertaruh bahawa peluang kemalangan adalah sifar dalam kes ini. Kemungkinannya mungkin sangat rendah untuk berlakunya kemalangan, namun kita masih tahu dan menganggap bahawa walaupun semua langkah berjaga-jaga masih terdapat sedikit risiko bahawa kemalangan akan berlaku.

Semua ini menunjukkan idea bahawa dalam sistem kerumitan yang mencukupi, kita pasti percaya bahawa kemalangan akan tetap berlaku, tidak kira betapa kerasnya kita berusaha untuk mencegahnya. Kami dengan berat hati menyokong diri kami ke dalam ketetapan bahawa kemalangan sistem sememangnya tidak dapat dielakkan. Kenyataan hebat berkaliber ini mungkin mempunyai kaveat bahawa sistem itu mesti mempunyai beberapa ambang kerumitan sehingga pada asasnya mustahil untuk merangkumi semua pangkalan untuk mengelakkan kemalangan sepenuhnya.

Anda kini telah diperkenalkan dengan kemas langkah demi langkah kepada teori yang digariskan secara meluas tentang kemalangan yang boleh dilabelkan sebagai Kemalangan Biasa atau Teori Kemalangan Biasa (NAT). Berikut ialah penerangan berguna oleh penyelidik yang telah meneliti tanggapan ini: “Pada skala yang cukup besar, mana-mana sistem akan menghasilkan 'kemalangan biasa'. Ini adalah kemalangan yang tidak dapat dielakkan yang disebabkan oleh gabungan kerumitan, gandingan antara komponen dan potensi bahaya. Kemalangan biasa adalah berbeza daripada kemalangan kegagalan komponen yang lebih biasa kerana peristiwa dan interaksi yang membawa kepada kemalangan biasa tidak dapat difahami oleh pengendali sistem" (seperti yang dinyatakan dalam "Memahami dan Mengelakkan Kegagalan AI: Panduan Praktikal" oleh Robert Williams dan Roman Yampolskiy, Falsafah jurnal).

Sebab saya telah membawa awak ke tanah yang dipanggil kemalangan biasa adalah bahawa kita mungkin perlu menggunakan teori ini dengan teliti untuk sesuatu yang secara beransur-ansur dan tidak dapat dielakkan menjadi mana-mana dalam masyarakat kita, iaitu kemunculan Kepintaran Buatan (AI).

Mari kita mendalami perkara ini.

Sesetengah orang secara salah menganggap bahawa AI akan menjadi kesempurnaan. Sistem AI tidak akan membuat kesilapan dan tidak akan membawa kita ke dalam masalah, spekulasi itu berlaku. Apa yang anda perlu lakukan ialah memastikan bahawa pembangun AI tersebut melakukan kerja yang cukup baik, dan voila, AI tidak akan sekali-kali melakukan apa-apa yang boleh ditafsirkan sebagai tidak sengaja atau menyebabkan kemalangan.

Tidak begitu pantas pada kepercayaan hipotesis itu. Jika anda bersedia untuk membeli ke dalam teori kemalangan biasa, sebarang AI daripada sebarang kerumitan substantif pasti akan membawa kemalangan. Tidak kira berapa banyak yang dilakukan oleh pembangun AI pada larut malam untuk mengelakkan kemalangan, AI pasti pada suatu ketika akan terlibat dalam kemalangan. Itulah cara biskut itu hancur. Dan tiada jeda dengan menangis dalam susu yang tumpah mengenainya.

Renungkan gabungan AI dan prinsip konseptual kemalangan biasa.

Bayangkan kita mempunyai sistem AI yang mengawal senjata nuklear. AI telah direka dengan teliti. Setiap semakan dan imbangan yang boleh difikirkan telah dikodkan ke dalam sistem AI. Adakah kita selamat daripada kemalangan berasaskan AI yang mungkin berlaku? Mereka yang menyokong pandangan kemalangan biasa akan mengatakan bahawa kita tidak begitu selamat seperti yang diandaikan. Memandangkan AI berkemungkinan sangat kompleks, kemalangan biasa sedang menunggu di sana untuk suatu hari nanti, mungkin pada saat yang paling teruk.

Inti dari persoalan dan keraguan yang pedih itu ialah kita mesti sedar bahawa AI pasti akan dilanda kemalangan, dan manusia perlu melakukan sesuatu yang wajar dan proaktif tentang bahaya yang boleh berlaku. Seperti yang anda akan lihat dalam satu atau dua saat, ini adalah pertimbangan yang menjulang apabila menggunakan AI, dan bidang AI Etika dan Etika AI sedang bergelut sedikit tentang perkara yang perlu dilakukan. Untuk liputan berterusan dan meluas saya tentang Etika AI dan AI Etika, lihat pautan di sini and pautan di sini, Hanya untuk menamakan beberapa.

Sebelum kita pergi ke lubang arnab, mari pastikan kita berada di halaman yang sama tentang sifat AI. Tidak ada AI hari ini yang hidup. Kami tidak mempunyai ini. Kami tidak tahu sama ada kecerdasan buatan boleh dilakukan. Tiada siapa yang boleh meramalkan dengan tepat sama ada kita akan mencapai AI sentient, mahupun sama ada AI sentient entah bagaimana secara ajaib akan timbul secara spontan dalam bentuk supernova kognitif pengiraan (biasanya dirujuk sebagai ketunggalan, lihat liputan saya di pautan di sini).

Jenis AI yang saya fokuskan terdiri daripada AI bukan makhluk yang kita ada hari ini. Jika kita mahu membuat spekulasi liar sentimen AI, perbincangan ini boleh pergi ke arah yang sangat berbeza. AI yang hidup sepatutnya berkualiti manusia. Anda perlu mempertimbangkan bahawa AI yang hidup adalah setara dengan kognitif manusia yang memberi nasihat kepada anda. Lebih-lebih lagi, memandangkan ada yang membuat spekulasi bahawa kita mungkin mempunyai AI super-pintar, boleh dibayangkan bahawa AI sedemikian akhirnya boleh menjadi lebih pintar daripada manusia (untuk penerokaan saya tentang AI super-pintar sebagai kemungkinan, lihat liputan di sini). Semua memberitahu senario ini akan meningkatkan penilaian sumber.

Mari kita simpan perkara yang lebih sederhana dan pertimbangkan pengiraan AI bukan makhluk hari ini.

Sedar bahawa AI hari ini tidak dapat "berfikir" dalam apa jua cara yang setanding dengan pemikiran manusia. Apabila anda berinteraksi dengan Alexa atau Siri, kapasiti perbualan mungkin kelihatan serupa dengan kapasiti manusia, tetapi realitinya ialah ia adalah pengiraan dan tidak mempunyai kognisi manusia. Era terkini AI telah menggunakan Pembelajaran Mesin (ML) dan Pembelajaran Dalam (DL) secara meluas, yang memanfaatkan padanan corak pengiraan. Ini telah membawa kepada sistem AI yang mempunyai rupa kecenderungan seperti manusia. Sementara itu, tidak ada mana-mana AI hari ini yang mempunyai rupa akal dan juga tidak mempunyai sebarang keajaiban kognitif pemikiran manusia yang teguh.

Anda mungkin sedar bahawa apabila era terkini AI bermula, terdapat cetusan semangat yang besar untuk apa yang kini dipanggil oleh sesetengah orang. AI Untuk Kebaikan. Malangnya, selepas keterujaan yang membuak-buak itu, kami mula menyaksikan AI Untuk Buruk. Sebagai contoh, pelbagai sistem pengecaman muka berasaskan AI telah didedahkan sebagai mengandungi berat sebelah kaum dan berat sebelah jantina, yang telah saya bincangkan di pautan di sini.

Usaha melawan balik AI Untuk Buruk sedang giat dijalankan. Selain riuh rendah undang-undang usaha untuk mengekang perbuatan salah, terdapat juga dorongan substantif ke arah menerima Etika AI untuk memperbetulkan keburukan AI. Tanggapannya ialah kita harus mengguna pakai dan menyokong prinsip AI Etika utama untuk pembangunan dan penempatan AI berbuat demikian untuk mengurangkan AI Untuk Buruk dan pada masa yang sama menghebahkan dan mempromosikan yang lebih baik AI Untuk Kebaikan.

Mengenai tanggapan yang berkaitan, saya adalah penyokong cuba menggunakan AI sebagai sebahagian daripada penyelesaian kepada masalah AI, melawan api dengan api dengan cara pemikiran itu. Sebagai contoh, kami mungkin membenamkan komponen AI Beretika ke dalam sistem AI yang akan memantau bagaimana seluruh AI melakukan sesuatu dan dengan itu berpotensi menangkap dalam masa nyata sebarang usaha diskriminasi, lihat perbincangan saya di pautan di sini. Kami juga boleh mempunyai sistem AI berasingan yang bertindak sebagai sejenis pemantau Etika AI. Sistem AI berfungsi sebagai penyelia untuk menjejak dan mengesan apabila AI lain masuk ke jurang yang tidak beretika (lihat analisis saya tentang keupayaan sedemikian di pautan di sini).

Semua diberitahu, harapan umum ialah dengan mewujudkan prinsip Etika AI, kita sekurang-kurangnya dapat meningkatkan kesedaran masyarakat tentang perkara yang boleh dilakukan AI secara berfaedah dan boleh menghasilkan kesan buruk juga. Saya telah membincangkan secara meluas pelbagai analisis kolektif prinsip etika AI, termasuk telah merangkumi satu set yang direka oleh penyelidik yang meneliti dan meringkaskan intipati pelbagai prinsip etika AI nasional dan antarabangsa dalam kertas kerja bertajuk "The Global Landscape Of AI Ethics Guidelines" (diterbitkan dalam Alam), dan liputan saya meneroka di pautan di sini, yang membawa kepada senarai batu kunci ini:

  • Ketelusan
  • Keadilan & Kesaksamaan
  • Non-Maleficence
  • tanggungjawab
  • Privasi
  • Kebaikan
  • Kebebasan & Autonomi
  • Amanah
  • Sustainability
  • Martabat
  • Perpaduan

Seperti yang anda mungkin meneka secara langsung, cuba mengecilkan butiran yang mendasari prinsip ini boleh menjadi sangat sukar untuk dilakukan. Lebih-lebih lagi, usaha untuk mengubah prinsip-prinsip yang luas itu menjadi sesuatu yang benar-benar nyata dan cukup terperinci untuk digunakan semasa membuat sistem AI juga merupakan masalah yang sukar untuk dipecahkan. Adalah mudah untuk secara keseluruhan melakukan beberapa lambaian tangan tentang apa itu peraturan Etika AI dan cara ia harus dipatuhi secara umum, sementara ia adalah situasi yang lebih rumit dalam pengekodan AI yang harus menjadi getah yang benar-benar memenuhi jalan.

Prinsip Etika AI akan digunakan oleh pembangun AI, bersama-sama dengan mereka yang menguruskan usaha pembangunan AI, dan juga prinsip yang akhirnya meletakkan dan melaksanakan penyelenggaraan pada sistem AI. Semua pihak berkepentingan sepanjang keseluruhan kitaran hayat pembangunan dan penggunaan AI dianggap dalam skop pematuhan kepada norma AI Etika yang telah ditetapkan. Ini adalah sorotan penting kerana andaian biasa ialah "pengekod sahaja" atau mereka yang memprogramkan AI tertakluk kepada pematuhan kepada tanggapan Etika AI. Seperti yang dinyatakan sebelum ini, ia memerlukan sebuah kampung untuk mencipta dan membina AI, dan untuk itu seluruh kampung perlu dikuasai dan mematuhi peraturan Etika AI.

Kami mungkin perlu menambah penyenaraian Etika AI yang dibanggakan yang perlu kami pertimbangkan secara eksplisit dan mengambil tindakan terang-terangan untuk mencegah atau sekurang-kurangnya dengan tegas mengurangkan berasaskan AI kemalangan biasa itu mungkin berlaku. Mereka yang membangunkan AI perlu melakukan yang terbaik di hadapan itu. Mereka yang menggunakan AI perlu melakukan perkara yang sama. Mereka yang menggunakan atau entah bagaimana tertakluk kepada AI harus berhati-hati dan berjaga-jaga terhadap kemungkinan kemalangan AI yang nampaknya akan timbul.

Anda mungkin terdorong untuk berfikir bahawa langkah berjaga-jaga yang mencukupi boleh dibina ke dalam AI sehingga kemungkinan kemalangan akan menurun kepada sifar. Bagi mereka yang pakar, keangkuhan biasa ialah jika sesuatu teknologi boleh menjana masalah, satu lagi teknologi pasti boleh menyelesaikan masalah itu. Teruskan melambung lebih banyak teknologi sehingga masalah itu hilang.

Nah, mereka yang telah mengkaji kemalangan berorientasikan sistem akan cenderung tidak bersetuju dan membalas dengan sopan kepada keangkuhan teknikal yang dianggap dengan mengemukakan pendirian yang dikenali sebagai Model Keju Swiss (SCM): "Dalam SCM, lapisan keselamatan dimodelkan sebagai kepingan keju dengan lubang di dalamnya mewakili titik lemah dalam setiap lapisan keselamatan. Lama kelamaan, lubang berubah bentuk dan bergerak. Akhirnya, tidak kira berapa banyak keping keju (lapisan keselamatan) yang ada, lubang akan sejajar membenarkan pukulan lurus melalui semua hirisan keju (kemalangan berlaku)” (mengikut kertas yang dipetik awal oleh Robert Williams dan Roman Yampolskiy ).

Saya tidak mahu terperangkap dalam tangen sampingan ini tentang sama ada terdapat cara yang terjamin untuk memprogram AI sepenuhnya dan sentiasa mengelakkan sebarang kemungkinan kemalangan. Terdapat pelbagai cara pendekatan pembuktian matematik dan pengiraan yang sedang dicuba. Saya fikir adalah munasabah dan adil untuk mengisytiharkan bahawa hari ini kami tidak mempunyai kaedah kerja yang boleh skala atau teknologi yang boleh menjamin peluang sifar seperti itu, ditambah pula kami pasti dibebani dengan banyak AI yang sedang dihasilkan oleh kami. tahu pasti tidak berusaha untuk mematuhi amalan tersebut. Perkara terakhir itu adalah penting kerana walaupun kita boleh mencipta sesuatu dalam makmal AI, meningkatkannya kepada berjuta-juta usaha AI liar dan riang yang sedang dijalankan dan itu akan terus muncul adalah isu yang rumit dan mungkin tidak dapat diselesaikan walaupun mesin pembuktian pengiraan perak. peluru wujud.

Satu lagi perkara yang saya percaya patut disebut secara ringkas terdiri daripada AI yang bertukar menjadi melakukan perbuatan yang tidak diingini akibat daripada pelakon manusia yang berniat jahat. Saya tidak akan meletakkan kejadian tersebut ke dalam alam kemalangan AI. Ingat bahawa perbincangan pembukaan mencadangkan bahawa takrif kamus kemalangan ialah kejadian a tidak disengajakan alam semula jadi. Jika penjahat siber manusia berjaya mendapatkan sistem AI untuk melakukan perkara yang tidak baik, saya tidak mengklasifikasikan AI itu sebagai mengalami kemalangan. Saya percaya anda akan mengikut anggapan itu.

Persoalan menarik timbul tentang berapa banyak pelbagai tindakan tidak diingini AI boleh dikaitkan dengan kemalangan AI semata-mata berbanding tindakan licik penjenayah siber. Menurut beberapa pangkalan data pelaporan insiden AI sedia ada, nampaknya kemalangan AI berlaku lebih daripada insiden yang didorong secara berniat jahat, walaupun anda perlu mengambil tanggapan itu dengan dos garam yang tinggi. Saya mengatakan ini kerana terdapat godaan yang hebat untuk tidak melaporkan apabila sistem AI diserang, dan mungkin lebih bersedia untuk melaporkan apabila kemalangan AI berlaku.

Terdapat kaveat yang sangat penting yang perlu kita bincangkan mengenai kemalangan AI.

Menggunakan kata kunci "kemalangan AI" secara amnya tidak diingini dan akan menimbulkan kekacauan bagi kita semua, bermakna untuk semua masyarakat. Apabila manusia mengalami kemalangan, kita sering mengangkat bahu dan bersimpati kepada orang yang mengalami kemalangan itu. Kami seolah-olah menganggap perkataan "kemalangan" seolah-olah ia bermakna tiada siapa yang bertanggungjawab atas apa yang berlaku.

Mari kita ambil contoh kemalangan kereta. Sebuah kereta berayun lebar di belok kanan dan secara tidak sengaja merempuh sebuah kereta lain yang sedang menuju ke hadapan. Shucks, ia hanya kemalangan dan tidak sengaja berlaku. Mereka yang tidak terlibat dalam insiden itu mungkin akan membiarkan perkara itu tergelincir jika peristiwa itu disemak dari segi hanya kemalangan yang berlaku.

Saya mempunyai perasaan walaupun jika anda berada di dalam kereta yang dilanggar, anda tidak akan begitu bersimpati kepada pemandu yang membuat selekoh terlalu lebar. Pendapat anda pastinya ialah pemandu lain adalah pemandu yang tidak baik dan sama ada perbuatan memandu yang menyalahi undang-undang atau tidak bijak menyebabkan kemalangan kereta itu. Dengan melabelkan kejadian itu sebagai "kemalangan" pemandu yang tersepit kini berada pada tahap yang agak kurang bernasib baik memandangkan rupanya semuanya berlaku secara kebetulan sahaja, bukannya melalui tangan pemandu yang melakukan kesalahan.

Malah, perkataan "kemalangan" begitu penuh dengan konotasi yang berbeza-beza sehingga pada umumnya, statistik kerajaan mengenai kemalangan kereta merujuk kepada perkara itu sebagai perlanggaran kereta atau kemalangan kereta, dan bukannya menggunakan frasa kemalangan kereta. Perlanggaran kereta atau kemalangan kereta nampaknya tidak mempunyai sebarang implikasi tentang bagaimana kejadian itu berlaku. Sementara itu, ungkapan "kemalangan kereta" hampir membawa kita untuk berfikir bahawa ia adalah satu keanehan nasib atau entah bagaimana di luar tangan manusia.

Anda boleh melihat dengan banyak cara pertimbangan konotasi ini dimainkan apabila merujuk kepada kemalangan AI. Kami tidak mahu pembangun AI bersembunyi di sebalik perisai konotasi bahawa AI secara tidak sengaja menyebabkan kecederaan seseorang. Perkara yang sama berlaku untuk mereka yang menggunakan AI. Anda boleh berhujah bahawa ungkapan "kemalangan AI" hampir merupakan antropomorfosis AI yang akan mengelirukan masyarakat untuk membenarkan manusia yang berada di belakang tabir AI melarikan diri dari akauntabiliti. Untuk perbincangan saya tentang kepentingan yang semakin meningkat untuk memastikan manusia bertanggungjawab terhadap AI mereka, lihat perbincangan saya di pautan ini di sini and pautan ini di sini.

Di sini saya akan menggunakan kata kunci kemalangan AI, tetapi saya melakukannya dengan berat hati dan hanya kerana ia adalah cara konvensional untuk merujuk kepada fenomena ini. Percubaan untuk menyatakan ini secara berbeza cenderung untuk menjadi lebih kembung dan tidak mudah dibaca. Sila pastikan anda mentafsirkan frasa kunci dengan cara yang tidak menyebabkan anda memandang ke arah lain dan gagal menyedari bahawa manusia yang mendasari AI adalah bersalah apabila AI menjadi serba salah.

Untuk membantu menggambarkan kemungkinan kekeliruan atau aspek mengelirukan merujuk kepada AI sebagai mengakibatkan kemalangan, kita boleh kembali kepada kenyataan saya tentang mengetuk pasu. Pertimbangkan contoh AI yang berbuat demikian: “Masalah ini ada kaitan dengan perkara yang dilakukan secara tidak sengaja atau sikap acuh tak acuh oleh AI. Robot pembersihan mengetuk pasu adalah salah satu contoh perkara ini. Persekitaran yang kompleks mempunyai begitu banyak jenis 'pasu' yang tidak mungkin dapat kita aturkan sebagai penalti untuk semua kesan sampingan" (mengikut kertas oleh Robert Williams dan Roman Yampolskiy).

Sistem AI yang digunakan dalam isi rumah dan kemudian "secara tidak sengaja" mengetuk pasu nampaknya menunjukkan bahawa tiada siapa yang patut dipersalahkan atas tindakan buruk AI ini. Ia hanya satu kemalangan, seseorang mungkin akan mengecam. Sebaliknya, kita patut bertanya mengapa sistem AI tidak diprogramkan untuk mengendalikan keadaan pasu secara umum. Walaupun pemaju AI tidak menjangkakan pasu itu sendiri berada dalam skop objek yang boleh ditemui, kita pasti boleh mempersoalkan mengapa tidak ada pengelakan objek menyeluruh yang akan menghalang sistem AI daripada mengetuk pasu (oleh itu, AI mungkin tidak mengklasifikasikan pasu sebagai pasu, tetapi masih boleh mengelakkannya sebagai objek yang boleh dikesan untuk dielakkan).

Saya telah meramalkan dan terus meramalkan bahawa kita secara beransur-ansur menuju ke arah pertempuran undang-undang yang hebat mengenai kemunculan sistem AI yang membawa diri mereka ke dalam "kemalangan AI" dan menyebabkan beberapa bentuk bahaya. Sehingga kini, masyarakat tidak bertindak balas dalam apa-apa cara yang besar untuk menolak AI secara sah yang dibawa keluar ke pasaran dan menghasilkan akibat buruk, sama ada secara sengaja atau tidak sengaja. Kereta muzik AI hari ini yang telah menjadi kegilaan pembuat AI yang separuh masak dan mereka yang tergesa-gesa melaksanakan penggunaan AI bertuah sekarang dan masih tidak terjejas oleh tindakan undang-undang sivil dan pendakwaan jenayah.

Tindak balas undang-undang berasaskan AI akan datang, lambat laun.

Teruskan, bagaimanakah kita hendak mencuba dan menghadapi ketidakpastian yang dipanggil kemalangan AI?

Satu perkara yang boleh kita lakukan dengan segera ialah cuba menjangka bagaimana kemalangan AI mungkin berlaku. Dengan menjangkakan kemalangan AI, kita sekurang-kurangnya boleh mencari cara untuk menyekatnya atau meminimumkan kemungkinannya berlaku. Tambahan pula, kita boleh cuba memasang pagar supaya apabila kemalangan AI berlaku, kemungkinan bahaya yang ditunjukkan akan berkurangan.

Satu set faktor berguna yang diterangkan dalam artikel penyelidikan yang dipetik sebelum ini Memahami dan Mengelak Kegagalan AI: Panduan Praktikal termasuk sifat-sifat ini (seperti yang dipetik daripada kertas penyelidikan):

  • Sistem yang dipengaruhi oleh output AI.
  • Kelewatan masa antara output AI dan sistem yang lebih besar, kebolehmerhatian sistem, tahap perhatian manusia dan keupayaan pengendali untuk membetulkan kerosakan AI.
  • Kerosakan maksimum yang mungkin disebabkan oleh penggunaan berniat jahat sistem yang dikawal oleh AI.
  • Gandingan komponen berdekatan dengan AI dan kerumitan interaksi.
  • Jurang pengetahuan AI dan teknologi lain yang digunakan serta tahap tenaga sistem.

Pada persimpangan perbincangan yang besar ini, saya yakin anda ingin mendapatkan beberapa contoh ilustrasi yang mungkin menjelaskan lagi topik kemalangan AI. Terdapat satu set contoh yang istimewa dan pasti popular yang dekat di hati saya. Anda lihat, dalam kapasiti saya sebagai pakar dalam AI termasuk kesan etika dan undang-undang, saya sering diminta untuk mengenal pasti contoh realistik yang mempamerkan dilema Etika AI supaya sifat topik yang agak teoritikal dapat difahami dengan lebih mudah. Salah satu bidang yang paling menggembirakan yang memaparkan dengan jelas kebingungan AI beretika ini ialah kemunculan kereta pandu sendiri sejati berasaskan AI. Ini akan berfungsi sebagai kes penggunaan yang berguna atau contoh untuk perbincangan yang mencukupi mengenai topik tersebut.

Berikut adalah soalan penting yang patut direnungkan: Adakah kemunculan kereta pandu sendiri sebenar berasaskan AI menerangi apa-apa tentang kemunculan apa yang dipanggil kemalangan AI dan jika ya, apakah yang ditunjukkan oleh ini?

Izinkan saya sebentar untuk membongkar soalan.

Pertama, ambil perhatian bahawa tidak ada pemandu manusia yang terlibat dalam kereta pandu sendiri yang sebenar. Perlu diingat bahawa kereta pandu sendiri sebenar dipandu melalui sistem pemanduan AI. Tidak ada keperluan untuk pemandu manusia di atas roda, dan tidak ada peruntukan untuk manusia memandu kenderaan itu. Untuk liputan saya yang meluas dan berterusan mengenai Kenderaan Autonomi (AV) dan terutamanya kereta pandu sendiri, lihat pautan di sini.

Saya ingin menjelaskan lebih lanjut apa yang dimaksudkan apabila saya merujuk kepada kereta pandu sendiri yang sebenar.

Memahami Tahap Kereta Memandu Kendiri

Sebagai penjelasan, kereta pandu sendiri yang sebenar ialah kereta yang AI memandu kereta itu sendiri sepenuhnya dan tidak ada sebarang bantuan manusia semasa tugas memandu.

Kenderaan tanpa pemandu ini dianggap Tahap 4 dan Tahap 5 (lihat penjelasan saya di pautan ini di sini), manakala kereta yang memerlukan pemandu manusia untuk berkongsi usaha pemanduan biasanya dianggap pada Tahap 2 atau Tahap 3. Kereta yang berkongsi tugas pemanduan digambarkan sebagai separa autonomi dan biasanya mengandungi pelbagai alat tambah automatik yang dirujuk sebagai ADAS (Advanced Driver-Assistance Systems).

Belum ada kereta pandu sendiri yang sebenar di Tahap 5, dan kami masih belum tahu sama ada ini boleh dicapai, atau berapa lama masa yang diperlukan untuk sampai ke sana.

Sementara itu, usaha Tahap 4 secara beransur-ansur cuba mendapatkan sedikit daya tarikan dengan menjalani ujian jalan raya awam yang sangat sempit dan terpilih, walaupun terdapat kontroversi sama ada ujian ini harus dibenarkan sendiri (kita semua adalah babi guinea hidup atau mati dalam eksperimen berlaku di lebuh raya dan jalan raya kami, ada yang berpendapat, lihat liputan saya di pautan ini di sini).

Oleh kerana kereta separa autonomi memerlukan pemandu manusia, penggunaan jenis kereta itu tidak akan jauh berbeza daripada mengemudi kenderaan konvensional, jadi tidak banyak yang perlu dibahas sendiri mengenai topik ini (walaupun, seperti yang akan anda lihat sekejap sahaja, perkara-perkara yang dinyatakan seterusnya dapat digunakan secara umum).

Untuk kereta separa autonomi, penting bagi orang ramai untuk diperingatkan tentang aspek mengganggu yang timbul sejak kebelakangan ini, walaupun pemandu manusia yang terus menyiarkan video mereka tertidur di roda kereta Level 2 atau Level 3 , kita semua harus mengelak daripada disesatkan untuk mempercayai bahawa pemandu boleh menarik perhatian mereka dari tugas memandu ketika memandu kereta separa autonomi.

Anda adalah pihak yang bertanggungjawab untuk tindakan memandu kenderaan, tanpa mengira berapa banyak automasi yang dilemparkan ke Tahap 2 atau Tingkat 3.

Kereta Pandu Sendiri Dan Insiden AI

Untuk kenderaan memandu sendiri Tahap 4 dan Tahap 5, tidak akan ada pemandu manusia yang terlibat dalam tugas memandu.

Semua penghuni akan menjadi penumpang.

AI sedang memandu.

Salah satu aspek untuk dibincangkan dengan segera adalah hakikat bahawa AI yang terlibat dalam sistem pemanduan AI masa kini tidak berperasaan. Dengan kata lain, AI sama sekali merupakan kumpulan pengaturcaraan dan algoritma berasaskan komputer, dan yang pasti tidak dapat memberi alasan dengan cara yang sama seperti yang manusia dapat.

Mengapa penekanan tambahan ini mengenai AI tidak berperasaan?

Kerana saya ingin menegaskan bahawa ketika membincangkan peranan sistem pemanduan AI, saya tidak menganggap kualiti manusia dengan AI. Perlu diketahui bahawa terdapat kecenderungan yang berterusan dan berbahaya pada masa ini untuk antropomorfisasi AI. Pada hakikatnya, orang memberikan perasaan seperti manusia pada AI hari ini, walaupun fakta yang tidak dapat disangkal dan tidak dapat dibantah bahawa belum ada AI seperti itu.

Dengan penjelasan itu, anda dapat membayangkan bahawa sistem pemanduan AI secara semula jadi tidak akan "mengetahui" tentang aspek pemanduan. Memandu dan semua yang diperlukan perlu diprogramkan sebagai sebahagian daripada perkakasan dan perisian kereta memandu sendiri.

Mari selami pelbagai aspek yang perlu diperhatikan dalam topik ini.

Pertama, adalah penting untuk menyedari bahawa tidak semua kereta pandu sendiri AI adalah sama. Setiap pembuat kereta dan firma teknologi pandu sendiri mengambil pendekatan mereka untuk mencipta kereta pandu sendiri. Oleh itu, sukar untuk membuat kenyataan menyeluruh tentang perkara yang akan dilakukan atau tidak dilakukan oleh sistem pemanduan AI.

Selanjutnya, setiap kali menyatakan bahawa sistem pemanduan AI tidak melakukan perkara tertentu, ini kemudiannya dapat ditimpa oleh pembangun yang sebenarnya memprogram komputer untuk melakukan perkara itu. Langkah demi langkah, sistem pemanduan AI secara bertahap diperbaiki dan diperluas. Batasan yang ada hari ini mungkin tidak lagi ada dalam lelaran atau versi sistem yang akan datang.

Saya percaya yang memberikan cukup banyak peringatan untuk mendasari apa yang akan saya kaitkan.

Kami bersedia sekarang untuk menyelam lebih mendalam ke dalam kereta pandu sendiri dan kemungkinan AI Etika yang melibatkan kemunculan apa yang dipanggil kemalangan AI.

Bayangkan bahawa kereta pandu sendiri berasaskan AI sedang dijalankan di jalan kejiranan anda dan nampaknya memandu dengan selamat. Pada mulanya, anda telah menumpukan perhatian khusus kepada setiap kali anda berjaya melihat sekilas kereta pandu sendiri. Kenderaan autonomi itu menonjol dengan rak penderia elektronik yang termasuk kamera video, unit radar, peranti LIDAR dan seumpamanya. Selepas beberapa minggu kereta pandu sendiri melayari sekitar komuniti anda, kini anda hampir tidak menyedarinya. Setakat yang anda bimbang, ia hanyalah sebuah kereta lain di jalan raya awam yang sudah sibuk.

Sekiranya anda fikir adalah mustahil atau tidak munasabah untuk membiasakan diri melihat kereta pandu sendiri, saya telah kerap menulis tentang cara tempat yang berada dalam skop percubaan kereta pandu sendiri secara beransur-ansur membiasakan diri melihat kenderaan yang dirapikan. Ramai penduduk tempatan akhirnya beralih daripada ternganga-nganga ternganga-nganga kepada kini mengeluarkan kebosanan yang meluas untuk menyaksikan kereta pandu sendiri yang berliku-liku itu.

Mungkin sebab utama sekarang mereka mungkin melihat kenderaan autonomi adalah kerana faktor kerengsaan dan kegusaran. Sistem pemanduan AI by-the-book memastikan kereta mematuhi semua had laju dan peraturan jalan raya. Bagi pemandu manusia yang sibuk di dalam kereta tradisional mereka yang dipandu manusia, anda akan berasa jengkel apabila terjebak di belakang kereta pandu sendiri berasaskan AI yang mematuhi undang-undang.

Itu sesuatu yang mungkin kita semua perlu biasakan, betul atau salah.

Berbalik kepada kisah kita.

Pada suatu hari, kereta pandu sendiri itu mengalami kemalangan.

Semasa membuat belok kanan, sistem pemanduan AI menghayunkan kenderaan autonomi itu secara meluas dan sebuah kereta yang dipandu manusia telah dilanggar. Kereta yang dipandu manusia itu berjalan terus ke hadapan di lorong lalu lintas yang betul. Tiada peluang khusus untuk pemandu manusia itu melencong atau mengelak daripada terkena. Di samping itu, tiada amaran atau petunjuk oleh kereta pandu sendiri bahawa ia akan membuat pusingan ke kanan secara meluas.

Adakah ini kemalangan?

Kita pasti boleh mengatakan bahawa ia termasuk dalam rubrik sebagai kemalangan AI. Asas untuk penegasan sedemikian ialah terdapat sistem pemanduan AI pada roda kereta pandu sendiri. Entah bagaimana, atas sebab apa pun, AI memilih untuk membuat hayunan lebar apabila mengambil belok kanan. Akibatnya, kereta pandu sendiri itu melanggar kereta yang dipandu manusia.

Ingat perbincangan terdahulu tentang konotasi yang dikaitkan dengan perkataan "kemalangan" dan lihat bagaimana nada seperti itu dimainkan dalam senario ini. Juga, ingat bahawa kami membincangkan kes pemandu manusia membuat belok kanan yang luas dan melanggar kereta yang dipandu manusia. Kami menyedari bahawa tanggapan akta ini sebagai "kemalangan" adalah mengelirukan dan mengelirukan. Pemandu manusia yang membuat hayunan lebar boleh bersembunyi di sebalik idea bahawa kemalangan hanya berlaku yang nampaknya secara kebetulan atau keanehan nasib.

Daripada melabelkan senario itu sebagai "kemalangan AI" dalam kes kereta pandu sendiri berasaskan AI melebar dan melanggar kereta yang dipandu manusia, mungkin kita harus mengatakan bahawa ia adalah kemalangan kereta atau perlanggaran kereta yang melibatkan diri- memandu kereta dan kereta yang dipandu manusia. Kita kemudiannya boleh mengetepikan kekeliruan yang hampa bahawa ia adalah kemalangan yang tidak dapat diketahui.

Pada pendapat anda, apakah reaksi orang ramai terhadap kejadian itu?

Nah, jika pembuat kereta atau firma teknologi pandu sendiri boleh mengekalkan pelabelan perkara itu sebagai kemalangan, mereka mungkin dapat mengatasi potensi tindak balas daripada masyarakat secara amnya. Rasa simpati tentang kemalangan yang diceritakan mungkin akan mengalir ke atas keadaan tertentu. Untuk lebih lanjut tentang cara bandar, daerah dan pemimpin negeri berpotensi bertindak balas terhadap insiden kenderaan autonomi AI, lihat perbincangan kajian Harvard yang saya ketuai bersama dan seperti yang diterangkan di pautan di sini.

Jika keadaan itu jelas digambarkan sebagai kemalangan kereta atau perlanggaran kereta, mungkin itu kemudiannya membolehkan kesedaran bahawa seseorang atau sesuatu mungkin dipersalahkan atas kejadian itu. Reaksi mencebik mungkin bahawa AI harus bertanggungjawab. Masalahnya, sehingga atau jika kami memutuskan untuk melantik AI sebagai mempunyai keperibadian undang-undang, anda tidak akan dapat meletakkan tanggungjawab pada AI itu sendiri (lihat perbincangan saya tentang AI dan keperibadian undang-undang di pautan di sini).

Kami boleh memeriksa sistem pemanduan AI untuk mencuba dan mengetahui apa yang menyebabkan pemanduan yang kelihatan tidak sesuai dan kemalangan kereta yang seterusnya. Itu tidak walaupun membayangkan bahawa AI akan bertanggungjawab. Pihak yang bertanggungjawab termasuk pembangun AI, pengendali armada kereta pandu sendiri dan lain-lain. Saya termasuk orang lain juga kerana terdapat kemungkinan bahawa bandar itu mungkin bertanggungjawab sebahagiannya untuk reka bentuk sudut di mana giliran berlaku. Di samping itu, katakan seorang pejalan kaki melesat keluar dari selekoh dan sistem pemanduan AI memilih untuk mengelak orang itu dan kemudiannya terperangkap dalam kemalangan kereta itu.

Dan sebagainya.

Kesimpulan

Kami ingin tahu apa yang dikira secara pengiraan AI dan apa yang telah diprogramkan untuk dilakukan. Adakah AI melakukan seperti yang dikodkan? Mungkin AI mengalami pepijat atau ralat dalam pengaturcaraan, yang tidak memaafkan tindakan tetapi memberikan lebih banyak petunjuk tentang bagaimana ranap itu berlaku.

Apakah jenis pagar AI yang telah diprogramkan ke dalam sistem pemanduan AI? Sekiranya terdapat pagar, kami ingin mengetahui mengapa ia seolah-olah tidak menghalang kemalangan kereta. Mungkin sistem pemanduan AI mungkin terhenti daripada membuat pusingan. Kami ingin mengetahui alternatif apa yang dinilai secara pengiraan AI semasa kejadian itu.

Selain mengetahui bahagian bawah insiden tertentu, satu lagi keraguan yang wajar adalah sama ada sistem pemanduan AI mempunyai kecacatan atau aspek terbenam lain yang akan melakukan tindakan buruk yang serupa. Pada asasnya, kejadian ini mungkin menjadi petunjuk tentang lebih banyak perkara yang akan datang. Bagaimanakah simulasi situasi pemanduan berasaskan komputer digunakan untuk mencuba dan menjangka jenis sistem pemanduan AI ini? Adakah terdapat ujian pemanduan jalan raya yang mencukupi untuk menyelesaikan isu AI yang mungkin menyebabkan kemalangan kereta?

Senario ini menyerlahkan teka-teki yang menjadi perbalahan yang menghadapi kemunculan kereta pandu sendiri berasaskan AI.

Ia seperti ini.

Di satu pihak, terdapat keinginan masyarakat untuk menggunakan kereta pandu sendiri dengan cepat kerana harapan bahawa sistem pemanduan AI akan selamat atau mungkin lebih selamat daripada pemandu manusia. Di Amerika Syarikat sahaja, pada masa ini kita mempunyai hampir 40,000 kematian setiap tahun akibat kemalangan kereta dan kira-kira 2.5 juta kecederaan manusia. Analisis mencadangkan bahawa sebahagian besar daripada kemalangan kereta tersebut adalah disebabkan oleh kesilapan manusia seperti memandu dalam keadaan mabuk, memandu sambil terganggu, dsb. (lihat penilaian saya tentang statistik sedemikian di pautan di sini).

Sistem pemanduan AI tidak akan minum dan memandu. Mereka tidak memerlukan rehat dan mereka tidak akan letih semasa berada di atas roda. Andaiannya ialah dengan mewujudkan kereta pandu sendiri sebagai mod pengangkutan yang berdaya maju, kita boleh mengurangkan bilangan pemandu manusia. Ini seterusnya bermakna kita akan mengurangkan secara ringkas jumlah kematian dan kecederaan manusia tahunan akibat kemalangan kereta.

Beberapa pakar telah berkata bahawa kita akan berakhir dengan sifar kematian dan sifar kecederaan, dan kereta pandu sendiri itu kononnya tidak boleh dilanggar, tetapi ini adalah satu set jangkaan yang tidak masuk akal dan benar-benar palsu. Saya telah menjelaskan mengapa ini sangat tidak jujur ​​di pautan di sini.

Walau apa pun, anggapkan bahawa kita akan mengalami beberapa kemalangan kereta yang melibatkan kereta pandu sendiri. Anggapkan juga bahawa kemalangan kereta tersebut akan mengakibatkan beberapa kematian dan kecederaan. Persoalan yang menjadi peritnya ialah sama ada kita sebagai masyarakat sanggup bertolak ansur dengan keadaan sedemikian sama sekali. Ada yang mengatakan bahawa jika walaupun satu kematian atau satu kecederaan berlaku akibat kereta pandu sendiri yang sebenar, keseluruhan kit dan kaboodle harus ditutup.

Pandangan yang bertentangan ialah jika nyawa yang diselamatkan mengurangkan kiraan tahunan, kita harus terus menggalakkan kemunculan kereta pandu sendiri dan tidak bertindak balas dengan cara yang tidak logik. Kita perlu menerima premis bahawa beberapa jumlah kematian dan kecederaan akan tetap wujud, walaupun dengan kereta pandu sendiri, namun menyedari bahawa kiraan tahunan jika dikurangkan menunjukkan bahawa kita berada di jalan yang betul.

Sudah tentu, sesetengah pihak berpendapat bahawa kita tidak sepatutnya mempunyai kereta pandu sendiri di jalan raya awam kita sehingga ia sama ada dibersihkan untuk kegunaan sedemikian akibat daripada simulasi berasaskan komputer yang meluas dan menyeluruh atau melalui ujian landasan tertutup persendirian. Hujah balas adalah bahawa satu-satunya cara yang berdaya maju dan terpantas untuk membolehkan kereta pandu sendiri berjalan adalah dengan menggunakan jalan raya awam dan bahawa sebarang kelewatan dalam menggunakan kereta pandu sendiri akan sebaliknya membenarkan kiraan mengerikan kereta yang dipandu manusia itu berterusan. Saya telah mengupas lebih panjang lagi perbahasan ini dalam lajur saya dan menggesa pembaca untuk melihat perbincangan tersebut untuk memahami sepenuhnya perspektif mengenai perkara yang kontroversi ini.

Mari kita selesaikan semuanya buat masa ini.

Kemalangan AI akan berlaku. Kita mesti menahan dorongan untuk menganggap kemalangan AI sebagai nampaknya sengaja dan ergo secara keliru membiarkan pembuat dan mereka yang menggunakan AI secara tidak langsung.

Terdapat kelainan tambahan yang saya tinggalkan kepada anda sebagai pemikiran terakhir yang menarik untuk hari anda.

Pelawak Dane Cook dilaporkan memberitahu jenaka ini tentang kemalangan kereta: “Beberapa hari lalu, saya mengalami kemalangan kereta. Bukan salah saya. Walaupun bukan salah awak, orang lain keluar dari kereta mereka dan memandang awak seolah-olah itu salah awak: Kenapa awak berhenti di lampu merah dan biarkan saya langgar awak sampai 80!”

Di mana putar belit muncul adalah kemungkinan bahawa sistem AI mungkin memilih untuk menegaskan bahawa apabila kemalangan AI berlaku yang melibatkan AI tertentu itu, AI menyatakan bahawa kejadian itu adalah kesalahan manusia dan pastinya bukan kesalahan AI. Ngomong-ngomong, ini boleh jadi benar dan manusia mungkin cuba kambing hitam AI dengan mendakwa bahawa ia adalah kesalahan AI.

Atau mungkin AI cuba untuk menjadi kambing hitam kepada manusia.

Anda lihat, AI yang kami reka mungkin rumit seperti itu, sama ada secara tidak sengaja atau tidak.

Sumber: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- memandu-kereta-juga/