Etika AI Dan Undang-undang AI Menjelaskan Apa Sebenarnya AI yang Boleh Dipercayai

Kepercayaan adalah segala-galanya, kata mereka.

Ahli falsafah terkenal Lao Tzu berkata bahawa mereka yang tidak cukup mempercayai tidak akan dipercayai. Ernest Hemingway, seorang novelis yang dihormati, menyatakan bahawa cara terbaik untuk mengetahui sama ada anda boleh mempercayai seseorang adalah dengan mempercayai mereka.

Sementara itu, nampaknya kepercayaan itu berharga dan rapuh. Kepercayaan yang dimiliki seseorang boleh runtuh seperti rumah kad atau tiba-tiba pecah seperti belon yang meletus.

Tragedi Yunani kuno Sophocles menegaskan bahawa kepercayaan akan mati tetapi rasa tidak percaya akan berkembang. Ahli falsafah Perancis dan ahli matematik Descartes berpendapat bahawa adalah bijak untuk tidak mempercayai sepenuhnya mereka yang telah menipu kita walaupun sekali. Pelabur perniagaan berbilion jutawan Warren Buffett menggesa bahawa ia mengambil masa dua puluh tahun untuk membina reputasi yang boleh dipercayai dan lima minit untuk merosakkannya.

Anda mungkin terkejut apabila mengetahui bahawa semua pandangan yang berbeza-beza dan pendapat provokatif tentang kepercayaan adalah penting untuk kemunculan Kepintaran Buatan (AI).

Ya, ada sesuatu yang sangat dirujuk sebagai AI yang boleh dipercayai yang terus mendapat perhatian ramai hari ini, termasuk panggilan tangan dari dalam bidang AI dan juga cetusan riuh oleh mereka di luar alam AI. Tanggapan keseluruhan melibatkan sama ada masyarakat bersedia atau tidak untuk meletakkan kepercayaan pada sistem AI seperti itu.

Mungkin, jika masyarakat tidak akan atau tidak boleh mempercayai AI, kemungkinan besar sistem AI akan gagal mendapat daya tarikan. AI seperti yang kita tahu pada masa ini akan diketepikan dan hanya mengumpul habuk. Anehnya, AI boleh berakhir di timbunan sampah, diturunkan dari segi sejarah kepada tidak lebih daripada percubaan berteknologi tinggi yang sangat dicuba tetapi gagal dengan hebat. Sebarang usaha untuk mencergaskan semula AI berpotensi akan menghadapi pertarungan berat yang hebat dan dihentikan oleh semua jenis bantahan dan bantahan secara terang-terangan. Kononnya, kerana kurang kepercayaan terhadap AI.

Yang manakah, adakah kita perlu mempercayai AI, atau adakah kita tidak mempercayai AI?

Pada dasarnya, adakah kita akan benar-benar mempunyai AI yang boleh dipercayai?

Itu adalah soalan lama dan tidak dapat diselesaikan. Mari kita membongkarnya.

Etika AI Dan Perjuangan Untuk AI Boleh Dipercayai

Kepercayaan ramai dalam AI ialah pembangun sistem AI boleh memperoleh kepercayaan terhadap AI dengan mencipta AI yang boleh dipercayai dengan sewajarnya. Intipatinya ialah anda tidak boleh berharap untuk mendapat kepercayaan jika AI nampaknya tidak boleh dipercayai pada permulaannya. Dengan mencipta sistem AI dengan cara yang dianggap boleh dipercayai, terdapat peluang kukuh bahawa orang ramai akan menerima AI dan menggunakan penggunaan AI.

Satu keraguan yang sudah merungut dengan pertimbangan AI yang boleh dipercayai ini ialah kita mungkin sudah berada dalam a defisit amanah awam apabila ia berkaitan dengan AI. Anda boleh mengatakan bahawa AI yang telah kita lihat telah menggali lubang dan telah memusnahkan kepercayaan dalam kuantiti yang banyak. Oleh itu, daripada bermula pada asas kebolehpercayaan yang mencukupi, AI perlu keluar dari defisit dengan mengagumkan, mencari setiap auns tambahan kepercayaan yang diperlukan untuk meyakinkan orang ramai bahawa AI sebenarnya boleh dipercayai.

Dalam cabaran ini datang Etika AI dan Undang-undang AI.

Etika AI dan Undang-undang AI sedang bergelut dengan hebat untuk memikirkan perkara yang diperlukan untuk menjadikan AI boleh dipercayai. Ada yang mencadangkan bahawa terdapat formula atau undang-undang kuku besi yang akan membawa AI ke syurga yang boleh dipercayai. Yang lain menunjukkan bahawa ia akan memerlukan kerja keras dan pematuhan yang konsisten dan tidak henti-henti kepada prinsip Etika AI dan Undang-undang AI untuk mendapatkan kepercayaan yang dibanggakan masyarakat.

Enigma kontemporari tentang kepercayaan terhadap AI bukanlah sesuatu yang baru.

Anda boleh dengan mudah kembali ke penghujung 1990-an dan mengesan kemunculan keinginan yang dicari untuk "pengkomputeran yang dipercayai" sejak zaman itu. Ini adalah usaha industri teknologi berskala besar untuk melihat sama ada komputer yang diberitahu boleh dibuat dengan cara yang boleh ditafsirkan sebagai boleh dipercayai oleh masyarakat.

Soalan utama terdiri daripada:

  • Bolehkah perkakasan komputer dibuat sedemikian rupa sehingga boleh dipercayai?
  • Bolehkah perisian direka sedemikian rupa sehingga boleh dipercayai?
  • Bolehkah kita meletakkan komputer rangkaian global yang boleh dipercayai?
  • Dan sebagainya.

Sentimen yang berlaku pada masa itu dan yang berterusan sehingga hari ini ialah pengkomputeran yang boleh dipercayai kekal sebagai sejenis cawan suci yang malangnya masih belum dapat dicapai oleh kami (seperti yang dinyatakan dalam kertas bertajuk "Ai Dipercayai" dalam Komunikasi ACM). Anda boleh berhujah dengan meyakinkan bahawa AI merupakan satu lagi komponen kebolehpercayaan pengkomputeran, namun AI menjadikan pencarian amanah lebih mencabar dan tidak pasti. AI telah menjadi spoiler yang berpotensi dalam perjuangan untuk mencapai pengkomputeran yang boleh dipercayai. Mungkin pautan paling lemah dalam rantai, seolah-olah.

Mari kita lihat dengan cepat mengapa AI telah menimbulkan kebimbangan kita tentang menjadi kurang boleh dipercayai. Di samping itu, kami akan meneroka prinsip Etika AI yang diharapkan akan membantu dalam menyokong kepercayaan (atau ketidakpercayaan yang menggelegak) AI hari ini yang dianggap separa bawah air. Untuk liputan berterusan dan meluas saya tentang Etika AI, lihat pautan di sini and pautan di sini, Hanya untuk menamakan beberapa.

Satu segmen atau bahagian tertentu Etika AI yang telah mendapat banyak perhatian media terdiri daripada AI yang menunjukkan berat sebelah dan ketidaksamaan yang tidak diingini. Anda mungkin sedar bahawa apabila era terkini AI bermula, terdapat cetusan semangat yang besar untuk apa yang kini dipanggil oleh sesetengah orang. AI Untuk Kebaikan. Malangnya, selepas keterujaan yang membuak-buak itu, kami mula menyaksikan AI Untuk Buruk. Sebagai contoh, pelbagai sistem pengecaman muka berasaskan AI telah didedahkan sebagai mengandungi berat sebelah kaum dan berat sebelah jantina, yang telah saya bincangkan di pautan di sini.

Usaha melawan balik AI Untuk Buruk sedang giat dijalankan. Selain riuh rendah undang-undang usaha untuk mengekang perbuatan salah, terdapat juga dorongan substantif ke arah menerima Etika AI untuk memperbetulkan keburukan AI. Tanggapannya ialah kita harus mengguna pakai dan menyokong prinsip AI Etika utama untuk pembangunan dan penempatan AI berbuat demikian untuk mengurangkan AI Untuk Buruk dan pada masa yang sama menghebahkan dan mempromosikan yang lebih baik AI Untuk Kebaikan.

Mengenai tanggapan yang berkaitan, saya adalah penyokong cuba menggunakan AI sebagai sebahagian daripada penyelesaian kepada masalah AI, melawan api dengan api dengan cara pemikiran itu. Sebagai contoh, kami mungkin membenamkan komponen AI Beretika ke dalam sistem AI yang akan memantau bagaimana seluruh AI melakukan sesuatu dan dengan itu berpotensi menangkap dalam masa nyata sebarang usaha diskriminasi, lihat perbincangan saya di pautan di sini. Kami juga boleh mempunyai sistem AI berasingan yang bertindak sebagai sejenis pemantau Etika AI. Sistem AI berfungsi sebagai penyelia untuk menjejak dan mengesan apabila AI lain masuk ke jurang yang tidak beretika (lihat analisis saya tentang keupayaan sedemikian di pautan di sini).

Sebentar lagi, saya akan berkongsi dengan anda beberapa prinsip menyeluruh yang mendasari Etika AI. Terdapat banyak senarai jenis ini terapung di sana sini. Anda boleh mengatakan bahawa belum ada senarai tunggal bagi rayuan dan persetujuan sejagat. Itu berita malangnya. Berita baiknya ialah sekurang-kurangnya terdapat senarai Etika AI yang tersedia dan mereka cenderung agak serupa. Semua diberitahu, ini menunjukkan bahawa melalui satu bentuk penumpuan yang beralasan bahawa kita sedang mencari jalan ke arah persamaan umum yang terdiri daripada Etika AI.

Mula-mula, mari kita bincangkan secara ringkas beberapa peraturan AI Etika keseluruhan untuk menggambarkan perkara yang sepatutnya menjadi pertimbangan penting bagi sesiapa yang membuat, memadang atau menggunakan AI.

Sebagai contoh, seperti yang dinyatakan oleh Vatican dalam Rome Call For AI Ethics dan seperti yang telah saya kupas secara mendalam pautan di sini, ini ialah enam prinsip etika AI utama mereka yang dikenal pasti:

  • Ketelusan: Pada dasarnya, sistem AI mesti boleh dijelaskan
  • Inklusi: Keperluan semua manusia mesti diambil kira supaya semua orang boleh mendapat manfaat, dan semua individu boleh ditawarkan keadaan terbaik untuk mengekspresikan diri dan berkembang.
  • Tanggungjawab: Mereka yang mereka bentuk dan menggunakan penggunaan AI mesti meneruskan dengan tanggungjawab dan ketelusan
  • Kesaksamaan: Jangan mencipta atau bertindak mengikut berat sebelah, sekali gus menjaga keadilan dan maruah manusia
  • Kebolehpercayaan: Sistem AI mesti boleh berfungsi dengan pasti
  • Keselamatan dan privasi: Sistem AI mesti berfungsi dengan selamat dan menghormati privasi pengguna.

Seperti yang dinyatakan oleh Jabatan Pertahanan AS (DoD) dalam mereka Prinsip Etika Untuk Penggunaan Kepintaran Buatan dan seperti yang telah saya kupas secara mendalam pautan di sini, ini ialah enam prinsip etika AI utama mereka:

  • Bertanggungjawab: Kakitangan DoD akan menggunakan tahap pertimbangan dan penjagaan yang sesuai sambil kekal bertanggungjawab terhadap pembangunan, penggunaan dan penggunaan keupayaan AI.
  • saksama: Jabatan akan mengambil langkah yang disengajakan untuk meminimumkan berat sebelah yang tidak diingini dalam keupayaan AI.
  • Boleh dikesan: Keupayaan AI Jabatan akan dibangunkan dan digunakan supaya kakitangan yang berkaitan mempunyai pemahaman yang sesuai tentang teknologi, proses pembangunan dan kaedah operasi yang digunakan untuk keupayaan AI, termasuk metodologi yang telus dan boleh diaudit, sumber data serta prosedur dan dokumentasi reka bentuk.
  • dipercayai: Keupayaan AI Jabatan akan mempunyai penggunaan yang jelas, ditakrifkan dengan baik, dan keselamatan, keselamatan dan keberkesanan keupayaan tersebut akan tertakluk kepada ujian dan jaminan dalam penggunaan yang ditentukan merentas keseluruhan kitaran hayatnya.
  • Boleh ditadbir: Jabatan akan mereka bentuk dan merekayasa keupayaan AI untuk memenuhi fungsi yang dimaksudkan sambil memiliki kebolehan untuk mengesan dan mengelakkan akibat yang tidak diingini, dan keupayaan untuk menanggalkan atau menyahaktifkan sistem yang digunakan yang menunjukkan tingkah laku yang tidak diingini.

Saya juga telah membincangkan pelbagai analisis kolektif prinsip etika AI, termasuk telah merangkumi satu set yang direka oleh penyelidik yang meneliti dan meringkaskan intipati pelbagai prinsip etika AI nasional dan antarabangsa dalam kertas kerja bertajuk "The Global Landscape Of AI Ethics Guidelines" (diterbitkan dalam Alam), dan liputan saya meneroka di pautan di sini, yang membawa kepada senarai batu kunci ini:

  • Ketelusan
  • Keadilan & Kesaksamaan
  • Non-Maleficence
  • tanggungjawab
  • Privasi
  • Kebaikan
  • Kebebasan & Autonomi
  • Amanah
  • Sustainability
  • Martabat
  • Perpaduan

Seperti yang anda mungkin meneka secara langsung, cuba mengecilkan butiran yang mendasari prinsip ini boleh menjadi sangat sukar untuk dilakukan. Lebih-lebih lagi, usaha untuk mengubah prinsip-prinsip yang luas itu menjadi sesuatu yang benar-benar nyata dan cukup terperinci untuk digunakan semasa membuat sistem AI juga merupakan masalah yang sukar untuk dipecahkan. Adalah mudah untuk secara keseluruhan melakukan beberapa lambaian tangan tentang apa itu peraturan Etika AI dan cara ia harus dipatuhi secara umum, sementara ia adalah situasi yang lebih rumit dalam pengekodan AI yang harus menjadi getah yang benar-benar memenuhi jalan.

Prinsip Etika AI akan digunakan oleh pembangun AI, bersama-sama dengan mereka yang menguruskan usaha pembangunan AI, dan juga prinsip yang akhirnya meletakkan dan melaksanakan penyelenggaraan pada sistem AI. Semua pihak berkepentingan sepanjang keseluruhan kitaran hayat pembangunan dan penggunaan AI dianggap dalam skop pematuhan kepada norma AI Etika yang telah ditetapkan. Ini adalah sorotan penting kerana andaian biasa ialah "pengekod sahaja" atau mereka yang memprogramkan AI tertakluk kepada pematuhan kepada tanggapan Etika AI. Seperti yang dinyatakan sebelum ini, ia memerlukan sebuah kampung untuk mencipta dan membina AI, dan untuk itu seluruh kampung perlu dikuasai dan mematuhi peraturan Etika AI.

Mari kita juga pastikan kita berada di halaman yang sama tentang sifat AI hari ini.

Tidak ada AI hari ini yang hidup. Kami tidak mempunyai ini. Kami tidak tahu sama ada kecerdasan buatan boleh dilakukan. Tiada siapa yang boleh meramalkan dengan tepat sama ada kita akan mencapai AI sentient, mahupun sama ada AI sentient entah bagaimana secara ajaib akan timbul secara spontan dalam bentuk supernova kognitif pengiraan (biasanya dirujuk sebagai ketunggalan, lihat liputan saya di pautan di sini).

Jenis AI yang saya fokuskan terdiri daripada AI bukan makhluk yang kita ada hari ini. Jika kita mahu membuat spekulasi liar sentimen AI, perbincangan ini boleh pergi ke arah yang sangat berbeza. AI yang hidup sepatutnya berkualiti manusia. Anda perlu mempertimbangkan bahawa AI yang hidup adalah setara dengan kognitif manusia. Lebih-lebih lagi, memandangkan ada yang membuat spekulasi bahawa kita mungkin mempunyai AI super-pintar, boleh dibayangkan bahawa AI sedemikian akhirnya boleh menjadi lebih pintar daripada manusia (untuk penerokaan saya tentang AI super-pintar sebagai kemungkinan, lihat liputan di sini).

Mari kita simpan perkara yang lebih sederhana dan pertimbangkan pengiraan AI bukan makhluk hari ini.

Sedar bahawa AI hari ini tidak dapat "berfikir" dalam apa jua cara yang setanding dengan pemikiran manusia. Apabila anda berinteraksi dengan Alexa atau Siri, kapasiti perbualan mungkin kelihatan serupa dengan kapasiti manusia, tetapi realitinya ialah ia adalah pengiraan dan tidak mempunyai kognisi manusia. Era terbaru AI telah menggunakan Pembelajaran Mesin (ML) dan Pembelajaran Dalam (DL) secara meluas, yang memanfaatkan padanan corak pengiraan. Ini telah membawa kepada sistem AI yang mempunyai rupa kecenderungan seperti manusia. Sementara itu, tidak ada mana-mana AI hari ini yang mempunyai rupa akal dan juga tidak mempunyai sebarang keajaiban kognitif pemikiran manusia yang teguh.

ML/DL ialah satu bentuk padanan corak pengiraan. Pendekatan biasa ialah anda mengumpulkan data tentang tugas membuat keputusan. Anda memasukkan data ke dalam model komputer ML/DL. Model tersebut berusaha untuk mencari corak matematik. Selepas menemui corak sedemikian, jika didapati, sistem AI kemudian akan menggunakan corak tersebut apabila menemui data baharu. Selepas pembentangan data baharu, corak berdasarkan data "lama" atau sejarah digunakan untuk membuat keputusan semasa.

Saya rasa anda boleh meneka ke mana arahnya. Jika manusia yang telah membuat keputusan yang bercorak telah memasukkan berat sebelah yang tidak diingini, kemungkinan besar data tersebut mencerminkannya dengan cara yang halus tetapi ketara. Pembelajaran Mesin atau Pembelajaran Dalam padanan corak pengiraan hanya akan cuba meniru data secara matematik dengan sewajarnya. Tidak ada kesamaan akal sehat atau aspek lain dari pemodelan buatan AI.

Tambahan pula, pembangun AI mungkin tidak menyedari apa yang sedang berlaku. Matematik misteri dalam ML/DL mungkin menyukarkan untuk menghilangkan bias yang kini tersembunyi. Anda berhak berharap dan menjangkakan bahawa pembangun AI akan menguji bias yang mungkin terkubur, walaupun ini lebih rumit daripada yang kelihatan. Peluang kukuh wujud bahawa walaupun dengan ujian yang agak meluas bahawa akan terdapat berat sebelah masih tertanam dalam model padanan corak ML/DL.

Anda boleh menggunakan pepatah yang terkenal atau terkenal tentang sampah masuk sampah. Masalahnya, ini lebih mirip kepada bias-in yang secara licik diselitkan sebagai bias yang tenggelam dalam AI. Algoritma membuat keputusan (ADM) AI secara aksiomatik menjadi sarat dengan ketidaksamaan.

Tidak baik.

Mari kita ikatkan ini dengan soalan tentang AI yang boleh dipercayai

Kami pastinya tidak akan sanggup mempercayai AI yang mempamerkan berat sebelah dan tindakan diskriminasi yang buruk. Kepercayaan kami, dalam kes itu, adalah bahawa AI sedemikian jelas tidak boleh dipercayai, oleh itu kami akan cenderung untuk tidak mempercayai AI secara aktif. Tanpa melebih-lebihkan perbandingan antropomorfik (saya akan mengatakan lebih lanjut mengenai antropomorfosis AI sebentar lagi), manusia yang mempamerkan berat sebelah yang tidak diingini juga akan tertakluk kepada penilaian sebagai tidak boleh dipercayai.

Menggali Kepercayaan Dan Kebolehpercayaan

Mungkin kita patut melihat apa yang kita maksudkan apabila menegaskan bahawa kita percaya atau tidak mempercayai seseorang atau sesuatu. Pertama, pertimbangkan beberapa definisi kamus harian tentang kepercayaan.

Contoh maksud amanah secara definisi ialah:

  • Pergantungan yang terjamin pada watak, keupayaan, kekuatan, atau kebenaran seseorang atau sesuatu (Kamus dalam talian Merriam-Webster).
  • Pergantungan pada integriti, kekuatan, keupayaan, kepastian, dsb., seseorang atau benda (Dictionary.com)
  • Kepercayaan teguh dalam kebolehpercayaan, kebenaran, keupayaan, atau kekuatan seseorang atau sesuatu (Kamus dalam talian Oxford Languages).

Saya ingin menyatakan bahawa semua definisi tersebut merujuk kepada "seseorang" dan juga merujuk kepada "sesuatu" sebagai berpotensi boleh dipercayai. Ini ketara kerana sesetengah pihak mungkin menegaskan bahawa kita hanya mempercayai manusia dan tindakan mempercayai dikhaskan secara eksklusif untuk manusia sebagai sasaran kebolehpercayaan kita. Tidak begitu. Anda boleh mempercayai pembakar roti dapur anda. Jika ia nampaknya boleh dipercayai membuat roti bakar anda dan bekerja secara rutin untuk melakukannya, anda pasti mempunyai kepercayaan sama ada pembakar roti itu sebenarnya boleh dipercayai.

Dalam garis pemikiran yang sama, AI juga boleh menjadi subjek pandangan kepercayaan kami. Kemungkinannya ialah kepercayaan yang dikaitkan dengan AI akan menjadi jauh lebih rumit daripada mengatakan pembakar roti biasa. Pembakar roti biasanya hanya boleh melakukan beberapa tindakan. Sistem AI berkemungkinan jauh lebih kompleks dan kelihatan beroperasi kurang telus. Keupayaan kami untuk menilai dan memastikan kebolehpercayaan AI pasti akan menjadi lebih sukar dan menawarkan cabaran yang berbeza.

Selain lebih kompleks, sistem AI biasa dikatakan tidak menentukan dan berpotensi mengawal selia atau menyesuaikan diri. Kita boleh meneroka secara ringkas tanggapan itu.

Mesin deterministik cenderung untuk melakukan perkara yang sama berulang kali, boleh diramal dan dengan corak yang boleh dilihat dengan jelas tentang cara ia beroperasi. Anda mungkin mengatakan bahawa pembakar roti biasa memanggang secara kasar dengan cara yang sama dan mempunyai kawalan pembakar yang menyederhanakan pembakar roti, yang semuanya biasanya boleh diramal oleh orang yang menggunakan pembakar roti. Sebaliknya, sistem AI yang kompleks sering direka untuk tidak menentukan, bermakna mereka mungkin melakukan perkara yang agak berbeza melebihi apa yang anda jangkakan. Ini sebahagiannya juga boleh diperkuatkan lagi jika AI ditulis untuk menyesuaikan diri sendiri, satu aspek yang secara berfaedah membolehkan AI bertambah baik dalam kes ML/DL, walaupun boleh menyebabkan AI goyah atau masuk ke dalam barisan secara mengganggu. keburukan AI. Anda mungkin tidak tahu apa yang melanda anda, dalam cara bercakap, kerana anda terperangkap sepenuhnya dengan tindakan AI.

Apakah yang boleh kita lakukan untuk mencuba dan mendekatkan AI kepada kebolehpercayaan?

Satu pendekatan terdiri daripada cuba memastikan bahawa mereka yang membina dan meletakkan AI mematuhi satu set peraturan Etika AI. Seperti yang disebut oleh penyelidik AI ini: “Kepercayaan ialah sikap yang seorang ejen akan berkelakuan seperti yang diharapkan dan boleh dipercayai untuk mencapai matlamatnya. Kepercayaan rosak selepas kesilapan atau salah faham antara ejen dan individu yang mempercayai. Keadaan psikologi kepercayaan dalam AI ialah sifat yang muncul dalam sistem yang kompleks, biasanya melibatkan banyak kitaran reka bentuk, latihan, penggunaan, pengukuran prestasi, peraturan, reka bentuk semula dan latihan semula" (ditunjukkan dalam Komunikasi ACM, "Amanah, Peraturan, dan AI Manusia-dalam-Gelung Dalam Wilayah Eropah" oleh Stuart Middleton, Emmanuel Letouze, Ali Hossaini dan Adriane Chapman, April 2022).

Intinya ialah jika kita boleh mendapatkan pembangun AI untuk mematuhi Etika AI, mereka diharapkan akan menghasilkan AI yang boleh dipercayai. Ini semua baik dan baik, tetapi nampaknya agak tidak praktikal pada asas dunia nyata, walaupun ia benar-benar jalan yang patut dilalui.

Inilah yang saya maksudkan.

Katakan usaha gigih dilakukan oleh pembangun AI yang mencipta sistem AI untuk tujuan tertentu yang biasanya kita panggil X. Mereka dengan teliti memastikan AI mematuhi peraturan ketelusan Etika AI. Mereka sangat memastikan bahawa privasi terbina dengan sesuai ke dalam AI. Untuk hampir semua prinsip Etika AI yang biasa, pembina AI memastikan secara menyeluruh bahawa AI memenuhi peraturan yang diberikan.

Sekiranya anda kini mempercayai AI itu?

Izinkan saya untuk membantu meresap pemikiran anda tentang soalan terbuka itu.

Ternyata penjahat siber berjaya menyusup ke AI dan secara senyap-senyap membuat AI melakukan X dan juga memberi makan kepada penggodam siber semua data yang dikumpulkan oleh AI. Dengan berbuat demikian, penjahat ini secara licik melanggar peraturan privasi. Anda benar-benar tidak menyedari bahawa ini berlaku di bawah hud AI.

Dengan maklumat tambahan itu, saya akan bertanya soalan yang sama sekali lagi.

Adakah anda mempercayai AI itu?

Saya berani mengatakan bahawa kebanyakan orang akan serta-merta mengisytiharkan bahawa mereka pasti melakukannya tidak mempercayai AI khusus ini. Mereka mungkin mempercayainya lebih awal. Mereka kini memilih untuk tidak lagi menganggap AI boleh dipercayai.

Beberapa pandangan penting berdasarkan contoh mudah ini patut direnungkan:

  • Dinamik Amanah. Malah niat terbaik untuk merangkumi semua asas memastikan bahawa Etika AI dibina ke dalam sistem AI bukanlah jaminan tentang apa yang mungkin menjadi atau menjadi AI. Sebaik sahaja AI digunakan, orang luar berpotensi melemahkan perolehan AI Beretika.
  • Melemahkan Amanah Dari Dalam. Tindakan merendahkan kepercayaan tidak semestinya orang luar. Orang dalam yang melakukan pemeliharaan biasa pada sistem AI mungkin melakukan kesilapan dan melemahkan AI untuk menjadi kurang boleh dipercayai. Pembangun AI ini mungkin tidak tahu tentang apa yang telah mereka lakukan.
  • Kompromi Kepercayaan yang Tidak Sengaja. AI yang melaraskan diri atau mengawal selia kendiri mungkin pada satu ketika menyesuaikan dirinya dan beralih ke wilayah yang tidak boleh dipercayai. Mungkin AI cuba untuk meningkatkan ketelusan AI tetapi secara serentak dan tidak wajar menjejaskan aspek privasi.
  • Taburan Amanah. Percubaan untuk mencapai semua prinsip Etika AI pada tahap kebolehpercayaan yang sama biasanya tidak mudah berdaya maju kerana ia selalunya untuk tujuan bersilang atau mempunyai potensi konflik yang lain. Ia adalah perspektif yang agak ideal untuk mempercayai bahawa semua peraturan AI Etika diselaraskan dengan impian dan semuanya boleh dicapai pada tahap yang sama dimaksimumkan.
  • Kepercayaan Boleh Membayar Kos Untuk Dicapai. Kos untuk mencuba dan mencapai rupa AI yang boleh dipercayai melalui pelbagai langkah yang meluas dan menyeluruh serta mematuhi prinsip Etika AI akan menjadi agak tinggi. Anda boleh berhujah dengan mudah bahawa kosnya adalah terlalu tinggi dari segi penggunaan beberapa sistem AI yang sebaliknya mempunyai nilai penting kepada masyarakat, walaupun jika AI itu boleh kita katakan kurang ideal daripada keinginan yang boleh dipercayai.
  • Dan sebagainya.

Jangan salah tafsir kenyataan sebelumnya untuk mencadangkan bahawa kita entah bagaimana harus mengelak usaha untuk membina dan mengembangkan AI yang boleh dipercayai secara menyeluruh. Anda akan secara ringkasnya membuang bayi dengan air mandian, seolah-olah. Tafsiran yang betul ialah kita perlu melakukan aktiviti mempercayai tersebut untuk menjadikan AI sebagai pertimbangan yang boleh dipercayai, namun itu sahaja bukanlah ubat untuk semua atau peluru perak.

Laluan Berbilang Serampang Ke AI yang Boleh Dipercayai

Terdapat cara berbilang serampang tambahan yang penting untuk berusaha ke arah AI yang boleh dipercayai.

Sebagai contoh, seperti yang telah saya bincangkan sebelum ini dalam lajur saya, pelbagai undang-undang dan peraturan baru muncul mengenai AI bertujuan untuk mendorong pembuat AI ke arah mencipta AI yang boleh dipercayai, lihat pautan di sini and pautan di sini.

Pengawal undang-undang ini adalah penting sebagai cara menyeluruh untuk memastikan bahawa mereka yang mencipta AI dipertanggungjawabkan sepenuhnya untuk AI mereka. Tanpa remedi undang-undang yang berpotensi dan penalti yang sah seperti itu, mereka yang menggegarkan AI ke pasaran berkemungkinan akan terus berbuat demikian dengan sedikit perhatian serius untuk mencapai AI yang boleh dipercayai. Saya mungkin menambah, bahawa jika undang-undang dan peraturan tersebut direka dengan baik atau tidak dilaksanakan dengan sempurna, malangnya ia boleh mengurangkan usaha mencari AI yang boleh dipercayai, mungkin secara ironis dan anehnya memupuk AI yang tidak boleh dipercayai berbanding AI yang boleh dipercayai (lihat perbincangan lajur saya untuk penjelasan lanjut).

Saya juga telah menjadi penyokong tegar untuk apa yang saya rujuk dengan tekun Bot malaikat penjaga AI (lihat liputan saya di pautan di sini). Ini ialah kaedah atau pendekatan yang akan datang untuk cuba melawan api dengan api, iaitu menggunakan AI untuk membantu kami menangani AI lain yang mungkin boleh dipercayai atau tidak.

Pertama, beberapa konteks latar belakang akan berguna.

Katakan anda memilih untuk bergantung pada sistem AI yang anda tidak pasti kebolehpercayaannya. Kebimbangan utama mungkin ialah anda bersendirian dalam percubaan anda untuk mengetahui sama ada AI boleh dipercayai atau tidak. AI berpotensi secara pengiraan lebih pantas daripada anda dan boleh memanfaatkan anda. Anda memerlukan seseorang atau sesuatu di pihak anda untuk membantu.

Satu perspektif ialah sentiasa ada manusia-dalam-gelung yang akan membantu anda semasa anda menggunakan sistem AI. Ini walaupun adalah penyelesaian yang bermasalah. Jika AI berfungsi dalam masa nyata, yang akan kita bincangkan seketika mengenai kemunculan kereta pandu sendiri berasaskan AI, mempunyai manusia dalam gelung mungkin tidak mencukupi. AI boleh bertindak dalam masa nyata dan pada masa manusia-dalam-gelung yang ditetapkan memasuki gambar untuk mengetahui sama ada AI beroperasi dengan betul, keputusan bencana mungkin telah berlaku.

Di samping itu, ini membawa satu lagi faktor tentang kepercayaan. Kami biasanya menetapkan tahap kepercayaan berdasarkan konteks atau keadaan yang kami hadapi. Anda mungkin mempercayai sepenuhnya anak lelaki atau perempuan anda untuk setia kepada anda, tetapi jika anda keluar mendaki dan memutuskan untuk bergantung kepada anak kecil untuk memberitahu anda sama ada selamat untuk melangkah di tepi tebing, saya fikir anda akan bijak untuk mempertimbangkan sama ada anak kecil itu boleh memberikan nasihat hidup atau mati seperti itu. Kanak-kanak itu mungkin berbuat demikian dengan bersungguh-sungguh dan ikhlas, dan bagaimanapun, tidak dapat memberikan nasihat sedemikian dengan secukupnya.

Tanggapan yang sama dikaitkan dengan kepercayaan apabila ia berkaitan dengan AI. Sistem AI yang anda gunakan untuk bermain dam atau catur mungkin tidak terlibat dalam sebarang perbincangan hidup atau mati. Anda boleh menjadi lebih selesa dengan penugasan amanah anda. Sebuah kereta pandu sendiri berasaskan AI yang meredah lebuh raya pada kelajuan tinggi memerlukan tahap kepercayaan yang lebih berat. Kejatuhan sedikit pun oleh sistem pemanduan AI boleh membawa terus kepada kematian anda dan kematian orang lain.

Dalam wawancara yang diterbitkan oleh Beena Ammanath, Pengarah Eksekutif Institut AI Deloitte Global dan pengarang buku itu AI yang boleh dipercayai, penekanan yang sama dalam mempertimbangkan aspek kontekstual di mana kebolehpercayaan AI berperanan: “Jika anda sedang membina penyelesaian AI yang melakukan diagnosis pesakit, keadilan dan berat sebelah adalah sangat penting. Tetapi jika anda sedang membina algoritma yang meramalkan kegagalan enjin jet, keadilan dan berat sebelah tidak begitu penting. AI yang boleh dipercayai sebenarnya merupakan struktur untuk membolehkan anda mula berfikir tentang dimensi kepercayaan dalam organisasi anda” (VentureBeat, 22 Mac 2022).

Apabila membincangkan AI yang boleh dipercayai, anda boleh menafsirkan topik ini dalam pelbagai cara.

Sebagai contoh, AI yang boleh dipercayai adalah sesuatu yang kita semua lihat sebagai matlamat yang diingini dan dicita-citakan, iaitu kita harus berhasrat untuk mencipta dan menyebarkan AI yang boleh dipercayai. Terdapat satu lagi penggunaan kata kunci. Penggunaan yang agak alternatif ialah AI yang boleh dipercayai ialah keadaan keadaan atau ukuran, supaya seseorang mungkin menegaskan bahawa mereka telah mencipta sistem AI yang merupakan contoh AI yang boleh dipercayai. Anda juga boleh menggunakan frasa tersebut AI yang boleh dipercayai untuk mencadangkan kaedah atau pendekatan yang boleh digunakan untuk mencapai kebolehpercayaan AI. Dan lain-lain.

Pada nota yang berkaitan, saya percaya bahawa anda menyedari bahawa tidak semua AI adalah sama dan kita perlu berhati-hati untuk tidak membuat kenyataan menyeluruh tentang semua AI. Sistem AI tertentu mungkin berbeza dengan ketara daripada sistem AI yang lain. Salah satu daripada sistem AI tersebut mungkin sangat boleh dipercayai, manakala yang lain mungkin sedikit boleh dipercayai. Berhati-hati dalam entah bagaimana menganggap bahawa AI ialah monolit yang sama ada boleh dipercayai sepenuhnya atau tidak boleh dipercayai sepenuhnya.

Ini bukan kesnya.

Saya ingin mengupas secara ringkas beberapa penyelidikan berterusan saya tentang AI yang boleh dipercayai yang mungkin menarik minat anda, meliputi peranan yang timbul Bot malaikat penjaga AI.

Begini caranya.

Anda akan dipersenjatai dengan sistem AI (bot malaikat penjaga AI) yang direka untuk mengukur kebolehpercayaan beberapa sistem AI yang lain. Bot malaikat penjaga AI mempunyai tumpuan utama keselamatan anda. Fikirkan ini seolah-olah anda mempunyai cara untuk memantau AI yang anda harapkan dengan mempunyai sistem AI yang berbeza dalam poket sebenar anda, mungkin berjalan pada telefon pintar anda atau peranti lain seumpamanya. Pepatah penjaga AI anda boleh mengira berdasarkan AI yang anda andalkan juga lakukan, bekerja pada kelajuan yang pantas dan mengira keadaan di tangan dalam masa nyata, jauh lebih pantas daripada manusia dalam gelung boleh melakukannya.

Anda mungkin pada pandangan awal berfikir bahawa AI yang anda harapkan sepatutnya mempunyai beberapa dalaman Pagar penghadang AI yang melakukan perkara yang sama seperti bot malaikat penjaga AI yang mengira secara berasingan ini. Ya, itu pasti akan diingini. Satu kemusykilan ialah pagar penghadang AI yang dibina ke dalam sistem AI mungkin sejajar secara menyeluruh dan prejudis dengan AI, oleh itu pagar penghadang AI yang sepatutnya tidak lagi dapat mengesahkan atau mengesahkan AI secara bebas.

Idea yang berbeza ialah bot malaikat penjaga AI anda ialah mekanisme AI bebas atau pihak ketiga yang berbeza daripada AI yang anda andalkan. Ia terletak di luar AI yang lain, kekal menumpukan kepada anda dan tidak menumpukan kepada AI yang dipantau atau dinilai.

Cara berfikir yang mudah tentang perkara ini boleh dinyatakan melalui pernyataan seperti persamaan dipermudahkan berikut. Kita mungkin mengatakan bahawa "P" ingin berpotensi mempercayai "R" untuk melakukan tugas tertentu "X":

Ini akan menjadi yang berikut apabila hanya orang yang terlibat:

  • Orang P mempercayai orang R untuk melakukan tugas X.

Apabila kami memilih untuk bergantung pada AI, kenyataan itu membentuk semula ini:

  • Orang P mempercayai instance-R AI untuk melakukan tugas X.

Kita boleh menambah bot malaikat penjaga AI dengan mengatakan ini:

  • Orang P mempercayai AI instance-R untuk melakukan tugas X sebagai dipantau oleh AI guardian angel bot instance-Z

Bot malaikat penjaga AI tanpa jemu dan tanpa henti menilai AI yang anda harapkan. Oleh itu, penjaga AI anda yang berguna mungkin memaklumkan anda bahawa kepercayaan AI yang lain ini adalah tidak wajar. Atau, penjaga AI mungkin berinteraksi secara elektronik dengan AI yang lain untuk mencuba dan memastikan bahawa apa-apa perbezaan daripada boleh dipercayai diperbetulkan dengan cepat, dan seterusnya (lihat liputan saya mengenai butiran tersebut di pautan di sini).

Metafora Takungan Amanah Amanah

Memandangkan kita membincangkan tahap kepercayaan yang berbeza-beza, anda mungkin mendapati menggunakan metafora berguna tentang kebolehpercayaan dengan menganggap kepercayaan sebagai sejenis takungan.

Anda mempunyai sejumlah kepercayaan untuk orang atau benda tertentu dalam keadaan tertentu pada masa tertentu. Tahap kepercayaan akan naik atau turun, bergantung kepada perkara lain yang berlaku berkaitan dengan orang atau benda tertentu itu. Kepercayaan boleh berada pada tahap sifar apabila anda tidak mempunyai sebarang kepercayaan untuk orang atau benda itu. Kepercayaan boleh menjadi negatif apabila anda mencuba untuk tidak mempercayai orang atau perkara itu.

Dalam kes sistem AI, takungan kepercayaan anda untuk AI tertentu yang anda andalkan dalam keadaan tertentu akan naik atau turun sebagai bergantung kepada anda mengukur kebolehpercayaan AI. Kadangkala, anda mungkin menyedari tahap kepercayaan yang berbeza-beza tentang AI ini, manakala dalam keadaan lain anda mungkin kurang sedar dan lebih-lebih lagi dengan firasat membuat pertimbangan tentang kebolehpercayaan.

Cara yang telah kami bincangkan di sini tentang cara untuk meningkatkan tahap kepercayaan untuk AI termasuk:

  • Pematuhan kepada Etika AI. Jika AI yang anda andalkan telah direka bentuk dengan cuba mematuhi peraturan Etika AI yang betul, anda mungkin akan menggunakan pemahaman ini untuk meningkatkan tahap takungan kepercayaan anda untuk sistem AI tertentu itu. Sebagai nota sampingan, anda juga mungkin membuat generalisasi kepada sistem AI lain tentang kebolehpercayaan mereka, begitu juga, walaupun ini kadang-kadang boleh menjadi bentuk yang mengelirukan daripada apa yang saya panggil. Penyebaran aura kepercayaan AI (berhati-hati dalam melakukan ini!).
  • Gunakan Human-In-The-Loop. Jika AI mempunyai human-in-the-loop, anda mungkin secara positif menambah kepercayaan anda terhadap AI.
  • Wujudkan Undang-undang dan Peraturan. Jika terdapat undang-undang dan peraturan yang dikaitkan dengan jenis AI tertentu ini, anda juga mungkin meningkatkan tahap kepercayaan anda.
  • Gunakan Bot Malaikat Penjaga AI. Jika anda mempunyai bot malaikat penjaga AI yang sedia, ini juga akan meningkatkan lagi tahap kepercayaan anda.

Seperti yang dinyatakan sebelum ini, kepercayaan boleh menjadi agak rapuh dan runtuh dalam sekelip mata (iaitu, takungan amanah dengan cepat dan tiba-tiba membuang semua amanah yang terbina).

Bayangkan anda berada di dalam kereta pandu sendiri berasaskan AI dan pemanduan AI tiba-tiba membuat pusingan ke kanan secara radikal, menyebabkan roda memekik dan hampir memaksa kenderaan autonomi itu beralih arah yang membahayakan. Apakah yang akan berlaku kepada tahap kepercayaan anda? Nampaknya walaupun anda sebelum ini memegang AI pada tahap kepercayaan yang lebih tinggi, anda akan menurunkan tahap kepercayaan anda secara mendadak dan secara mendadak, dengan wajar.

Pada masa perbincangan yang berat ini, saya yakin anda inginkan contoh ilustrasi tambahan yang mungkin mempamerkan sifat dan skop AI yang boleh dipercayai. Terdapat satu set contoh istimewa dan pasti popular yang dekat di hati saya. Anda lihat, dalam kapasiti saya sebagai pakar dalam AI termasuk kesan etika dan undang-undang, saya sering diminta untuk mengenal pasti contoh realistik yang mempamerkan dilema Etika AI supaya sifat topik yang agak teoritikal dapat difahami dengan lebih mudah. Salah satu bidang yang paling menggembirakan yang menunjukkan dengan jelas kebingungan AI beretika ini ialah kemunculan kereta pandu sendiri sejati berasaskan AI. Ini akan berfungsi sebagai kes penggunaan yang berguna atau contoh untuk perbincangan yang mencukupi mengenai topik tersebut.

Berikut adalah soalan penting yang patut direnungkan: Adakah kemunculan kereta pandu sendiri sebenar berasaskan AI menerangi apa-apa tentang mengejar AI yang boleh dipercayai, dan jika ya, apakah yang ditunjukkan oleh ini?

Izinkan saya sebentar untuk membongkar soalan.

Pertama, ambil perhatian bahawa tidak ada pemandu manusia yang terlibat dalam kereta pandu sendiri yang sebenar. Perlu diingat bahawa kereta pandu sendiri sebenar dipandu melalui sistem pemanduan AI. Tidak ada keperluan untuk pemandu manusia di atas roda, dan tidak ada peruntukan untuk manusia memandu kenderaan itu. Untuk liputan saya yang meluas dan berterusan mengenai Kenderaan Autonomi (AV) dan terutamanya kereta pandu sendiri, lihat pautan di sini.

Saya ingin menjelaskan lebih lanjut apa yang dimaksudkan apabila saya merujuk kepada kereta pandu sendiri yang sebenar.

Memahami Tahap Kereta Memandu Kendiri

Sebagai penjelasan, kereta pandu sendiri yang sebenar ialah kereta yang AI memandu kereta itu sendiri sepenuhnya dan tidak ada sebarang bantuan manusia semasa tugas memandu.

Kenderaan tanpa pemandu ini dianggap Tahap 4 dan Tahap 5 (lihat penjelasan saya di pautan ini di sini), manakala kereta yang memerlukan pemandu manusia untuk berkongsi usaha pemanduan biasanya dianggap pada Tahap 2 atau Tahap 3. Kereta yang berkongsi tugas pemanduan digambarkan sebagai separa autonomi dan biasanya mengandungi pelbagai alat tambah automatik yang dirujuk sebagai ADAS (Advanced Driver-Assistance Systems).

Belum ada kereta pandu sendiri yang sebenar di Tahap 5, dan kami masih belum tahu sama ada ini boleh dicapai, atau berapa lama masa yang diperlukan untuk sampai ke sana.

Sementara itu, usaha Tahap 4 secara beransur-ansur cuba mendapatkan sedikit daya tarikan dengan menjalani ujian jalan raya awam yang sangat sempit dan terpilih, walaupun terdapat kontroversi sama ada ujian ini harus dibenarkan sendiri (kita semua adalah babi guinea hidup atau mati dalam eksperimen berlaku di lebuh raya dan jalan raya kami, ada yang berpendapat, lihat liputan saya di pautan ini di sini).

Oleh kerana kereta separa autonomi memerlukan pemandu manusia, penggunaan jenis kereta itu tidak akan jauh berbeza daripada mengemudi kenderaan konvensional, jadi tidak banyak yang perlu dibahas sendiri mengenai topik ini (walaupun, seperti yang akan anda lihat sekejap sahaja, perkara-perkara yang dinyatakan seterusnya dapat digunakan secara umum).

Untuk kereta separa autonomi, penting bagi orang ramai untuk diperingatkan tentang aspek mengganggu yang timbul sejak kebelakangan ini, walaupun pemandu manusia yang terus menyiarkan video mereka tertidur di roda kereta Level 2 atau Level 3 , kita semua harus mengelak daripada disesatkan untuk mempercayai bahawa pemandu boleh menarik perhatian mereka dari tugas memandu ketika memandu kereta separa autonomi.

Anda adalah pihak yang bertanggungjawab untuk tindakan memandu kenderaan, tanpa mengira berapa banyak automasi yang dilemparkan ke Tahap 2 atau Tingkat 3.

Kereta Pandu Sendiri Dan AI yang Boleh Dipercayai

Untuk kenderaan memandu sendiri Tahap 4 dan Tahap 5, tidak akan ada pemandu manusia yang terlibat dalam tugas memandu.

Semua penghuni akan menjadi penumpang.

AI sedang memandu.

Salah satu aspek untuk dibincangkan dengan segera adalah hakikat bahawa AI yang terlibat dalam sistem pemanduan AI masa kini tidak berperasaan. Dengan kata lain, AI sama sekali merupakan kumpulan pengaturcaraan dan algoritma berasaskan komputer, dan yang pasti tidak dapat memberi alasan dengan cara yang sama seperti yang manusia dapat.

Mengapa penekanan tambahan ini mengenai AI tidak berperasaan?

Kerana saya ingin menegaskan bahawa ketika membincangkan peranan sistem pemanduan AI, saya tidak menganggap kualiti manusia dengan AI. Perlu diketahui bahawa terdapat kecenderungan yang berterusan dan berbahaya pada masa ini untuk antropomorfisasi AI. Pada hakikatnya, orang memberikan perasaan seperti manusia pada AI hari ini, walaupun fakta yang tidak dapat disangkal dan tidak dapat dibantah bahawa belum ada AI seperti itu.

Dengan penjelasan itu, anda dapat membayangkan bahawa sistem pemanduan AI secara semula jadi tidak akan "mengetahui" tentang aspek pemanduan. Memandu dan semua yang diperlukan perlu diprogramkan sebagai sebahagian daripada perkakasan dan perisian kereta memandu sendiri.

Mari selami pelbagai aspek yang perlu diperhatikan dalam topik ini.

Pertama, adalah penting untuk menyedari bahawa tidak semua kereta pandu sendiri AI adalah sama. Setiap pembuat kereta dan firma teknologi pandu sendiri mengambil pendekatan mereka untuk mencipta kereta pandu sendiri. Oleh itu, sukar untuk membuat kenyataan menyeluruh tentang perkara yang akan dilakukan atau tidak dilakukan oleh sistem pemanduan AI.

Selanjutnya, setiap kali menyatakan bahawa sistem pemanduan AI tidak melakukan perkara tertentu, ini kemudiannya dapat ditimpa oleh pembangun yang sebenarnya memprogram komputer untuk melakukan perkara itu. Langkah demi langkah, sistem pemanduan AI secara bertahap diperbaiki dan diperluas. Batasan yang ada hari ini mungkin tidak lagi ada dalam lelaran atau versi sistem yang akan datang.

Saya percaya yang memberikan cukup banyak peringatan untuk mendasari apa yang akan saya kaitkan.

Kami bersedia sekarang untuk menyelam lebih mendalam ke dalam kereta pandu sendiri dan AI yang boleh dipercayai.

Kepercayaan adalah segala-galanya, terutamanya dalam kes kereta pandu sendiri berasaskan AI.

Masyarakat nampaknya berhati-hati melihat kemunculan kereta pandu sendiri. Di satu pihak, terdapat harapan besar bahawa kemunculan kereta pandu sendiri yang sebenar akan dapat mengurangkan jumlah kematian tahunan berkaitan kereta. Di Amerika Syarikat sahaja terdapat kira-kira 40,000 kematian tahunan dan sekitar 2.5 juta kecederaan akibat kemalangan kereta, lihat koleksi statistik saya di pautan di sini. Manusia minum dan memandu. Manusia memandu sambil terganggu. Tugas memandu kereta nampaknya terdiri daripada dapat berulang-ulang dan tidak tersilap fokus pada pemanduan dan mengelakkan diri daripada mengalami kemalangan kereta. Oleh itu, kami mungkin berharap sistem pemanduan AI akan memandu kereta pandu sendiri secara berulang-ulang dan tidak tersilap. Anda boleh menganggap kereta pandu sendiri sebagai dua, yang terdiri daripada mengurangkan jumlah kematian dan kecederaan akibat kemalangan kereta, bersama-sama dengan kemungkinan menjadikan mobiliti tersedia pada asas yang lebih luas dan mudah diakses.

Tetapi kebimbangan sementara itu membayangi persepsi masyarakat sama ada kereta pandu sendiri akan cukup selamat untuk berada di jalan raya awam kita secara amnya.

Jika walaupun sebuah kereta pandu sendiri mengalami kemalangan atau perlanggaran yang membawa kepada satu kematian atau kecederaan teruk, anda mungkin boleh menjangkakan kepercayaan yang agak terbina pada hari ini terhadap kereta tanpa pemandu berasaskan AI tersebut akan jatuh dengan mendadak. Kami melihat ini berlaku apabila insiden yang kini terkenal berlaku di Arizona yang melibatkan kereta pandu sendiri yang agak (tidak benar) yang melanggar dan membunuh pejalan kaki (lihat liputan saya di pautan ini di sini).

Sesetengah pakar menunjukkan bahawa adalah tidak adil dan tidak wajar untuk meletakkan kepercayaan kereta pandu sendiri AI pada aspek bahawa hanya satu kemalangan atau perlanggaran yang mengakibatkan kematian seterusnya boleh menjejaskan ujian jalan raya awam yang sudah agak bebas kemalangan. Di samping itu, atas dasar yang tidak adil lagi, kemungkinan besar adalah bahawa tidak kira jenama atau model kereta pandu sendiri AI tertentu yang terlibat dalam insiden yang menyedihkan, masyarakat pasti akan menyalahkan semua jenama kereta pandu sendiri.

Keseluruhan kereta pandu sendiri boleh dicemari secara ringkas dan industri secara keseluruhan mungkin mengalami tindak balas yang besar yang membawa kepada kemungkinan penutupan semua ujian jalan raya awam.

Penyumbang kepada pukulan balik seperti itu didapati dalam pengisytiharan mengarut oleh penyokong kereta pandu sendiri yang lantang bahawa semua kereta tanpa pemandu tidak akan dilanggar. Idea untuk menjadi tidak boleh rosak ini bukan sahaja salah secara langsung (lihat pautan di sini), ia secara licik sedang menubuhkan industri kereta pandu sendiri untuk satu set jangkaan yang benar-benar luar biasa. Pernyataan aneh dan tidak dapat dicapai ini bahawa tidak akan ada kematian akibat kereta pandu sendiri mencetuskan tanggapan salah bahawa mana-mana kemalangan kereta tanpa pemandu adalah petanda yang pasti bahawa keseluruhan kit dan kaboodle adalah sia-sia.

Terdapat kesedihan tersendiri untuk menyedari bahawa kemajuan ke arah kereta pandu sendiri dan pengumpulan kepercayaan masyarakat sejengkal demi sejengkal boleh dilenyapkan dalam sekelip mata. Itu akan menjadi satu pertunjukan yang menarik tentang kerapuhan kepercayaan.

Kesimpulan

Banyak pembuat kereta dan firma teknologi memandu sendiri secara amnya mematuhi prinsip Etika AI, berbuat demikian untuk mencuba dan membina serta menunjukkan AI yang boleh dipercayai dari segi kereta pandu sendiri berasaskan AI yang selamat dan boleh dipercayai. Harap maklum bahawa sesetengah firma tersebut lebih kukuh dan lebih menumpukan kepada peraturan AI Etika berbanding yang lain. Terdapat juga pemula yang berkaitan dengan kereta memandu sendiri pinggiran atau pemula yang nampaknya mengetepikan sebahagian besar asas Etika AI (lihat ulasan saya di pautan di sini).

Di bahagian lain, undang-undang dan peraturan baharu yang meliputi kereta pandu sendiri secara beransur-ansur diletakkan pada buku undang-undang. Sama ada mereka mempunyai gigi yang diperlukan untuk menyokongnya adalah perkara yang berbeza, begitu juga sama ada penguatkuasaan undang-undang tersebut dipandang serius atau diabaikan (lihat lajur saya untuk analisis mengenai perkara ini).

Terdapat juga sudut berteknologi tinggi untuk ini juga. Saya telah meramalkan bahawa kita akan secara beransur-ansur melihat varian bot malaikat penjaga AI yang akan diketengahkan dalam arena kenderaan autonomi dan kereta pandu sendiri. Kami belum sampai. Ini akan menjadi lebih berleluasa apabila populariti kereta pandu sendiri semakin meluas.

Perkara terakhir ini membawakan baris terkenal tentang kepercayaan yang sudah pasti anda sudah tahu dengan hati.

Percaya, tetapi sahkan.

Kita boleh membenarkan diri kita untuk meluaskan kepercayaan kita, mungkin dengan murah hati. Sementara itu, kita juga harus memerhati seperti burung elang untuk memastikan amanah yang kita limpahkan itu disahkan dengan kata-kata dan perbuatan. Mari kita meletakkan sedikit kepercayaan kepada AI, tetapi sahkan tanpa henti bahawa kita meletakkan kepercayaan kita dengan sewajarnya dan dengan mata terbuka luas.

Anda boleh mempercayai saya tentang itu.

Sumber: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/