Etika AI Mengatakan Bahawa AI Perlu Digunakan Terutama Apabila Kecondongan Manusia Banyak

Manusia perlu tahu batasan mereka.

Anda mungkin masih ingat baris terkenal yang serupa tentang mengetahui batasan kita seperti yang diucapkan oleh watak Dirty Harry dalam filem 1973 berjudul Pasukan Magnum (mengikut kata-kata yang diucapkan pelakon Clint Eastwood dalam peranannya yang tidak dapat dilupakan sebagai Inspektor Harry Callahan). Tanggapan keseluruhannya ialah kadang-kadang kita cenderung untuk mengabaikan had kita sendiri dan memasukkan diri ke dalam air panas dengan sewajarnya. Sama ada disebabkan oleh keangkuhan, bersikap egosentrik, atau hanya buta terhadap keupayaan kita sendiri, peraturan untuk menyedari dan mengambil kira secara eksplisit kecenderungan dan kekurangan kita adalah sangat wajar dan membantu.

Mari tambahkan kelainan baru pada nasihat bijak itu.

Kecerdasan Buatan (AI) perlu mengetahui batasannya.

Apakah yang saya maksudkan dengan varian frasa yang dihormati itu?

Ternyata tergesa-gesa awal untuk menggunakan AI zaman moden sebagai penyelesai penuh harapan bagi masalah dunia telah menjadi tercemar dan sama sekali berlumpur dengan kesedaran bahawa AI hari ini mempunyai beberapa batasan yang agak teruk. Kami pergi dari tajuk berita yang menaikkan semangat AI Untuk Kebaikan dan semakin mendapati diri kita terperangkap AI Untuk Buruk. Anda lihat, banyak sistem AI telah dibangunkan dan diletakkan dengan pelbagai jenis berat sebelah kaum dan jantina yang tidak diingini, dan pelbagai lagi ketidaksamaan yang mengerikan seperti itu.

Untuk liputan meluas dan berterusan saya tentang AI Etika dan AI Etika, lihat pautan di sini and pautan di sini, Hanya untuk menamakan beberapa.

Kecondongan yang ditemui dalam sistem AI ini bukanlah jenis yang kita sebut "sengaja" yang akan kita anggap sebagai tingkah laku manusia. Saya menyebut ini untuk menekankan bahawa AI hari ini tidak peka. Walaupun terdapat tajuk berita yang menyatakan sebaliknya, tidak ada AI di mana-mana yang hampir sama dengan sentimen. Selain itu, kami tidak tahu bagaimana untuk memasukkan AI ke dalam kurungan sentimen, dan tiada siapa yang boleh mengatakan dengan pasti sama ada kami akan mencapai sentimen AI. Mungkin suatu hari nanti ia akan berlaku, atau mungkin tidak.

Jadi, maksud saya ialah kita tidak boleh memberikan niat khusus kepada jenis AI yang kita miliki sekarang. Walaupun begitu, kita boleh memberikan niat yang banyak kepada mereka yang mencipta sistem AI. Sesetengah pembangun AI tidak menyedari hakikat bahawa mereka telah mencipta sistem AI yang mengandungi berat sebelah yang tidak menyenangkan dan mungkin menyalahi undang-undang. Sementara itu, pembangun AI yang lain menyedari bahawa mereka menimbulkan bias ke dalam sistem AI mereka, yang berpotensi melakukannya dengan cara salah laku yang sengaja.

Walau apa pun, keputusannya masih tidak wajar dan berkemungkinan menyalahi undang-undang.

Usaha gigih sedang dijalankan untuk mengisytiharkan prinsip Etika AI yang akan menyedarkan pembangun AI dan menyediakan panduan yang sesuai untuk mengelak daripada membenamkan berat sebelah ke dalam sistem AI mereka. Ini akan membantu dengan cara yang lebih baik. Pertama, mereka yang mencipta AI tidak lagi mempunyai alasan sedia bahawa mereka tidak tahu tentang ajaran yang harus diikuti. Kedua, mereka yang menyimpang daripada syarat AI Etika akan lebih mudah ditangkap dan ditunjukkan sebagai mengelakkan perkara yang mereka amaran untuk kedua-duanya lakukan dan tidak lakukan.

Mari luangkan sedikit masa untuk mempertimbangkan secara ringkas beberapa prinsip AI Etika utama untuk menggambarkan perkara yang sepatutnya difikirkan oleh pembina AI dan laksanakan dengan teliti daripada pendirian Etika AI.

Seperti yang dinyatakan oleh Vatican dalam Rome Call For AI Ethics dan seperti yang telah saya kupas secara mendalam pautan di sini, ini ialah enam prinsip etika AI utama mereka yang dikenal pasti:

  • Ketelusan: Pada dasarnya, sistem AI mesti boleh dijelaskan
  • Inklusi: Keperluan semua manusia mesti diambil kira supaya semua orang boleh mendapat manfaat, dan semua individu boleh ditawarkan keadaan terbaik untuk mengekspresikan diri dan berkembang.
  • Tanggungjawab: Mereka yang mereka bentuk dan menggunakan penggunaan AI mesti meneruskan dengan tanggungjawab dan ketelusan
  • Kesaksamaan: Jangan mencipta atau bertindak mengikut berat sebelah, sekali gus menjaga keadilan dan maruah manusia
  • Kebolehpercayaan: Sistem AI mesti boleh berfungsi dengan pasti
  • Keselamatan dan privasi: Sistem AI mesti berfungsi dengan selamat dan menghormati privasi pengguna.

Seperti yang dinyatakan oleh Jabatan Pertahanan AS (DoD) dalam mereka Prinsip Etika Untuk Penggunaan Kepintaran Buatan dan seperti yang telah saya kupas secara mendalam pautan di sini, ini ialah enam prinsip etika AI utama mereka:

  • Bertanggungjawab: Kakitangan DoD akan menggunakan tahap pertimbangan dan penjagaan yang sesuai sambil kekal bertanggungjawab terhadap pembangunan, penggunaan dan penggunaan keupayaan AI.
  • saksama: Jabatan akan mengambil langkah yang disengajakan untuk meminimumkan berat sebelah yang tidak diingini dalam keupayaan AI.
  • Boleh dikesan: Keupayaan AI Jabatan akan dibangunkan dan digunakan supaya kakitangan yang berkaitan mempunyai pemahaman yang sesuai tentang teknologi, proses pembangunan dan kaedah operasi yang digunakan untuk keupayaan AI, termasuk dengan metodologi yang telus dan boleh diaudit, sumber data serta prosedur dan dokumentasi reka bentuk.
  • dipercayai: Keupayaan AI Jabatan akan mempunyai penggunaan yang jelas, ditakrifkan dengan baik, dan keselamatan, keselamatan dan keberkesanan keupayaan tersebut akan tertakluk kepada ujian dan jaminan dalam penggunaan yang ditentukan merentas keseluruhan kitaran hayatnya.
  • Boleh ditadbir: Jabatan akan mereka bentuk dan merekayasa keupayaan AI untuk memenuhi fungsi yang dimaksudkan sambil memiliki kebolehan untuk mengesan dan mengelakkan akibat yang tidak diingini, dan keupayaan untuk menanggalkan atau menyahaktifkan sistem yang digunakan yang menunjukkan tingkah laku yang tidak diingini.

Saya juga telah membincangkan pelbagai analisis kolektif prinsip etika AI, termasuk telah merangkumi satu set yang direka oleh penyelidik yang meneliti dan meringkaskan intipati pelbagai prinsip etika AI nasional dan antarabangsa dalam kertas kerja bertajuk "The Global Landscape Of AI Ethics Guidelines" (diterbitkan dalam Alam), dan liputan saya meneroka di pautan di sini, yang membawa kepada senarai batu kunci ini:

  • Ketelusan
  • Keadilan & Kesaksamaan
  • Non-Maleficence
  • tanggungjawab
  • Privasi
  • Kebaikan
  • Kebebasan & Autonomi
  • Amanah
  • Sustainability
  • Martabat
  • Perpaduan

Seperti yang anda mungkin meneka secara langsung, cuba untuk menyematkan butiran yang mendasari prinsip ini boleh menjadi sangat sukar untuk dilakukan. Lebih-lebih lagi, usaha untuk mengubah prinsip-prinsip yang luas itu menjadi sesuatu yang sepenuhnya ketara dan cukup terperinci untuk digunakan semasa mereka bentuk sistem AI juga merupakan masalah yang sukar untuk dipecahkan. Secara keseluruhannya, adalah mudah untuk melakukan sedikit isyarat tentang apa itu peraturan Etika AI dan cara ia harus dipatuhi secara amnya, sementara ia adalah situasi yang lebih rumit apabila pengekodan AI harus menjadi getah yang benar-benar memenuhi jalan.

Prinsip Etika AI akan digunakan oleh pembangun AI, bersama-sama dengan mereka yang menguruskan usaha pembangunan AI, dan juga prinsip yang akhirnya meletakkan dan melaksanakan penyelenggaraan pada sistem AI. Semua pihak berkepentingan sepanjang keseluruhan kitaran hayat pembangunan dan penggunaan AI dianggap dalam skop pematuhan dengan norma AI Etika yang telah ditetapkan. Ini adalah sorotan penting kerana andaian biasa ialah "pengekod sahaja" atau mereka yang memprogramkan AI tertakluk kepada pematuhan kepada tanggapan Etika AI. Harap maklum bahawa memerlukan sebuah kampung untuk mencipta dan mengembangkan AI. Di mana seluruh kampung perlu mengikuti perkembangan Etika AI.

Bagaimanapun, sekarang saya telah mengetahui bahawa AI boleh mengandungi berat sebelah, kita mungkin semua boleh bersetuju dengan dua fakta yang jelas ini:

1. Manusia boleh mempunyai banyak berat sebelah yang tidak diingini dan boleh bertindak ke atasnya

2. AI boleh mempunyai banyak berat sebelah yang tidak diingini dan boleh bertindak ke atas berat sebelah tersebut

Saya agak benci untuk menyusun manusia berbanding AI dalam konteks itu kerana ia mungkin membayangkan bahawa AI mempunyai kapasiti yang setanding dengan manusia. Ini pastinya tidak begitu. Saya akan kembali seketika kepada kebimbangan yang semakin meningkat tentang antropomorfosis AI sedikit kemudian dalam perbincangan ini.

Mana yang lebih teruk, manusia yang menunjukkan berat sebelah yang tidak diingini atau AI yang berbuat demikian?

Saya berani mengatakan bahawa soalan itu menimbulkan salah satu pilihan yang masam itu. Ia adalah peribahasa yang lebih rendah daripada dua kejahatan, seseorang mungkin bertengkar. Kami berharap agar manusia tidak menimbulkan sikap berat sebelah yang tidak diingini. Kami selanjutnya berharap bahawa walaupun manusia mempunyai berat sebelah yang tidak diingini, mereka tidak akan bertindak atas kecenderungan tersebut. Perkara yang sama boleh dikatakan dengan tepat mengenai AI. Kami berharap AI tidak membenamkan berat sebelah yang tidak diingini dan walaupun terdapat berat sebelah berkod dalaman sedemikian rupa sehingga AI sekurang-kurangnya tidak akan bertindak ke atasnya.

Keinginan walaupun tidak semestinya mengendalikan dunia (untuk analisis saya tentang kemiripan yang semakin meningkat dan mengganggu apa yang dipanggil AI Wish Fulfillment oleh masyarakat pada umumnya, lihat pautan di sini).

Baiklah, kami jelas mahu manusia mengetahui batasan mereka. Terdapat kepentingan untuk mengiktiraf apabila anda mempunyai berat sebelah yang tidak diingini. Terdapat kepentingan yang sama dalam usaha untuk menghalang berat sebelah yang tidak diingini daripada dimasukkan ke dalam tindakan dan keputusan anda. Perniagaan hari ini sedang mencuba semua jenis pendekatan untuk memastikan pekerja mereka tidak terjerumus ke dalam perangkap yang berat sebelah yang tidak diingini. Latihan khusus sedang diberikan kepada pekerja tentang cara melaksanakan kerja mereka dengan cara yang beretika. Proses dibentuk di sekeliling pekerja untuk memaklumkan mereka apabila mereka kelihatan mempamerkan adat resam yang tidak beretika. Dan sebagainya.

Satu lagi cara untuk mengatasi manusia dan kecenderungan mereka yang tidak diingini adalah dengan mengautomasikan kerja berasaskan manusia. Ya, hanya keluarkan manusia dari gelung. Jangan benarkan manusia melakukan tugas membuat keputusan dan anda mungkin tidak lagi mempunyai kebimbangan yang berlarutan tentang sikap manusia terhadap sebarang berat sebelah yang tidak diingini. Tidak ada manusia yang terlibat dan dengan itu masalah kecenderungan manusia yang berpotensi nampaknya dapat diselesaikan.

Saya mengemukakan perkara ini kerana kita sedang menyaksikan peralihan secara beransur-ansur dan bersaiz besar ke arah menggunakan AI dalam cara membuat keputusan algoritma (ADM). Jika anda boleh menggantikan pekerja manusia dengan AI, kemungkinan besar banyak faedah akan timbul. Seperti yang telah disebutkan, anda tidak lagi bimbang tentang berat sebelah manusia pekerja manusia itu (yang tidak lagi melakukan kerja itu). Kemungkinannya ialah AI akan lebih murah secara keseluruhan jika dibandingkan dengan ufuk masa jangka panjang. Anda mengetepikan semua pelbagai kesukaran lain yang datang secara berasingan dengan pekerja manusia. Dan lain-lain.

Cadangan yang semakin mendapat tempat seperti ini: Apabila cuba memutuskan tempat terbaik untuk meletakkan AI, lihat dahulu ke arah tetapan yang sudah melibatkan berat sebelah manusia yang tidak diingini oleh pekerja anda dan yang mana kecenderungan tersebut mengurangkan atau merumitkan tugas membuat keputusan tertentu secara berlebihan.

Intinya ialah nampaknya berhemat untuk mengumpul wang yang paling banyak untuk wang anda dari segi pelaburan dalam AI dengan menyasarkan dengan tepat pada tugas membuat keputusan manusia yang sangat terdedah yang sukar dikawal dari perspektif penyerapan berat sebelah yang tidak diingini. Keluarkan pekerja manusia dalam peranan itu. Gantikan mereka dengan AI. Andaian adalah bahawa AI tidak akan mempunyai berat sebelah yang tidak diingini. Oleh itu, anda boleh memiliki kek anda dan memakannya juga, iaitu, dapatkan tugas keputusan yang dijalankan dan lakukannya dengan menolak hantu etika dan undang-undang berat sebelah yang tidak diingini.

Apabila anda menyatakannya, ROI (pulangan pelaburan) berkemungkinan akan menjadikan penggunaan AI sebagai pilihan yang mudah.

Begini cara ia biasanya berlaku.

Lihat seluruh firma anda dan cuba kenal pasti tugas membuat keputusan yang memberi kesan kepada pelanggan. Antara tugas-tugas tersebut, yang manakah paling berkemungkinan terpengaruh secara tidak wajar jika pekerja menjelmakan sikap berat sebelah yang tidak diingini? Jika anda sudah cuba mengekang sikap berat sebelah itu, mungkin anda membiarkan keadaan berjalan seperti sedia ada. Sebaliknya, jika berat sebelah terus muncul semula dan usaha untuk menghapuskannya adalah membebankan, pertimbangkan untuk menggugurkan beberapa AI yang berkaitan ke dalam peranan itu. Jangan biarkan pekerja dalam campuran kerana mereka mungkin mengatasi AI atau menolak AI kembali ke dalam jurang berat sebelah yang tidak diingini. Selain itu, pastikan AI boleh melaksanakan tugas dengan cekap dan anda telah menangkap dengan secukupnya aspek membuat keputusan yang diperlukan untuk melaksanakan tugas tersebut.

Rinse and repeat.

Saya menyedari bahawa ia kelihatan seperti tanggapan yang mudah, walaupun saya menyedari bahawa terdapat banyak cara untuk menggantikan pekerja manusia dengan AI dengan mudah boleh tersilap. Banyak syarikat tidak sabar-sabar untuk mengambil tindakan sedemikian dan tidak memikirkan cara untuk melakukannya. Akibatnya, mereka sering membuat kekacauan yang jauh lebih buruk daripada yang mereka ada di tangan mereka untuk bermula.

Saya ingin menjelaskan dan menyerlahkan bahawa AI bukanlah ubat penawar.

Bercakap mengenainya, terdapat satu halangan besar tentang kebersihan yang seolah-olah membuang pembuat keputusan yang berat sebelah manusia dengan AI yang didakwa tidak berat sebelah. Masalahnya ialah anda mungkin hanya menggantikan satu set berat sebelah yang tidak diingini dengan yang lain. Mengikut petunjuk awal, AI boleh mengandungi berat sebelah yang tidak diingini dan boleh bertindak ke atas berat sebelah tersebut. Membuat andaian kurang ajar bahawa menukar manusia yang berat sebelah dengan AI yang tidak berat sebelah bukanlah perkara yang mudah.

Ringkasnya, inilah perjanjian apabila melihat perkara itu secara ketat daripada faktor berat sebelah:

  • AI tidak mempunyai berat sebelah yang tidak diingini dan ergo ADM berasaskan AI berguna untuk digunakan
  • AI mempunyai berat sebelah yang tidak diingini yang sama seperti manusia yang digantikan dan oleh itu ADM berasaskan AI merisaukan
  • AI memperkenalkan bias baru yang tidak diingini melebihi manusia yang digantikan dan mungkin akan memburukkan keadaan dengan sewajarnya
  • AI pada mulanya kelihatan baik dan kemudian beransur-ansur bergoyang menjadi berat sebelah yang tidak diingini
  • lain-lain

Kita boleh membongkar secara ringkas kemungkinan tersebut.

Yang pertama ialah versi ideal tentang apa yang mungkin berlaku. AI tidak mempunyai berat sebelah yang tidak diingini. Anda meletakkan AI pada tempatnya dan ia melakukan tugas dengan hebat. Baik untuk awak! Sudah tentu, seseorang akan berharap bahawa anda juga dalam beberapa cara yang cekap mengendalikan perpindahan pekerja manusia kerana kemasukan AI.

Dalam kes kedua, anda meletakkan AI dan mendapati bahawa AI mempamerkan berat sebelah yang tidak diingini yang sama seperti yang dimiliki oleh pekerja manusia. Bagaimana ini boleh terjadi? Cara biasa untuk jatuh ke dalam perangkap ini adalah dengan menggunakan Pembelajaran Mesin (ML) dan Pembelajaran Dalam (DL) berdasarkan data yang dikumpul tentang cara manusia yang berperanan membuat keputusan mereka sebelum ini.

Izinkan saya untuk menjelaskan.

ML/DL ialah satu bentuk padanan corak pengiraan. Pendekatan biasa ialah anda mengumpulkan data tentang tugas membuat keputusan. Anda memasukkan data ke dalam model komputer ML/DL. Model tersebut berusaha untuk mencari corak matematik. Selepas menemui corak sedemikian, jika didapati, sistem AI kemudian akan menggunakan corak tersebut apabila menemui data baharu. Selepas pembentangan data baharu, corak berdasarkan data "lama" atau sejarah digunakan untuk membuat keputusan semasa.

Saya rasa anda boleh meneka ke mana arahnya. Jika manusia yang telah melakukan kerja selama bertahun-tahun telah memasukkan berat sebelah yang tidak diingini, kemungkinan besar data mencerminkan perkara ini dengan cara yang halus tetapi ketara. Pemadanan corak pengiraan Pembelajaran Mesin atau Pembelajaran Dalam akan cuba meniru data secara matematik dengan sewajarnya. Tiada kemiripan akal sehat atau aspek lain dari pemodelan itu sendiri.

Tambahan pula, pembangun AI mungkin tidak menyedari apa yang sedang berlaku. Matematik misteri mungkin menyukarkan untuk menghilangkan bias yang kini tersembunyi. Anda berhak berharap dan menjangkakan bahawa pembangun AI akan menguji bias yang mungkin terkubur, walaupun ini lebih rumit daripada yang kelihatan. Peluang yang kukuh wujud walaupun dengan ujian yang agak meluas bahawa akan terdapat berat sebelah masih tertanam dalam model padanan corak ML/DL.

Semua diberitahu, anda mungkin akan kembali kepada perkara yang sama. Bias manusia yang tidak diingini yang sama kini dicerminkan secara pengiraan dalam sistem AI. Anda tidak menghapuskan berat sebelah.

Lebih teruk lagi, anda mungkin kurang menyedari bahawa AI mempunyai berat sebelah. Dalam kes manusia, anda biasanya berjaga-jaga bahawa manusia mempunyai berat sebelah yang tidak diingini. Ini adalah jangkaan asas. Penggunaan AI boleh membuai pemimpin untuk mempercayai bahawa automasi telah menghapuskan sepenuhnya sebarang jenis berat sebelah manusia. Oleh itu, mereka menetapkan diri mereka kerana telah menembak diri mereka di kaki. Mereka menyingkirkan manusia dengan berat sebelah yang kelihatan tidak diingini, digantikan oleh AI yang dianggap tidak mempunyai berat sebelah seperti itu, namun kini telah menggunakan AI yang penuh dengan kecenderungan yang sama yang telah diketahui wujud.

Ini boleh membuat perkara benar-benar terbelalak. Anda mungkin telah mengalihkan pagar lain yang digunakan dengan pekerja manusia yang telah ditubuhkan untuk mengesan dan menghalang kemunculan berat sebelah manusia yang telah dijangkakan. AI kini mempunyai kawalan bebas. Tiada apa-apa di tempat untuk menangkapnya sebelum bertindak. AI kemudiannya boleh mula membawa anda ke laluan buruk daripada pengumpulan besar tindakan berat sebelah.

Dan, anda berada dalam postur yang janggal dan mungkin bertanggungjawab yang pernah anda ketahui tentang berat sebelah dan kini telah membenarkan sikap berat sebelah itu mendatangkan malapetaka. Ia mungkin satu perkara untuk tidak pernah menghadapi sebarang berat sebelah yang tidak diingini dan kemudian tiba-tiba AI memunculkannya. Anda mungkin cuba memberi alasan ini dengan jenis pengalih "siapa yang akan meneka" (mungkin tidak begitu meyakinkan). Tetapi kerana kini telah menyediakan AI yang melakukan tindakan berat sebelah yang tidak diingini sama seperti sebelum ini, alasan anda semakin tipis.

Perubahan dalam hal ini memerlukan AI mempamerkan berat sebelah yang tidak diingini yang sebelum ini tidak ditemui semasa manusia melakukan tugas itu. Anda boleh mengatakan bahawa ini mungkin lebih sukar untuk dicegah kerana ia terdiri daripada berat sebelah "baru" yang tidak pernah dicari oleh firma itu sebelum ini. Walau bagaimanapun, pada akhirnya, alasan mungkin tidak memberikan anda banyak kelegaan. Jika sistem AI telah menceburi kedua-dua wilayah yang tidak beretika dan menyalahi undang-undang, angsa anda mungkin telah masak.

Satu aspek lain yang perlu diingat ialah AI mungkin bermula dengan baik dan kemudiannya masuk ke dalam kecenderungan yang tidak diingini. Ini berkemungkinan terutamanya apabila penggunaan Pembelajaran Mesin atau Pembelajaran Dalam berlaku secara berterusan untuk memastikan AI dikemas kini. Sama ada ML/DL berfungsi dalam masa nyata atau secara berkala melakukan kemas kini, perhatian harus diberikan sama ada AI mungkin menelan data yang kini mengandungi berat sebelah dan yang sebelum ini tidak hadir.

Bagi pemimpin yang berpendapat mereka mendapat makan tengah hari percuma dengan melambai tongkat ajaib untuk menggantikan pekerja manusia yang berat sebelah dengan AI, mereka berada dalam kebangkitan yang sangat biadap. Lihat perbincangan saya tentang kepentingan memperkasakan pemimpin dengan prinsip Etika AI di pautan di sini.

Pada persimpangan perbincangan ini, saya yakin bahawa anda menginginkan beberapa contoh dunia nyata yang mungkin mempamerkan teka-teki menggantikan (atau tidak) kecenderungan manusia yang tidak diingini dengan berat sebelah yang tidak diingini berasaskan AI.

Saya gembira anda bertanya.

Terdapat satu set contoh yang istimewa dan pasti popular yang dekat di hati saya. Anda lihat, dalam kapasiti saya sebagai pakar dalam AI termasuk kesan etika dan undang-undang, saya sering diminta untuk mengenal pasti contoh realistik yang mempamerkan dilema Etika AI supaya sifat topik yang agak teoritikal dapat difahami dengan lebih mudah. Salah satu bidang yang paling menggembirakan yang memaparkan dengan jelas kebingungan AI beretika ini ialah kemunculan kereta pandu sendiri sejati berasaskan AI. Ini akan berfungsi sebagai kes penggunaan yang berguna atau contoh untuk perbincangan yang mencukupi mengenai topik tersebut.

Berikut adalah soalan penting yang patut direnungkan: Adakah kemunculan kereta pandu sendiri sebenar berasaskan AI menerangi apa-apa tentang berat sebelah yang tidak diingini dalam AI, dan jika ya, apakah yang ditunjukkan oleh ini?

Izinkan saya sebentar untuk membongkar soalan.

Pertama, ambil perhatian bahawa tidak ada pemandu manusia yang terlibat dalam kereta pandu sendiri yang sebenar. Perlu diingat bahawa kereta pandu sendiri sebenar dipandu melalui sistem pemanduan AI. Tidak ada keperluan untuk pemandu manusia di atas roda, dan tidak ada peruntukan untuk manusia memandu kenderaan itu. Untuk liputan saya yang meluas dan berterusan mengenai Kenderaan Autonomi (AV) dan terutamanya kereta pandu sendiri, lihat pautan di sini.

Saya ingin menjelaskan lebih lanjut apa yang dimaksudkan apabila saya merujuk kepada kereta pandu sendiri yang sebenar.

Memahami Tahap Kereta Memandu Kendiri

Sebagai penjelasan, kereta memandu sendiri sebenarnya adalah AI yang memandu kereta sepenuhnya dengan sendiri dan tidak ada bantuan manusia semasa menjalankan tugas memandu.

Kenderaan tanpa pemandu ini dianggap Tahap 4 dan Tahap 5 (lihat penjelasan saya di pautan ini di sini), manakala kereta yang memerlukan pemandu manusia untuk berkongsi usaha pemanduan biasanya dianggap pada Tahap 2 atau Tahap 3. Kereta yang berkongsi tugas pemanduan digambarkan sebagai separa autonomi dan biasanya mengandungi pelbagai alat tambah automatik yang dirujuk sebagai ADAS (Advanced Driver-Assistance Systems).

Belum ada kereta memandu sendiri yang sebenarnya di Tahap 5, yang belum kita ketahui apakah ini mungkin dapat dicapai, dan dan berapa lama masa yang diperlukan untuk sampai ke sana.

Sementara itu, usaha Tahap 4 secara beransur-ansur cuba mendapatkan sedikit daya tarikan dengan menjalani ujian jalan raya awam yang sangat sempit dan terpilih, walaupun terdapat kontroversi sama ada ujian ini harus dibenarkan sendiri (kita semua adalah babi guinea hidup atau mati dalam eksperimen berlaku di lebuh raya dan jalan raya kami, ada yang berpendapat, lihat liputan saya di pautan ini di sini).

Oleh kerana kereta separa autonomi memerlukan pemandu manusia, penggunaan jenis kereta itu tidak akan jauh berbeza daripada mengemudi kenderaan konvensional, jadi tidak banyak yang perlu dibahas sendiri mengenai topik ini (walaupun, seperti yang akan anda lihat sekejap sahaja, perkara-perkara yang dinyatakan seterusnya dapat digunakan secara umum).

Untuk kereta separa autonomi, penting bagi orang ramai untuk diperingatkan tentang aspek mengganggu yang timbul sejak kebelakangan ini, walaupun pemandu manusia yang terus menyiarkan video mereka tertidur di roda kereta Level 2 atau Level 3 , kita semua harus mengelak daripada disesatkan untuk mempercayai bahawa pemandu boleh menarik perhatian mereka dari tugas memandu ketika memandu kereta separa autonomi.

Anda adalah pihak yang bertanggungjawab untuk tindakan memandu kenderaan, tanpa mengira berapa banyak automasi yang dilemparkan ke Tahap 2 atau Tingkat 3.

Kereta Pandu Sendiri Dan AI Dengan Bias Tidak Arah

Untuk kenderaan memandu sendiri Tahap 4 dan Tahap 5, tidak akan ada pemandu manusia yang terlibat dalam tugas memandu.

Semua penghuni akan menjadi penumpang.

AI sedang memandu.

Salah satu aspek untuk dibincangkan dengan segera adalah hakikat bahawa AI yang terlibat dalam sistem pemanduan AI masa kini tidak berperasaan. Dengan kata lain, AI sama sekali merupakan kumpulan pengaturcaraan dan algoritma berasaskan komputer, dan yang pasti tidak dapat memberi alasan dengan cara yang sama seperti yang manusia dapat.

Mengapa penekanan tambahan ini mengenai AI tidak berperasaan?

Kerana saya ingin menegaskan bahawa ketika membincangkan peranan sistem pemanduan AI, saya tidak menganggap kualiti manusia dengan AI. Perlu diketahui bahawa terdapat kecenderungan yang berterusan dan berbahaya pada masa ini untuk antropomorfisasi AI. Pada hakikatnya, orang memberikan perasaan seperti manusia pada AI hari ini, walaupun fakta yang tidak dapat disangkal dan tidak dapat dibantah bahawa belum ada AI seperti itu.

Dengan penjelasan itu, anda dapat membayangkan bahawa sistem pemanduan AI secara semula jadi tidak akan "mengetahui" tentang aspek pemanduan. Memandu dan semua yang diperlukan perlu diprogramkan sebagai sebahagian daripada perkakasan dan perisian kereta memandu sendiri.

Mari selami pelbagai aspek yang perlu diperhatikan dalam topik ini.

Pertama, adalah penting untuk menyedari bahawa tidak semua kereta pandu sendiri AI adalah sama. Setiap pembuat kereta dan firma teknologi pandu sendiri mengambil pendekatan mereka untuk mencipta kereta pandu sendiri. Oleh itu, sukar untuk membuat kenyataan menyeluruh tentang perkara yang akan dilakukan atau tidak dilakukan oleh sistem pemanduan AI.

Selanjutnya, setiap kali menyatakan bahawa sistem pemanduan AI tidak melakukan perkara tertentu, ini kemudiannya dapat ditimpa oleh pembangun yang sebenarnya memprogram komputer untuk melakukan perkara itu. Langkah demi langkah, sistem pemanduan AI secara bertahap diperbaiki dan diperluas. Batasan yang ada hari ini mungkin tidak lagi ada dalam lelaran atau versi sistem yang akan datang.

Saya percaya yang memberikan cukup banyak peringatan untuk mendasari apa yang akan saya kaitkan.

Kami bersedia sekarang untuk menyelam lebih mendalam ke dalam kereta pandu sendiri dan kemungkinan AI Etika yang melibatkan penerokaan AI dan kecenderungan yang tidak diingini.

Mari kita gunakan contoh yang mudah difahami. Kereta pandu sendiri berasaskan AI sedang dijalankan di jalan kejiranan anda dan nampaknya memandu dengan selamat. Pada mulanya, anda telah menumpukan perhatian khusus kepada setiap kali anda berjaya melihat sekilas kereta pandu sendiri. Kenderaan autonomi itu menonjol dengan rak penderia elektronik yang termasuk kamera video, unit radar, peranti LIDAR dan seumpamanya. Selepas beberapa minggu kereta pandu sendiri melayari sekitar komuniti anda, kini anda hampir tidak menyedarinya. Setakat yang anda bimbang, ia hanyalah sebuah kereta lain di jalan raya awam yang sudah sibuk.

Sekiranya anda fikir adalah mustahil atau tidak munasabah untuk membiasakan diri melihat kereta pandu sendiri, saya telah kerap menulis tentang cara tempat yang berada dalam skop percubaan kereta pandu sendiri secara beransur-ansur membiasakan diri melihat kenderaan yang dirapikan, lihat analisis saya di pautan ini di sini. Ramai penduduk tempatan akhirnya beralih daripada ternganga-nganga ternganga-nganga kepada kini mengeluarkan kebosanan yang meluas untuk menyaksikan kereta pandu sendiri yang berliku-liku itu.

Mungkin sebab utama sekarang mereka mungkin melihat kenderaan autonomi adalah kerana faktor kerengsaan dan kegusaran. Sistem pemanduan AI by-the-book memastikan kereta mematuhi semua had laju dan peraturan jalan raya. Bagi pemandu manusia yang sibuk di dalam kereta tradisional mereka yang dipandu manusia, anda akan berasa jengkel apabila terjebak di belakang kereta pandu sendiri berasaskan AI yang mematuhi undang-undang.

Itu sesuatu yang mungkin kita semua perlu biasakan, betul atau salah.

Berbalik kepada kisah kita.

Ternyata dua kebimbangan yang tidak wajar mula timbul mengenai kereta pandu sendiri berasaskan AI yang tidak berbahaya dan diterima secara umum, khususnya:

a. Apabila AI merayau kereta pandu sendiri untuk mengambil tunggangan telah menjadi kebimbangan yang mencemaskan dalam masyarakat secara amnya

b. Cara AI memperlakukan menunggu pejalan kaki yang tidak mempunyai hak jalan juga merupakan isu yang semakin meningkat

Pada mulanya, AI sedang merayau kereta pandu sendiri di seluruh bandar. Sesiapa sahaja yang ingin meminta menaiki kereta pandu sendiri pada dasarnya mempunyai peluang yang sama untuk memanggilnya. Secara beransur-ansur, AI mula mengekalkan kereta pandu sendiri merayau di hanya satu bahagian bandar. Bahagian ini merupakan penghasil wang yang lebih besar dan sistem AI telah diprogramkan untuk mencuba dan memaksimumkan hasil sebagai sebahagian daripada penggunaan dalam komuniti.

Ahli komuniti di bahagian miskin di bandar itu kurang berkemungkinan untuk menaiki kereta pandu sendiri. Ini adalah kerana kereta pandu sendiri berada lebih jauh dan merayau di bahagian hasil yang lebih tinggi di tempat itu. Apabila permintaan datang dari bahagian bandar yang jauh, sebarang permintaan dari lokasi yang lebih dekat yang berkemungkinan di bahagian bandar yang "dihormati" akan mendapat keutamaan yang lebih tinggi. Akhirnya, ketersediaan untuk mendapatkan kereta pandu sendiri di mana-mana tempat selain bahagian bandar yang lebih kaya adalah hampir mustahil, amat menjengkelkan bagi mereka yang tinggal di kawasan yang kini kekurangan sumber.

Anda boleh menegaskan bahawa AI hampir mendarat pada bentuk diskriminasi proksi (juga sering dirujuk sebagai diskriminasi tidak langsung). AI tidak diprogramkan untuk mengelakkan kawasan kejiranan yang lebih miskin itu. Sebaliknya, ia "belajar" berbuat demikian melalui penggunaan ML/DL.

Masalahnya, pemandu manusia yang berkongsi tunggangan dikenali kerana melakukan perkara yang sama, walaupun tidak semestinya semata-mata kerana sudut menjana wang. Terdapat beberapa pemandu manusia yang berkongsi tunggangan yang mempunyai sikap berat sebelah yang tidak diingini tentang mengambil penunggang di bahagian tertentu di bandar ini. Ini adalah fenomena yang agak diketahui dan bandar telah melaksanakan pendekatan pemantauan untuk menangkap pemandu manusia melakukan ini. Pemandu manusia boleh mendapat masalah kerana menjalankan amalan pemilihan yang tidak menyenangkan.

Diandaikan bahawa AI tidak akan pernah jatuh ke dalam pasir hisap yang sama. Tiada pemantauan khusus disediakan untuk menjejaki ke mana kereta pandu sendiri berasaskan AI itu pergi. Hanya selepas ahli masyarakat mula mengadu, barulah pemimpin bandar menyedari apa yang berlaku. Untuk maklumat lanjut tentang jenis isu seluruh bandar yang akan dibentangkan oleh kenderaan autonomi dan kereta pandu sendiri, lihat liputan saya di pautan ini di sini dan yang menerangkan kajian yang diterajui Harvard yang saya karang bersama mengenai topik tersebut.

Contoh aspek perayauan bagi kereta pandu sendiri berasaskan AI ini menggambarkan petunjuk awal bahawa mungkin terdapat situasi yang melibatkan manusia dengan berat sebelah yang tidak diingini, yang mana kawalan telah dilaksanakan, dan bahawa AI yang menggantikan pemandu manusia itu dibiarkan begitu sahaja- percuma. Malangnya, AI kemudiannya boleh secara berperingkat-peringkat menjadi terperangkap dalam bias serupa dan berbuat demikian tanpa pagar pengadang yang mencukupi.

Contoh kedua melibatkan AI yang menentukan sama ada untuk berhenti kerana menunggu pejalan kaki yang tidak mempunyai hak laluan untuk menyeberang jalan.

Sudah pasti anda telah memandu dan menemui pejalan kaki yang sedang menunggu untuk menyeberang jalan tetapi mereka tidak mempunyai hak untuk berbuat demikian. Ini bermakna anda mempunyai budi bicara sama ada untuk berhenti dan membiarkan mereka menyeberang. Anda boleh meneruskan tanpa membiarkan mereka menyeberang dan masih mematuhi sepenuhnya peraturan pemanduan undang-undang untuk berbuat demikian.

Kajian tentang cara pemandu manusia membuat keputusan untuk berhenti atau tidak berhenti untuk pejalan kaki sedemikian telah mencadangkan bahawa kadangkala pemandu manusia membuat pilihan berdasarkan berat sebelah yang tidak diingini. Seorang pemandu manusia mungkin melihat pejalan kaki dan memilih untuk tidak berhenti, walaupun mereka akan berhenti sekiranya pejalan kaki itu mempunyai penampilan yang berbeza, seperti berdasarkan bangsa atau jantina. Saya telah meneliti ini di pautan di sini.

Bayangkan bahawa kereta pandu sendiri berasaskan AI diprogramkan untuk menangani persoalan sama ada berhenti atau tidak untuk pejalan kaki yang tidak mempunyai hak laluan. Begini cara pembangun AI memutuskan untuk memprogramkan tugas ini. Mereka mengumpul data daripada kamera video bandar yang diletakkan di sekitar bandar. Data menunjukkan pemandu manusia yang berhenti untuk pejalan kaki yang tidak mempunyai hak jalan dan pemandu manusia yang tidak berhenti. Semuanya dikumpulkan ke dalam set data yang besar.

Dengan menggunakan Pembelajaran Mesin dan Pembelajaran Dalam, data dimodelkan secara pengiraan. Sistem pemanduan AI kemudiannya menggunakan model ini untuk memutuskan bila hendak berhenti atau tidak berhenti. Secara umumnya, ideanya ialah apa sahaja adat tempatan yang terdiri daripada, ini adalah bagaimana AI akan mengarahkan kereta pandu sendiri.

Mengejutkan pemimpin bandar dan penduduk, AI ternyata memilih untuk berhenti atau tidak berhenti berdasarkan penampilan pejalan kaki, termasuk bangsa dan jantina mereka. Penderia kereta pandu sendiri akan mengimbas pejalan kaki yang menunggu, memasukkan data ini ke dalam model ML/DL dan model itu akan memancarkan ke AI sama ada untuk berhenti atau meneruskan. Malangnya, bandar itu sudah mempunyai banyak kecenderungan pemandu manusia dalam hal ini dan AI kini meniru perkara yang sama.

Berita baiknya ialah ini menimbulkan isu yang hampir tidak pernah diketahui oleh sesiapa pun sebelum ini. Berita buruknya ialah sejak AI ditangkap melakukan ini, ia mendapat banyak kesalahan. Contoh ini menggambarkan bahawa sistem AI mungkin hanya menduplikasi bias yang tidak diingini yang sedia ada pada manusia.

Kesimpulan

Terdapat pelbagai cara untuk mencuba dan mengelak mencipta AI yang sama ada di luar pintu mempunyai berat sebelah yang tidak diingini atau yang lama-kelamaan menimbulkan berat sebelah. Satu pendekatan melibatkan memastikan bahawa pembangun AI menyedari perkara ini berlaku dan oleh itu memastikan mereka sentiasa bersedia untuk memprogramkan AI untuk mengelakkan perkara itu. Satu lagi cara terdiri daripada mempunyai AI memantau diri sendiri untuk tingkah laku yang tidak beretika (lihat perbincangan saya di pautan di sini) dan/atau mempunyai sekeping AI lain yang memantau sistem AI lain untuk tingkah laku yang berpotensi tidak beretika (saya telah membincangkan perkara ini di pautan di sini).

Untuk mengimbas kembali, kita perlu sedar bahawa manusia boleh mempunyai berat sebelah yang tidak diingini dan entah bagaimana mereka perlu mengetahui batasan mereka. Begitu juga, AI boleh mempunyai berat sebelah yang tidak diingini, dan entah bagaimana kita perlu mengetahui batasannya.

Bagi anda yang gemar menerima Etika AI, saya ingin mengakhiri sekarang dengan satu lagi baris terkenal yang semua orang pasti sudah tahu. Iaitu, sila teruskan menggunakan dan berkongsi kepentingan Ethical AI. Dan dengan berbuat demikian, saya dengan kasar akan berkata ini: "Teruskan, buat hari saya."

Sumber: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/