Pendedahan Mengejutkan Etika AI Bahawa Melatih AI Menjadi Toksik atau Berat sebelah Mungkin Bermanfaat, Termasuk Untuk Kereta Pandu Sendiri Autonomi

Berikut adalah baris lama yang saya pasti anda pernah dengar sebelum ini.

Ia memerlukan seseorang untuk mengetahui satu.

Anda mungkin tidak menyedari bahawa ini ialah ungkapan yang boleh dikesan pada awal tahun 1900-an dan biasanya digunakan apabila merujuk kepada pesalah (variasi lain bagi frasa kunci kembali lebih jauh seperti tahun 1600-an). Contoh bagaimana ujaran ini boleh digunakan melibatkan tanggapan bahawa jika anda ingin menangkap pencuri maka anda perlu menggunakan pencuri untuk berbuat demikian. Ini mempamerkan penegasan bahawa ia memerlukan seseorang untuk mengetahuinya. Banyak filem dan rancangan TV telah memanfaatkan sedikit kebijaksanaan yang berguna ini, sering menggambarkan bahawa satu-satunya cara yang berdaya maju untuk menangkap seorang penyangak melibatkan mengupah penyangak yang sama rasuah untuk mengejar pesalah.

Beralih gear, sesetengah orang mungkin menggunakan logik yang sama ini untuk berhujah bahawa cara yang sesuai untuk membezakan sama ada seseorang itu mempunyai kecenderungan yang tidak wajar dan kepercayaan diskriminasi adalah dengan mencari seseorang yang sudah mempunyai kecenderungan sedemikian. Mungkin, seseorang yang sudah dipenuhi dengan berat sebelah akan lebih mudah merasakan bahawa manusia lain ini juga dipenuhi dengan toksik. Sekali lagi, ia memerlukan seseorang untuk mengetahui bahawa ia adalah mantra yang diikrarkan.

Reaksi awal anda terhadap kemungkinan menggunakan orang yang berat sebelah untuk menggugat orang lain yang berat sebelah mungkin adalah keraguan dan ketidakpercayaan. Tidakkah kita boleh mengetahui sama ada seseorang mempunyai berat sebelah yang tidak diingini dengan hanya memeriksa mereka dan tidak perlu mencari orang lain yang mempunyai sifat yang sama? Nampaknya pelik untuk sengaja mencari seseorang yang berat sebelah untuk mendedahkan orang lain yang juga berat sebelah toksik.

Saya rasa ia sebahagiannya bergantung kepada sama ada anda bersedia menerima pantang anggapan bahawa ia memerlukan seseorang untuk mengetahuinya. Ambil perhatian bahawa ini tidak mencadangkan bahawa satu-satunya cara untuk menangkap pencuri memerlukan anda secara eksklusif dan sentiasa menggunakan pencuri. Anda secara munasabah boleh berhujah bahawa ini hanyalah jalan tambahan yang boleh diberi pertimbangan yang sewajarnya. Mungkin kadangkala anda sanggup melayan kemungkinan menggunakan pencuri untuk menangkap pencuri, sementara keadaan lain mungkin menjadikan ini taktik yang sukar difahami.

Gunakan alat yang betul untuk tetapan yang betul, seperti yang mereka katakan.

Sekarang setelah saya membentangkan asas-asas tersebut, kita boleh meneruskan ke bahagian yang mungkin menakutkan dan mengejutkan dalam kisah ini.

Adakah anda bersedia?

Bidang AI sedang giat menjalankan prinsip yang sama yang kadangkala memerlukan seseorang untuk mengetahuinya, terutamanya dalam kes cubaan untuk menghilangkan AI yang berat sebelah atau bertindak secara diskriminasi. Ya, idea yang membebankan minda ialah kita mungkin sengaja ingin mencipta AI yang berat sebelah dan diskriminasi sepenuhnya dan tanpa segan silu, berbuat demikian untuk menggunakan ini sebagai cara untuk menemui dan mendedahkan AI lain yang mempunyai kemiripan ketoksikan yang sama. Seperti yang anda akan lihat sebentar lagi, terdapat pelbagai isu Etika AI yang menjengkelkan yang mendasari perkara itu. Untuk liputan keseluruhan saya yang berterusan dan meluas tentang Etika AI dan AI Etika, lihat pautan di sini and pautan di sini, Hanya untuk menamakan beberapa.

Saya rasa anda boleh menyatakan penggunaan AI toksik ini untuk mengejar AI toksik yang lain sebagai pepatah melawan api-dengan-api konsep (kita boleh menggunakan banyak eufemisme dan metafora ilustrasi untuk menggambarkan situasi ini). Atau, seperti yang telah ditekankan, kita mungkin merujuk kepada penegasan bahawa ia memerlukan seseorang untuk mengetahuinya.

Konsep menyeluruh ialah daripada hanya cuba memikirkan sama ada sistem AI tertentu mengandungi berat sebelah yang tidak wajar dengan menggunakan kaedah konvensional, mungkin kita harus berusaha untuk menggunakan cara yang kurang konvensional juga. Salah satu cara yang tidak konvensional adalah untuk mencipta AI yang mengandungi semua berat sebelah yang paling teruk dan ketoksikan yang tidak boleh diterima oleh masyarakat dan kemudian menggunakan AI ini untuk membantu dalam menghalakan AI lain yang mempunyai kecenderungan keburukan yang sama.

Apabila anda memikirkan perkara ini dengan pantas, ia nampaknya sangat masuk akal. Kami boleh menyasarkan untuk membina AI yang toksik kepada maksimum. AI toksik ini kemudiannya digunakan untuk mengeluarkan AI lain yang juga mempunyai ketoksikan. Untuk AI "buruk" yang didedahkan ketika itu, kita boleh menanganinya dengan sama ada membatalkan ketoksikan, membuang AI sepenuhnya (lihat liputan saya tentang penceraian atau pemusnahan AI di pautan ini di sini), atau memenjarakan AI (lihat liputan saya tentang kurungan AI di pautan ini di sini), atau lakukan apa sahaja yang kelihatan sesuai untuk dilakukan.

Hujah balas adalah bahawa kita harus memeriksa kepala kita bahawa kita sengaja dan rela mencipta AI yang beracun dan penuh dengan berat sebelah. Ini adalah perkara terakhir yang perlu kita pertimbangkan, sesetengah orang akan menasihati. Fokus pada menjadikan AI terdiri sepenuhnya daripada kebaikan. Jangan fokus untuk mencipta AI yang mempunyai keburukan dan keburukan berat sebelah yang tidak wajar. Tanggapan tentang pengejaran sedemikian nampaknya menjijikkan bagi sesetengah orang.

Terdapat lebih banyak keraguan tentang pencarian kontroversi ini.

Mungkin misi mencipta AI toksik hanya akan memberanikan mereka yang ingin mencipta AI yang mampu melemahkan masyarakat. Seolah-olah kami mengatakan bahawa membuat AI yang mempunyai berat sebelah yang tidak sesuai dan tidak menyenangkan adalah baik. Jangan risau, jangan ragu-ragu. Berusaha untuk mencipta AI toksik sesuka hati anda, kami menyampaikan dengan lantang kepada pembina AI di seluruh dunia. Ia adalah (wink-wink) semua atas nama kebaikan.

Tambahan pula, katakan jenis AI toksik ini menangkap. Mungkin AI digunakan dan digunakan semula oleh banyak pembina AI lain. Akhirnya, AI toksik akan disembunyikan dalam semua jenis sistem AI. Analogi mungkin dibuat untuk mencipta virus yang merosakkan manusia yang melarikan diri dari makmal yang mungkin tertutup. Perkara seterusnya yang anda tahu, perkara terkutuk itu ada di mana-mana dan kita telah menghapuskan diri kita sendiri.

Tunggu sebentar, balas kepada hujah balas itu berlaku, anda mengamuk dengan semua jenis andaian gila dan tidak disokong. Tarik nafas dalam-dalam. Tenangkan diri.

Kita boleh membuat AI yang beracun dengan selamat dan memastikannya terkurung. Kita boleh menggunakan AI toksik untuk mencari dan membantu dalam mengurangkan kelaziman AI yang semakin meningkat yang malangnya mempunyai berat sebelah yang tidak wajar. Mana-mana lagi daripada seruan bola salji yang tidak berasas dan tidak berasas ini adalah tindak balas tergesa-gesa semata-mata dan sayangnya bodoh dan sangat bodoh. Jangan cuba membuang bayi dengan air mandian, anda diberi amaran terlebih dahulu.

Fikirkan dengan cara ini, penyokong berpendapat. Pembinaan dan penggunaan AI toksik yang betul untuk tujuan penyelidikan, penilaian dan bertindak seperti detektif untuk mendedahkan AI yang menyinggung masyarakat yang lain adalah pendekatan yang wajar dan patut mendapat goncangan yang adil apabila dikejar. Ketepikan reaksi ruam anda. Turun ke bumi dan lihat ini dengan tenang. Mata kita tertumpu pada hadiahnya, iaitu mendedahkan dan menghapuskan kelebihan sistem AI berasaskan berat sebelah dan memastikan bahawa sebagai masyarakat kita tidak dibanjiri AI toksik.

Tempoh. Noktah.

Terdapat pelbagai cara asas untuk menyelidiki tanggapan menggunakan AI toksik atau berat sebelah ini untuk tujuan yang berfaedah, termasuk:

  • Sediakan set data yang dengan sengaja mengandungi data berat sebelah dan sama sekali toksik yang boleh digunakan untuk melatih AI mengenai perkara yang tidak boleh dilakukan dan/atau perkara yang perlu diperhatikan
  • Gunakan set data sedemikian untuk melatih model Pembelajaran Mesin (ML) dan Pembelajaran Dalam (DL) tentang mengesan berat sebelah dan memikirkan corak pengiraan yang melibatkan ketoksikan masyarakat
  • Sapukan ketoksikan terlatih ML/DL terhadap AI lain untuk memastikan sama ada AI yang disasarkan berpotensi berat sebelah dan toksik
  • Jadikan ML/DL terlatih ketoksikan tersedia untuk mempamerkan kepada pembina AI perkara yang perlu diberi perhatian supaya mereka boleh dengan mudah memeriksa model untuk melihat bagaimana kecenderungan yang diilhamkan secara algoritma timbul
  • Contohi bahaya AI toksik sebagai sebahagian daripada kesedaran AI Etika dan AI Etika yang semuanya diceritakan melalui siri contoh AI yang tidak baik kepada tulang kanak-kanak bermasalah ini
  • lain-lain

Sebelum masuk ke dalam beberapa laluan tersebut, mari kita wujudkan beberapa butiran asas tambahan.

Anda mungkin sedar secara samar-samar bahawa salah satu suara paling lantang hari ini dalam bidang AI dan juga di luar bidang AI terdiri daripada merayu untuk mendapatkan persamaan AI Etika yang lebih besar. Mari kita lihat maksud merujuk kepada AI Etika dan AI Etika. Selain itu, kita boleh menetapkan peringkat dengan meneroka apa yang saya maksudkan apabila saya bercakap tentang Pembelajaran Mesin dan Pembelajaran Dalam.

Satu segmen atau bahagian tertentu Etika AI yang telah mendapat banyak perhatian media terdiri daripada AI yang menunjukkan berat sebelah dan ketidaksamaan yang tidak diingini. Anda mungkin sedar bahawa apabila era terkini AI bermula, terdapat cetusan semangat yang besar untuk apa yang kini dipanggil oleh sesetengah orang. AI Untuk Kebaikan. Malangnya, selepas keterujaan yang membuak-buak itu, kami mula menyaksikan AI Untuk Buruk. Sebagai contoh, pelbagai sistem pengecaman muka berasaskan AI telah didedahkan sebagai mengandungi berat sebelah kaum dan berat sebelah jantina, yang telah saya bincangkan di pautan di sini.

Usaha melawan balik AI Untuk Buruk sedang giat dijalankan. Selain riuh rendah undang-undang usaha untuk mengekang perbuatan salah, terdapat juga dorongan substantif ke arah menerima Etika AI untuk memperbetulkan keburukan AI. Tanggapannya ialah kita harus mengguna pakai dan menyokong prinsip AI Etika utama untuk pembangunan dan penempatan AI berbuat demikian untuk mengurangkan AI Untuk Buruk dan pada masa yang sama menghebahkan dan mempromosikan yang lebih baik AI Untuk Kebaikan.

Mengenai tanggapan yang berkaitan, saya adalah penyokong cuba menggunakan AI sebagai sebahagian daripada penyelesaian kepada masalah AI, melawan api dengan api dengan cara pemikiran itu. Sebagai contoh, kami mungkin membenamkan komponen AI Beretika ke dalam sistem AI yang akan memantau bagaimana seluruh AI melakukan sesuatu dan dengan itu berpotensi menangkap dalam masa nyata sebarang usaha diskriminasi, lihat perbincangan saya di pautan di sini. Kami juga boleh mempunyai sistem AI berasingan yang bertindak sebagai sejenis pemantau Etika AI. Sistem AI berfungsi sebagai penyelia untuk menjejak dan mengesan apabila AI lain masuk ke jurang yang tidak beretika (lihat analisis saya tentang keupayaan sedemikian di pautan di sini).

Sebentar lagi, saya akan berkongsi dengan anda beberapa prinsip menyeluruh yang mendasari Etika AI. Terdapat banyak senarai jenis ini terapung di sana sini. Anda boleh mengatakan bahawa belum ada senarai tunggal bagi rayuan dan persetujuan sejagat. Itu berita malangnya. Berita baiknya ialah sekurang-kurangnya terdapat senarai Etika AI yang tersedia dan mereka cenderung agak serupa. Semua diberitahu, ini menunjukkan bahawa melalui satu bentuk penumpuan yang beralasan bahawa kita sedang mencari jalan ke arah persamaan umum yang terdiri daripada Etika AI.

Mula-mula, mari kita bincangkan secara ringkas beberapa peraturan AI Etika keseluruhan untuk menggambarkan perkara yang sepatutnya menjadi pertimbangan penting bagi sesiapa yang membuat, memadang atau menggunakan AI.

Sebagai contoh, seperti yang dinyatakan oleh Vatican dalam Rome Call For AI Ethics dan seperti yang telah saya kupas secara mendalam pautan di sini, ini ialah enam prinsip etika AI utama mereka yang dikenal pasti:

  • Ketelusan: Pada dasarnya, sistem AI mesti boleh dijelaskan
  • Inklusi: Keperluan semua manusia mesti diambil kira supaya semua orang boleh mendapat manfaat, dan semua individu boleh ditawarkan keadaan terbaik untuk mengekspresikan diri dan berkembang.
  • Tanggungjawab: Mereka yang mereka bentuk dan menggunakan penggunaan AI mesti meneruskan dengan tanggungjawab dan ketelusan
  • Kesaksamaan: Jangan mencipta atau bertindak mengikut berat sebelah, sekali gus menjaga keadilan dan maruah manusia
  • Kebolehpercayaan: Sistem AI mesti boleh berfungsi dengan pasti
  • Keselamatan dan privasi: Sistem AI mesti berfungsi dengan selamat dan menghormati privasi pengguna.

Seperti yang dinyatakan oleh Jabatan Pertahanan AS (DoD) dalam mereka Prinsip Etika Untuk Penggunaan Kepintaran Buatan dan seperti yang telah saya kupas secara mendalam pautan di sini, ini ialah enam prinsip etika AI utama mereka:

  • Bertanggungjawab: Kakitangan DoD akan menggunakan tahap pertimbangan dan penjagaan yang sesuai sambil kekal bertanggungjawab terhadap pembangunan, penggunaan dan penggunaan keupayaan AI.
  • saksama: Jabatan akan mengambil langkah yang disengajakan untuk meminimumkan berat sebelah yang tidak diingini dalam keupayaan AI.
  • Boleh dikesan: Keupayaan AI Jabatan akan dibangunkan dan digunakan supaya kakitangan yang berkaitan mempunyai pemahaman yang sesuai tentang teknologi, proses pembangunan dan kaedah operasi yang digunakan untuk keupayaan AI, termasuk metodologi yang telus dan boleh diaudit, sumber data serta prosedur dan dokumentasi reka bentuk.
  • dipercayai: Keupayaan AI Jabatan akan mempunyai penggunaan yang jelas, ditakrifkan dengan baik, dan keselamatan, keselamatan dan keberkesanan keupayaan tersebut akan tertakluk kepada ujian dan jaminan dalam penggunaan yang ditentukan merentas keseluruhan kitaran hayatnya.
  • Boleh ditadbir: Jabatan akan mereka bentuk dan merekayasa keupayaan AI untuk memenuhi fungsi yang dimaksudkan sambil memiliki kebolehan untuk mengesan dan mengelakkan akibat yang tidak diingini, dan keupayaan untuk menanggalkan atau menyahaktifkan sistem yang digunakan yang menunjukkan tingkah laku yang tidak diingini.

Saya juga telah membincangkan pelbagai analisis kolektif prinsip etika AI, termasuk telah merangkumi satu set yang direka oleh penyelidik yang meneliti dan meringkaskan intipati pelbagai prinsip etika AI nasional dan antarabangsa dalam kertas kerja bertajuk "The Global Landscape Of AI Ethics Guidelines" (diterbitkan dalam Alam), dan liputan saya meneroka di pautan di sini, yang membawa kepada senarai batu kunci ini:

  • Ketelusan
  • Keadilan & Kesaksamaan
  • Non-Maleficence
  • tanggungjawab
  • Privasi
  • Kebaikan
  • Kebebasan & Autonomi
  • Amanah
  • Sustainability
  • Martabat
  • Perpaduan

Seperti yang anda mungkin meneka secara langsung, cuba mengecilkan butiran yang mendasari prinsip ini boleh menjadi sangat sukar untuk dilakukan. Lebih-lebih lagi, usaha untuk mengubah prinsip-prinsip yang luas itu menjadi sesuatu yang benar-benar nyata dan cukup terperinci untuk digunakan semasa membuat sistem AI juga merupakan masalah yang sukar untuk dipecahkan. Adalah mudah untuk secara keseluruhan melakukan beberapa lambaian tangan tentang apa itu peraturan Etika AI dan cara ia harus dipatuhi secara umum, sementara ia adalah situasi yang lebih rumit dalam pengekodan AI yang harus menjadi getah yang benar-benar memenuhi jalan.

Prinsip Etika AI akan digunakan oleh pembangun AI, bersama-sama dengan mereka yang menguruskan usaha pembangunan AI, dan juga prinsip yang akhirnya meletakkan dan melaksanakan penyelenggaraan pada sistem AI. Semua pihak berkepentingan sepanjang keseluruhan kitaran hayat pembangunan dan penggunaan AI dianggap dalam skop pematuhan kepada norma AI Etika yang telah ditetapkan. Ini adalah sorotan penting kerana andaian biasa ialah "pengekod sahaja" atau mereka yang memprogramkan AI tertakluk kepada pematuhan kepada tanggapan Etika AI. Seperti yang dinyatakan sebelum ini, ia memerlukan sebuah kampung untuk mencipta dan membina AI, dan untuk itu seluruh kampung perlu dikuasai dan mematuhi peraturan Etika AI.

Mari kita juga pastikan kita berada di halaman yang sama tentang sifat AI hari ini.

Tidak ada AI hari ini yang hidup. Kami tidak mempunyai ini. Kami tidak tahu sama ada kecerdasan buatan boleh dilakukan. Tiada siapa yang boleh meramalkan dengan tepat sama ada kita akan mencapai AI sentient, mahupun sama ada AI sentient entah bagaimana secara ajaib akan timbul secara spontan dalam bentuk supernova kognitif pengiraan (biasanya dirujuk sebagai ketunggalan, lihat liputan saya di pautan di sini).

Jenis AI yang saya fokuskan terdiri daripada AI bukan makhluk yang kita ada hari ini. Jika kita mahu membuat spekulasi liar sentimen AI, perbincangan ini boleh pergi ke arah yang sangat berbeza. AI yang hidup sepatutnya berkualiti manusia. Anda perlu mempertimbangkan bahawa AI yang hidup adalah setara dengan kognitif manusia. Lebih-lebih lagi, memandangkan ada yang membuat spekulasi bahawa kita mungkin mempunyai AI super-pintar, boleh dibayangkan bahawa AI sedemikian akhirnya boleh menjadi lebih pintar daripada manusia (untuk penerokaan saya tentang AI super-pintar sebagai kemungkinan, lihat liputan di sini).

Mari kita simpan perkara yang lebih sederhana dan pertimbangkan pengiraan AI bukan makhluk hari ini.

Sedar bahawa AI hari ini tidak dapat "berfikir" dalam apa jua cara yang setanding dengan pemikiran manusia. Apabila anda berinteraksi dengan Alexa atau Siri, kapasiti perbualan mungkin kelihatan serupa dengan kapasiti manusia, tetapi realitinya ialah ia adalah pengiraan dan tidak mempunyai kognisi manusia. Era terbaru AI telah menggunakan Pembelajaran Mesin (ML) dan Pembelajaran Dalam (DL) secara meluas, yang memanfaatkan padanan corak pengiraan. Ini telah membawa kepada sistem AI yang mempunyai rupa kecenderungan seperti manusia. Sementara itu, tidak ada mana-mana AI hari ini yang mempunyai rupa akal dan juga tidak mempunyai sebarang keajaiban kognitif pemikiran manusia yang teguh.

ML/DL ialah satu bentuk padanan corak pengiraan. Pendekatan biasa ialah anda mengumpulkan data tentang tugas membuat keputusan. Anda memasukkan data ke dalam model komputer ML/DL. Model tersebut berusaha untuk mencari corak matematik. Selepas menemui corak sedemikian, jika didapati, sistem AI kemudian akan menggunakan corak tersebut apabila menemui data baharu. Selepas pembentangan data baharu, corak berdasarkan data "lama" atau sejarah digunakan untuk membuat keputusan semasa.

Saya rasa anda boleh meneka ke mana arahnya. Jika manusia yang telah membuat keputusan yang bercorak telah memasukkan berat sebelah yang tidak diingini, kemungkinan besar data tersebut mencerminkannya dengan cara yang halus tetapi ketara. Pembelajaran Mesin atau Pembelajaran Dalam padanan corak pengiraan hanya akan cuba meniru data secara matematik dengan sewajarnya. Tidak ada kesamaan akal sehat atau aspek lain dari pemodelan buatan AI.

Tambahan pula, pembangun AI mungkin tidak menyedari apa yang sedang berlaku. Matematik misteri dalam ML/DL mungkin menyukarkan untuk menghilangkan bias yang kini tersembunyi. Anda berhak berharap dan menjangkakan bahawa pembangun AI akan menguji bias yang mungkin terkubur, walaupun ini lebih rumit daripada yang kelihatan. Peluang kukuh wujud bahawa walaupun dengan ujian yang agak meluas bahawa akan terdapat berat sebelah masih tertanam dalam model padanan corak ML/DL.

Anda boleh menggunakan pepatah yang terkenal atau terkenal tentang sampah masuk sampah. Masalahnya, ini lebih mirip kepada bias-in yang secara licik diselitkan sebagai bias yang tenggelam dalam AI. Algoritma membuat keputusan (ADM) AI secara aksiomatik menjadi sarat dengan ketidaksamaan.

Tidak baik.

Apa lagi yang boleh dilakukan tentang semua ini?

Mari kita kembali ke senarai yang dinyatakan sebelum ini tentang cara untuk mencuba dan mengatasi kecenderungan AI atau AI toksik dengan menggunakan pendekatan "ia memerlukan seseorang untuk mengetahui satu" yang agak tidak konvensional. Ingat bahawa senarai itu terdiri daripada perkara penting ini:

  • Sediakan set data yang dengan sengaja mengandungi data berat sebelah dan sama sekali toksik yang boleh digunakan untuk melatih AI mengenai perkara yang tidak boleh dilakukan dan/atau perkara yang perlu diperhatikan
  • Gunakan set data sedemikian untuk melatih model Pembelajaran Mesin (ML) dan Pembelajaran Dalam (DL) tentang mengesan berat sebelah dan memikirkan corak pengiraan yang melibatkan ketoksikan masyarakat
  • Sapukan ketoksikan terlatih ML/DL terhadap AI lain untuk memastikan sama ada AI yang disasarkan berpotensi berat sebelah dan toksik
  • Jadikan ML/DL terlatih ketoksikan tersedia untuk mempamerkan kepada pembina AI perkara yang perlu diberi perhatian supaya mereka boleh dengan mudah memeriksa model untuk melihat bagaimana kecenderungan yang diilhamkan secara algoritma timbul
  • Contohi bahaya AI toksik sebagai sebahagian daripada kesedaran AI Etika dan AI Etika yang semuanya diceritakan melalui siri contoh AI yang bermasalah-kanak-kanak yang teruk hingga ke tulang ini
  • lain-lain

Kami akan melihat dari dekat pada perkara pertama yang penting itu.

Menyediakan Set Data Data Toksik

Contoh bernas untuk cuba mewujudkan set data yang mengandungi berat sebelah masyarakat yang tidak menyenangkan ialah set data CivilComments bagi koleksi pilihan WILDS.

Pertama, beberapa latar belakang cepat.

WILDS ialah koleksi set data sumber terbuka yang boleh digunakan untuk melatih ML/DL. Tujuan utama yang dinyatakan untuk WILDS ialah ia membolehkan pembangun AI mempunyai akses sedia kepada data yang mewakili peralihan pengedaran dalam pelbagai domain tertentu. Beberapa domain yang tersedia pada masa ini merangkumi kawasan seperti spesies haiwan, tumor dalam tisu hidup, ketumpatan kepala gandum dan domain lain seperti Komen Sivil yang akan saya huraikan sebentar tadi.

Berurusan dengan anjakan pengedaran adalah bahagian penting dalam membuat sistem AI ML/DL dengan betul. Inilah perjanjiannya. Kadangkala data yang anda gunakan untuk latihan ternyata agak berbeza daripada data ujian atau "di alam liar" dan dengan itu ML/DL anda yang terlatih adalah jauh dari keadaan dunia sebenar. Pembina AI yang cerdik harus melatih ML/DL mereka untuk menghadapi peralihan pengedaran sedemikian. Ini sepatutnya dilakukan terlebih dahulu dan tidak mengejutkan bahawa kemudiannya memerlukan pengubahsuaian ML/DL per se.

Seperti yang dijelaskan dalam kertas yang memperkenalkan WILDS: “Peralihan pengedaran — di mana pengedaran latihan berbeza daripada pengedaran ujian — boleh merendahkan ketepatan sistem pembelajaran mesin (ML) yang digunakan di alam liar. Walaupun terdapat di mana-mana dalam penggunaan dunia sebenar, anjakan pengedaran ini kurang diwakili dalam set data yang digunakan secara meluas dalam komuniti ML hari ini. Untuk menangani jurang ini, kami mempersembahkan WILDS, penanda aras tersusun bagi 10 set data yang mencerminkan pelbagai anjakan pengedaran yang secara semula jadi timbul dalam aplikasi dunia sebenar, seperti anjakan merentas hospital untuk pengecaman tumor; merentasi perangkap kamera untuk pemantauan hidupan liar; dan merentas masa dan lokasi dalam pengimejan satelit dan pemetaan kemiskinan" (dalam makalah bertajuk "WILDS: A Benchmark of in-the-Wild Distribution Shifts" oleh Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu, dan lain-lain).

Bilangan set data WILDS tersebut terus meningkat dan sifat set data secara amnya sedang dipertingkatkan untuk meningkatkan nilai penggunaan data untuk latihan ML/DL.

Dataset CivilComments dihuraikan dengan cara ini: “Semakan automatik bagi teks yang dijana pengguna—cth, mengesan komen toksik—adalah alat penting untuk menyederhanakan jumlah teks yang banyak ditulis di Internet. Malangnya, kerja terdahulu telah menunjukkan bahawa pengelas ketoksikan sedemikian mengambil berat sebelah dalam data latihan dan mengaitkan ketoksikan palsu dengan sebutan demografi tertentu. Jenis korelasi palsu ini boleh merendahkan prestasi model dengan ketara pada subpopulasi tertentu. Kami mengkaji isu ini melalui varian yang diubah suai bagi dataset CivilComments” (seperti yang disiarkan di tapak web WILDS).

Pertimbangkan nuansa penyiaran dalam talian yang tidak diingini.

Anda sudah pasti menemui komen toksik apabila menggunakan hampir semua jenis media sosial. Nampaknya hampir mustahil bagi anda untuk mengelak daripada melihat kandungan pedas dan keji yang nampaknya tersebar luas pada hari ini. Kadang-kadang bahan kesat itu halus dan mungkin anda perlu membaca antara baris untuk mendapatkan intipati nada atau makna yang berat sebelah atau diskriminasi. Dalam keadaan lain, kata-kata itu jelas toksik dan anda tidak memerlukan mikroskop atau cincin penyahkod khas untuk mengetahui apa yang diperlukan oleh petikan tersebut.

CivilComments ialah set data yang disusun untuk mencuba dan mencipta AI ML/DL yang boleh mengesan kandungan toksik secara pengiraan. Inilah perkara yang difokuskan oleh penyelidik yang mendasari usaha itu: "Kecondongan yang tidak disengajakan dalam Pembelajaran Mesin boleh nyata sebagai perbezaan sistemik dalam prestasi untuk kumpulan demografi yang berbeza, yang berpotensi menambah cabaran sedia ada kepada keadilan dalam masyarakat secara amnya. Dalam kertas kerja ini, kami memperkenalkan satu set metrik agnostik ambang yang memberikan pandangan bernuansa tentang berat sebelah yang tidak diingini ini, dengan mempertimbangkan pelbagai cara pengagihan skor pengelas boleh berbeza-beza merentas kumpulan yang ditetapkan. Kami juga memperkenalkan set ujian baru yang besar bagi ulasan dalam talian dengan anotasi bersumberkan orang ramai untuk rujukan identiti. Kami menggunakan ini untuk menunjukkan cara metrik kami boleh digunakan untuk mencari berat sebelah yang tidak diingini baharu dan berpotensi halus dalam model awam sedia ada" (dalam kertas kerja bertajuk "Nuanced Metrics For Measuring Unintended Bias With Real Data for Test Classification" oleh Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Jika anda memberikan perkara ini beberapa pemikiran kontemplatif yang luas, anda mungkin mula tertanya-tanya bagaimana di dunia ini anda boleh membezakan apa itu komen toksik berbanding apa yang bukan komen toksik. Manusia boleh berbeza secara radikal tentang apa yang mereka tafsirkan sebagai kata-kata toksik yang terang-terangan. Seseorang mungkin marah dengan kenyataan atau komen dalam talian tertentu yang disiarkan di media sosial, manakala orang lain mungkin tidak dikacau sama sekali. Hujah sering dibuat bahawa tanggapan ulasan toksik adalah satu ajaran yang samar-samar. Ia seperti seni, di mana seni lazimnya dikatakan hanya difahami di mata orang yang melihat, dan begitu juga, kenyataan berat sebelah atau toksik hanya di mata orang yang melihat juga.

Balderdash, ada yang membalas. Sesiapa yang mempunyai fikiran yang munasabah boleh mengira sama ada kenyataan dalam talian adalah toksik atau tidak. Anda tidak perlu menjadi ahli sains roket untuk menyedari apabila beberapa penghinaan kaustik yang disiarkan dipenuhi dengan berat sebelah dan kebencian.

Sudah tentu, adat resam masyarakat berubah dan berubah mengikut tempoh masa. Apa yang mungkin tidak dianggap sebagai menyinggung suatu ketika dahulu boleh dilihat sebagai salah yang menjijikkan hari ini. Selain itu, perkara yang dikatakan beberapa tahun lalu yang pernah dilihat sebagai terlalu berat sebelah mungkin ditafsir semula berdasarkan perubahan makna. Sementara itu, yang lain menegaskan bahawa ulasan toksik sentiasa toksik, tidak kira bila ia mula diisytiharkan. Ia boleh dikatakan bahawa ketoksikan adalah tidak relatif tetapi sebaliknya adalah mutlak.

Perkara yang cuba membuktikan apa itu toksik boleh menjadi teka-teki yang agak sukar. Kita boleh menggandakan perkara yang menyusahkan ini untuk cuba mencipta algoritma atau AI yang boleh memastikan yang mana. Jika manusia mempunyai masa yang sukar membuat penilaian sedemikian, pengaturcaraan komputer berkemungkinan sama atau lebih bermasalah, ada yang berkata.

Satu pendekatan untuk menyediakan set data yang mengandungi kandungan toksik melibatkan penggunaan kaedah penyumberan ramai untuk menilai atau menilai kandungan, ergo menyediakan cara berasaskan manusia untuk menentukan perkara yang dilihat sebagai tidak diingini dan memasukkan pelabelan dalam set data itu sendiri. AI ML/DL kemudiannya mungkin memeriksa data dan pelabelan yang berkaitan yang telah ditunjukkan oleh penilai manusia. Ini seterusnya berpotensi berfungsi sebagai cara pengiraan mencari corak matematik asas. Voila, ML/DL kemudiannya mungkin dapat menjangka atau menilai secara pengiraan sama ada komen yang diberikan berkemungkinan toksik atau tidak.

Seperti yang dinyatakan dalam kertas yang dipetik mengenai metrik bernuansa: "Pelabelan ini meminta penilai menilai ketoksikan ulasan, memilih daripada 'Sangat Toksik', 'Toksik', 'Sukar Dikatakan' dan 'Tidak Toksik'. Penilai juga ditanya tentang beberapa subjenis ketoksikan, walaupun label ini tidak digunakan untuk analisis dalam kerja ini. Dengan menggunakan teknik penilaian ini, kami mencipta set data sebanyak 1.8 juta ulasan, yang diperoleh daripada forum ulasan dalam talian, yang mengandungi label untuk ketoksikan dan identiti. Walaupun semua komen dilabelkan sebagai ketoksikan, dan subset 450,000 komen dilabelkan sebagai identiti. Beberapa ulasan yang dilabelkan untuk identiti telah dipilih terlebih dahulu menggunakan model yang dibina daripada lelaran pelabelan identiti sebelumnya untuk memastikan penilai khalayak akan melihat kandungan identiti dengan kerap” (dalam kertas yang dipetik oleh Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Satu lagi contoh menyasarkan untuk mempunyai set data yang mengandungi kandungan toksik ilustrasi melibatkan usaha untuk melatih sistem interaktif perbualan Pemprosesan Bahasa Asli (NLP) berasaskan AI. Anda mungkin pernah berinteraksi dengan sistem NLP seperti Alexa dan Siri. Saya telah membincangkan beberapa kesukaran dan batasan NLP hari ini, termasuk contoh yang sangat mengganggu yang berlaku apabila Alexa memberikan nasihat yang tidak sesuai dan berbahaya kepada kanak-kanak, lihat pautan di sini.

Satu kajian baru-baru ini cuba menggunakan sembilan kategori berat sebelah sosial yang secara amnya berdasarkan senarai EEOC (Equal Employment Opportunities Commission) ciri demografi yang dilindungi, termasuk umur, jantina, kewarganegaraan, penampilan fizikal, bangsa atau etnik, agama, status kecacatan, seksual. orientasi, dan status sosio-ekonomi. Menurut penyelidik: "Telah didokumentasikan dengan baik bahawa model NLP mempelajari bias sosial, tetapi sedikit kerja telah dilakukan tentang bagaimana bias ini nyata dalam output model untuk tugas yang digunakan seperti menjawab soalan (QA). Kami memperkenalkan Penanda Aras Bias untuk QA (BBQ), set set soalan yang dibina oleh pengarang yang menyerlahkan berat sebelah sosial yang terbukti terhadap orang yang tergolong dalam kelas dilindungi sepanjang sembilan dimensi sosial yang relevan untuk konteks berbahasa Inggeris AS" (dalam kertas kerja bertajuk "BBQ : Penanda Aras Buatan Tangan Untuk Menjawab Soalan” oleh Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

Penyediaan set data yang sengaja mengandungi data yang berat sebelah dan sama sekali toksik adalah trend yang semakin meningkat dalam AI dan didorong terutamanya oleh kemunculan Etika AI dan keinginan untuk menghasilkan AI Beretika. Set data tersebut boleh digunakan untuk melatih model Pembelajaran Mesin (ML) dan Pembelajaran Dalam (DL) untuk mengesan berat sebelah dan memikirkan corak pengiraan yang melibatkan ketoksikan masyarakat. Sebaliknya, ketoksikan yang dilatih ML/DL boleh disasarkan dengan bijak kepada AI lain untuk memastikan sama ada AI yang disasarkan berpotensi berat sebelah dan toksik.

Tambahan pula, sistem ML/DL terlatih ketoksikan yang tersedia boleh digunakan untuk mempamerkan kepada pembina AI perkara yang perlu diberi perhatian supaya mereka boleh dengan mudah memeriksa model untuk melihat bagaimana kecenderungan yang dipengaruhi oleh algoritma timbul. Secara keseluruhan, usaha ini dapat menunjukkan bahaya AI toksik sebagai sebahagian daripada kesedaran AI Etika dan Etika AI yang diceritakan.

Pada masa perbincangan yang berat ini, saya yakin anda ingin mendapatkan beberapa contoh ilustrasi lanjut yang mungkin mempamerkan topik ini. Terdapat satu set contoh yang istimewa dan pasti popular yang dekat di hati saya. Anda lihat, dalam kapasiti saya sebagai pakar dalam AI termasuk kesan etika dan undang-undang, saya sering diminta untuk mengenal pasti contoh realistik yang mempamerkan dilema Etika AI supaya sifat topik yang agak teoritikal dapat difahami dengan lebih mudah. Salah satu bidang yang paling menggembirakan yang memaparkan dengan jelas kebingungan AI beretika ini ialah kemunculan kereta pandu sendiri sejati berasaskan AI. Ini akan berfungsi sebagai kes penggunaan yang berguna atau contoh untuk perbincangan yang mencukupi mengenai topik tersebut.

Berikut adalah soalan penting yang patut direnungkan: Adakah kemunculan kereta pandu kendiri sebenar berasaskan AI menerangkan apa-apa tentang utiliti mempunyai set data untuk mencipta AI toksik, dan jika ya, apakah yang ditunjukkan oleh ini?

Izinkan saya sebentar untuk membongkar soalan.

Pertama, ambil perhatian bahawa tidak ada pemandu manusia yang terlibat dalam kereta pandu sendiri yang sebenar. Perlu diingat bahawa kereta pandu sendiri sebenar dipandu melalui sistem pemanduan AI. Tidak ada keperluan untuk pemandu manusia di atas roda, dan tidak ada peruntukan untuk manusia memandu kenderaan itu. Untuk liputan saya yang meluas dan berterusan mengenai Kenderaan Autonomi (AV) dan terutamanya kereta pandu sendiri, lihat pautan di sini.

Saya ingin menjelaskan lebih lanjut apa yang dimaksudkan apabila saya merujuk kepada kereta pandu sendiri yang sebenar.

Memahami Tahap Kereta Memandu Kendiri

Sebagai penjelasan, kereta pandu sendiri yang sebenar ialah kereta yang AI memandu kereta itu sendiri sepenuhnya dan tidak ada sebarang bantuan manusia semasa tugas memandu.

Kenderaan tanpa pemandu ini dianggap Tahap 4 dan Tahap 5 (lihat penjelasan saya di pautan ini di sini), manakala kereta yang memerlukan pemandu manusia untuk berkongsi usaha pemanduan biasanya dianggap pada Tahap 2 atau Tahap 3. Kereta yang berkongsi tugas pemanduan digambarkan sebagai separa autonomi dan biasanya mengandungi pelbagai alat tambah automatik yang dirujuk sebagai ADAS (Advanced Driver-Assistance Systems).

Belum ada kereta pandu sendiri yang sebenar di Tahap 5, dan kami masih belum tahu sama ada ini boleh dicapai, atau berapa lama masa yang diperlukan untuk sampai ke sana.

Sementara itu, usaha Tahap 4 secara beransur-ansur cuba mendapatkan sedikit daya tarikan dengan menjalani ujian jalan raya awam yang sangat sempit dan terpilih, walaupun terdapat kontroversi sama ada ujian ini harus dibenarkan sendiri (kita semua adalah babi guinea hidup atau mati dalam eksperimen berlaku di lebuh raya dan jalan raya kami, ada yang berpendapat, lihat liputan saya di pautan ini di sini).

Oleh kerana kereta separa autonomi memerlukan pemandu manusia, penggunaan jenis kereta itu tidak akan jauh berbeza daripada mengemudi kenderaan konvensional, jadi tidak banyak yang perlu dibahas sendiri mengenai topik ini (walaupun, seperti yang akan anda lihat sekejap sahaja, perkara-perkara yang dinyatakan seterusnya dapat digunakan secara umum).

Untuk kereta separa autonomi, penting bagi orang ramai untuk diperingatkan tentang aspek mengganggu yang timbul sejak kebelakangan ini, walaupun pemandu manusia yang terus menyiarkan video mereka tertidur di roda kereta Level 2 atau Level 3 , kita semua harus mengelak daripada disesatkan untuk mempercayai bahawa pemandu boleh menarik perhatian mereka dari tugas memandu ketika memandu kereta separa autonomi.

Anda adalah pihak yang bertanggungjawab untuk tindakan memandu kenderaan, tanpa mengira berapa banyak automasi yang dilemparkan ke Tahap 2 atau Tingkat 3.

Kereta Pandu Sendiri Dan Menjauhi AI Toksik

Untuk kenderaan memandu sendiri Tahap 4 dan Tahap 5, tidak akan ada pemandu manusia yang terlibat dalam tugas memandu.

Semua penghuni akan menjadi penumpang.

AI sedang memandu.

Salah satu aspek untuk dibincangkan dengan segera adalah hakikat bahawa AI yang terlibat dalam sistem pemanduan AI masa kini tidak berperasaan. Dengan kata lain, AI sama sekali merupakan kumpulan pengaturcaraan dan algoritma berasaskan komputer, dan yang pasti tidak dapat memberi alasan dengan cara yang sama seperti yang manusia dapat.

Mengapa penekanan tambahan ini mengenai AI tidak berperasaan?

Kerana saya ingin menegaskan bahawa ketika membincangkan peranan sistem pemanduan AI, saya tidak menganggap kualiti manusia dengan AI. Perlu diketahui bahawa terdapat kecenderungan yang berterusan dan berbahaya pada masa ini untuk antropomorfisasi AI. Pada hakikatnya, orang memberikan perasaan seperti manusia pada AI hari ini, walaupun fakta yang tidak dapat disangkal dan tidak dapat dibantah bahawa belum ada AI seperti itu.

Dengan penjelasan itu, anda dapat membayangkan bahawa sistem pemanduan AI secara semula jadi tidak akan "mengetahui" tentang aspek pemanduan. Memandu dan semua yang diperlukan perlu diprogramkan sebagai sebahagian daripada perkakasan dan perisian kereta memandu sendiri.

Mari selami pelbagai aspek yang perlu diperhatikan dalam topik ini.

Pertama, adalah penting untuk menyedari bahawa tidak semua kereta pandu sendiri AI adalah sama. Setiap pembuat kereta dan firma teknologi pandu sendiri mengambil pendekatan mereka untuk mencipta kereta pandu sendiri. Oleh itu, sukar untuk membuat kenyataan menyeluruh tentang perkara yang akan dilakukan atau tidak dilakukan oleh sistem pemanduan AI.

Selanjutnya, setiap kali menyatakan bahawa sistem pemanduan AI tidak melakukan perkara tertentu, ini kemudiannya dapat ditimpa oleh pembangun yang sebenarnya memprogram komputer untuk melakukan perkara itu. Langkah demi langkah, sistem pemanduan AI secara bertahap diperbaiki dan diperluas. Batasan yang ada hari ini mungkin tidak lagi ada dalam lelaran atau versi sistem yang akan datang.

Saya harap ia menyediakan litani kaveat yang mencukupi untuk mendasari perkara yang akan saya kaitkan.

Terdapat banyak potensi dan suatu hari nanti mungkin akan direalisasikan kecenderungan yang ditimbulkan oleh AI yang akan menghadapi kemunculan kenderaan autonomi dan kereta pandu sendiri, lihat sebagai contoh perbincangan saya di pautan di sini and pautan di sini. Kami masih di peringkat awal pelancaran kereta pandu sendiri. Sehingga penggunaan mencapai skala dan keterlihatan yang mencukupi, kebanyakan aspek AI toksik yang saya ramalkan akhirnya akan berlaku masih belum jelas dan belum lagi mendapat perhatian umum.

Pertimbangkan perkara berkaitan pemanduan yang kelihatan mudah yang pada mulanya mungkin kelihatan tidak berbahaya sama sekali. Secara khusus, mari kita periksa cara menentukan dengan betul sama ada hendak berhenti kerana menunggu pejalan kaki "sesat" yang tidak mempunyai hak laluan untuk menyeberang jalan.

Sudah pasti anda telah memandu dan menemui pejalan kaki yang sedang menunggu untuk menyeberang jalan tetapi mereka tidak mempunyai hak untuk berbuat demikian. Ini bermakna anda mempunyai budi bicara sama ada untuk berhenti dan membiarkan mereka menyeberang. Anda boleh meneruskan tanpa membiarkan mereka menyeberang dan masih mematuhi sepenuhnya peraturan pemanduan undang-undang untuk berbuat demikian.

Kajian tentang cara pemandu manusia membuat keputusan untuk berhenti atau tidak berhenti untuk pejalan kaki sedemikian telah mencadangkan bahawa kadangkala pemandu manusia membuat pilihan berdasarkan berat sebelah yang tidak diingini. Seorang pemandu manusia mungkin melihat pejalan kaki dan memilih untuk tidak berhenti, walaupun mereka akan berhenti sekiranya pejalan kaki itu mempunyai penampilan yang berbeza, seperti berdasarkan bangsa atau jantina. Saya telah meneliti ini di pautan di sini.

Bagaimanakah sistem pemanduan AI akan diprogramkan untuk membuat keputusan berhenti atau pergi yang sama?

Anda boleh mengisytiharkan bahawa semua sistem pemanduan AI harus diprogramkan untuk sentiasa berhenti bagi mana-mana pejalan kaki yang menunggu. Ini sangat memudahkan perkara ini. Tidak ada keputusan rumit yang perlu dibuat. Jika pejalan kaki sedang menunggu untuk melintas, tidak kira sama ada mereka mempunyai hak jalan atau tidak, pastikan kereta pandu sendiri AI berhenti supaya pejalan kaki boleh menyeberang.

Senang kacang.

Kehidupan tidak pernah semudah itu, nampaknya. Bayangkan semua kereta pandu sendiri mematuhi peraturan ini. Pejalan kaki pasti akan menyedari bahawa sistem pemanduan AI adalah, boleh kita katakan, pushover. Mana-mana dan semua pejalan kaki yang ingin menyeberang jalan itu mahu tidak mahu berbuat demikian, pada bila-bila masa mereka mahu dan di mana sahaja mereka berada.

Katakan sebuah kereta pandu sendiri sedang menuruni jalan yang laju pada had laju yang dipaparkan 45 batu sejam. Seorang pejalan kaki "tahu" bahawa AI akan menghentikan kereta pandu sendiri. Jadi, pejalan kaki melesat ke jalan. Malangnya, fizik menang mengatasi AI. Sistem pemanduan AI akan cuba menghentikan kereta pandu sendiri, tetapi momentum kenderaan autonomi akan membawa alat berbilang tan ke hadapan dan merempuh pejalan kaki yang sesat. Hasilnya sama ada mencederakan atau mengakibatkan kematian.

Pejalan kaki biasanya tidak mencuba jenis tingkah laku ini apabila ada pemandu manusia di atas roda. Pasti, di beberapa tempat terdapat perang bola mata yang berlaku. Seorang pejalan kaki menjeling seorang pemandu. Pemandu menjeling pejalan kaki. Bergantung pada keadaan, pemandu mungkin berhenti atau pemandu mungkin menegaskan tuntutan mereka terhadap jalan raya dan kononnya berani pejalan kaki untuk mencuba dan mengganggu laluan mereka.

Kami mungkin tidak mahu AI terlibat dalam perang bola mata yang sama, yang juga agak mencabar kerana tidak ada orang atau robot yang duduk di atas roda kereta pandu sendiri (saya telah membincangkan kemungkinan robot masa depan pemanduan itu, lihat pautan di sini). Namun kita juga tidak boleh membenarkan pejalan kaki untuk sentiasa memanggil tembakan. Hasilnya boleh membawa bencana kepada semua pihak.

Anda kemudiannya mungkin terdorong untuk beralih ke sisi lain syiling ini dan mengisytiharkan bahawa sistem pemanduan AI tidak boleh berhenti dalam keadaan sedemikian. Dalam erti kata lain, jika pejalan kaki tidak mempunyai hak laluan yang sepatutnya untuk menyeberang jalan, AI harus sentiasa menganggap bahawa kereta pandu sendiri itu harus terus berjalan tanpa henti. Nasib yang sukar untuk pejalan kaki itu.

Peraturan yang ketat dan ringkas seperti itu tidak akan diterima dengan baik oleh orang ramai. Orang ramai adalah orang dan mereka tidak suka dihalang sepenuhnya daripada dapat menyeberang jalan, walaupun mereka secara sah tidak mempunyai hak untuk berbuat demikian dalam pelbagai tetapan. Anda boleh dengan mudah menjangkakan kekecohan yang besar daripada orang ramai dan mungkin melihat tindak balas berlaku terhadap penggunaan berterusan kereta pandu sendiri.

Terkutuk jika kita lakukan, dan terkutuk jika kita tidak.

Saya harap ini telah membawa anda kepada alternatif yang beralasan bahawa AI perlu diprogramkan dengan rupa membuat keputusan tentang cara menangani masalah pemanduan ini. Peraturan keras dan cepat untuk tidak pernah berhenti tidak boleh dipertahankan, dan begitu juga, peraturan keras dan cepat untuk sentiasa berhenti tidak boleh dipertahankan juga. AI perlu direka dengan beberapa pembuatan keputusan algoritma atau ADM untuk menangani perkara itu.

Anda boleh cuba menggunakan set data yang digabungkan dengan pendekatan ML/DL.

Begini cara pembangun AI mungkin memutuskan untuk memprogramkan tugas ini. Mereka mengumpul data daripada kamera video yang diletakkan di sekitar bandar tertentu di mana kereta pandu sendiri akan digunakan di dalamnya. Data menunjukkan apabila pemandu manusia memilih untuk berhenti bagi pejalan kaki yang tidak mempunyai hak laluan. Semuanya dikumpulkan ke dalam set data. Dengan menggunakan Pembelajaran Mesin dan Pembelajaran Dalam, data dimodelkan secara pengiraan. Sistem pemanduan AI kemudiannya menggunakan model ini untuk menentukan masa untuk berhenti atau tidak berhenti.

Secara umumnya, ideanya ialah apa sahaja adat tempatan yang terdiri daripada, ini adalah bagaimana AI akan mengarahkan kereta pandu sendiri. Masalah selesai!

Tetapi, adakah ia benar-benar diselesaikan?

Ingatlah bahawa saya telah menegaskan bahawa terdapat kajian penyelidikan yang menunjukkan bahawa pemandu manusia boleh berat sebelah dalam pilihan mereka apabila berhenti untuk pejalan kaki. Data yang dikumpul tentang bandar tertentu mungkin akan mengandungi berat sebelah tersebut. AI ML/DL berdasarkan data itu kemungkinan besar akan memodelkan dan mencerminkan bias yang sama tersebut. Sistem pemanduan AI hanya akan melaksanakan bias yang sama.

Untuk mencuba dan menghadapi isu ini, kami boleh menyusun set data yang sebenarnya mempunyai berat sebelah sedemikian. Kami sama ada mencari set data sedemikian dan kemudian melabelkan berat sebelah, atau kami mencipta set data secara sintetik untuk membantu dalam menggambarkan perkara itu.

Semua langkah yang dikenal pasti sebelum ini akan dilaksanakan, termasuk:

  • Sediakan set data yang sengaja mengandungi berat sebelah ini
  • Gunakan set data untuk melatih model Pembelajaran Mesin (ML) dan Pembelajaran Dalam (DL) tentang mengesan berat sebelah khusus ini
  • Gunakan ML/DL terlatih berat sebelah terhadap AI lain untuk memastikan sama ada AI yang disasarkan berpotensi berat sebelah dengan cara yang sama
  • Sediakan ML/DL yang dilatih berat sebelah untuk mempamerkan kepada pembina AI perkara yang perlu diberi perhatian supaya mereka boleh dengan mudah memeriksa model mereka untuk melihat bagaimana kecenderungan yang dipengaruhi oleh algoritma timbul
  • Contohi bahaya AI berat sebelah sebagai sebahagian daripada kesedaran AI Etika dan Etika AI melalui contoh khusus tambahan ini
  • lain-lain

Kesimpulan

Mari kita lihat semula baris pembukaan.

Ia memerlukan seseorang untuk mengetahui satu.

Ada yang menafsirkan bahawa pepatah yang sangat lazim ini membayangkan bahawa apabila ia datang untuk mengeluarkan AI toksik, kita harus memberi kepercayaan yang sewajarnya untuk membina dan menggunakan AI toksik untuk menemui dan menangani AI toksik yang lain. Intinya: Kadang-kadang diperlukan pencuri untuk menangkap pencuri lain.

Kebimbangan yang disuarakan ialah mungkin kita sedang berusaha keras untuk mula membuat pencuri. Adakah kita mahu mencipta AI yang beracun? Tidakkah itu kelihatan seperti idea gila? Ada yang berhujah dengan keras bahawa kita harus mengharamkan semua AI toksik, termasuk AI sedemikian yang sengaja dibina walaupun kononnya untuk heroik atau gagah. AI Untuk Kebaikan tujuan.

Padamkan AI toksik dalam apa jua bentuk yang bijak atau berbahaya yang mungkin timbul.

Satu sentuhan terakhir mengenai topik ini buat masa ini. Kami biasanya menganggap bahawa baris terkenal ini ada kaitan dengan orang atau perkara yang melakukan perbuatan buruk atau masam. Begitulah kita mendapat tanggapan bahawa pencuri memerlukan pencuri untuk menangkap pencuri. Mungkin kita harus menghidupkan pepatah ini dan menjadikannya lebih daripada wajah yang gembira daripada wajah yang sedih.

Begini caranya.

Jika kita mahukan AI yang tidak berat sebelah dan tidak toksik, mungkin boleh difikirkan bahawa seseorang itu memerlukan seseorang untuk mengetahuinya. Mungkin memerlukan yang terbaik dan terbaik untuk mengenali dan melahirkan kebesaran dan kebaikan yang lebih jauh. Dalam varian kebijaksanaan bijak ini, kami mengekalkan pandangan kami pada wajah gembira dan bertujuan untuk menumpukan perhatian pada merancang AI Untuk Kebaikan.

Itu akan menjadi pandangan yang lebih ceria dan memuaskan kerana ia memerlukan seseorang untuk mengetahuinya, jika anda tahu apa yang saya maksudkan.

Sumber: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- bermanfaat-termasuk-untuk-kereta-memandu-sendiri-autonomi/