Etika AI Skeptikal Mengenai Mewujudkan Undang-undang AI Bendera Merah Yang Dipanggil Untuk Menyebut Algoritma Pisahkan Dalam Sistem AI Autonomi

Mari kita bercakap tentang Undang-undang Bendera Merah.

Anda pasti tahu bahawa tanggapan Undang-undang Bendera Merah telah mendapat liputan meluas dalam berita akhir-akhir ini. Tajuk utama yang merangkumi topik itu banyak. Keghairahan dan perdebatan yang membara tentang perkara sebegitu menjadi perhatian utama sebagai kebimbangan masyarakat dan melibatkan Undang-undang Senapang Bendera Merah pada masa kini dan semakin pesat muncul.

Saya berani mengatakan bahawa anda mungkin tidak biasa dengan Undang-undang Bendera Merah lain yang digubal pada akhir 1800-an yang berkaitan dengan kenderaan bermotor dan pelopor kereta moden hari ini. Ya, betul, Undang-undang Bendera Merah kembali dalam sejarah, walaupun meliputi topik lain berbanding fokus kontemporari hari ini. Ini biasanya dirujuk sebagai Undang-undang Lalu Lintas Bendera Merah.

Undang-undang yang kini berusia berabad-abad dan sama sekali tidak berfungsi menghendaki mana-mana gerabak bermotor atau enjin yang digerakkan oleh wap pada masa itu mempunyai orang dewasa mendahului kenderaan dan membawa bendera merah untuk tujuan amaran. Ideanya ialah haiwan ternakan mungkin berasa cemas dengan alat-alat yang bising dan kecoh itu yang meluncur perlahan dan tidak rata di atas tanah atau jalan berturap sedikit, sekali gus meminta seseorang berjalan di hadapan peralatan itu sambil mengibarkan bendera merah dengan bersungguh-sungguh diharapkan dapat mengelakkan malapetaka daripada timbul. Sekiranya anda tertanya-tanya, landasan kereta api dan kereta api dianggap dikecualikan daripada undang-undang yang sama kerana ia adalah kenderaan yang terikat secara bersepadu dengan rel dan mempunyai undang-undang lain yang meliputi tindakan mereka.

Bayangkan perlu mengibarkan bendera merah hari ini sebagai keperluan bagi setiap kereta di jalan raya awam kita.

Sebagai contoh, pemandu biasa yang menyusuri jalan kejiranan anda perlu memastikan bahawa orang dewasa mengibarkan bendera merah hadir dan berarak di hadapan kereta yang sedang bergerak. Ini perlu berlaku untuk setiap kenderaan yang melalui jalan anda. Mungkin orang ramai akan menjadi pekerja merah yang diupah kepada pemandu kereta yang lalu lalang yang sebaliknya tidak mempunyai rakan atau saudara yang boleh pergi di hadapan mereka dan melakukan tindakan melambai yang ditetapkan.

Kami pada masa kini cenderung untuk mengaitkan pengibaran bendera merah berkaitan lebuh raya dengan tapak pembinaan jalan raya. Apabila anda menghampiri jalan yang digali, pekerja akan mengangkat bendera merah untuk menarik perhatian anda. Ini memberitahu anda untuk perlahan dan berjaga-jaga. Mungkin ada jentolak yang akan menghampiri laluan anda. Lubang gergasi mungkin ada di hadapan dan anda perlu berhati-hati melintasinya.

Tetapi mari kita kembali kepada penggunaan bendera merah tahun 1800-an.

Percaya atau tidak, pengibar bendera merah sepatutnya berada sekurang-kurangnya satu perlapan batu lebih awal daripada mesin bermotor yang akan datang. Itu kelihatan seperti jarak yang agak panjang. Seseorang menganggap bahawa ini masuk akal pada zaman itu. Bunyi enjin yang memeranjatkan dan mungkin hanya melihat kenderaan itu mungkin cukup untuk membuat haiwan terkejut. Beberapa Undang-undang Bendera Merah pada zaman itu juga memerlukan lampu merah yang bersinar ditinggikan pada waktu malam supaya amaran berjaga-jaga merah yang jelas dapat dilihat dari jarak yang gelap.

Secara umum, saya fikir adalah adil untuk menegaskan bahawa kita sebagai masyarakat cenderung untuk mengaitkan bendera merah sebagai sejenis isyarat atau papan tanda bahawa ada sesuatu yang mungkin tidak kena atau sekurang-kurangnya memerlukan perhatian kita.

Bersedia untuk sedikit kelainan tentang fenomena bendera merah ini.

Terdapat pertikaian yang terapung bahawa kita harus memerlukan peruntukan bendera merah apabila ia berkaitan dengan Kepintaran Buatan (AI).

Itu agak memeranjatkan dan konsep yang memeranjatkan yang membuat ramai orang menggaru kepala. Anda mungkin tertanya-tanya bagaimana atau mengapa perlu ada apa yang dipanggil Undang-undang AI Bendera Merah. Sila ambil perhatian bahawa saya melabelkan ini sebagai Undang-undang AI Bendera Merah untuk membezakan perkara ini daripada Undang-undang Lalu Lintas Bendera Merah (seperti pada akhir 1800-an) dan juga untuk membezakannya daripada Undang-undang Senapang Bendera Merah yang lebih lazim hari ini.

Adakah kita sebenarnya memerlukan Undang-undang AI Bendera Merah yang berorientasikan secara jelas dan semata-mata kepada perkara AI?

Mereka yang memihak kepada pendekatan yang dicadangkan akan menegaskan bahawa kami benar-benar memerlukan peruntukan undang-undang yang akan membantu mengekang AI yang mengandungi berat sebelah yang tidak wajar dan bertindak dengan cara yang diskriminasi. Pada masa ini, pembinaan dan penggunaan AI adalah serupa dengan keadaan Wild West. Usaha untuk mengekang AI yang buruk pada masa ini bergantung pada penggubalan dan penggunaan garis panduan Etika AI. Untuk liputan berterusan dan meluas saya tentang AI Etika dan AI Etika, lihat pautan di sini and pautan di sini, Hanya untuk menamakan beberapa.

Undang-undang yang dimasukkan ke dalam AI buruk sedang dirangka dan digubal secara perlahan-lahan, lihat liputan saya di pautan di sini. Sesetengah bimbang bahawa penggubal undang-undang tidak cukup pantas. Nampaknya pintu banjir membenarkan AI yang berat sebelah dipupuk di dunia sebahagian besarnya terbuka luas sekarang. Memerah tangan mengatakan bahawa apabila undang-undang baru masuk ke dalam buku, jin jahat itu sudah keluar dari botol.

Tidak begitu pantas, hujah balas pergi. Kebimbangan adalah bahawa jika undang-undang terlalu cepat dilaksanakan, kita akan membunuh angsa emas, seolah-olah, di mana usaha AI akan menjadi kering dan kita tidak akan mendapat faedah meningkatkan masyarakat daripada sistem AI baharu. Pembangun dan firma AI yang ingin menggunakan AI mungkin terkejut jika pelbagai undang-undang baharu yang mengawal AI secara tiba-tiba dilaksanakan di peringkat persekutuan, negeri dan tempatan, apatah lagi undang-undang berkaitan AI antarabangsa yang turut bergerak ke hadapan.

Dalam urusan yang kucar-kacir ini datang panggilan untuk Undang-undang AI Bendera Merah.

Sebelum membahas lebih banyak daging dan kentang tentang pertimbangan liar dan berbulu yang mendasari Undang-undang AI Bendera Merah yang dibayangkan, mari kita wujudkan beberapa asas tambahan mengenai topik yang sangat penting. Kita perlu menyelam secara ringkas ke dalam Etika AI dan terutamanya kemunculan Pembelajaran Mesin (ML) dan Pembelajaran Dalam (DL).

Anda mungkin sedar secara samar-samar bahawa salah satu suara paling lantang hari ini dalam bidang AI dan juga di luar bidang AI terdiri daripada merayu untuk mendapatkan persamaan AI Etika yang lebih besar. Mari kita lihat maksud merujuk kepada AI Etika dan AI Etika. Selain itu, kita akan meneroka apa yang saya maksudkan apabila saya bercakap tentang Pembelajaran Mesin dan Pembelajaran Dalam.

Satu segmen atau bahagian tertentu Etika AI yang telah mendapat banyak perhatian media terdiri daripada AI yang menunjukkan berat sebelah dan ketidaksamaan yang tidak diingini. Anda mungkin sedar bahawa apabila era terkini AI bermula, terdapat cetusan semangat yang besar untuk apa yang kini dipanggil oleh sesetengah orang. AI Untuk Kebaikan. Malangnya, selepas keterujaan yang membuak-buak itu, kami mula menyaksikan AI Untuk Buruk. Sebagai contoh, pelbagai sistem pengecaman muka berasaskan AI telah didedahkan sebagai mengandungi berat sebelah kaum dan berat sebelah jantina, yang telah saya bincangkan di pautan di sini.

Usaha melawan balik AI Untuk Buruk sedang giat dijalankan. Selain riuh rendah undang-undang usaha untuk mengekang perbuatan salah, terdapat juga dorongan substantif ke arah menerima Etika AI untuk memperbetulkan keburukan AI. Tanggapannya ialah kita harus mengguna pakai dan menyokong prinsip AI Etika utama untuk pembangunan dan penempatan AI berbuat demikian untuk mengurangkan AI Untuk Buruk dan pada masa yang sama menghebahkan dan mempromosikan yang lebih baik AI Untuk Kebaikan.

Mengenai tanggapan yang berkaitan, saya adalah penyokong cuba menggunakan AI sebagai sebahagian daripada penyelesaian kepada masalah AI, melawan api dengan api dengan cara pemikiran itu. Sebagai contoh, kami mungkin membenamkan komponen AI Beretika ke dalam sistem AI yang akan memantau bagaimana seluruh AI melakukan sesuatu dan dengan itu berpotensi menangkap dalam masa nyata sebarang usaha diskriminasi, lihat perbincangan saya di pautan di sini. Kami juga boleh mempunyai sistem AI berasingan yang bertindak sebagai sejenis pemantau Etika AI. Sistem AI berfungsi sebagai penyelia untuk menjejak dan mengesan apabila AI lain masuk ke jurang yang tidak beretika (lihat analisis saya tentang keupayaan sedemikian di pautan di sini).

Sebentar lagi, saya akan berkongsi dengan anda beberapa prinsip menyeluruh yang mendasari Etika AI. Terdapat banyak senarai jenis ini terapung di sana sini. Anda boleh mengatakan bahawa belum ada senarai tunggal bagi rayuan dan persetujuan sejagat. Itu berita malangnya. Berita baiknya ialah sekurang-kurangnya terdapat senarai Etika AI yang tersedia dan mereka cenderung agak serupa. Semua diberitahu, ini menunjukkan bahawa melalui satu bentuk penumpuan yang beralasan bahawa kita sedang mencari jalan ke arah persamaan umum yang terdiri daripada Etika AI.

Mula-mula, mari kita bincangkan secara ringkas beberapa peraturan AI Etika keseluruhan untuk menggambarkan perkara yang sepatutnya menjadi pertimbangan penting bagi sesiapa yang membuat, memadang atau menggunakan AI.

Sebagai contoh, seperti yang dinyatakan oleh Vatican dalam Rome Call For AI Ethics dan seperti yang telah saya kupas secara mendalam pautan di sini, ini ialah enam prinsip etika AI utama mereka yang dikenal pasti:

  • Ketelusan: Pada dasarnya, sistem AI mesti boleh dijelaskan
  • Inklusi: Keperluan semua manusia mesti diambil kira supaya semua orang boleh mendapat manfaat, dan semua individu boleh ditawarkan keadaan terbaik untuk mengekspresikan diri dan berkembang.
  • Tanggungjawab: Mereka yang mereka bentuk dan menggunakan penggunaan AI mesti meneruskan dengan tanggungjawab dan ketelusan
  • Kesaksamaan: Jangan mencipta atau bertindak mengikut berat sebelah, sekali gus menjaga keadilan dan maruah manusia
  • Kebolehpercayaan: Sistem AI mesti boleh berfungsi dengan pasti
  • Keselamatan dan privasi: Sistem AI mesti berfungsi dengan selamat dan menghormati privasi pengguna.

Seperti yang dinyatakan oleh Jabatan Pertahanan AS (DoD) dalam mereka Prinsip Etika Untuk Penggunaan Kepintaran Buatan dan seperti yang telah saya kupas secara mendalam pautan di sini, ini ialah enam prinsip etika AI utama mereka:

  • Bertanggungjawab: Kakitangan DoD akan menggunakan tahap pertimbangan dan penjagaan yang sesuai sambil kekal bertanggungjawab terhadap pembangunan, penggunaan dan penggunaan keupayaan AI.
  • saksama: Jabatan akan mengambil langkah yang disengajakan untuk meminimumkan berat sebelah yang tidak diingini dalam keupayaan AI.
  • Boleh dikesan: Keupayaan AI Jabatan akan dibangunkan dan digunakan supaya kakitangan yang berkaitan mempunyai pemahaman yang sesuai tentang teknologi, proses pembangunan dan kaedah operasi yang digunakan untuk keupayaan AI, termasuk metodologi yang telus dan boleh diaudit, sumber data serta prosedur dan dokumentasi reka bentuk.
  • dipercayai: Keupayaan AI Jabatan akan mempunyai penggunaan yang jelas, ditakrifkan dengan baik, dan keselamatan, keselamatan dan keberkesanan keupayaan tersebut akan tertakluk kepada ujian dan jaminan dalam penggunaan yang ditentukan merentas keseluruhan kitaran hayatnya.
  • Boleh ditadbir: Jabatan akan mereka bentuk dan merekayasa keupayaan AI untuk memenuhi fungsi yang dimaksudkan sambil memiliki kebolehan untuk mengesan dan mengelakkan akibat yang tidak diingini, dan keupayaan untuk menanggalkan atau menyahaktifkan sistem yang digunakan yang menunjukkan tingkah laku yang tidak diingini.

Saya juga telah membincangkan pelbagai analisis kolektif prinsip etika AI, termasuk telah merangkumi satu set yang direka oleh penyelidik yang meneliti dan meringkaskan intipati pelbagai prinsip etika AI nasional dan antarabangsa dalam kertas kerja bertajuk "The Global Landscape Of AI Ethics Guidelines" (diterbitkan dalam Alam), dan liputan saya meneroka di pautan di sini, yang membawa kepada senarai batu kunci ini:

  • Ketelusan
  • Keadilan & Kesaksamaan
  • Non-Maleficence
  • tanggungjawab
  • Privasi
  • Kebaikan
  • Kebebasan & Autonomi
  • Amanah
  • Sustainability
  • Martabat
  • Perpaduan

Seperti yang anda mungkin meneka secara langsung, cuba mengecilkan butiran yang mendasari prinsip ini boleh menjadi sangat sukar untuk dilakukan. Lebih-lebih lagi, usaha untuk mengubah prinsip-prinsip yang luas itu menjadi sesuatu yang benar-benar nyata dan cukup terperinci untuk digunakan semasa membuat sistem AI juga merupakan masalah yang sukar untuk dipecahkan. Adalah mudah untuk secara keseluruhan melakukan beberapa lambaian tangan tentang apa itu peraturan Etika AI dan cara ia harus dipatuhi secara umum, sementara ia adalah situasi yang lebih rumit dalam pengekodan AI yang harus menjadi getah yang benar-benar memenuhi jalan.

Prinsip Etika AI akan digunakan oleh pembangun AI, bersama-sama dengan mereka yang menguruskan usaha pembangunan AI, dan juga prinsip yang akhirnya meletakkan dan melaksanakan penyelenggaraan pada sistem AI. Semua pihak berkepentingan sepanjang keseluruhan kitaran hayat pembangunan dan penggunaan AI dianggap dalam skop pematuhan kepada norma AI Etika yang telah ditetapkan. Ini adalah sorotan penting kerana andaian biasa ialah "pengekod sahaja" atau mereka yang memprogramkan AI tertakluk kepada pematuhan kepada tanggapan Etika AI. Seperti yang dinyatakan sebelum ini, ia memerlukan sebuah kampung untuk mencipta dan membina AI, dan untuk itu seluruh kampung perlu dikuasai dan mematuhi peraturan Etika AI.

Mari kita juga pastikan kita berada di halaman yang sama tentang sifat AI hari ini.

Tidak ada AI hari ini yang hidup. Kami tidak mempunyai ini. Kami tidak tahu sama ada kecerdasan buatan boleh dilakukan. Tiada siapa yang boleh meramalkan dengan tepat sama ada kita akan mencapai AI sentient, mahupun sama ada AI sentient entah bagaimana secara ajaib akan timbul secara spontan dalam bentuk supernova kognitif pengiraan (biasanya dirujuk sebagai ketunggalan, lihat liputan saya di pautan di sini).

Jenis AI yang saya fokuskan terdiri daripada AI bukan makhluk yang kita ada hari ini. Jika kita mahu membuat spekulasi liar sentimen AI, perbincangan ini boleh pergi ke arah yang sangat berbeza. AI yang hidup sepatutnya berkualiti manusia. Anda perlu mempertimbangkan bahawa AI yang hidup adalah setara dengan kognitif manusia. Lebih-lebih lagi, memandangkan ada yang membuat spekulasi bahawa kita mungkin mempunyai AI super-pintar, boleh dibayangkan bahawa AI sedemikian akhirnya boleh menjadi lebih pintar daripada manusia (untuk penerokaan saya tentang AI super-pintar sebagai kemungkinan, lihat liputan di sini).

Mari kita simpan perkara yang lebih sederhana dan pertimbangkan pengiraan AI bukan makhluk hari ini.

Sedar bahawa AI hari ini tidak dapat "berfikir" dalam apa jua cara yang setanding dengan pemikiran manusia. Apabila anda berinteraksi dengan Alexa atau Siri, kapasiti perbualan mungkin kelihatan serupa dengan kapasiti manusia, tetapi realitinya ialah ia adalah pengiraan dan tidak mempunyai kognisi manusia. Era terbaru AI telah menggunakan Pembelajaran Mesin (ML) dan Pembelajaran Dalam (DL) secara meluas, yang memanfaatkan padanan corak pengiraan. Ini telah membawa kepada sistem AI yang mempunyai rupa kecenderungan seperti manusia. Sementara itu, tidak ada mana-mana AI hari ini yang mempunyai rupa akal dan juga tidak mempunyai sebarang keajaiban kognitif pemikiran manusia yang teguh.

ML/DL ialah satu bentuk padanan corak pengiraan. Pendekatan biasa ialah anda mengumpulkan data tentang tugas membuat keputusan. Anda memasukkan data ke dalam model komputer ML/DL. Model tersebut berusaha untuk mencari corak matematik. Selepas menemui corak sedemikian, jika didapati, sistem AI kemudian akan menggunakan corak tersebut apabila menemui data baharu. Selepas pembentangan data baharu, corak berdasarkan data "lama" atau sejarah digunakan untuk membuat keputusan semasa.

Saya rasa anda boleh meneka ke mana arahnya. Jika manusia yang telah membuat keputusan yang bercorak telah memasukkan berat sebelah yang tidak diingini, kemungkinan besar data tersebut mencerminkannya dengan cara yang halus tetapi ketara. Pembelajaran Mesin atau Pembelajaran Dalam padanan corak pengiraan hanya akan cuba meniru data secara matematik dengan sewajarnya. Tidak ada kesamaan akal sehat atau aspek lain dari pemodelan buatan AI.

Tambahan pula, pembangun AI mungkin tidak menyedari apa yang sedang berlaku. Matematik misteri dalam ML/DL mungkin menyukarkan untuk menghilangkan bias yang kini tersembunyi. Anda berhak berharap dan menjangkakan bahawa pembangun AI akan menguji bias yang mungkin terkubur, walaupun ini lebih rumit daripada yang kelihatan. Peluang kukuh wujud bahawa walaupun dengan ujian yang agak meluas bahawa akan terdapat berat sebelah masih tertanam dalam model padanan corak ML/DL.

Anda boleh menggunakan pepatah yang terkenal atau terkenal tentang sampah masuk sampah. Masalahnya, ini lebih mirip kepada bias-in yang secara licik diselitkan sebagai bias yang tenggelam dalam AI. Algoritma membuat keputusan (ADM) AI secara aksiomatik menjadi sarat dengan ketidaksamaan.

Tidak baik.

Mari kembali kepada tumpuan kita pada Undang-undang AI Bendera Merah.

Konsep asasnya ialah orang akan dapat menaikkan bendera merah apabila mereka percaya bahawa sistem AI beroperasi dalam cara yang terlalu berat sebelah atau diskriminasi. Anda tidak akan menaikkan bendera fizikal semata-mata, dan sebaliknya hanya menggunakan beberapa cara elektronik untuk memaklumkan kebimbangan anda. Bahagian bendera merah skema atau pendekatan lebih merupakan metafora daripada penjelmaan fizikal.

Berpura-pura bahawa anda memohon pinjaman rumah. Anda memilih untuk menggunakan perkhidmatan perbankan dalam talian untuk memohon pinjaman. Selepas memasukkan beberapa data peribadi, anda menunggu seketika untuk sistem AI yang digunakan untuk memutuskan sama ada anda layak dipinjam atau tidak. AI memberitahu anda bahawa anda telah ditolak untuk mendapatkan pinjaman. Apabila meminta penjelasan tentang sebab anda ditolak, naratif teks nampaknya mencadangkan kepada anda bahawa AI menggunakan faktor berat sebelah yang tidak wajar sebagai sebahagian daripada algoritma membuat keputusan.

Masa untuk menaikkan Bendera Merah tentang AI.

Di manakah sebenarnya bendera merah ini akan berkibar?

Itu soalan berjuta-juta dolar.

Satu pandangan ialah kita harus menyediakan pangkalan data seluruh negara yang membolehkan orang ramai menandakan bendera merah berkaitan AI mereka. Ada yang mengatakan bahawa ini harus dikawal oleh kerajaan persekutuan. Agensi persekutuan akan bertanggungjawab untuk memeriksa bendera merah dan membantu orang ramai tentang kebenaran dan menangani kemungkinan "AI buruk" yang mencetuskan jumlah pelaporan bendera merah.

Undang-undang AI Bendera Merah kebangsaan nampaknya akan ditubuhkan oleh Kongres. Undang-undang akan menjelaskan apa itu bendera merah yang berkaitan dengan AI. Undang-undang itu akan menerangkan bagaimana bendera merah yang menggerutu AI ini dinaikkan. Dan sebagainya. Ia juga mungkin berlaku bahawa setiap negeri mungkin juga memilih untuk membuat Undang-undang AI Bendera Merah mereka sendiri. Mungkin mereka berbuat demikian sebagai ganti inisiatif nasional, atau mereka berbuat demikian untuk menguatkan butiran yang sangat menarik bagi keadaan khusus mereka.

Pengkritik persekutuan atau mana-mana program Red Flag AI yang disokong kerajaan akan berhujah bahawa ini adalah sesuatu yang boleh dilakukan oleh industri swasta dan kami tidak memerlukan Big Brother untuk diketengahkan. Industri ini boleh menubuhkan repositori dalam talian di mana orang ramai boleh mendaftarkan tanda merah tentang sistem AI. Tindakan kepolisan sendiri oleh industri akan cukup menangani isu-isu ini.

Keragu-raguan mengenai pendekatan industri yang dikatakan adalah bahawa ia seolah-olah menampar kronisme. Adakah firma bersedia untuk mematuhi beberapa pangkalan data AI Red Flag yang dikendalikan secara persendirian? Banyak firma berpotensi mengabaikan bendera merah yang ditanda tentang AI mereka. Tidak akan ada gigi tajam ke arah mendapatkan syarikat untuk menangani bendera merah yang dimasukkan.

Hei, penyokong pendekatan sektor swasta berbunyi, ini sama seperti perkhidmatan Yelp nasional. Pengguna boleh melihat bendera merah dan memutuskan sendiri sama ada mereka mahu menjalankan perniagaan dengan syarikat yang telah menghasilkan banyak bendera merah berorientasikan AI. Sebuah bank yang mendapat banyak tanda merah tentang AI mereka perlu memberi perhatian dan merombak sistem AI mereka, jadi logiknya berlaku, jika tidak, pengguna akan mengelakkan firma seperti wabak itu.

Sama ada keseluruhan pendekatan ini dilakukan oleh kerajaan atau oleh industri hanyalah sebahagian daripada persoalan pelik yang dihadapi oleh dalil Undang-undang AI Bendera Merah yang dicadangkan.

Letakkan diri anda dalam kedudukan firma yang membangun atau menggunakan AI. Boleh jadi pengguna akan menaikkan bendera merah walaupun tidak ada asas yang berdaya maju untuk berbuat demikian. Jika orang ramai boleh menyiarkan bendera merah secara bebas tentang AI, mereka mungkin tergoda untuk berbuat demikian secara sesuka hati, atau mungkin untuk membalas dendam terhadap firma yang sebaliknya tidak melakukan kesalahan terhadap pengguna.

Pendek kata, mungkin terdapat banyak Bendera Merah positif palsu tentang AI.

Pertimbangan lain ialah saiz besar atau magnitud bendera merah yang terhasil. Mudah-mudahan berjuta-juta bendera merah dinaikkan. Siapa yang akan mengikuti semua bendera merah itu? Berapakah kos untuk berbuat demikian? Siapa yang akan membayar untuk usaha susulan bendera merah? Dan lain-lain.

Jika anda mengatakan bahawa sesiapa yang mendaftar atau melaporkan bendera merah tentang AI perlu membayar yuran, anda telah memasuki alam yang keruh dan berbahaya. Kebimbangan adalah bahawa hanya orang kaya yang mampu untuk menaikkan bendera merah. Ini seterusnya membayangkan bahawa mereka yang miskin tidak akan dapat sama-sama mengambil bahagian dalam aktiviti bendera merah dan pada dasarnya tidak mempunyai tempat untuk memberi amaran tentang AI yang buruk.

Hanya satu kelainan tambahan buat masa ini, iaitu undang-undang atau garis panduan bendera merah jenis ini tentang AI nampaknya mengikuti fakta dan bukannya menjadi amaran terlebih dahulu.

Berbalik kepada Undang-undang Lalu Lintas Bendera Merah, penekanan menggunakan bendera merah adalah untuk mengelakkan daripada berlakunya malapetaka. Pengibar bendera merah sepatutnya berada jauh di hadapan kereta yang akan datang. Dengan berada di hadapan kenderaan, ternakan akan dimaklumkan dan mereka yang menjaga ternakan akan tahu bahawa mereka harus mengambil langkah berjaga-jaga kerana sumber mengganggu yang akan tiba tidak lama lagi.

Jika orang hanya mampu menaikkan bendera merah tentang AI yang nampaknya telah mencederakan atau melemahkan hak mereka, kuda pepatah itu sudah keluar dari kandang. Semua yang nampaknya dapat dicapai oleh ini ialah diharapkan orang lain yang akan datang kini tahu untuk berhati-hati dengan sistem AI itu. Sementara itu, orang yang didakwa melakukan kesalahan telah pun menderita.

Ada yang mencadangkan bahawa mungkin kita boleh membenarkan orang ramai menaikkan bendera merah tentang AI bahawa mereka suspek mungkin berat sebelah, walaupun mereka tidak menggunakan AI dan tidak terjejas secara langsung oleh AI. Oleh itu, bendera merah dikibarkan sebelum kerosakan dilakukan.

Ya, jawabnya, anda akan benar-benar menjadikan bendera merah penanggulangan AI menjadi urusan yang tidak terurus dan huru-hara. Jika sesiapa atas sebab apa pun boleh menaikkan bendera merah tentang sistem AI, walaupun tidak melakukan apa-apa dengan AI itu, anda akan dibanjiri dengan bendera merah. Lebih teruk lagi, anda tidak akan dapat membezakan gandum daripada sekam. Keseluruhan pendekatan bendera merah akan runtuh di bawah beratnya sendiri, mengurangkan kebaikan idea dengan membenarkan flotsam dan rifraff menenggelamkan seluruh kapal.

Pening dan mengelirukan.

Pada masa perbincangan yang berat ini, saya yakin anda ingin mendapatkan beberapa contoh ilustrasi yang mungkin mempamerkan topik ini. Terdapat satu set contoh yang istimewa dan pasti popular yang dekat di hati saya. Anda lihat, dalam kapasiti saya sebagai pakar dalam AI termasuk kesan etika dan undang-undang, saya sering diminta untuk mengenal pasti contoh realistik yang mempamerkan dilema Etika AI supaya sifat topik yang agak teoritikal dapat difahami dengan lebih mudah. Salah satu bidang yang paling menggembirakan yang memaparkan dengan jelas kebingungan AI beretika ini ialah kemunculan kereta pandu sendiri sejati berasaskan AI. Ini akan berfungsi sebagai kes penggunaan yang berguna atau contoh untuk perbincangan yang mencukupi mengenai topik tersebut.

Berikut adalah soalan penting yang patut direnungkan: Adakah kemunculan kereta pandu sendiri sebenar berasaskan AI menerangi apa-apa tentang Undang-undang AI Bendera Merah, dan jika ya, apakah yang ditunjukkan oleh ini?

Izinkan saya sebentar untuk membongkar soalan.

Pertama, ambil perhatian bahawa tidak ada pemandu manusia yang terlibat dalam kereta pandu sendiri yang sebenar. Perlu diingat bahawa kereta pandu sendiri sebenar dipandu melalui sistem pemanduan AI. Tidak ada keperluan untuk pemandu manusia di atas roda, dan tidak ada peruntukan untuk manusia memandu kenderaan itu. Untuk liputan saya yang meluas dan berterusan mengenai Kenderaan Autonomi (AV) dan terutamanya kereta pandu sendiri, lihat pautan di sini.

Saya ingin menjelaskan lebih lanjut apa yang dimaksudkan apabila saya merujuk kepada kereta pandu sendiri yang sebenar.

Memahami Tahap Kereta Memandu Kendiri

Sebagai penjelasan, kereta pandu sendiri yang sebenar ialah kereta yang AI memandu kereta itu sendiri sepenuhnya dan tidak ada sebarang bantuan manusia semasa tugas memandu.

Kenderaan tanpa pemandu ini dianggap Tahap 4 dan Tahap 5 (lihat penjelasan saya di pautan ini di sini), manakala kereta yang memerlukan pemandu manusia untuk berkongsi usaha pemanduan biasanya dianggap pada Tahap 2 atau Tahap 3. Kereta yang berkongsi tugas pemanduan digambarkan sebagai separa autonomi dan biasanya mengandungi pelbagai alat tambah automatik yang dirujuk sebagai ADAS (Advanced Driver-Assistance Systems).

Belum ada kereta pandu sendiri yang sebenar di Tahap 5, dan kami masih belum tahu sama ada ini boleh dicapai, atau berapa lama masa yang diperlukan untuk sampai ke sana.

Sementara itu, usaha Tahap 4 secara beransur-ansur cuba mendapatkan sedikit daya tarikan dengan menjalani ujian jalan raya awam yang sangat sempit dan terpilih, walaupun terdapat kontroversi sama ada ujian ini harus dibenarkan sendiri (kita semua adalah babi guinea hidup atau mati dalam eksperimen berlaku di lebuh raya dan jalan raya kami, ada yang berpendapat, lihat liputan saya di pautan ini di sini).

Oleh kerana kereta separa autonomi memerlukan pemandu manusia, penggunaan jenis kereta itu tidak akan jauh berbeza daripada mengemudi kenderaan konvensional, jadi tidak banyak yang perlu dibahas sendiri mengenai topik ini (walaupun, seperti yang akan anda lihat sekejap sahaja, perkara-perkara yang dinyatakan seterusnya dapat digunakan secara umum).

Untuk kereta separa autonomi, penting bagi orang ramai untuk diperingatkan tentang aspek mengganggu yang timbul sejak kebelakangan ini, walaupun pemandu manusia yang terus menyiarkan video mereka tertidur di roda kereta Level 2 atau Level 3 , kita semua harus mengelak daripada disesatkan untuk mempercayai bahawa pemandu boleh menarik perhatian mereka dari tugas memandu ketika memandu kereta separa autonomi.

Anda adalah pihak yang bertanggungjawab untuk tindakan memandu kenderaan, tanpa mengira berapa banyak automasi yang dilemparkan ke Tahap 2 atau Tingkat 3.

Kereta Pandu Sendiri Dan Undang-undang AI Bendera Merah

Untuk kenderaan memandu sendiri Tahap 4 dan Tahap 5, tidak akan ada pemandu manusia yang terlibat dalam tugas memandu.

Semua penghuni akan menjadi penumpang.

AI sedang memandu.

Salah satu aspek untuk dibincangkan dengan segera adalah hakikat bahawa AI yang terlibat dalam sistem pemanduan AI masa kini tidak berperasaan. Dengan kata lain, AI sama sekali merupakan kumpulan pengaturcaraan dan algoritma berasaskan komputer, dan yang pasti tidak dapat memberi alasan dengan cara yang sama seperti yang manusia dapat.

Mengapa penekanan tambahan ini mengenai AI tidak berperasaan?

Kerana saya ingin menegaskan bahawa ketika membincangkan peranan sistem pemanduan AI, saya tidak menganggap kualiti manusia dengan AI. Perlu diketahui bahawa terdapat kecenderungan yang berterusan dan berbahaya pada masa ini untuk antropomorfisasi AI. Pada hakikatnya, orang memberikan perasaan seperti manusia pada AI hari ini, walaupun fakta yang tidak dapat disangkal dan tidak dapat dibantah bahawa belum ada AI seperti itu.

Dengan penjelasan itu, anda dapat membayangkan bahawa sistem pemanduan AI secara semula jadi tidak akan "mengetahui" tentang aspek pemanduan. Memandu dan semua yang diperlukan perlu diprogramkan sebagai sebahagian daripada perkakasan dan perisian kereta memandu sendiri.

Mari selami pelbagai aspek yang perlu diperhatikan dalam topik ini.

Pertama, adalah penting untuk menyedari bahawa tidak semua kereta pandu sendiri AI adalah sama. Setiap pembuat kereta dan firma teknologi pandu sendiri mengambil pendekatan mereka untuk mencipta kereta pandu sendiri. Oleh itu, sukar untuk membuat kenyataan menyeluruh tentang perkara yang akan dilakukan atau tidak dilakukan oleh sistem pemanduan AI.

Selanjutnya, setiap kali menyatakan bahawa sistem pemanduan AI tidak melakukan perkara tertentu, ini kemudiannya dapat ditimpa oleh pembangun yang sebenarnya memprogram komputer untuk melakukan perkara itu. Langkah demi langkah, sistem pemanduan AI secara bertahap diperbaiki dan diperluas. Batasan yang ada hari ini mungkin tidak lagi ada dalam lelaran atau versi sistem yang akan datang.

Saya harap ia menyediakan litani kaveat yang mencukupi untuk mendasari perkara yang akan saya kaitkan.

Mari kita lakarkan senario yang mungkin memanfaatkan Undang-undang AI Bendera Merah.

Anda menaiki kereta pandu sendiri berasaskan AI dan ingin kenderaan autonomi itu membawa anda ke kedai runcit tempatan anda. Semasa perjalanan yang agak singkat, AI mengambil laluan yang anda nampak agak tersilap. Daripada pergi ke jalan yang paling langsung, AI menavigasi ke jalan luar yang menyebabkan masa pemanduan menjadi lebih tinggi daripada biasanya.

Apa yang sedang berlaku?

Dengan mengandaikan bahawa anda membayar untuk penggunaan kereta pandu sendiri, anda mungkin curiga bahawa AI telah diprogramkan untuk memandu lebih jauh untuk mencuba dan menaikkan tambang atau kos perjalanan. Sesiapa sahaja yang pernah menaiki teksi yang dipandu manusia konvensional tahu tentang muslihat yang boleh berlaku untuk mendapatkan lebih banyak doh pada meter. Sudah tentu, dengan orang yang mempunyai GPS pada telefon pintar mereka semasa menaiki teksi atau yang setaraf, anda boleh dengan mudah menangkap pemandu manusia yang kelihatan diam-diam mengambil laluan yang tidak perlu jauh.

Ternyata anda mempunyai kebimbangan lain tentang pilihan laluan, sesuatu yang benar-benar mengganggu anda.

Katakan penghalaan itu dilakukan untuk mengelakkan bahagian tertentu bandar disebabkan oleh aspek perkauman. Terdapat kes didokumenkan pemandu manusia yang telah ditangkap membuat pilihan seperti itu, lihat perbincangan saya di pautan di sini. Mungkin AI telah diprogramkan secara buruk daripadanya.

Anda memutuskan untuk menaikkan bendera merah.

Mari kita anggap untuk perbincangan bahawa Undang-undang AI Bendera Merah telah digubal yang meliputi bidang kuasa anda. Ia mungkin undang-undang tempatan, undang-undang negeri, undang-undang persekutuan atau antarabangsa. Untuk analisis yang saya karang bersama dengan Inisiatif Dasar Kenderaan Autonomi Harvard (AVPI) tentang kepentingan kepimpinan tempatan yang semakin meningkat apabila masyarakat mengamalkan penggunaan kereta pandu sendiri, lihat pautan di sini.

Jadi, anda pergi ke dalam talian ke pangkalan data AI Bendera Merah. Dalam pangkalan data kejadian, anda memasukkan maklumat tentang perjalanan kereta pandu sendiri. Ini termasuk tarikh dan masa perjalanan pemanduan, bersama-sama dengan jenama dan model kereta pandu sendiri. Anda kemudiannya memasuki laluan navigasi yang kelihatan mencurigakan, dan anda mencadangkan atau mungkin secara terang-terangan mendakwa bahawa AI telah direka dengan niat dan kapasiti yang berat sebelah atau diskriminasi.

Kita perlu membuat spekulasi mengenai butir-butir lain Undang-undang AI Bendera Merah tentang apa yang akan berlaku seterusnya dalam senario khusus ini. Secara teori, akan ada peruntukan bagi seseorang untuk menyemak bendera merah. Mereka mungkin akan berusaha mendapatkan pembuat kereta atau firma teknologi memandu sendiri untuk menjelaskan pandangan mereka mengenai bendera merah yang dilog. Berapa banyak lagi bendera merah seperti itu telah didaftarkan? Apakah hasil yang dihasilkan oleh bendera merah tersebut?

Dan seterusnya ia akan pergi.

Kesimpulan

Tidak masuk akal, sesetengah skeptik menasihati.

Kami tidak memerlukan Undang-undang AI Bendera Merah, mereka berusaha keras. Melakukan apa-apa jenis akan menghasilkan kerja-kerja yang berkaitan dengan kadar dan kemajuan AI. Mana-mana undang-undang sedemikian akan menjadi sukar digunakan. Anda akan mencipta masalah yang tidak menyelesaikan masalah. Terdapat cara lain untuk menangani AI yang tidak baik. Jangan pegang straw secara membabi buta untuk mengatasi AI yang berat sebelah.

Menukar gear, kita semua tahu bahawa pelawan lembu menggunakan jubah merah untuk menarik perhatian lembu jantan yang marah. Walaupun merah adalah warna yang paling kami kaitkan dengan amalan ini, anda mungkin terkejut mengetahui bahawa saintis mengatakan bahawa lembu jantan tidak melihat warna merah muleta (mereka buta warna kepada merah). Rancangan popular MythBusters melakukan pemeriksaan yang cukup menghiburkan tentang perkara ini. Pergerakan tanjung adalah elemen utama dan bukannya warna yang dipilih.

Bagi mereka yang mengenepikan keperluan untuk Undang-undang AI Bendera Merah, tuntutan balas adalah bahawa kita memerlukan sesuatu yang dramatik dan sifat melambai yang jelas untuk memastikan bahawa pembangun AI dan firma yang menggunakan AI akan menjauhi AI yang berat sebelah atau buruk. Jika bukan kerana bendera merah, mungkin tanjung yang berkibar atau pada dasarnya apa-apa jenis pendekatan berwaspada mungkin berada dalam lingkungan untuk mendapatkan pertimbangan yang sewajarnya.

Kami tahu pasti bahawa AI yang buruk wujud dan bahawa lebih banyak AI yang buruk akan menuju ke arah kami. Mencari cara untuk melindungi diri kita daripada AI yang buruk adalah penting. Begitu juga, menetapkan pagar untuk mencuba dan menghentikan AI yang buruk daripada masuk ke dunia adalah sama pentingnya.

Ernest Hemingway terkenal menyatakan bahawa tiada siapa yang pernah menjalani kehidupan mereka sepanjang jalan kecuali pejuang lembu jantan. Kita perlu memastikan bahawa manusia boleh menjalani kehidupan mereka sepanjang jalan, walaupun apa jua keburukan atau kegilaan AI yang diisytiharkan kepada kita.

Sumber: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- biased-algorithm-in-autonomous-ai-systems/