Etika AI Yang Diganggu Oleh China Terbaharu Rekaan AI-Parti-Kesetiaan Pembacaan Minda Pengesahan Pengecaman Muka Yang Mungkin Membayangkan Sistem Autonomi Yang Menindas

Adakah anda setia?

Secara teorinya, mungkin untuk memeriksa perbuatan anda yang terang-terangan dan memastikan sama ada kesetiaan ditunjukkan oleh tindakan anda.

Katakan bahawa sebaliknya terdapat percubaan dibuat untuk membaca fikiran anda dan sementara itu mengimbas wajah anda untuk menentukan tahap kesetiaan anda. Ini sangat mengganggu; anda mungkin mudah mengecam. Kedengarannya seperti salah satu filem sci-fi gila yang membayangkan masyarakat dystopian masa depan.

Syukurlah, awak sembunyi-sembunyi berbisik kepada diri sendiri, kita tidak ada apa-apa seperti itu hari ini.

Wah, pegang kuda anda.

Tajuk berita baru-baru ini menghebohkan bahawa kertas penyelidikan yang disiarkan dalam talian di China pada 1 Julai 2022, menggambarkan kajian yang kononnya melibatkan penilaian gelombang otak orang dan ekspresi muka mereka untuk tujuan mengira sama ada mereka setia kepada Parti Komunis China (PKC). . Jadi, begitulah, masa depan semakin dekat dan lebih dekat, sekurang-kurangnya dari segi mencapai masyarakat dystopian yang kita takuti mungkin timbul suatu hari nanti.

Kertas penyelidikan itu dengan cepat hilang daripada pautan yang disiarkan dalam talian.

Agaknya, cemuhan pantas yang cepat melanda Internet sudah cukup untuk membuat kertas itu diturunkan. Atau, mungkin penyelidik hanya ingin membuat beberapa perubahan perkataan dan pembetulan lain yang tidak berbahaya, bertujuan untuk melakukan penyiaran semula sebaik sahaja mereka mempunyai peluang yang lebih teliti untuk memastikan bahawa i dititik dan semua t disilangkan. Kita perlu membuka mata untuk melihat sama ada kertas itu mendapat kehidupan kedua.

Saya akan meneruskan dan menyelami lebih mendalam tentang perkara yang kita ketahui tentang kajian penyelidikan dan cuba menghubungkan titik-titik tentang cara kerja berkaitan AI seperti ini mempunyai kepentingan untuk kita semua, melangkaui skop untuk melihat perkara ini. kerana terhad kepada satu negara tertentu. Liputan saya akan menjadi lebih luas sedikit daripada pelaporan terbaharu yang lain mengenai item bernilai berita ini, jadi harap bersabar dengan saya.

Penekanan tambahan saya juga adalah bahawa terdapat banyak pelajaran Etika AI yang penting yang boleh kita perolehi daripada kertas yang dikatakan. Untuk liputan berterusan dan meluas saya tentang Etika AI dan AI Etika, lihat pautan di sini and pautan di sini, Hanya untuk menamakan beberapa.

Inilah perkara yang telah disebut setakat ini mengenai kajian penyelidikan.

Nampaknya, beberapa "sukarelawan" telah direkrut untuk mengambil bahagian dalam percubaan mengenai persepsi PKC. Sama ada mereka sukarelawan yang rela atau lebih mirip dengan sukarelawan terpandu atau mungkin dibimbing tidak diketahui. Kami akan menganggap untuk perbincangan bahawa mereka bersetuju untuk menjadi subjek dalam kajian.

Saya membawa perkara ini bukan semata-mata menjadi pintar. Setiap kali percubaan dilakukan yang melibatkan subjek manusia, terdapat banyak amalan yang diterima umum mengenai pengambilan dan penyertaan subjek tersebut ke dalam usaha penyelidikan. Ini sebahagiannya menjejak kembali kepada kajian terdahulu yang sering menipu atau memaksa orang untuk terlibat dalam percubaan, kadang-kadang membawa kepada kesan psikologi yang buruk atau bahkan kecederaan fizikal kepada peserta tersebut. Komuniti saintifik telah berusaha bersungguh-sungguh untuk menyekat jenis kajian berbahaya tersebut dan memerlukan semua jenis pendedahan dan amaran diberikan kepada mereka yang ingin dimasukkan dalam kajian berkaitan manusia.

Untuk menjelaskan, tidak semua orang mematuhi garis panduan yang berhemat dan teliti.

Seterusnya, dilaporkan terdapat 43 subjek, dan mereka dikatakan ahli Parti Komunis China. Perlu diingat bahawa pemilihan subjek untuk eksperimen adalah agak penting untuk eksperimen dan juga mesti diambil kira mengenai sebarang kesimpulan yang mungkin anda cuba capai selepas itu tentang keputusan eksperimen.

Katakan saya ingin melakukan percubaan tentang cara orang melihat siri Star Wars yang terkenal. Jika saya pra-pilih subjek yang semua sangat membenci Star Wars (bagaimana orang sedemikian boleh wujud?), dan saya menunjukkan kepada mereka klip video Star Wars, kemungkinan besar mereka akan mengatakan bahawa mereka masih tidak menyukai Star Wars. Berdasarkan eksperimen pseudo-saintifik ini, mungkin saya secara senyap-senyap mendakwa bahawa orang - secara umum - sangat membenci Star Wars, yang "terbukti" (wink-wink) dalam tetapan penyelidikan saya yang "berhati-hati" disediakan.

Anda mungkin tidak tahu bahawa saya telah menipu roda rolet, seolah-olah, dengan memilih subjek yang saya jangkakan akan menghasilkan keputusan yang saya inginkan secara diam-diam. Sudah tentu, sekiranya saya sengaja merekrut orang yang menyukai Star Wars dan peminat tegar, kemungkinan besar mereka akan melaporkan sebagai gembira menonton klip Star Wars itu. Sekali lagi, sebarang kesimpulan yang dicapai tentang bagaimana orang ramai, secara amnya, bertindak balas terhadap Star Wars akan diganggu oleh set subjek yang dipilih terlebih dahulu yang dipilih untuk usaha itu.

Kajian yang berfokuskan PKC itu nampaknya menempatkan subjek di hadapan paparan video seperti kiosk dan membaca pelbagai artikel tentang dasar dan pencapaian PKC. Ini mungkin dianggap sebagai "rawatan eksperimen" yang sedang didedahkan kepada subjek. Apabila merancang percubaan, anda biasanya menghasilkan faktor atau aspek percubaan yang anda ingin lihat jika ia memberi kesan kepada peserta.

Persoalan kajian yang nampaknya sedang diterokai ialah sama ada tindakan menyemak bahan-bahan ini akan memberi kesan kepada subjek dari segi peningkatan, penurunan, atau neutral mengenai tanggapan mereka terhadap PKC.

Dalam hipotesis nol klasik, anda mungkin mengatur kajian sedemikian untuk menyatakan bahawa bahan yang digunakan tidak mempunyai kesan ke atas tanggapan seterusnya yang dinyatakan oleh subjek. Sebaik sahaja anda melakukan perbandingan sebelum dan selepas pandangan mereka tentang CCP, anda secara statistik akan cuba melihat sama ada terdapat pengesanan ketara secara statistik terhadap perubahan dalam tera mereka.

Mungkin sebelum dan selepas tidak berbeza secara statistik, oleh itu anda mungkin secara munasabah membuat kesimpulan bahawa untuk kajian khusus ini bahan yang dipaparkan (rawatan eksperimen) nampaknya tidak membuat perbezaan dalam tanggapan mereka. Sebaliknya, jika terdapat perbezaan yang sah dari segi statistik, anda akan melihat sama ada selepas itu lebih besar daripada sebelumnya, membolehkan anda dengan berhati-hati mencadangkan bahan tersebut meningkatkan teraannya (dan, di sisi lain syiling, jika selepas adalah kurang daripada sebelum ini mungkin membayangkan bahawa bahan mengurangkan atau menurunkan teranya).

Terdapat banyak masalah longgar yang perlu ditangani dalam kajian sedemikian.

Sebagai contoh, kita biasanya mahu mempunyai apa yang dipanggil kumpulan kawalan yang boleh kita bandingkan dengan mereka yang menerima rawatan eksperimen. Inilah sebabnya. Katakan bahawa tindakan duduk di hadapan kiosk untuk membaca bahan adalah asas sebenar mengapa tera diubah. Boleh jadi sifat bahan yang digunakan secara kasarnya tidak penting kepada kesan tera. Hanya duduk dan membaca apa-apa sahaja, seperti cerita terkini tentang kucing yang melakukan perkara lucu, sahaja mungkin berjaya. Oleh itu, kami mungkin mengatur agar beberapa subjek berada dalam kumpulan kawalan kami yang terdedah kepada beberapa bahan lain untuk dibaca, selain daripada dasar CCP dan bahan pencapaian.

Kami tidak tahu sama ada itu telah dilakukan dalam contoh ini (tiada sesiapa nampaknya telah menyebut aspek ini lagi).

Saya sedar anda kini semakin gelisah tentang bahagian media yang meletup dalam kajian itu. Kami akan bergerak dengan cepat ke bahagian itu.

Bagaimanakah kita boleh mengesan sama ada subjek dalam eksperimen ini bertindak balas atau mengubah tanggapan mereka akibat membaca bahan yang dipaparkan?

Cara biasa ialah bertanya kepada mereka.

Anda mungkin telah terlebih dahulu memberikan soal selidik yang menanyakan tanggapan mereka terhadap PKC. Kemudian, berikutan pendedahan kepada rawatan eksperimen, seperti dalam bacaan bahan yang dipaparkan, kami boleh memberikan soal selidik yang lain. Jawapan yang diberikan oleh subjek pada asas sebelum dan selepas boleh dibandingkan. Jika kami juga menggunakan kumpulan kawalan, kami akan menganggap bahawa jawapan kumpulan kawalan tidak akan berubah secara substansial dari sebelum ke selepas (di bawah kepercayaan bahawa melihat cerita tentang kucing bermain-main sepatutnya tidak memberi kesan kepada tera CCP mereka).

Tindakan meminta subjek tanggapan mereka ini tidak semestinya semudah yang kelihatan.

Katakan bahawa subjek dalam eksperimen mendapat rasa atau hanyut keseluruhan bahawa anda mahu mereka bertindak balas terhadap rawatan eksperimen dengan cara tertentu. Dalam kes itu, mereka mungkin sengaja melebih-lebihkan reaksi mereka dalam bahagian selepas pentadbiran percubaan. Anda pasti pernah melihat perkara ini berlaku. Jika saya melakukan ujian rasa untuk soda baharu yang datang ke pasaran, saya mungkin bertindak seperti saya sangat menikmati soda, berbuat demikian dengan harapan mungkin akan dipaparkan dalam iklan oleh pembuat soda dan mendapat kemasyhuran lima belas minit yang layak .

Intinya ialah hanya meminta orang ramai pendapat mereka bukanlah cara yang pasti untuk mengukur perubahan. Ia adalah satu pendekatan. Pendekatan lain boleh dan juga sering dilakukan.

Bagaimanakah kajian khusus ini memilih untuk mengukur tindak balas subjek?

Nampaknya, sekurang-kurangnya dua kaedah digunakan. Satu kaedah terdiri daripada melakukan imbasan muka dan menggunakan perisian pengecaman muka berasaskan AI untuk menilai tindak balas subjek. Kaedah lain dilaporkan adalah beberapa bentuk pengimbasan gelombang otak. Ia belum lagi dilaporkan tentang jenis peranti pengimbasan gelombang otak yang digunakan, atau jenis perisian analisis gelombang otak berasaskan AI yang digunakan.

Pelbagai laporan telah menunjukkan bahawa kajian itu menyatakan ini tentang sifat eksperimen: "Di satu pihak, ia boleh menilai bagaimana ahli parti telah menerima pemikiran dan pendidikan politik." Dan kajian itu dikatakan juga menyebut perkara ini: "Sebaliknya, ia akan menyediakan data sebenar untuk pendidikan pemikiran dan politik supaya ia boleh diperbaiki dan diperkaya." Kajian penyelidikan itu dikaitkan dengan dilakukan di bawah naungan Pusat Sains Negara Komprehensif Hefei China.

Laporan media mencadangkan bahawa kajian itu merujuk kepada dakwaan bahawa imbasan pengecaman muka dan imbasan gelombang otak dapat membantu dalam mengesan bahawa tanggapan selepas dirangsang tentang PKC.

Saya ingin ambil perhatian untuk anda bahawa tanpa dapat menyemak secara langsung sistem yang digunakan dan meneliti kertas penyelidikan dengan teliti, kami tidak mengetahui butir-butir bagaimana sistem berasaskan AI tersebut digunakan dengan tepat.

Boleh jadi subjek bertindak balas terhadap tetapan eksperimen dan bukannya bertindak balas terhadap rawatan eksperimen. Sesiapa sahaja yang mengambil bahagian dalam kajian mungkin cemas, sebagai permulaan. Ini mungkin mengelirukan sebarang usaha untuk melakukan imbasan gelombang otak atau analisis corak muka. Terdapat juga peluang bahawa mereka berasa bermotivasi untuk menggembirakan penyelidik, memilih untuk mencipta fikiran positif selepas melihat bahan-bahan dan ini secara teori boleh dicerminkan dalam imbasan gelombang otak dan imbasan muka (mungkin, walaupun sila ketahui bahawa terdapat menangani kontroversi yang berapi-api mengenai kesahihan perbalahan sedemikian, seperti yang akan saya jelaskan seketika), dengan harapan dapat memesongkan keputusan dan menunjukkan bahawa ia telah mendapat kesan positif.

Reaksi Twitter secara besar-besaran mengecam bahawa tanggapan menggunakan imbasan gelombang otak dan pengecaman muka yang diperkasakan AI adalah dengan sendirinya tindakan yang mengerikan dan keterlaluan. Hanya raksasa manusia yang akan menggunakan peranti sedemikian, kami diberitahu oleh beberapa tweet tersebut.

Saya mesti meminta anda untuk duduk dan menyediakan diri anda untuk sesuatu yang mungkin mengejutkan dan mengejutkan.

Terdapat ramai penyelidik di seluruh dunia yang menggunakan jenis teknologi yang sama dalam kajian penyelidikan mereka. Ini sememangnya bukan kali pertama keupayaan imbasan gelombang otak digunakan pada subjek manusia dalam usaha penyelidikan. Ini juga pastinya bukan kali pertama pengecaman muka digunakan pada subjek manusia untuk tujuan eksperimen. Malah carian dalam talian sepintas lalu akan menunjukkan kepada anda banyak dan banyak kajian percubaan merentas semua jenis negara dan makmal yang telah menggunakan jenis peranti tersebut.

Sekarang, apa yang dikatakan, menggunakan mereka untuk mengukur kesetiaan kepada PKC bukanlah sesuatu yang anda akan dapati banyak tumpuan. Apabila AI sedemikian digunakan untuk kawalan kerajaan, garis merah telah dipalang, seperti yang mereka katakan.

Itulah bahagian yang jelas menyejukkan dari keseluruhan kit dan caboodle.

Kebimbangan yang dinyatakan oleh banyak pihak ialah jika kerajaan memilih untuk menggunakan teknologi pengimbasan gelombang otak dan pengecaman muka untuk memastikan kesetiaan kepada rejim yang ada, kita akan mendapati diri kita berada dalam dunia distopia yang penuh dengan kecederaan. Apabila anda berjalan di jalan awam, mungkin peranti yang dipasang pada tiang lampu akan menentukan tahap kesetiaan anda secara rahsia.

Seseorang menganggap bahawa jika wajah anda nampaknya tidak menunjukkan anda cukup setia, atau jika imbasan gelombang otak mencadangkan perkara yang sama, samseng kerajaan mungkin tiba-tiba tergesa-gesa dan menangkap anda. Mencemaskan. Abysmal. Mesti tidak dibenarkan.

Itulah sebab utama mengapa tajuk berita yang menimbulkan kemarahan dan kemarahan mengenai item berita ini.

Bayangkan ini. Kami mungkin akan mencipta dan kemudian menggunakan sistem berasaskan komputer yang menggunakan AI terkini untuk memutuskan sama ada kami setia atau tidak. Jika anda cuba mengupah orang untuk duduk dan melakukan perkara yang sama, anda memerlukan ramai orang dan anda akan menghadapi masalah logistik untuk cuba meletakkan mereka untuk melihat semua orang. Dalam kes sistem berasaskan AI, anda hanya perlu menyediakan peranti elektronik pada tiang lampu, sisi bangunan dan sebagainya. Pengimbasan untuk kesetiaan boleh berlaku 24×7, pada setiap masa, di semua tempat yang serba lengkap. Ini kemudiannya boleh dimasukkan ke dalam pangkalan data yang besar.

Kita menjadi manusia yang hanyalah roda gigi dalam ekosistem penindasan masyarakat yang sangat melihat segala-galanya. Mata yang melihat bukan hanya melihat apa yang kita lakukan. Ia juga mentafsirkan apa yang didakwa wajah kita tentang kesetiaan kita kepada kerajaan. Fikiran kita juga harus diperiksa untuk tujuan yang sama.

Yikes!

Terdapat kebimbangan sekunder yang datang dari ini juga, walaupun mungkin tidak begitu berduri berbanding dengan implikasi Big Brother seperti yang telah dilakarkan.

Renungkan dua soalan yang mendesak ini:

  • Bolehkah kami dengan pasti menegaskan bahawa imbasan gelombang otak boleh membuktikan kesetiaan anda?
  • Bolehkah kami dengan pasti menegaskan bahawa imbasan pengecaman muka boleh membuktikan kesetiaan anda?

Tunggu di sana, anda mungkin menjerit sekuat hati.

Saya sedar dan mengakui bahawa anda mungkin tidak begitu mengambil berat tentang aspek kebolehpercayaan per se. Sama ada ini boleh dilakukan dengan pasti adalah kurang penting daripada fakta bahawa ia sedang dilakukan sama sekali. Tiada siapa yang sepatutnya berada di bawah pengawasan sedemikian. Lupakan sama ada teknologi berfungsi sesuai untuk tugas ini. Kita sepatutnya tidak menjalankan tugas itu pada permulaannya.

Walau apa pun, jawapannya sekarang ialah tidak, iaitu sistem AI sedia ada yang melakukan sebarang kemiripan "imbasan gelombang otak" dan pengecaman muka tidak cukup mampu untuk melakukan lonjakan itu.

Anda mungkin telah melihat akhir-akhir ini bahawa beberapa pembuat pengecaman muka telah melakukan beberapa tindakan mundur dari segi cara sistem pengecaman muka mereka digunakan. Dalam siaran lajur yang akan datang, saya akan membincangkan usaha baru-baru ini, contohnya oleh Microsoft untuk mencuba dan membendung arus mereka yang menggunakan alat pengecaman muka yang disediakan oleh Microsoft untuk tujuan yang jauh melebihi apa yang teknologi mampu lakukan atau patut digunakan untuk . Anda mungkin mendapati minat saya melihat keraguan Etika AI yang telah pun didedahkan dengan baik tentang pengecaman muka, lihat pautan di sini. Saya juga telah membincangkan arena imbasan gelombang otak, lihat perbincangan saya di pautan di sini.

Secara ringkasnya, tiada cara yang boleh dipercayai atau munasabah untuk mencadangkan bahawa imbasan gelombang otak atau imbasan pengecaman muka boleh dikatakan menggambarkan kesetiaan seseorang. Malah mungkin aspek asas seperti sama ada anda boleh mengaitkan imbasan tersebut dengan pasti sama ada seseorang gembira berbanding sedih masih hangat diperkatakan. Mencuba untuk meningkatkan minat kepada sesuatu yang tidak berbentuk dan berubah-ubah seperti kesetiaan adalah jambatan yang terlalu jauh.

Saya mungkin menambah, bahawa ada yang percaya dengan penuh semangat bahawa kita akhirnya akan sampai ke sana. Itulah sebabnya saya telah berhati-hati cuba untuk ambil perhatian bahawa kita belum berada di sana, dan bukannya menyatakan bahawa kita tidak akan sampai ke sana. Tidak pernah menjadi perkataan besar. Anda harus benar-benar pasti jika anda akan melambungkan bahawa ini akan pernah boleh dilaksanakan (dengan mengingati bahawa "tidak pernah" merangkumi dekad dari sekarang, berabad-abad dari sekarang, dan beribu-ribu atau berjuta-juta tahun dari sekarang).

Ada yang bertindak balas terhadap berita mengenai kajian penyelidikan makmal Cina ini sebagai penunjuk betapa bahayanya dunia beralih kepada penggunaan AI yang tidak sesuai dan berbahaya. Saya akan berkongsi dengan anda seketika gambaran tentang maksud AI Etika. Ini akan membantu anda untuk melihat dengan lebih jelas mengapa kajian khusus ini nampaknya melanggar banyak jika tidak hampir semua peraturan AI Etika yang diterima umum.

Percaya atau tidak, ada yang mencadangkan bahawa mungkin kami membuat gunung daripada bukit lalat berkaitan kajian khusus ini.

Adakah kita?

Hujah balas adalah bahawa molehill tidak lama lagi boleh menjadi gunung. Dalam tanggapan peribahasa tentang bola salji yang semakin besar apabila ia bergolek menuruni bukit bersalji, kita perlu menghentikan bola salji daripada terus berlaku. Jika kita bertolak ansur dengan jenis kajian ini, kita membiarkan bola salji itu memulakan perjalanannya. Dengan bersuara dan menyeru kajian sedemikian, mungkin kita boleh menghalang bola salji.

Satu perkara yang pasti, kita berada di ambang membuka kotak Pandora apabila ia berkaitan dengan aspek AI, dan persoalannya tetap sama ada kita boleh menghalang pembukaan kotak itu atau sekurang-kurangnya mencari cara untuk menangani secara berhemat dengan apa sahaja yang keluar. sebaik sahaja kotak itu telah mengeluarkan kandungan syaitannya.

Sekiranya tidak ada yang lain, mudah-mudahan, ribut media seperti ini akan mendorong perbincangan meluas tentang cara kita akan menghalang perbuatan jahat berkaitan AI dan mengelakkan banyak risiko kewujudan yang dicetuskan AI. Kita perlu meningkatkan kesedaran masyarakat kita tentang pertimbangan Etika AI dan AI Etika.

Sebelum membahas lebih banyak daging dan kentang tentang pertimbangan liar dan berbulu yang mendasari jenis sistem AI ini, mari kita wujudkan beberapa asas tambahan mengenai topik yang sangat penting. Kita perlu menyelam secara ringkas ke dalam Etika AI dan terutamanya kemunculan Pembelajaran Mesin (ML) dan Pembelajaran Dalam (DL).

Anda mungkin sedar secara samar-samar bahawa salah satu suara paling lantang hari ini dalam bidang AI dan juga di luar bidang AI terdiri daripada merayu untuk mendapatkan persamaan AI Etika yang lebih besar. Mari kita lihat maksud merujuk kepada AI Etika dan AI Etika. Selain itu, kita akan meneroka apa yang saya maksudkan apabila saya bercakap tentang Pembelajaran Mesin dan Pembelajaran Dalam.

Satu segmen atau bahagian tertentu Etika AI yang telah mendapat banyak perhatian media terdiri daripada AI yang menunjukkan berat sebelah dan ketidaksamaan yang tidak diingini. Anda mungkin sedar bahawa apabila era terkini AI bermula, terdapat cetusan semangat yang besar untuk apa yang kini dipanggil oleh sesetengah orang. AI Untuk Kebaikan. Malangnya, selepas keterujaan yang membuak-buak itu, kami mula menyaksikan AI Untuk Buruk. Sebagai contoh, pelbagai sistem pengecaman muka berasaskan AI telah didedahkan sebagai mengandungi berat sebelah kaum dan berat sebelah jantina, yang telah saya bincangkan di pautan di sini.

Usaha melawan balik AI Untuk Buruk sedang giat dijalankan. Selain riuh rendah undang-undang usaha untuk mengekang perbuatan salah, terdapat juga dorongan substantif ke arah menerima Etika AI untuk memperbetulkan keburukan AI. Tanggapannya ialah kita harus mengguna pakai dan menyokong prinsip AI Etika utama untuk pembangunan dan penempatan AI berbuat demikian untuk mengurangkan AI Untuk Buruk dan pada masa yang sama menghebahkan dan mempromosikan yang lebih baik AI Untuk Kebaikan.

Mengenai tanggapan yang berkaitan, saya adalah penyokong cuba menggunakan AI sebagai sebahagian daripada penyelesaian kepada masalah AI, melawan api dengan api dengan cara pemikiran itu. Sebagai contoh, kami mungkin membenamkan komponen AI Beretika ke dalam sistem AI yang akan memantau bagaimana seluruh AI melakukan sesuatu dan dengan itu berpotensi menangkap dalam masa nyata sebarang usaha diskriminasi, lihat perbincangan saya di pautan di sini. Kami juga boleh mempunyai sistem AI berasingan yang bertindak sebagai sejenis pemantau Etika AI. Sistem AI berfungsi sebagai penyelia untuk menjejak dan mengesan apabila AI lain masuk ke jurang yang tidak beretika (lihat analisis saya tentang keupayaan sedemikian di pautan di sini).

Sebentar lagi, saya akan berkongsi dengan anda beberapa prinsip menyeluruh yang mendasari Etika AI. Terdapat banyak senarai jenis ini terapung di sana sini. Anda boleh mengatakan bahawa belum ada senarai tunggal bagi rayuan dan persetujuan sejagat. Itu berita malangnya. Berita baiknya ialah sekurang-kurangnya terdapat senarai Etika AI yang tersedia dan mereka cenderung agak serupa. Semua diberitahu, ini menunjukkan bahawa melalui satu bentuk penumpuan yang beralasan bahawa kita sedang mencari jalan ke arah persamaan umum yang terdiri daripada Etika AI.

Mula-mula, mari kita bincangkan secara ringkas beberapa peraturan AI Etika keseluruhan untuk menggambarkan perkara yang sepatutnya menjadi pertimbangan penting bagi sesiapa yang membuat, memadang atau menggunakan AI.

Sebagai contoh, seperti yang dinyatakan oleh Vatican dalam Rome Call For AI Ethics dan seperti yang telah saya kupas secara mendalam pautan di sini, ini ialah enam prinsip etika AI utama mereka yang dikenal pasti:

  • Ketelusan: Pada dasarnya, sistem AI mesti boleh dijelaskan
  • Inklusi: Keperluan semua manusia mesti diambil kira supaya semua orang boleh mendapat manfaat, dan semua individu boleh ditawarkan keadaan terbaik untuk mengekspresikan diri dan berkembang.
  • Tanggungjawab: Mereka yang mereka bentuk dan menggunakan penggunaan AI mesti meneruskan dengan tanggungjawab dan ketelusan
  • Kesaksamaan: Jangan mencipta atau bertindak mengikut berat sebelah, sekali gus menjaga keadilan dan maruah manusia
  • Kebolehpercayaan: Sistem AI mesti boleh berfungsi dengan pasti
  • Keselamatan dan privasi: Sistem AI mesti berfungsi dengan selamat dan menghormati privasi pengguna.

Seperti yang dinyatakan oleh Jabatan Pertahanan AS (DoD) dalam mereka Prinsip Etika Untuk Penggunaan Kepintaran Buatan dan seperti yang telah saya kupas secara mendalam pautan di sini, ini ialah enam prinsip etika AI utama mereka:

  • Bertanggungjawab: Kakitangan DoD akan menggunakan tahap pertimbangan dan penjagaan yang sesuai sambil kekal bertanggungjawab terhadap pembangunan, penggunaan dan penggunaan keupayaan AI.
  • saksama: Jabatan akan mengambil langkah yang disengajakan untuk meminimumkan berat sebelah yang tidak diingini dalam keupayaan AI.
  • Boleh dikesan: Keupayaan AI Jabatan akan dibangunkan dan digunakan supaya kakitangan yang berkaitan mempunyai pemahaman yang sesuai tentang teknologi, proses pembangunan dan kaedah operasi yang digunakan untuk keupayaan AI, termasuk metodologi yang telus dan boleh diaudit, sumber data serta prosedur dan dokumentasi reka bentuk.
  • dipercayai: Keupayaan AI Jabatan akan mempunyai penggunaan yang jelas, ditakrifkan dengan baik, dan keselamatan, keselamatan dan keberkesanan keupayaan tersebut akan tertakluk kepada ujian dan jaminan dalam penggunaan yang ditentukan merentas keseluruhan kitaran hayatnya.
  • Boleh ditadbir: Jabatan akan mereka bentuk dan merekayasa keupayaan AI untuk memenuhi fungsi yang dimaksudkan sambil memiliki kebolehan untuk mengesan dan mengelakkan akibat yang tidak diingini, dan keupayaan untuk menanggalkan atau menyahaktifkan sistem yang digunakan yang menunjukkan tingkah laku yang tidak diingini.

Saya juga telah membincangkan pelbagai analisis kolektif prinsip etika AI, termasuk telah merangkumi satu set yang direka oleh penyelidik yang meneliti dan meringkaskan intipati pelbagai prinsip etika AI nasional dan antarabangsa dalam kertas kerja bertajuk "The Global Landscape Of AI Ethics Guidelines" (diterbitkan dalam Alam), dan liputan saya meneroka di pautan di sini, yang membawa kepada senarai batu kunci ini:

  • Ketelusan
  • Keadilan & Kesaksamaan
  • Non-Maleficence
  • tanggungjawab
  • Privasi
  • Kebaikan
  • Kebebasan & Autonomi
  • Amanah
  • Sustainability
  • Martabat
  • Perpaduan

Seperti yang anda mungkin meneka secara langsung, cuba mengecilkan butiran yang mendasari prinsip ini boleh menjadi sangat sukar untuk dilakukan. Lebih-lebih lagi, usaha untuk mengubah prinsip-prinsip yang luas itu menjadi sesuatu yang benar-benar nyata dan cukup terperinci untuk digunakan semasa membuat sistem AI juga merupakan masalah yang sukar untuk dipecahkan. Adalah mudah untuk secara keseluruhan melakukan beberapa lambaian tangan tentang apa itu peraturan Etika AI dan cara ia harus dipatuhi secara umum, sementara ia adalah situasi yang lebih rumit dalam pengekodan AI yang harus menjadi getah yang benar-benar memenuhi jalan.

Prinsip Etika AI akan digunakan oleh pembangun AI, bersama-sama dengan mereka yang menguruskan usaha pembangunan AI, dan juga prinsip yang akhirnya meletakkan dan melaksanakan penyelenggaraan pada sistem AI. Semua pihak berkepentingan sepanjang keseluruhan kitaran hayat pembangunan dan penggunaan AI dianggap dalam skop pematuhan kepada norma AI Etika yang telah ditetapkan. Ini adalah sorotan penting kerana andaian biasa ialah "pengekod sahaja" atau mereka yang memprogramkan AI tertakluk kepada pematuhan kepada tanggapan Etika AI. Seperti yang dinyatakan sebelum ini, ia memerlukan sebuah kampung untuk mencipta dan membina AI, dan untuk itu seluruh kampung perlu dikuasai dan mematuhi peraturan Etika AI.

Mari kita juga pastikan kita berada di halaman yang sama tentang sifat AI hari ini.

Tidak ada AI hari ini yang hidup. Kami tidak mempunyai ini. Kami tidak tahu sama ada kecerdasan buatan boleh dilakukan. Tiada siapa yang boleh meramalkan dengan tepat sama ada kita akan mencapai AI sentient, mahupun sama ada AI sentient entah bagaimana secara ajaib akan timbul secara spontan dalam bentuk supernova kognitif pengiraan (biasanya dirujuk sebagai ketunggalan, lihat liputan saya di pautan di sini).

Jenis AI yang saya fokuskan terdiri daripada AI bukan makhluk yang kita ada hari ini. Jika kita mahu membuat spekulasi liar sentimen AI, perbincangan ini boleh pergi ke arah yang sangat berbeza. AI yang hidup sepatutnya berkualiti manusia. Anda perlu mempertimbangkan bahawa AI yang hidup adalah setara dengan kognitif manusia. Lebih-lebih lagi, memandangkan ada yang membuat spekulasi bahawa kita mungkin mempunyai AI super-pintar, boleh dibayangkan bahawa AI sedemikian akhirnya boleh menjadi lebih pintar daripada manusia (untuk penerokaan saya tentang AI super-pintar sebagai kemungkinan, lihat liputan di sini).

Mari kita simpan perkara yang lebih sederhana dan pertimbangkan pengiraan AI bukan makhluk hari ini.

Sedar bahawa AI hari ini tidak dapat "berfikir" dalam apa jua cara yang setanding dengan pemikiran manusia. Apabila anda berinteraksi dengan Alexa atau Siri, kapasiti perbualan mungkin kelihatan serupa dengan kapasiti manusia, tetapi realitinya ialah ia adalah pengiraan dan tidak mempunyai kognisi manusia. Era terbaru AI telah menggunakan Pembelajaran Mesin (ML) dan Pembelajaran Dalam (DL) secara meluas, yang memanfaatkan padanan corak pengiraan. Ini telah membawa kepada sistem AI yang mempunyai rupa kecenderungan seperti manusia. Sementara itu, tidak ada mana-mana AI hari ini yang mempunyai rupa akal dan juga tidak mempunyai sebarang keajaiban kognitif pemikiran manusia yang teguh.

ML/DL ialah satu bentuk padanan corak pengiraan. Pendekatan biasa ialah anda mengumpulkan data tentang tugas membuat keputusan. Anda memasukkan data ke dalam model komputer ML/DL. Model tersebut berusaha untuk mencari corak matematik. Selepas menemui corak sedemikian, jika didapati, sistem AI kemudian akan menggunakan corak tersebut apabila menemui data baharu. Selepas pembentangan data baharu, corak berdasarkan data "lama" atau sejarah digunakan untuk membuat keputusan semasa.

Saya rasa anda boleh meneka ke mana arahnya. Jika manusia yang telah membuat keputusan yang bercorak telah memasukkan berat sebelah yang tidak diingini, kemungkinan besar data tersebut mencerminkannya dengan cara yang halus tetapi ketara. Pembelajaran Mesin atau Pembelajaran Dalam padanan corak pengiraan hanya akan cuba meniru data secara matematik dengan sewajarnya. Tidak ada kesamaan akal sehat atau aspek lain dari pemodelan buatan AI.

Tambahan pula, pembangun AI mungkin tidak menyedari apa yang sedang berlaku. Matematik misteri dalam ML/DL mungkin menyukarkan untuk menghilangkan bias yang kini tersembunyi. Anda berhak berharap dan menjangkakan bahawa pembangun AI akan menguji bias yang mungkin terkubur, walaupun ini lebih rumit daripada yang kelihatan. Peluang kukuh wujud bahawa walaupun dengan ujian yang agak meluas bahawa akan terdapat berat sebelah masih tertanam dalam model padanan corak ML/DL.

Anda boleh menggunakan pepatah yang terkenal atau terkenal tentang sampah masuk sampah. Masalahnya, ini lebih mirip kepada bias-in yang secara licik diselitkan sebagai bias yang tenggelam dalam AI. Algoritma membuat keputusan (ADM) AI secara aksiomatik menjadi sarat dengan ketidaksamaan.

Tidak baik.

Mari kita kembali kepada fokus kita pada sistem AI yang digunakan untuk tujuan salah laku yang tidak wajar atau mungkin secara terang-terangan dan bagaimana ia berkaitan dengan kajian yang disiarkan baru-baru ini tentang kesetiaan CCP.

Dua pertimbangan utama datang ke fikiran:

1) Contoh AI ini adalah sebahagian daripada corak berterusan penggunaan AI yang membingungkan dan oleh itu mencemaskan dan membuka mata tentang apa yang sedang berlaku

2) Kucing itu boleh dilepaskan dari beg supaya jika AI seperti ini diterima pakai di satu negara, ia juga boleh merebak ke negara lain.

Mulakan dengan perkara pertama tentang contoh AI ini sebagai sebahagian daripada corak yang berterusan.

Satu asas yang penting untuk menjadi sangat terganggu oleh satu kajian khusus ini ialah ia adalah sebahagian daripada corak yang lebih besar tentang bagaimana AI bertujuan untuk digunakan oleh sesetengah orang. Jika ini adalah satu-satunya kajian sedemikian yang pernah dijalankan, kita mungkin sedikit tersentuh olehnya. Walau bagaimanapun, ia mungkin tidak akan bergema dengan semangat seperti yang kita lihat sekarang.

Ini mungkin titisan titisan satu inci ke arah sesuatu yang akan terlepas dari tangan.

Seperti yang dilaporkan dalam berita, China terkenal kerana menegaskan kesetiaan yang menyeluruh kepada PKC. Tambahan pula, pelbagai cara telah diwujudkan atau sedang diwujudkan untuk memastikan orang ramai didoktrinkan ke dalam doktrin kerajaan. Terdapat contoh kajian terdahulu yang dipetik yang bertujuan untuk mencipta algoritma AI yang boleh mengukur keadaan pemikiran ahli parti (lihat laporan yang disokong China. Waktu Pengajian pada 2019 yang menyebut usaha ini).

Anda mungkin masih ingat bahawa pada tahun 2018, Naib Presiden Mike Pence memberi ucapan di Institut Hudson dan menekankan bahawa "pemerintah China berhasrat untuk melaksanakan sistem Orwellian yang berasaskan mengawal hampir setiap aspek kehidupan manusia" (ini merujuk kepada pelaksanaan PKC sistem pemarkahan kredit sosial, topik kontroversi yang menonjol). Anda boleh dengan mudah menegaskan bahawa kajian CCP baru-baru ini adalah satu lagi langkah ke arah itu.

Kami tidak tahu bila atau jika straw terakhir akan mematahkan punggung unta, sehingga kajian sekali sahaja ini bertukar menjadi sistem pemantauan berasaskan AI yang meluas.

Perkara kedua yang patut diberi perhatian ialah kita tidak boleh menganggap bahawa jenis AI ini hanya akan terhad kepada China. Pada dasarnya, walaupun penggunaan AI jenis ini di China yang mungkin tersebar luas dengan sendirinya mengganggu, negara lain mungkin melakukan perkara yang sama.

Sebaik sahaja AI untuk ini dikatakan bersedia untuk masa utama, negara lain mungkin tidak akan mengambil masa yang lama untuk memutuskan mereka mahu melaksanakannya juga. Kucing akan keluar dari beg. Sesetengah negara mungkin akan menggunakan AI ini dengan cara yang menindas secara terang-terangan dan tidak cuba berpura-pura berbuat demikian. Negara lain nampaknya ingin menggunakan AI jenis ini untuk tujuan yang berfaedah, yang mana akhirnya terdapat kelemahan yang hampir tidak dapat dielakkan.

Sebenarnya, mencadangkan bahawa jenis AI ini mungkin hanya akan diguna pakai sebaik sahaja ia dilihat sebagai sedia untuk masa utama adalah sedikit kesilapan. Ia mungkin tidak membuat sedikit perbezaan sama ada AI boleh berfungsi dengan pasti dengan cara ini. AI boleh digunakan sebagai cerita penutup, lihat penjelasan saya di pautan di sini. Terlepas dari apa yang sebenarnya mampu dicapai oleh AI, tanggapannya ialah AI boleh menjadi alasan yang berguna untuk menghasilkan pemantauan dan skim penduduk untuk mengukur dan memastikan kesetiaan mutlak kepada pihak berkuasa.

Pada masa perbincangan yang berat ini, saya yakin anda ingin mendapatkan beberapa contoh ilustrasi yang mungkin mempamerkan topik ini. Terdapat satu set contoh yang istimewa dan pasti popular yang dekat di hati saya. Anda lihat, dalam kapasiti saya sebagai pakar dalam AI termasuk kesan etika dan undang-undang, saya sering diminta untuk mengenal pasti contoh realistik yang mempamerkan dilema Etika AI supaya sifat topik yang agak teoritikal dapat difahami dengan lebih mudah. Salah satu bidang yang paling menggembirakan yang memaparkan dengan jelas kebingungan AI beretika ini ialah kemunculan kereta pandu sendiri sejati berasaskan AI. Ini akan berfungsi sebagai kes penggunaan yang berguna atau contoh untuk perbincangan yang mencukupi mengenai topik tersebut.

Berikut adalah soalan penting yang patut direnungkan: Adakah kemunculan kereta pandu sendiri sebenar berasaskan AI menerangi apa-apa tentang penyalahgunaan AI, dan jika ya, apakah yang ditunjukkan oleh ini?

Izinkan saya sebentar untuk membongkar soalan.

Pertama, ambil perhatian bahawa tidak ada pemandu manusia yang terlibat dalam kereta pandu sendiri yang sebenar. Perlu diingat bahawa kereta pandu sendiri sebenar dipandu melalui sistem pemanduan AI. Tidak ada keperluan untuk pemandu manusia di atas roda, dan tidak ada peruntukan untuk manusia memandu kenderaan itu. Untuk liputan saya yang meluas dan berterusan mengenai Kenderaan Autonomi (AV) dan terutamanya kereta pandu sendiri, lihat pautan di sini.

Saya ingin menjelaskan lebih lanjut apa yang dimaksudkan apabila saya merujuk kepada kereta pandu sendiri yang sebenar.

Memahami Tahap Kereta Memandu Kendiri

Sebagai penjelasan, kereta pandu sendiri yang sebenar ialah kereta yang AI memandu kereta itu sendiri sepenuhnya dan tidak ada sebarang bantuan manusia semasa tugas memandu.

Kenderaan tanpa pemandu ini dianggap Tahap 4 dan Tahap 5 (lihat penjelasan saya di pautan ini di sini), manakala kereta yang memerlukan pemandu manusia untuk berkongsi usaha pemanduan biasanya dianggap pada Tahap 2 atau Tahap 3. Kereta yang berkongsi tugas pemanduan digambarkan sebagai separa autonomi dan biasanya mengandungi pelbagai alat tambah automatik yang dirujuk sebagai ADAS (Advanced Driver-Assistance Systems).

Belum ada kereta pandu sendiri yang sebenar di Tahap 5, dan kami masih belum tahu sama ada ini boleh dicapai, atau berapa lama masa yang diperlukan untuk sampai ke sana.

Sementara itu, usaha Tahap 4 secara beransur-ansur cuba mendapatkan sedikit daya tarikan dengan menjalani ujian jalan raya awam yang sangat sempit dan terpilih, walaupun terdapat kontroversi sama ada ujian ini harus dibenarkan sendiri (kita semua adalah babi guinea hidup atau mati dalam eksperimen berlaku di lebuh raya dan jalan raya kami, ada yang berpendapat, lihat liputan saya di pautan ini di sini).

Oleh kerana kereta separa autonomi memerlukan pemandu manusia, penggunaan jenis kereta itu tidak akan jauh berbeza daripada mengemudi kenderaan konvensional, jadi tidak banyak yang perlu dibahas sendiri mengenai topik ini (walaupun, seperti yang akan anda lihat sekejap sahaja, perkara-perkara yang dinyatakan seterusnya dapat digunakan secara umum).

Untuk kereta separa autonomi, penting bagi orang ramai untuk diperingatkan tentang aspek mengganggu yang timbul sejak kebelakangan ini, walaupun pemandu manusia yang terus menyiarkan video mereka tertidur di roda kereta Level 2 atau Level 3 , kita semua harus mengelak daripada disesatkan untuk mempercayai bahawa pemandu boleh menarik perhatian mereka dari tugas memandu ketika memandu kereta separa autonomi.

Anda adalah pihak yang bertanggungjawab untuk tindakan memandu kenderaan, tanpa mengira berapa banyak automasi yang dilemparkan ke Tahap 2 atau Tingkat 3.

Kereta Pandu Sendiri Dan Penyalahgunaan AI

Untuk kenderaan memandu sendiri Tahap 4 dan Tahap 5, tidak akan ada pemandu manusia yang terlibat dalam tugas memandu.

Semua penghuni akan menjadi penumpang.

AI sedang memandu.

Salah satu aspek untuk dibincangkan dengan segera adalah hakikat bahawa AI yang terlibat dalam sistem pemanduan AI masa kini tidak berperasaan. Dengan kata lain, AI sama sekali merupakan kumpulan pengaturcaraan dan algoritma berasaskan komputer, dan yang pasti tidak dapat memberi alasan dengan cara yang sama seperti yang manusia dapat.

Mengapa penekanan tambahan ini mengenai AI tidak berperasaan?

Kerana saya ingin menegaskan bahawa ketika membincangkan peranan sistem pemanduan AI, saya tidak menganggap kualiti manusia dengan AI. Perlu diketahui bahawa terdapat kecenderungan yang berterusan dan berbahaya pada masa ini untuk antropomorfisasi AI. Pada hakikatnya, orang memberikan perasaan seperti manusia pada AI hari ini, walaupun fakta yang tidak dapat disangkal dan tidak dapat dibantah bahawa belum ada AI seperti itu.

Dengan penjelasan itu, anda dapat membayangkan bahawa sistem pemanduan AI secara semula jadi tidak akan "mengetahui" tentang aspek pemanduan. Memandu dan semua yang diperlukan perlu diprogramkan sebagai sebahagian daripada perkakasan dan perisian kereta memandu sendiri.

Mari selami pelbagai aspek yang perlu diperhatikan dalam topik ini.

Pertama, adalah penting untuk menyedari bahawa tidak semua kereta pandu sendiri AI adalah sama. Setiap pembuat kereta dan firma teknologi pandu sendiri mengambil pendekatan mereka untuk mencipta kereta pandu sendiri. Oleh itu, sukar untuk membuat kenyataan menyeluruh tentang perkara yang akan dilakukan atau tidak dilakukan oleh sistem pemanduan AI.

Selanjutnya, setiap kali menyatakan bahawa sistem pemanduan AI tidak melakukan perkara tertentu, ini kemudiannya dapat ditimpa oleh pembangun yang sebenarnya memprogram komputer untuk melakukan perkara itu. Langkah demi langkah, sistem pemanduan AI secara bertahap diperbaiki dan diperluas. Batasan yang ada hari ini mungkin tidak lagi ada dalam lelaran atau versi sistem yang akan datang.

Saya harap ia menyediakan litani kaveat yang mencukupi untuk mendasari perkara yang akan saya kaitkan.

Mari kita lakarkan senario kereta pandu sendiri yang mungkin memanfaatkan AI dalam cara yang tidak jelas atau salah laku.

Saya akan berkongsi dengan anda beberapa kesan kereta pandu sendiri berasaskan AI yang mungkin menyebabkan anda menggigil dan terganggu. Ini adalah aspek yang hampir tiada siapa yang sedang membincangkan. Saya telah berulang kali membangkitkan perkara itu, walaupun secara terbuka mengakui bahawa sehingga kita mempunyai penggunaan kereta pandu sendiri yang lazim, kita tidak akan mendapat banyak daya tarikan kerana masyarakat bimbang atau kecewa dengan apa yang kelihatan seperti hari ini sebagai tanggapan abstrak semata-mata .

Adakah anda bersedia?

Kita akan mulakan dengan beberapa peletakan asas.

Kereta pandu sendiri berasaskan AI akan dilengkapi dengan kamera video, secara wajar. Ini membolehkan kereta pandu sendiri menerima imejan video adegan pemanduan. Sebaliknya, sistem pemanduan AI yang berjalan di atas komputer dalam kereta pandu sendiri bertujuan untuk memeriksa secara pengiraan video yang dikumpul dan mengetahui di mana jalan raya, di mana kereta berdekatan berada, di mana pejalan kaki berada, dan sebagainya. Saya sedar bahawa saya membaca asas kereta pandu sendiri 101.

Terdapat kamera video yang dipasang pada bahagian luar kenderaan autonomi itu dan mereka menghala ke luar. Di samping itu, pada umumnya, anda boleh menjangkakan bahawa terdapat kamera video di dalam atau di dalam kenderaan yang menghala ke dalam ke bahagian dalam kereta pandu sendiri. Kenapa begitu? Mudah-mudah, kerana akan terdapat banyak kegunaan penting untuk merakam video yang sedang berlaku di dalam kenderaan autonomi.

Apabila anda menaiki kereta pandu sendiri, anda tidak perlu lagi menjadi pemandu. Apakah yang akan anda lakukan semasa berada di dalam kereta pandu sendiri?

Satu perkara yang boleh anda lakukan ialah berinteraksi dengan orang lain di rumah atau di pejabat. Di sana anda, dalam perjalanan ke tempat kerja, yang akan mengatakan mengambil masa sejam memandu dengan kereta pandu sendiri, dan anda sudah boleh memulakan hari kerja anda dengan melakukan sesi interaktif masa nyata dalam talian seperti Zoom. Mereka boleh melihat anda, disebabkan oleh kamera menghala ke dalam ke dalam kereta pandu sendiri. Anda boleh melihatnya pada skrin LED di dalam kereta pandu sendiri. Pada penghujung hari anda, semasa pulang ke rumah, anda mungkin melakukan perbincangan video interaktif yang serupa dengan anak-anak anda kerana mereka mula menyiapkan kerja rumah mereka untuk petang itu.

Kegunaan lain adalah untuk mengambil kelas. Kini anda tidak perlu membuang masa memandu, anda boleh menukar masa mati itu di dalam kereta pandu sendiri untuk meningkatkan kemahiran anda atau mendapatkan sijil atau ijazah. Melalui kamera yang menghala ke dalam, pengajar anda boleh melihat anda dan membincangkan cara latihan anda akan datang.

Penggunaan lain adalah untuk mencuba dan memastikan bahawa penunggang dalam kereta pandu sendiri tidak mengamuk. Dalam kereta yang dipandu manusia, pemandu adalah kehadiran orang dewasa yang biasanya menghalang penunggang daripada melakukan perkara-perkara aneh seperti menandakan bahagian dalam dengan grafiti. Apakah yang akan berlaku dengan kereta pandu sendiri berasaskan AI? Ada yang bimbang bahawa penunggang akan memilih untuk mengoyak bahagian dalam kenderaan. Untuk mencuba dan menghalang perkara ini, firma perkongsian tunggangan yang menggunakan kereta pandu sendiri berkemungkinan akan menggunakan kamera video menghadap ke dalam untuk memantau perkara yang dilakukan orang semasa berada di dalam kenderaan autonomi.

Saya menganggap bahawa anda yakin bahawa kami akan mempunyai kamera video yang menghala ke bahagian dalam kereta pandu sendiri, sebagai tambahan kepada kamera yang menghala ke luar untuk membezakan adegan pemanduan.

Anda kini sudah bersedia untuk apa yang saya sebutkan sebagai mata jelajah, lihat analisis saya di pautan di sini.

Pertama, pertimbangkan kamera video yang menghala ke luar.

Ke mana sahaja kereta pandu sendiri pergi, ia berpotensi dapat merakam video apa sahaja yang dilihat oleh kamera. Sebuah kereta pandu sendiri yang memberi lif kepada seseorang dari rumah mereka dan membawa mereka ke kedai runcit akan merentasi kawasan kejiranan dan video itu akan merakam bukan sahaja jalan raya tetapi juga semua perkara lain yang berlaku dalam penglihatan. Seorang bapa dan anak bermain di halaman rumah mereka. Sebuah keluarga duduk di anjung depan mereka. Pada dan pada ia pergi.

Pada masa ini, kami mempunyai begitu sedikit kereta pandu sendiri di jalan raya awam sehingga keupayaan untuk menangkap video aktiviti harian agak terhad dan tidak penting.

Bayangkan bahawa kita akhirnya mencapai kereta pandu sendiri yang selamat dan meluas. Beribu-ribu daripada mereka. Mungkin berjuta-juta. Kami mempunyai kira-kira 250 juta kereta yang dipandu manusia di AS hari ini. Akhirnya, kereta itu akan digantikan dengan kereta pandu sendiri atau tidak lagi digunakan, dan kebanyakannya kita akan mempunyai kereta pandu sendiri di jalan raya kita. Kereta pandu sendiri itu dipandu oleh AI dan oleh itu boleh merayau pada dasarnya 24×7. Tiada rehat rehat, tiada rehat bilik air.

Data video boleh dimuat naik dari kereta pandu sendiri ini melalui sambungan rangkaian elektronik OTA (Over-The-Air). Kereta pandu sendiri akan menggunakan OTA untuk mendapatkan kemas kini perisian AI terkini yang dimuat turun ke dalam kenderaan. Selain itu, OTA boleh digunakan untuk memuat naik data daripada kereta pandu sendiri ke dalam pangkalan data berasaskan awan.

Semua diberitahu, adalah mungkin untuk menggabungkan data yang dimuat naik ini. Dengan jahitan itu, anda berpotensi menyatukan kedatangan dan kepergian setiap hari sesiapa sahaja yang keluar pada mana-mana hari di mana-mana tempat yang secara meluas menggunakan kereta pandu sendiri.

Itulah mata berkeliling yang telah saya amaran.

Kita kini boleh menyesuaikan kajian PKC ke dalam keupayaan jenis ini. Katakan kerajaan mempunyai akses kepada semua data video yang dikumpul ini. Mereka kemudiannya boleh menggunakan algoritma pengecaman muka berasaskan AI untuk memastikan ke mana anda pergi, pada masa hari, sepanjang perjalanan kehidupan harian anda. Di samping itu, mereka mungkin boleh menggunakan penganalisis berasaskan AI "kesetiaan" mereka untuk melihat sama ada anda kelihatan setia pada wajah anda atau tidak.

Bayangkan pada petang Selasa anda berjalan kaki untuk mendapatkan sandwic di kedai makan tempatan. Kereta pandu sendiri sedang melalui jalan raya. Semua video yang banyak merakam anda semasa anda berjalan kaki selama lima minit untuk mendapatkan makanan. Data telah dimuat naik ke pangkalan data berpusat. Kerajaan menjalankan program pengecaman muka AI pada data tersebut.

Ternyata AI "menentukan" bahawa anda mempunyai wajah yang tidak setia.

Mungkin pandangan tidak setia ini berlaku hanya seketika. Anda sedang menunggu di sudut jalan untuk menukar lampu supaya anda boleh menyeberang jalan ke kedai makan. Pada masa itu, anda mempunyai sedikit rasa jijik kerana anda terpaksa menunggu terlalu lama untuk simbol Walk. Adakah ini mungkin menunjukkan ketidaksetiaan anda kepada kerajaan?

Ya, AI yang dikira secara pengiraan, anda sangat tidak setia pada masa itu. Apabila anda pulang ke rumah pada malam itu, kerajaan telah mengatur penahanan anda.

Tetapi tunggu, ada lagi.

Ingat bahawa kamera video juga menghala ke dalam.

Pada hari Selasa yang sama, semasa anda menunggang ke tempat kerja dengan kereta pandu sendiri, kamera video merakam setiap detik anda. Ini telah dimuat naik ke pangkalan data terpusat. Perisian AI yang menganalisis corak muka untuk ketidaksetiaan melakukan pemeriksaan pola pengiraan ekspresi muka anda semasa perjalanan ke pejabat.

Pada satu ketika, anda dengan santai melihat ke luar kenderaan autonomi dan melihat seorang pekerja binaan yang menghalang sebahagian jalan raya dan menyebabkan sistem pemanduan AI memperlahankan kereta pandu sendiri. Untuk sekelip mata, wajah anda mencemuh pekerja pembinaan yang memperlahankan lalu lintas.

Analisis corak muka AI menafsirkan ini sebagai tanda tidak setia kepada kerajaan.

Dua serangan terhadap anda dalam satu hari.

Anda hidup di atas ais nipis.

Sudah tentu, sama ada AI adalah "betul" atau "salah" tentang dapat menentukan kesetiaan anda hampir tidak penting dalam konteks ini. Intinya ialah AI telah disediakan untuk tujuan ini. Manusia yang menggunakan AI mungkin atau mungkin tidak peduli sama ada AI itu sesuai digunakan untuk jenis tugas ini. AI membenarkan kawalan kerajaan, tanpa mengira kesahihan teknologi itu sendiri.

Itu meliputi pengimbasan muka.

Jika kita akhirnya mempunyai apa-apa jenis peranti mudah alih kos efektif untuk melakukan (didakwa) pengimbasan gelombang otak, ini pastinya juga boleh dimasukkan ke dalam kereta pandu sendiri. Kamera video adalah perkara yang pasti sekarang. Kemungkinan mempunyai peranti imbasan gelombang otak berkaliber ini tidak ada dalam kad sekarang, tetapi jelas adalah sesuatu yang dibayangkan untuk masa depan.

Untuk penerokaan saya tentang bagaimana kerajaan mungkin cuba mengambil alih penduduk dengan merebut kawalan kereta pandu sendiri, lihat pautan di sini. Kemungkinan yang sama wujud bahawa pelakon yang berniat jahat mungkin cuba melakukan perkara yang sama, lihat pautan di sini. Itu bukan taktik menakutkan mengenai liputan mengenai topik yang berkaitan, dan sebaliknya, penerangan tentang kepentingan keselamatan siber dan langkah berjaga-jaga lain yang perlu kita sebagai masyarakat berusaha untuk mengambil mengenai permulaan kereta pandu sendiri di mana-mana dan kenderaan autonomi lain.

Kesimpulan

Saya ingin segera menutup satu aspek tambahan tentang AI yang digunakan untuk memastikan kesetiaan yang saya fikir adalah topik yang agak berasingan, tetapi topik yang beberapa tweet dan media sosial telah diperkatakan.

Saya sebelum ini menyebut bahawa kita tidak mempunyai AI yang hidup dan kita tidak tahu sama ada atau bila kita akan. Mari kita layan idea bahawa kita akan mempunyai AI yang hidup. Dalam kes itu, pertimbangkan senario berikut.

Kami melalui AI yang tidak berasas memilih untuk melaksanakan penggunaan AI secara meluas yang memastikan secara pengiraan sama ada orang ramai setia kepada kerajaan mereka, menggunakan imbasan muka, imbasan gelombang otak dan sebagainya. Ini dikendalikan sepenuhnya oleh dan digunakan oleh manusia yang berkuasa. Itulah senario yang mengganggu yang saya gambarkan sebentar tadi.

Masa untuk menaikkan taruhan.

AI menjadi peka. Kami kini berpotensi menyerahkan kepada AI yang peka ini keupayaan meluas yang mungkin mengenal pasti kesetiaan dan ketidaksetiaan dalam diri manusia. AI yang melakukan kejahatan yang sedang mempertimbangkan untuk menghapuskan manusia mungkin menggunakan keupayaan ini untuk memutuskan bahawa memang manusia akan tidak setia dan harus dimusnahkan sepenuhnya. Atau mungkin hanya manusia yang mempamerkan tanda ketidaksetiaan melalui wajah atau pemikiran mereka akan dibuang.

Sudut lain ialah AI ingin memperhambakan manusia, lihat perbincangan saya di pautan di sini.

Kami nampaknya telah memberikan AI hadiah yang sempurna untuk menjalankan pencarian itu. Infrastruktur sedia ada yang kami sediakan membolehkan AI terus mengawasi kami sebagai manusia. Mereka yang nampaknya telah menyatakan tanda muka yang tidak setia atau memikirkan tentang penguasa AI akan merasai kemarahan AI.

Saya sedar bahawa saya berkata bahawa ini adalah peningkatan ante. Saya tidak pasti perkara itu berlaku. Pada pandangan saya, sama ada kita mempunyai penguasa AI secara langsung yang menentukan nasib kita berbanding tuan manusia yang mungkin menggunakan sistem AI untuk menentukan kesetiaan, baik, kedua-dua cadangan nampaknya tidak diingini.

Komen terakhir buat masa ini.

Sarjana dan ahli falsafah Rom Marcus Tullius Cicero menyatakan bahawa tidak ada yang lebih mulia, tidak ada yang lebih dihormati, daripada kesetiaan. Kami mungkin membiarkan AI mendahului kami dan menjadi alat untuk mendapatkan dan memastikan "kesetiaan" dengan cara yang mengerikan.

Sebab yang berbaloi untuk meletakkan Etika AI di bahagian atas senarai Tugasan kami.

Sumber: https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- pengesahan-yang-mungkin-meramalkan-sistem-autonomi-menindas/