Etika AI dan Undang-undang AI Mungkin Didorong Dan Didorong Untuk Mewajibkan Amaran Keselamatan Pada Semua AI Sedia Ada Dan Masa Depan

Aktiviti harian anda sudah pasti dihujani dengan seribu atau lebih amaran berjaga-jaga dari satu jenis atau yang lain.

Cuba ini untuk saiz:

  • Cermin mata keselamatan mesti dipakai sepanjang masa
  • Bahaya: Bahan kimia berbahaya berdekatan
  • Voltan tinggi – Jauhkan
  • Amaran: Berhati-hati dengan persekitaran anda
  • Objek dalam cermin lebih dekat daripada yang kelihatan
  • Keluarkan anak sebelum dilipat (seperti yang dinyatakan pada kereta sorong bayi)
  • Awas: Pastikan anda mengabaikan mesej ini

Kebanyakannya adalah tanda atau label yang berguna dan sama sekali bernas yang berfungsi untuk memastikan kita selamat dan terjamin.

Sila ambil perhatian bahawa saya menyelinap beberapa "outlier" dalam senarai untuk membuat beberapa perkara yang patut diberi perhatian.

Sebagai contoh, sesetengah orang percaya bahawa kereta sorong bayi mempunyai label yang dilekatkan yang memberi amaran kepada anda untuk tidak melipat kereta sorong semasa bayi masih duduk di dalam alat tersebut. Walaupun tanda itu sudah tentu sesuai dan berguna dengan patuh, nampaknya akal sehat asas sudah memadai.

Siapakah orang yang tidak menyedari bahawa mereka perlu mengeluarkan bayi itu terlebih dahulu?

Nah, yang lain menekankan bahawa label sedemikian mempunyai tujuan penting. Pertama, seseorang mungkin benar-benar tidak sedar bahawa mereka perlu mengeluarkan bayi sebelum melipat kereta dorong. Mungkin orang itu mengandaikan bahawa kereta dorong itu direka dengan cerdik untuk memastikan bahawa operasi lipatan tidak akan membahayakan bayi. Atau mungkin terdapat ciri keselamatan terbina dalam yang menghalang lipatan apabila terdapat kanak-kanak di dalam kereta sorong. Dan lain-lain.

Selain itu, mungkin orang itu terganggu dan akan melipat kereta dorong secara tidak sengaja, merangkumi bayi dan semua, tetapi label itu bernasib baik mendorong orang itu untuk tidak berbuat demikian (sesetengah akan berpendapat bahawa nampaknya tidak mungkin orang sedemikian akan melihat label itu. bagaimanapun). Terdapat juga fakta bahawa seseorang mungkin menyaman pembuat kereta dorong itu jika label sedemikian tidak ada. Anda boleh bayangkan salah satu tindakan undang-undang yang berat di mana seorang bayi telah cedera dan ibu bapa memutuskan untuk mengumpul satu juta dolar kerana kereta dorong itu tidak mempunyai tanda amaran yang dipasang padanya. Syarikat kereta sorong akan menyesal kerana tidak membelanjakan beberapa sen yang diperlukan untuk membuat dan menampal tanda amaran pada kereta sorong mereka.

Lihat juga dengan teliti pada mesej amaran terakhir yang saya senaraikan di atas.

Saya memilih untuk meletakkan mesej bijak tentang memastikan untuk mengabaikan mesej itu kerana terdapat banyak label amaran palsu yang orang ramai beli atau buat hanya untuk keseronokan hari ini. Yang ini adalah pembengkok minda falsafah yang sebenar. Jika anda membaca amaran yang mengatakan untuk mengabaikan amaran itu, apakah sebenarnya yang anda perlu lakukan setelah membaca amaran itu? Anda sudah membacanya, jadi ia kononnya dalam fikiran anda. Sudah tentu, anda boleh mengabaikannya, tetapi sekali lagi, anda sama sekali tidak dinasihatkan tentang perkara yang sepatutnya anda abaikan. Bulat dan bulat, jenaka ini berlaku.

Sudah tentu, label amaran yang bona fide biasanya tidak bersifat gurauan atau jenaka.

Kita sepatutnya mengambil amaran dengan agak serius.

Biasanya, jika anda gagal mematuhi amaran yang dinyatakan, anda melakukannya dengan risiko yang teruk. Dan, mungkin juga jika anda tidak memerhati dan mematuhi amaran, anda mungkin akan meletakkan orang lain pada risiko yang tidak wajar juga. Pertimbangkan tindakan memandu kereta. Apabila anda berada di belakang roda kereta, tindakan anda sebagai pemandu boleh memudaratkan diri anda, selain anda boleh membahayakan penumpang anda dan anda boleh membahayakan orang lain seperti orang di dalam kereta lain atau pejalan kaki berdekatan. Dalam erti kata itu, amaran bukan semata-mata untuk faedah anda, ia mungkin untuk faedah orang lain juga.

Mengapa saya merangkumi aspek amaran dan label amaran ini?

Kerana ada yang tegas menegaskan bahawa kita memerlukan tanda amaran dan peringatan pada Kepintaran Buatan (AI) hari ini.

Sebenarnya, tanggapannya adalah untuk meletakkan label sedemikian pada AI hari ini dan AI masa depan juga. Secara keseluruhannya, semua AI akan mempunyai beberapa bentuk atau varian amaran atau petunjuk amaran yang dikaitkan dengannya.

Idea baik atau idea buruk?

Praktikal atau tidak praktikal?

Mari kita teruskan dan bongkar konsep itu dan lihat apa yang boleh kita lakukan daripadanya.

Saya ingin terlebih dahulu meletakkan beberapa asas penting tentang AI dan khususnya Etika AI dan Undang-undang AI, berbuat demikian untuk memastikan bahawa topik amaran AI akan masuk akal dari segi konteks. Bagi anda yang secara amnya berminat dengan AI Etika dan juga Undang-undang AI, lihat liputan meluas dan berterusan saya di pautan di sini and pautan di sini, Hanya untuk menamakan beberapa.

Peningkatan Kesedaran Mengenai AI Beretika Dan Juga Undang-undang AI

Era AI baru-baru ini pada mulanya dilihat sebagai wujud AI Untuk Kebaikan, bermakna kita boleh menggunakan AI untuk kebaikan manusia. Pada tumit AI Untuk Kebaikan datang kesedaran bahawa kita juga tenggelam dalam AI Untuk Buruk. Ini termasuk AI yang direka atau diubah sendiri menjadi diskriminasi dan membuat pilihan pengiraan yang menimbulkan bias yang tidak wajar. Kadangkala AI dibina dengan cara itu, manakala dalam keadaan lain ia beralih ke wilayah yang tidak diingini itu.

Saya ingin memastikan bahawa kita berada pada halaman yang sama tentang sifat AI hari ini.

Tidak ada AI hari ini yang hidup. Kami tidak mempunyai ini. Kami tidak tahu sama ada kecerdasan buatan boleh dilakukan. Tiada siapa yang boleh meramalkan dengan tepat sama ada kita akan mencapai AI sentient, mahupun sama ada AI sentient entah bagaimana secara ajaib akan timbul secara spontan dalam bentuk supernova kognitif pengiraan (biasanya dirujuk sebagai ketunggalan, lihat liputan saya di pautan di sini).

Jenis AI yang saya fokuskan terdiri daripada AI bukan makhluk yang kita ada hari ini. Jika kita ingin membuat spekulasi liar tentang AI yang hidup, perbincangan ini boleh pergi ke arah yang sangat berbeza. AI yang hidup sepatutnya berkualiti manusia. Anda perlu mempertimbangkan bahawa AI yang hidup adalah setara dengan kognitif manusia. Lebih-lebih lagi, memandangkan sesetengah orang membuat spekulasi bahawa kita mungkin mempunyai AI super-pintar, boleh dibayangkan bahawa AI sedemikian akhirnya boleh menjadi lebih pintar daripada manusia (untuk penerokaan saya tentang AI super-pintar sebagai kemungkinan, lihat liputan di sini).

Saya amat menyarankan agar kita menyimpan perkara-perkara di bawah ke bumi dan mempertimbangkan AI bukan perasaan pengiraan hari ini.

Sedar bahawa AI hari ini tidak dapat "berfikir" dalam apa jua cara yang setanding dengan pemikiran manusia. Apabila anda berinteraksi dengan Alexa atau Siri, kapasiti perbualan mungkin kelihatan serupa dengan kapasiti manusia, tetapi realitinya ialah ia adalah pengiraan dan tidak mempunyai kognisi manusia. Era terbaru AI telah menggunakan Pembelajaran Mesin (ML) dan Pembelajaran Dalam (DL) secara meluas, yang memanfaatkan padanan corak pengiraan. Ini telah membawa kepada sistem AI yang mempunyai rupa kecenderungan seperti manusia. Sementara itu, tidak ada mana-mana AI hari ini yang mempunyai rupa akal dan juga tidak mempunyai sebarang keajaiban kognitif pemikiran manusia yang teguh.

Berhati-hati dalam membuat antropomorfosis AI hari ini.

ML/DL ialah satu bentuk padanan corak pengiraan. Pendekatan biasa ialah anda mengumpulkan data tentang tugas membuat keputusan. Anda memasukkan data ke dalam model komputer ML/DL. Model tersebut berusaha untuk mencari corak matematik. Selepas menemui corak sedemikian, jika didapati, sistem AI kemudian akan menggunakan corak tersebut apabila menemui data baharu. Selepas pembentangan data baharu, corak berdasarkan data "lama" atau sejarah digunakan untuk membuat keputusan semasa.

Saya rasa anda boleh meneka ke mana arahnya. Jika manusia yang telah membuat keputusan yang bercorak telah memasukkan berat sebelah yang tidak diingini, kemungkinan besar data tersebut mencerminkannya dengan cara yang halus tetapi ketara. Pembelajaran Mesin atau Pembelajaran Dalam padanan corak pengiraan hanya akan cuba meniru data secara matematik dengan sewajarnya. Tidak ada kesamaan akal sehat atau aspek lain dari pemodelan buatan AI.

Tambahan pula, pembangun AI mungkin tidak menyedari apa yang sedang berlaku. Matematik misteri dalam ML/DL mungkin menyukarkan untuk menghilangkan bias yang kini tersembunyi. Anda berhak berharap dan menjangkakan bahawa pembangun AI akan menguji bias yang mungkin terkubur, walaupun ini lebih rumit daripada yang kelihatan. Peluang yang kukuh wujud walaupun dengan ujian yang agak meluas bahawa akan terdapat berat sebelah masih tertanam dalam model padanan corak ML/DL.

Anda boleh menggunakan pepatah yang terkenal atau terkenal tentang sampah masuk sampah. Masalahnya, ini lebih mirip kepada bias-in yang secara licik diselitkan sebagai bias yang tenggelam dalam AI. Algoritma membuat keputusan (ADM) AI secara aksiomatik menjadi sarat dengan ketidaksamaan.

Tidak baik.

Semua ini mempunyai implikasi Etika AI yang ketara dan menawarkan tetingkap berguna ke dalam pelajaran yang dipelajari (walaupun sebelum semua pelajaran berlaku) apabila cuba menggubal AI.

Selain menggunakan peraturan Etika AI secara umum, terdapat persoalan yang sepadan sama ada kita harus mempunyai undang-undang untuk mengawal pelbagai penggunaan AI. Undang-undang baharu sedang dibicarakan di peringkat persekutuan, negeri dan tempatan yang membimbangkan julat dan sifat cara AI harus dicipta. Usaha untuk merangka dan menggubal undang-undang tersebut adalah secara beransur-ansur. Etika AI berfungsi sebagai perhentian yang dianggap, sekurang-kurangnya, dan hampir pasti pada tahap tertentu akan dimasukkan secara langsung ke dalam undang-undang baharu tersebut.

Harap maklum bahawa sesetengah pihak bertegas berhujah bahawa kita tidak memerlukan undang-undang baharu yang meliputi AI dan undang-undang sedia ada adalah mencukupi. Mereka memberi amaran bahawa jika kita menggubal beberapa undang-undang AI ini, kita akan membunuh angsa emas dengan mengekang kemajuan dalam AI yang menawarkan kelebihan masyarakat yang besar.

Dalam lajur sebelumnya, saya telah membincangkan pelbagai usaha nasional dan antarabangsa untuk merangka dan menggubal undang-undang yang mengawal selia AI, lihat pautan di sini, sebagai contoh. Saya juga telah merangkumi pelbagai prinsip dan garis panduan Etika AI yang telah dikenal pasti dan diterima pakai oleh pelbagai negara, termasuk contohnya usaha Pertubuhan Bangsa-Bangsa Bersatu seperti set Etika AI UNESCO yang diterima pakai oleh hampir 200 negara, lihat pautan di sini.

Berikut ialah senarai kunci penting bagi kriteria atau ciri AI Etika berkenaan sistem AI yang telah saya terokai dengan teliti sebelum ini:

  • Ketelusan
  • Keadilan & Kesaksamaan
  • Non-Maleficence
  • tanggungjawab
  • Privasi
  • Kebaikan
  • Kebebasan & Autonomi
  • Amanah
  • Sustainability
  • Martabat
  • Perpaduan

Prinsip Etika AI tersebut sepatutnya digunakan secara bersungguh-sungguh oleh pembangun AI, bersama-sama dengan prinsip-prinsip yang menguruskan usaha pembangunan AI, dan juga prinsip-prinsip yang akhirnya meletakkan dan melaksanakan penyelenggaraan pada sistem AI.

Semua pihak berkepentingan sepanjang keseluruhan kitaran hayat pembangunan dan penggunaan AI dianggap dalam skop pematuhan dengan norma AI Etika yang telah ditetapkan. Ini adalah sorotan penting kerana andaian biasa ialah "pengekod sahaja" atau mereka yang memprogramkan AI tertakluk kepada pematuhan kepada tanggapan Etika AI. Seperti yang ditekankan di sini sebelum ini, ia memerlukan sebuah kampung untuk mencipta dan membina AI, dan untuk itu seluruh kampung perlu dikuasai dan mematuhi peraturan Etika AI.

Saya juga baru-baru ini memeriksa Rang Undang-undang Hak AI yang merupakan tajuk rasmi dokumen rasmi kerajaan AS bertajuk "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" yang merupakan hasil usaha selama setahun oleh Office of Science and Technology Policy (OSTP). ). OSTP ialah entiti persekutuan yang berfungsi untuk menasihati Presiden Amerika dan Pejabat Eksekutif AS mengenai pelbagai aspek teknologi, saintifik dan kejuruteraan yang mempunyai kepentingan negara. Dalam erti kata itu, anda boleh mengatakan bahawa Rang Undang-undang Hak AI ini ialah dokumen yang diluluskan oleh dan disahkan oleh Rumah Putih AS sedia ada.

Dalam Rang Undang-undang Hak AI, terdapat lima kategori asas:

  • Sistem yang selamat dan berkesan
  • Perlindungan diskriminasi algoritma
  • Privasi data
  • Makluman dan penerangan
  • Alternatif manusia, pertimbangan, dan sandaran

Saya telah menyemak dengan teliti ajaran-ajaran itu, lihat pautan di sini.

Memandangkan saya telah meletakkan asas yang berguna pada topik AI Etika dan Undang-undang AI yang berkaitan ini, kami bersedia untuk melompat ke topik pedas sama ada AI patut mempunyai label amaran atau tidak.

Sediakan diri anda untuk perjalanan bermaklumat yang membuka mata.

Meletakkan Label Amaran Pada AI Sebagai Cara Melindungi Umat Manusia

Terdapat buzz yang semakin meningkat yang mungkin AI sepatutnya datang dengan beberapa jenis amaran.

Sebagai contoh, dalam artikel terbaru dalam Kajian Teknologi MIT yang membincangkan peningkatan minat dalam melakukan audit AI, tanggapan untuk menyediakan tanda amaran timbul: “Pertumbuhan audit ini menunjukkan bahawa suatu hari nanti kita mungkin melihat amaran gaya pek rokok bahawa sistem AI boleh membahayakan kesihatan dan keselamatan anda. Sektor lain, seperti bahan kimia dan makanan, mempunyai audit tetap untuk memastikan produk selamat digunakan. Bolehkah sesuatu seperti ini menjadi kebiasaan dalam AI?” (Kajian Teknologi MIT, Melissa Heikkilä, 24 Oktober 2022).

Mari kita sembang sedikit secara keseluruhan tentang tanda amaran dan amaran.

Kita semua pada umumnya sudah biasa dengan tanda amaran dan amaran pada pelbagai produk dan perkhidmatan yang biasa dilakukan setiap hari. Kadangkala tanda keselamatan ditetapkan oleh undang-undang sebagai diperlukan, manakala dalam keadaan lain terdapat budi bicara untuk menggunakan tanda tersebut. Selain itu, beberapa tanda keselamatan diseragamkan, seperti ditetapkan mengikut piawaian ANSI Z535 dan piawaian OSHA 1910.14. Piawaian tersebut meliputi aspek seperti perkataan tanda, warna dan fon yang digunakan, bentuk tanda, dan pelbagai butiran lain.

Adalah masuk akal untuk mempunyai piawaian untuk tanda amaran sedemikian. Setiap kali anda melihat tanda sedemikian, jika ia memenuhi piawaian yang dinyatakan, anda lebih cenderung untuk percaya bahawa tanda itu sah, ditambah anda memerlukan pemprosesan kognitif yang kurang untuk menganalisis dan memahami tanda tersebut. Untuk tanda-tanda yang bukan pendekatan piawai, anda selalunya perlu mengira secara mental apa yang diberitahu oleh tanda itu kepada anda, mungkin kehilangan masa yang berharga untuk mengambil tindakan atau anda mungkin tersilap menilai tanda itu dan tidak memahami amaran yang diberikan dengan betul.

Pelbagai tanda sedemikian boleh wujud, yang mana ia sering diklasifikasikan seperti ini:

  • Tanda bahaya: Kebimbangan tertinggi dan menunjukkan bahaya segera dengan kemungkinan akibat yang teruk
  • Tanda amaran: Menunjukkan bahaya yang kurang daripada "bahaya" tetapi masih agak serius
  • Tanda awas: Menunjukkan potensi bahaya yang kurang daripada "amaran" tetapi masih sungguh-sungguh
  • Tanda pemberitahuan: Menunjukkan maklumat awal yang kurang daripada "berhati-hati" tetapi masih melibatkan aspek yang membimbangkan

Memandangkan latar belakang di atas tentang amaran dan tanda amaran, kita boleh meneruskan dan cuba menerapkan ini secara kontekstual pada penggunaan AI.

Pertama, kami mungkin boleh bersetuju bahawa papan tanda AI mungkin berada dalam julat keterukan yang sama seperti lazim dengan tanda harian, seperti:

  • Tanda bahaya AI: AI kebimbangan tertinggi dan menunjukkan bahaya segera dengan kemungkinan akibat yang teruk
  • Tanda Amaran AI: AI menunjukkan bahaya yang kurang daripada "bahaya" tetapi masih agak serius
  • Tanda Peringatan AI: AI menunjukkan potensi bahaya yang kurang daripada "amaran" tetapi masih sungguh-sungguh
  • Tanda Pemberitahuan AI: AI menunjukkan maklumat awal yang kurang daripada "berhati-hati" tetapi masih melibatkan aspek yang membimbangkan

Intinya ialah tidak semua AI akan menjadi kebimbangan yang sama membingungkan. Mungkin AI menimbulkan risiko yang besar atau hanya mempunyai risiko kecil. Sehubungan itu, papan tanda harus mencerminkan yang mana. Jika semua amaran AI atau tanda amaran hanya ditunjukkan sebagai berkaliber yang sama, kami mungkin tidak akan tahu atau sedar sama ada akan sangat prihatin atau hanya mengambil berat sedikit tentang AI. Menggunakan skema perkataan yang ditaip mungkin menjadikan hidup lebih mudah apabila melihat dan mentafsir tanda amaran berkaitan AI.

Anda mungkin tertanya-tanya apa lagi tanda-tanda yang akan dikatakan dari segi spesifik mesej yang ingin disampaikan.

Itu sudah tentu perkara yang lebih sukar untuk ditangani. Kemungkinan AI untuk melakukan perkara yang dianggap tidak selamat atau membimbangkan adalah sangat besar, hampir tidak berkesudahan. Bolehkah kita memasukkannya ke dalam beberapa set rutin yang dinyatakan dalam hanya beberapa perkataan setiap satu? Atau adakah kita perlu membenarkan pendekatan yang lebih bebas tentang bagaimana perkataan itu akan berlaku?

Saya akan membiarkan anda merenung soalan terbuka itu.

Bergerak, kita cenderung untuk melihat tanda amaran disiarkan pada objek. Sistem AI tidak semestinya "objek" dalam erti kata yang sama seperti penampalan tanda biasa. Ini menimbulkan persoalan di mana tanda amaran AI akan dibentangkan.

Boleh jadi apabila anda menjalankan aplikasi pada katakan telefon pintar anda bahawa jika ia menggunakan AI akan ada mesej yang ditunjukkan yang mengandungi amaran berkaitan AI. Aplikasi ini akan memaklumkan anda tentang penggunaan asas AI. Ini boleh menjadi mesej pop timbul atau mungkin dibentangkan dalam pelbagai cara visual dan juga pendengaran.

Terdapat juga situasi anda menggunakan perkhidmatan yang disokong oleh AI, walaupun anda mungkin tidak berinteraksi secara langsung dengan AI. Sebagai contoh, anda mungkin mengadakan perbualan dengan ejen manusia tentang mendapatkan gadai janji rumah, yang mana ejen itu berada di belakang tabir secara senyap menggunakan sistem AI untuk membimbing usaha mereka.

Oleh itu, kita harus menjangkakan bahawa tanda amaran AI harus ada dalam kedua-dua kes penggunaan AI, supaya:

  • AI khusus produk: AI sebagai produk sepatutnya mempunyai tanda amaran atau amaran AI langsung
  • AI berorientasikan perkhidmatan: AI sebagai perkhidmatan (secara langsung atau tidak langsung) sepatutnya mempunyai tanda amaran atau peringatan AI

Orang yang ragu-ragu pasti akan cepat mencadangkan bahawa tanda amaran AI mungkin disamarkan secara licik oleh pembuat aplikasi supaya amaran itu tidak begitu ketara. Mungkin amaran itu muncul seketika dan anda benar-benar tidak perasan bahawa ia telah ditunjukkan. Satu lagi helah licik ialah membuat sejenis permainan daripadanya, seolah-olah mengurangkan keseriusan amaran dan membuai orang untuk berfikir bahawa amaran itu tidak penting.

Ya, anda boleh bertaruh bahawa mana-mana tanda amaran berkaitan AI akan ditipu dan digunakan dengan cara yang tidak sesuai dengan semangat dan niat mesej amaran yang sepatutnya mereka sampaikan.

Kesemua keraguan itu berkaitan dengan sama ada kami akan menggunakan Etika AI sebagai "undang-undang lembut" untuk mencuba dan memacu amaran dan amaran berkaitan AI, atau sama ada kami akan menggunakan "undang-undang keras" termasuk undang-undang yang digubal dengan sokongan mahkamah. Secara teorinya, desakan undang-undang yang lembut akan membolehkan lebih banyak bermain-main dengan perkara itu, manakala undang-undang mengenai buku akan datang dengan potensi untuk penguatkuasaan kerajaan dan menghasilkan ketegasan yang lebih besar.

Kebimbangan lain ialah sama ada papan tanda AI akan membuat sebarang perbezaan.

Banyak penyelidikan tentang tingkah laku pengguna cenderung menunjukkan hasil yang bercelaru apabila menyediakan label amaran untuk pengguna. Kadang-kadang amaran itu berkesan, kadang-kadang tidak. Mari gunakan beberapa penyelidikan itu pada konteks AI.

Pertimbangkan aspek ini:

  • Pengesanan: Adakah mereka yang menggunakan AI yang mengandungi tanda amaran AI yang berdaya maju akan menyedari atau mengesan secara aktif bahawa tanda itu ditunjukkan kepada mereka (dengan mengandaikan papan tanda tersebut berlaku)?
  • Pengertian: Bagi mereka yang perasan, adakah mereka akan memahami atau memahami apa yang cuba dicadangkan oleh tanda amaran AI kepada mereka?
  • Tindakan: Bagi mereka yang melakukan lonjakan mental itu, adakah tanda amaran AI akan mendorong mereka bertindak atau sebaliknya berfungsi untuk membimbing tingkah laku mereka dengan sewajarnya?

Anda boleh menjangkakan bahawa jika momentum meningkat kerana mempunyai tanda amaran AI, penyelidik akan mengkaji dengan teliti perkara itu. Ideanya adalah untuk membantu menjelaskan dalam keadaan apa amaran itu membantu dan apabila tidak. Ini pula berkaitan dengan reka bentuk dan rupa serta rasa yang terlibat. Kami juga mungkin menjangkakan bahawa orang ramai secara amnya perlu dididik atau dimaklumkan tentang kemunculan tanda amaran dan peringatan AI ini supaya mereka akan terbiasa dengannya.

Terdapat banyak liku-liku yang perlu dipertimbangkan.

Sekiranya tanda amaran atau amaran AI berlaku hanya pada permulaan apl digunakan? Mungkin titik permulaan tidak mencukupi dengan sendirinya. Seseorang mungkin pada pandangan pertama menganggap aplikasi itu hanya bermain selamat dengan menggunakan amaran, dan dengan itu tidak mengambil kira amaran itu. Sebaik sahaja orang itu sedang menggunakan apl itu, mungkin amaran tambahan akan diperlukan. Pada ketika itu, orang itu lebih mengetahui perkara yang dijalankan oleh aplikasi itu dan mereka mungkin sudah terlupa tentang mesej amaran yang dinyatakan sebelum ini.

Amaran AI atau amaran mungkin berlaku:

  • Sebelum memulakan apl dan sebaik apl akan digunakan
  • Dibentangkan sebaik sahaja apl dimulakan dan hanya pada titik permulaan
  • Ditunjukkan pada permulaan dan sekali lagi di tengah jalan
  • Ditunjukkan beberapa kali sepanjang penggunaan AI
  • Diberi pada akhir penggunaan aplikasi
  • Sediakan selepas keluar dari apl dan mungkin juga beberapa minit, jam atau hari kemudian
  • Dll

Adakah anda fikir orang yang menggunakan AI perlu mengesahkan atau mengakui sebarang amaran atau tanda amaran AI sedemikian?

Sesetengah orang akan menegaskan bahawa orang itu harus dikehendaki mengakui bahawa mereka melihat amaran itu. Ini berpotensi menghalang mereka yang mungkin membuat dakwaan bahawa tidak ada sebarang mesej amaran. Ia juga boleh menyebabkan orang ramai mengambil mesej dengan lebih serius, memandangkan mereka diminta untuk mengesahkan bahawa mereka mematuhi petunjuk amaran.

Inilah soalan sukar untuk anda.

Sekiranya semua AI perlu memberikan amaran atau petunjuk keselamatan?

Anda mungkin berpendapat bahawa ya, semua AI mesti mempunyai ini. Walaupun AI hanyalah risiko keselamatan kecil, ia masih harus mempunyai beberapa bentuk tanda amaran, mungkin hanya pemberitahuan atau petunjuk maklumat. Orang lain akan mempertikaikan pertikaian ini. Mereka akan berhujah balas bahawa anda melampaui batas. Tidak semua AI memerlukan ini. Tambahan pula, jika anda memaksa semua AI untuk memilikinya, anda akan mencairkan tujuannya. Orang ramai akan menjadi kebas untuk melihat tanda-tanda amaran. Keseluruhan pendekatan akan menjadi sandiwara.

Pada sudut yang berkaitan, pertimbangkan perkara yang mungkin akan dikatakan oleh pembuat AI.

Satu pandangan ialah perkara ini akan menyusahkan anda-tahu-apa yang perlu dilaksanakan. Perlu mengubah semua sistem AI anda dan menambah ciri ini mungkin mahal. Menambahnya secara berterusan mungkin kurang kosnya, walaupun begitu terdapat kos yang berkaitan dengan memasukkan peruntukan ini.

Kekaburan adalah satu lagi aduan yang berpotensi. Apakah jenis mesej yang perlu ditunjukkan? Jika tiada sebarang piawaian, ini bermakna pembuat AI perlu mencipta sesuatu yang baharu. Bukan sahaja kos tambahan ini, ia mungkin membuka pintu untuk disaman. Anda boleh bayangkan bahawa pembuat AI mungkin mengambil tugas bahawa amaran mereka tidak sebaik sistem AI lain. Peguam akhirnya akan membuat satu ikatan daripada kekeliruan yang terhasil.

Terdapat juga kebimbangan bahawa orang ramai akan terlalu takut dengan mesej keselamatan ini.

Pembuat AI mungkin melihat penurunan mendadak dalam bilangan pengguna disebabkan oleh mesej keselamatan yang semata-mata bertujuan untuk memberikan amaran maklumat. Orang ramai tidak akan tahu apa yang perlu dibuat tentang mesej itu. Jika mereka tidak pernah melihat mesej sebegitu sebelum ini, mereka mungkin akan terkejut dengan serta-merta dan mengelak penggunaan AI secara sia-sia.

Saya menyebut aspek tersebut kerana ada yang telah mengisytiharkan bahawa "ia tidak boleh menyakitkan" untuk mula memasukkan amaran AI atau mesej keselamatan. Bagi mereka, idea itu sangat ideal seperti pai epal. Tiada siapa yang boleh menafikan secara serius faedah sentiasa memerlukan keselamatan atau amaran berkaitan AI. Tetapi sudah tentu, itu bukan cara pemikiran dunia sebenar tentang perkara itu.

Anda juga boleh pergi lebih jauh dan mendakwa bahawa mesej amaran AI boleh menghasilkan beberapa bentuk histeria massa. Jika kita tiba-tiba mula memaksa sistem AI untuk mempunyai mesej sedemikian, orang ramai boleh tersalah anggap maksud itu. Anda lihat, terdapat banyak nasihat bahawa kita sedang menghadapi krisis kewujudan AI, yang mana AI akan mengambil alih dunia dan menghapuskan manusia, lihat pautan di sini untuk analisis saya tentang tuntutan seperti itu.

Penggunaan mesej amaran AI mungkin "memberi inspirasi" kepada sesetengah orang untuk mempercayai bahawa kiamat sudah hampir. Mengapa lagi mesej itu kini muncul? Sudah tentu, ini adalah petunjuk bahawa akhirnya, AI sedang bersedia untuk menjadi tuan yang menindas kami.

Sejenis hasil yang menyedihkan kerana cuba melakukan perkara yang betul dengan menyedarkan orang ramai tentang bagaimana AI boleh diselitkan dengan kapasiti diskriminasi atau lain-lain. AI Untuk Buruk aspek.

Kesimpulan

James Russell Lowell, penyair terkenal Amerika, pernah berkata begini: “Satu duri pengalaman bernilai seluruh amaran.”

Saya membawa kenyataan yang tinggi untuk membuat beberapa ulasan penutup mengenai perkara amaran AI atau mesej keselamatan.

Kemungkinannya ialah sehingga kita mempunyai kesedaran yang agak meluas tentang AI melakukan perbuatan buruk, tidak akan ada banyak desakan untuk mesej amaran berkaitan AI. Pembuat AI yang memilih untuk melakukannya secara sukarela mungkin akan dipuji, walaupun mereka juga secara tidak sengaja boleh mendapati diri mereka diganggu secara tidak adil. Sesetengah pakar mungkin mengejar mereka kerana memanfaatkan AI yang nampaknya memerlukan amaran, sebagai permulaan, sementara itu mengabaikan untuk menyedari bahawa mereka cuba pergi dahulu dan semua pembuat AI yang lain ketinggalan.

Terkutuk jika anda lakukan, mungkin tidak terkutuk jika anda tidak.

Pertimbangan lain berkaitan dengan mengubah apa yang kelihatannya idea konseptual yang bagus menjadi amalan praktikal dan berguna. Adalah mudah untuk melambai tangan anda dan menjerit samar-samar kepada angin bahawa AI sepatutnya mempunyai mesej amaran dan keselamatan. Bahagian yang sukar datang apabila membuat keputusan mengenai mesej tersebut, bila dan di mana ia harus disampaikan, sama ada atau sejauh mana kosnya memperoleh manfaat yang mencukupi, dan sebagainya.

Kami di sini akan memberikan James Russell Lowell perkataan terakhir (secara puitis) mengenai topik ini buat masa ini: "Kreativiti bukanlah penemuan sesuatu, tetapi membuat sesuatu daripadanya selepas ia ditemui."

Rasanya sudah tiba masanya untuk menyingsing lengan baju kita dan mula bekerja pada perkara ini. Dan itu bukan sekadar amaran, ia adalah tindakan.

Sumber: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- amaran-pada-semua-yang-ada-dan-masa-depan-ai/