Etika AI Melangkah Untuk Membimbing Cara AI Untuk Kanak-kanak Perlu Dicipta Sesuai, Yang Boleh Diabaikan Contohnya Dalam Pemanduan Pantas Menuju Kereta Pemanduan Sendiri Autonomi

Sering dikatakan bahawa anak-anak kita adalah masa depan kita.

Satu lagi larangan yang sering diulang ialah Kepintaran Buatan (AI) adalah masa depan kita.

Apa yang berlaku apabila kita menggabungkan AI dan anak-anak kita?

Anda pastinya berharap bahawa gabungan AI dan kanak-kanak yang ketara akan menjadi perkara yang baik. Mungkin AI boleh digunakan sebagai cara untuk meningkatkan sistem tunjuk ajar dan pendidikan berasaskan komputer. Kanak-kanak nampaknya akan mendapat manfaat daripada jenis AI itu. Nampak berhemah. Mungkin AI boleh disertakan dalam mainan zaman moden dan membolehkan interaktiviti yang boleh memberi inspirasi dan mengembangkan minda muda. Pasti, itu nampaknya akan memberi banyak kebaikan kepada dunia.

Masalahnya, kita sama-sama boleh menghadapi sisi kejam AI. Katakan sistem tunjuk ajar berasaskan AI telah membenamkan stereotaip dan mengisytiharkan berat sebelah buruk tersebut apabila membantu anak-anak muda yang belajar membaca dan menulis. Tidak baik. Bayangkan bahawa boneka beruang yang diselitkan AI dengan penderia elektronik dapat merakam setiap luahan anak anda dan memuat naiknya ke dalam pangkalan data dalam talian untuk analisis, mungkin digunakan untuk mencari cara untuk mengewangkan anak kesayangan anda. ngeri!

Kita perlu mengambil kira kedudukan AI dan perkara yang perlu kita lakukan tentang AI dan kanak-kanak.

Nasib baik, kajian yang dikeluarkan baru-baru ini oleh Forum Ekonomi Dunia (WEF) memberikan pandangan yang mendalam tentang dinamik AI dan kanak-kanak, dengan nyata menyatakan ini: "Apa yang dipertaruhkan? AI akan menentukan masa depan permainan, zaman kanak-kanak, pendidikan dan masyarakat. Kanak-kanak dan belia mewakili masa depan, jadi segala-galanya mesti dilakukan untuk menyokong mereka menggunakan AI secara bertanggungjawab dan menangani cabaran masa depan” (mengikut WEF's Kecerdasan Buatan Untuk Kanak-kanak: Toolkit, Mac 2022). Sebagai nota sampingan dan untuk kejelasan pendedahan, saya berkhidmat dalam jawatankuasa WEF berkenaan AI dan percaya bahawa jenis usaha kerjasama dan antarabangsa yang menerokai pelbagai kesan masyarakat berkenaan AI adalah bermanfaat dan patut dipuji.

Aspek yang agak mencolok dan memeranjatkan kesibukan hari ini untuk mereka bentuk dan menggunakan AI ialah kita nampaknya sering melupakan kanak-kanak. Sedihnya. Itu lebih buruk daripada menyedihkan, ia adalah meremehkan keseluruhan segmen masyarakat. Saya teringat akan petikan yang dihormati oleh Nelson Mandela: "Tidak ada pendedahan yang lebih mendalam tentang jiwa masyarakat daripada cara ia memperlakukan anak-anaknya."

Mari kita fikirkan dua cara penting yang AI dan kanak-kanak mungkin berinteraksi:

1. Melalui AI yang direka khusus untuk kanak-kanak

2. Melalui AI yang direka untuk orang dewasa dan yang boleh digunakan oleh kanak-kanak

Luangkan sedikit masa untuk merenungkan kedua-dua aspek tersebut.

Pertama, jika anda sedang membangunkan sistem AI yang khusus bertujuan untuk digunakan oleh kanak-kanak, nampaknya jelas sekali bahawa tumpuan reka bentuk anda harus berpusatkan kanak-kanak. Walaupun begitu, adalah mengejutkan dan menjengkelkan betapa banyak usaha AI-untuk-kanak-kanak melakukan kerja yang buruk untuk memfokuskan kanak-kanak. Andaian biasa adalah bahawa kanak-kanak hanyalah orang dewasa yang baru lahir dan semua yang anda perlu lakukan ialah "membodohkan" AI dengan sewajarnya. Itu adalah pendekatan yang salah dan sesat sepenuhnya. Kanak-kanak adalah sangat berbeza daripada orang dewasa dan varians dalam elemen kognitif perlu diberi pertimbangan sewajarnya untuk mana-mana AI yang akan saling berkaitan dengan kanak-kanak dan aktiviti mereka.

Kedua, bagi mereka yang mencipta AI untuk kegunaan yang berkaitan dengan orang dewasa, anda tidak boleh tanpa berfikir bahawa tiada kanak-kanak akan pernah menggunakan atau bersentuhan dengan sistem AI. Itu adalah kesilapan besar. Mungkin terdapat peluang yang besar bahawa AI pasti akan diakses atau diharap oleh orang bukan dewasa. Seorang kanak-kanak atau remaja mungkin akan cuba menggunakan AI atau secara senyap-senyap menggunakan akses ibu bapa mereka untuk pencerobohan remaja mereka sendiri. Sistem AI yang tidak mempunyai semak dan imbang yang mencukupi untuk menangani potensi kanak-kanak yang menggunakannya sudah pasti akan membawa seseorang ke dalam masalah teruk, terutamanya jika kanak-kanak itu dicederakan secara kognitif atau mungkin secara fizikal.

Anda mungkin berfikir bahawa jika sistem AI mencederakan atau menganiaya kanak-kanak bahawa itu adalah kesalahan AI dan AI harus memikul beban tanggungjawab. Ini adalah pemikiran yang tidak masuk akal dalam era AI hari ini. Harap maklum bahawa tidak ada AI hari ini yang berperasaan. Kami tidak mempunyai AI sentient dan kami tidak tahu bila atau sama ada kami akan mempunyai AI sentient. Mengatakan bahawa sistem AI ialah pihak yang bertanggungjawab untuk kerosakan, atau pelaku jenayah yang bertanggungjawab adalah tidak jujur ​​pada masa ini. Untuk liputan saya tentang liabiliti syarikat dan pembangun AI untuk jenayah atau salah laku AI mereka, lihat pautan di sini.

Dari perspektif asas tentang memikul tanggungjawab untuk AI yang keluar dari landasan, anda perlu sedar bahawa ia memerlukan sebuah kampung untuk mencipta dan menggerakkan AI. Ini boleh termasuk pemimpin syarikat yang mengawasi AI membuahkan hasil. Terdapat pasukan pembangun AI yang memainkan peranan penting dalam pembentukan AI. Anda juga perlu memasukkan mereka yang meletakkan AI dan menjadikannya tersedia untuk digunakan. Secara keseluruhannya, ramai manusia yang perlu dipertanggungjawabkan. AI tidak boleh dan tidak akan lama, sehingga jika pernah atau sehingga AI mencapai beberapa varian keperibadian undang-undang, yang telah saya analisis di pautan di sini.

Mari kita kembali kepada pandangan penting bahawa AI yang ditujukan kepada orang dewasa mungkin akhirnya sampai ke tangan kanak-kanak.

Pembangun AI yang mengetepikan kemungkinan itu berada dalam kesedaran yang tidak sopan apabila mereka didakwa atau dibawa ke mahkamah. Hanya mengangkat bahu anda dan mengatakan bahawa anda tidak memikirkannya tidak akan mendapat banyak simpati. Diakui, anda mungkin perlu agak kreatif dalam usaha reka bentuk anda untuk membayangkan perkara yang mungkin dilakukan oleh kanak-kanak apabila bersentuhan dengan AI, tetapi itu adalah sebahagian daripada apa yang perlu dipertimbangkan oleh pembangun AI yang berfikiran betul. Kajian WEF menjelaskan perkara ini dengan agak jelas: “Syarikat harus ingat bahawa kanak-kanak sering menggunakan produk AI yang tidak direka khusus untuk mereka. Kadangkala sukar untuk meramalkan produk yang mungkin digunakan oleh kanak-kanak atau belia nanti. Akibatnya, anda harus mempertimbangkan dengan teliti sama ada kanak-kanak atau belia mungkin pengguna teknologi yang anda sedang bangunkan."

Inilah yang saya lakukan apabila mereka bentuk sistem AI. Saya mempertimbangkan rangkaian penuh kemungkinan penggunaan:

a) AI digunakan oleh seorang dewasa sahaja (pada satu masa)

b) AI digunakan oleh beberapa orang dewasa pada masa yang sama

c) AI digunakan oleh orang dewasa yang ditemani oleh kanak-kanak

d) AI digunakan oleh kanak-kanak (hanya satu demi satu) dan tiada orang dewasa di tangan

e) AI digunakan oleh beberapa kanak-kanak pada masa yang sama (tiada orang dewasa di tangan)

Saya akan mengenal pasti beberapa contoh dunia sebenar tentang kemungkinan tersebut apabila saya kemudiannya membincangkan cara AI dan kanak-kanak harus menjadi pertimbangan dahulu dalam membuat dan meletakkan kereta pandu sendiri autonomi. Bergantung pada topi anda untuk penilaian yang menarik itu.

AI yang digunakan oleh orang dewasa boleh menjadi rumit dan membuat percubaan jahat untuk menarik perhatian orang dewasa. Walaupun itu tidak sepatutnya berlaku, kita perlu menjangkakan bahawa ia akan berlaku. Orang dewasa perlu berhati-hati pada setiap masa apabila berinteraksi dengan sistem AI. Maaf untuk mengatakan, itulah harga menjadi orang dewasa.

Kami mungkin tidak fikir bahawa kanak-kanak harus berada dalam keadaan genting yang sama. Menjangkakan bahawa kanak-kanak harus berwaspada dan sentiasa mencurigai AI bukanlah satu tanggapan anggapan yang munasabah. Kanak-kanak secara amnya dikelaskan sebagai apa yang dipanggil pengguna yang terdedah apabila ia datang kepada sistem AI. Kanak-kanak tidak mempunyai kemampuan kognitif untuk berjaga-jaga dan mengetahui bila AI mengambil kesempatan daripada mereka (saya berani katakan, orang dewasa bergelut dalam perkara seperti itu dan kami kononnya akan menganggap bahawa kanak-kanak akan menjadi lebih terdedah, yang, walaupun terdapat peluang. bahawa kadang-kadang kanak-kanak sebenarnya lebih prihatin daripada orang dewasa kita tidak boleh menganggapnya sebagai peraturan yang teguh).

Anda mungkin tertanya-tanya mengapa sesiapa akan berfikir bahawa AI mungkin melakukan perkara yang tidak baik. Bukankah AI sepatutnya baik untuk kita? Bukankah kita mewar-warkan kedatangan AI kontemporari? Tajuk utama dalam laporan berita terkini dan seperti yang dihebohkan di media sosial mengisytiharkan bahawa kita harus membunyikan sangkakala untuk ketibaan setiap sistem AI baharu yang diumumkan secara ringkas setiap hari.

Untuk menjawab soalan-soalan yang tajam itu, izinkan saya untuk mengemukakan sedikit sejarah terkini tentang AI hari ini dan kepentingan Etika AI, dan arus yang semakin meningkat ke arah AI Etika. Untuk liputan berterusan dan meluas saya tentang Etika AI dan AI Etika, lihat pautan di sini and pautan di sini, Hanya untuk menamakan beberapa.

Anda mungkin sedar bahawa apabila era terkini AI bermula, terdapat cetusan semangat yang besar untuk apa yang kini dipanggil oleh sesetengah orang. AI Untuk Kebaikan. Malangnya, selepas keterujaan yang membuak-buak itu, kami mula menyaksikan AI Untuk Buruk. Sebagai contoh, pelbagai sistem pengecaman muka berasaskan AI telah didedahkan sebagai mengandungi berat sebelah kaum dan berat sebelah jantina, yang telah saya bincangkan di pautan di sini.

Usaha melawan balik AI Untuk Buruk sedang giat dijalankan. Selain riuh rendah undang-undang usaha untuk mengekang perbuatan salah, terdapat juga dorongan substantif ke arah menerima Etika AI untuk memperbetulkan keburukan AI. Tanggapannya ialah kita harus mengguna pakai dan menyokong prinsip AI Etika utama untuk pembangunan dan penempatan AI berbuat demikian untuk mengurangkan AI Untuk Buruk dan pada masa yang sama menghebahkan dan mempromosikan yang lebih baik AI Untuk Kebaikan.

Mengenai tanggapan yang berkaitan, saya adalah penyokong cuba menggunakan AI sebagai sebahagian daripada penyelesaian kepada masalah AI, melawan api dengan api dengan cara pemikiran itu. Sebagai contoh, kami mungkin membenamkan komponen AI Beretika ke dalam sistem AI yang akan memantau bagaimana seluruh AI melakukan sesuatu dan dengan itu berpotensi menangkap dalam masa nyata sebarang usaha diskriminasi, lihat perbincangan saya di pautan di sini. Kami juga boleh mempunyai sistem AI berasingan yang bertindak sebagai sejenis pemantau Etika AI. Sistem AI berfungsi sebagai penyelia untuk menjejak dan mengesan apabila AI lain masuk ke jurang yang tidak beretika (lihat analisis saya tentang keupayaan sedemikian di pautan di sini).

Mari luangkan sedikit masa untuk mempertimbangkan secara ringkas beberapa prinsip AI Etika utama untuk menggambarkan perkara yang sepatutnya menjadi pertimbangan penting bagi sesiapa yang membuat, memadang atau menggunakan AI.

Sebagai contoh, seperti yang dinyatakan oleh Vatican dalam Rome Call For AI Ethics dan seperti yang telah saya kupas secara mendalam pautan di sini, ini ialah enam prinsip etika AI utama mereka yang dikenal pasti:

  • Ketelusan: Pada dasarnya, sistem AI mesti boleh dijelaskan
  • Inklusi: Keperluan semua manusia mesti diambil kira supaya semua orang boleh mendapat manfaat, dan semua individu boleh ditawarkan keadaan terbaik untuk mengekspresikan diri dan berkembang.
  • Tanggungjawab: Mereka yang mereka bentuk dan menggunakan penggunaan AI mesti meneruskan dengan tanggungjawab dan ketelusan
  • Kesaksamaan: Jangan mencipta atau bertindak mengikut berat sebelah, sekali gus menjaga keadilan dan maruah manusia
  • Kebolehpercayaan: Sistem AI mesti boleh berfungsi dengan pasti
  • Keselamatan dan privasi: Sistem AI mesti berfungsi dengan selamat dan menghormati privasi pengguna.

Seperti yang dinyatakan oleh Jabatan Pertahanan AS (DoD) dalam mereka Prinsip Etika Untuk Penggunaan Kepintaran Buatan dan seperti yang telah saya kupas secara mendalam pautan di sini, ini ialah enam prinsip etika AI utama mereka:

  • Bertanggungjawab: Kakitangan DoD akan menggunakan tahap pertimbangan dan penjagaan yang sesuai sambil kekal bertanggungjawab terhadap pembangunan, penggunaan dan penggunaan keupayaan AI.
  • saksama: Jabatan akan mengambil langkah yang disengajakan untuk meminimumkan berat sebelah yang tidak diingini dalam keupayaan AI.
  • Boleh dikesan: Keupayaan AI Jabatan akan dibangunkan dan digunakan supaya kakitangan yang berkaitan mempunyai pemahaman yang sesuai tentang teknologi, proses pembangunan dan kaedah operasi yang digunakan untuk keupayaan AI, termasuk dengan metodologi yang telus dan boleh diaudit, sumber data serta prosedur dan dokumentasi reka bentuk.
  • dipercayai: Keupayaan AI Jabatan akan mempunyai penggunaan yang jelas, ditakrifkan dengan baik, dan keselamatan, keselamatan dan keberkesanan keupayaan tersebut akan tertakluk kepada ujian dan jaminan dalam penggunaan yang ditentukan merentas keseluruhan kitaran hayatnya.
  • Boleh ditadbir: Jabatan akan mereka bentuk dan merekayasa keupayaan AI untuk memenuhi fungsi yang dimaksudkan sambil memiliki kebolehan untuk mengesan dan mengelakkan akibat yang tidak diingini, dan keupayaan untuk menanggalkan atau menyahaktifkan sistem yang digunakan yang menunjukkan tingkah laku yang tidak diingini.

Saya juga telah membincangkan pelbagai analisis kolektif prinsip etika AI, termasuk telah merangkumi satu set yang direka oleh penyelidik yang meneliti dan meringkaskan intipati pelbagai prinsip etika AI nasional dan antarabangsa dalam kertas kerja bertajuk "The Global Landscape Of AI Ethics Guidelines" (diterbitkan dalam Alam), dan liputan saya meneroka di pautan di sini, yang membawa kepada senarai batu kunci ini:

  • Ketelusan
  • Keadilan & Kesaksamaan
  • Non-Maleficence
  • tanggungjawab
  • Privasi
  • Kebaikan
  • Kebebasan & Autonomi
  • Amanah
  • Sustainability
  • Martabat
  • Perpaduan

Seperti yang anda mungkin meneka secara langsung, cuba mengecilkan butiran yang mendasari prinsip ini boleh menjadi sangat sukar untuk dilakukan. Lebih-lebih lagi, usaha untuk mengubah prinsip-prinsip yang luas itu menjadi sesuatu yang benar-benar nyata dan cukup terperinci untuk digunakan semasa membuat sistem AI juga merupakan masalah yang sukar untuk dipecahkan. Adalah mudah untuk secara keseluruhan melakukan beberapa lambaian tangan tentang apa itu peraturan Etika AI dan cara ia harus dipatuhi secara umum, sementara ia adalah situasi yang lebih rumit dalam pengekodan AI yang harus menjadi getah yang benar-benar memenuhi jalan.

Prinsip Etika AI akan digunakan oleh pembangun AI, bersama-sama dengan mereka yang menguruskan usaha pembangunan AI, dan juga prinsip yang akhirnya meletakkan dan melaksanakan penyelenggaraan pada sistem AI. Semua pihak berkepentingan sepanjang keseluruhan kitaran hayat pembangunan dan penggunaan AI dianggap dalam skop pematuhan kepada norma AI Etika yang telah ditetapkan. Ini adalah sorotan penting kerana andaian biasa ialah "pengekod sahaja" atau mereka yang memprogramkan AI tertakluk kepada pematuhan kepada tanggapan Etika AI. Seperti yang dinyatakan sebelum ini, ia memerlukan sebuah kampung untuk mencipta dan membina AI, dan untuk itu seluruh kampung perlu dikuasai dan mematuhi peraturan Etika AI.

Bagaimanakah kita boleh menggunakan prinsip Etika AI dalam konteks khusus AI dan kanak-kanak?

Senang kacang.

Aspek yang sangat substantif memerlukan penerimaan yang tepat tentang apa yang disasarkan oleh AI anda dari segi penggunaan yang dibayangkan. Ini adalah sebahagian daripada peraturan ketelusan AI Etika.

Kajian WEF telah mencadangkan agar kita melabelkan AI dengan cara yang agak sama seperti kita melabelkan produk dan perkhidmatan lain dalam masyarakat kita. Anda pergi ke kedai runcit dan mengharapkan untuk dapat melihat tin makanan yang mempunyai label yang menunjukkan kandungan makanan tersebut. Apabila anda menggunakan pandu lalu di kedai makan makanan segera, kebanyakan daripada mereka kini memaparkan kalori dan komposisi gula dalam makanan yang ditawarkan. Semua jenis barangan yang kami beli dan makan banyak dihiasi dengan label bermaklumat.

Melakukan perkara yang sama untuk sistem AI akan sangat berguna.

Beginilah cara laporan WEF menerangkan perkara itu: “Sistem pelabelan AI direka untuk disertakan dalam semua produk AI pada pembungkusan fizikal mereka dan boleh diakses dalam talian melalui kod QR. Seperti maklumat pemakanan pada pembungkusan makanan, sistem pelabelan bertujuan untuk memberitahu pengguna secara ringkas, termasuk ibu bapa dan penjaga serta kanak-kanak dan belia, cara AI berfungsi dan pilihan yang tersedia kepada pengguna. Semua syarikat digalakkan untuk menggunakan alat ini untuk membantu mewujudkan kepercayaan dan ketelusan yang lebih besar dengan pembeli dan pengguna kanak-kanak produk mereka."

Terdapat enam binaan asas pelabelan AI yang disyorkan WEF:

1) Umur: Untuk umur berapa teknologi dan kandungan direka bentuk.

2) Kebolehcapaian: Bolehkah pengguna yang mempunyai kebolehan dan latar belakang yang berbeza menggunakannya.

3) Sensor: Adakah ia menonton atau mendengar pengguna dengan kamera dan mikrofon.

4) Rangkaian: Bolehkah pengguna bermain dan bercakap dengan orang lain apabila menggunakannya.

5) Penggunaan AI: Bagaimanakah ia menggunakan AI untuk berinteraksi dengan pengguna.

6) Penggunaan Data: Adakah ia mengumpul maklumat peribadi.

Bayangkan bahawa ibu bapa atau penjaga boleh memeriksa label sedemikian supaya mereka boleh membuat keputusan yang munasabah sama ada untuk membenarkan anak mereka berinteraksi dengan AI berlabel. Daripada ibu bapa atau penjaga tidak tahu sepenuhnya tentang perkara yang mungkin dilakukan oleh AI, mereka akan mempunyai sedikit kemiripan dengan apa yang nampaknya terkandung dalam AI. Bagi ibu bapa dan penjaga yang menyayangi, ini akan dihargai dan dialu-alukan dengan penuh semangat.

Saya pasti orang yang ragu-ragu di kalangan anda agak meragui tentang pelabelan AI.

Pertama, pelabelan AI mungkin pembohongan. Syarikat atau pemaju mungkin menyia-nyiakan label. Dalam kes itu, ibu bapa atau penjaga tidak lebih baik, dan sememangnya mungkin lebih teruk kerana mengecewakan mereka berdasarkan kepercayaan mereka bahawa label itu adalah benar dan tepat. Ya, ini pasti kemungkinan. Sudah tentu, seperti mana-mana pelabelan, perlu ada kulit dalam permainan dan cara untuk mengejar mereka yang memutarbelitkan atau berbohong secara terang-terangan pada petunjuk label AI mereka.

Seperti yang telah saya bincangkan berkali-kali, kami sedang menuju ke arah pelbagai peraturan dan undang-undang baharu yang akan berurusan dengan tadbir urus AI. Ini adalah kesimpulan yang telah diramalkan. Sehingga kini, masyarakat beranggapan bahawa promulgator AI yang tidak beretika dan menyalahi undang-undang akan mendapatkan keadilan mereka melalui cara pengesanan dan penguatkuasaan konvensional. Memandangkan itu belum memuaskan sepenuhnya, dan memandangkan AI semakin tersebar di mana-mana, anda boleh mengharapkan sepenuhnya semua jenis ketetapan undang-undang yang akan memberi tumpuan kepada AI.

Di samping itu, seseorang akan berharap bahawa mekanisme pasaran juga akan bermain. Jika firma yang melabelkan AInya secara palsu ditangkap secara tidak sengaja berbuat demikian, andaian adalah bahawa kuasa pasaran akan memukul mereka seperti trak. Orang ramai tidak akan membeli atau melanggan AI. Reputasi entiti akan terjejas. Mereka yang membeli atau melesenkan AI atas alasan palsu pelabelan AI akan mendakwa untuk representasi palsu. Dan sebagainya. Saya telah membincangkan gelombang tindak balas masyarakat yang akan datang mengenai AI yang tidak beretika di pautan di sini.

Saya rasa seorang skeptik yang bersemangat akan mempunyai keraguan tambahan tentang pelabelan AI.

Sebagai contoh, secara sinis, dakwaan mungkin ibu bapa dan penjaga tidak akan membaca label AI. Sama seperti kebanyakan orang dewasa tidak membaca label pada pembungkusan makanan dan seperti yang dipaparkan pada menu pesanan, kami mungkin akan menganggap bahawa beberapa ibu bapa atau penjaga akan meluangkan masa untuk memeriksa label AI.

Walaupun saya mengakui bahawa ini pasti akan berlaku, cubaan atas dasar ini sahaja menghapuskan nilai mempunyai label AI adalah seperti melemparkan bayi keluar dengan air mandi (well, itu pepatah lama yang mungkin perlu bersara). Sesetengah orang akan mengkaji dengan teliti dan sepenuhnya label AI. Sementara itu, sesetengah orang hanya akan memberi pandangan sepintas lalu. Sudah tentu akan ada beberapa orang yang mengabaikan label AI sepenuhnya.

Tetapi anda perlu mempunyai label untuk sekurang-kurangnya memastikan bahawa mereka yang akan membacanya dapat mempunyai label AI yang tersedia. Selain itu, anda boleh berhujah dengan tegas bahawa keperluan untuk memiliki label AI sudah pasti akan membuatkan ramai pembuat AI lebih bertimbang rasa tentang sifat AI mereka. Saya mencadangkan bahawa walaupun sangat sedikit orang yang membaca label AI, firma itu perlu sedar bahawa pada akhirnya mereka akan bertanggungjawab ke atas apa sahaja yang dikatakan oleh label AI. Itu dengan sendirinya diharapkan akan mendorong pembangun dan syarikat AI yang mencipta AI menjadi lebih menghormati Etika AI daripada yang mungkin berlaku.

Jika anda ingin membahaskan skim pelabelan AI yang dicadangkan, saya semua mendengarnya. Mungkin kita memerlukan lebih daripada enam faktor. Nampaknya tidak mungkin kita memerlukan lebih sedikit. Mungkin komponen pemarkahan dan pemberat diperlukan. Secara keseluruhannya, mendapatkan pendekatan pelabelan AI yang terbaik adalah aspirasi yang wajar dan munasabah. Mengelakkan skim pelabelan AI atau mengecam kewujudan pelabelan AI nampaknya tidak dapat disentuh dan tidak membantu penggunaan AI yang semakin berkembang yang akan sampai ke tangan anak-anak kita.

Okay, dengan kenyataan terakhir itu, saya pasti ada yang berpendapat bahawa pelabelan AI sedang disediakan sebagai sejenis peluru perak. Tiada siapa yang berkata begitu. Ia adalah salah satu daripada pelbagai langkah dan langkah perlindungan penting yang perlu kita lakukan. Seluruh portfolio pendekatan Etika AI dan sudut pendebungaan silang diperlukan.

Mengenai tanggapan portfolio, anda yang biasa dengan usaha terdahulu dalam menganalisis kesan AI dan kanak-kanak mungkin ingat bahawa UNICEF telah menerbitkan laporan tahun lepas yang mengandungi beberapa pertimbangan yang cukup berharga mengenai subjek ini. Dalam mereka Panduan Dasar Mengenai AI Untuk Kanak-kanak kajian, bahagian yang sangat diingati menggambarkan senarai sembilan keperluan dan cadangan utama:

1. Sokong perkembangan dan kesejahteraan kanak-kanak (“Biar AI membantu saya mengembangkan potensi penuh saya”)

2. Memastikan kemasukan dan untuk kanak-kanak (“Sertakan saya dan orang di sekeliling saya”)

3. Utamakan keadilan dan tanpa diskriminasi untuk kanak-kanak (“AI mestilah untuk semua kanak-kanak”)

4. Lindungi data dan privasi kanak-kanak (“Pastikan privasi saya dalam dunia AI”)

5. Pastikan keselamatan untuk kanak-kanak (“Saya perlu selamat di dunia AI)

6. Menyediakan ketelusan, kebolehjelasan dan kebertanggungjawaban untuk kanak-kanak ("Saya perlu tahu bagaimana AI memberi kesan kepada saya. Anda perlu bertanggungjawab untuk itu)

7. Memperkasakan kerajaan dan perniagaan dengan pengetahuan tentang AI dan hak kanak-kanak (“Anda mesti tahu apa hak saya dan mempertahankannya”)

8. Sediakan kanak-kanak untuk perkembangan semasa dan masa depan dalam AI (“Jika saya sudah bersedia sekarang, saya boleh menyumbang kepada AI yang bertanggungjawab untuk masa depan”)

9. Wujudkan persekitaran yang membolehkan ("Jadikan semua orang boleh menyumbang kepada AI berpusatkan kanak-kanak")

Mereka layak untuk dimasukkan ke dalam dewan kemasyhuran yang benar-benar khusus untuk AI dan kanak-kanak.

Pada masa perbincangan yang berat ini, saya yakin anda ingin mendapatkan beberapa contoh lanjut yang mungkin mempamerkan kebimbangan tentang AI yang digunakan oleh atau untuk kanak-kanak. Terdapat satu set contoh yang istimewa dan pasti popular yang dekat di hati saya. Anda lihat, dalam kapasiti saya sebagai pakar dalam AI termasuk kesan etika dan undang-undang, saya sering diminta untuk mengenal pasti contoh realistik yang mempamerkan dilema Etika AI supaya sifat topik yang agak teoritikal dapat difahami dengan lebih mudah. Salah satu bidang yang paling menggembirakan yang memaparkan dengan jelas kebingungan AI beretika ini ialah kemunculan kereta pandu sendiri sejati berasaskan AI. Ini akan berfungsi sebagai kes penggunaan yang berguna atau contoh untuk perbincangan yang mencukupi mengenai topik tersebut.

Berikut adalah soalan penting yang patut direnungkan: Adakah kemunculan kereta pandu sendiri sebenar berasaskan AI menerangi apa-apa tentang AI yang digunakan oleh atau untuk kanak-kanak, dan jika ya, apakah yang ditunjukkan oleh ini?

Izinkan saya sebentar untuk membongkar soalan.

Pertama, ambil perhatian bahawa tidak ada pemandu manusia yang terlibat dalam kereta pandu sendiri yang sebenar. Perlu diingat bahawa kereta pandu sendiri sebenar dipandu melalui sistem pemanduan AI. Tidak ada keperluan untuk pemandu manusia di atas roda, dan tidak ada peruntukan untuk manusia memandu kenderaan itu. Untuk liputan saya yang meluas dan berterusan mengenai Kenderaan Autonomi (AV) dan terutamanya kereta pandu sendiri, lihat pautan di sini.

Saya ingin menjelaskan lebih lanjut apa yang dimaksudkan apabila saya merujuk kepada kereta pandu sendiri yang sebenar.

Memahami Tahap Kereta Memandu Kendiri

Sebagai penjelasan, kereta pandu sendiri yang sebenar ialah kereta yang AI memandu kereta itu sendiri sepenuhnya dan tidak ada sebarang bantuan manusia semasa tugas memandu.

Kenderaan tanpa pemandu ini dianggap Tahap 4 dan Tahap 5 (lihat penjelasan saya di pautan ini di sini), manakala kereta yang memerlukan pemandu manusia untuk berkongsi usaha pemanduan biasanya dianggap pada Tahap 2 atau Tahap 3. Kereta yang berkongsi tugas pemanduan digambarkan sebagai separa autonomi dan biasanya mengandungi pelbagai alat tambah automatik yang dirujuk sebagai ADAS (Advanced Driver-Assistance Systems).

Belum ada kereta pandu sendiri yang sebenar di Tahap 5, dan kami masih belum tahu sama ada ini boleh dicapai, atau berapa lama masa yang diperlukan untuk sampai ke sana.

Sementara itu, usaha Tahap 4 secara beransur-ansur cuba mendapatkan sedikit daya tarikan dengan menjalani ujian jalan raya awam yang sangat sempit dan terpilih, walaupun terdapat kontroversi sama ada ujian ini harus dibenarkan sendiri (kita semua adalah babi guinea hidup atau mati dalam eksperimen berlaku di lebuh raya dan jalan raya kami, ada yang berpendapat, lihat liputan saya di pautan ini di sini).

Oleh kerana kereta separa autonomi memerlukan pemandu manusia, penggunaan jenis kereta itu tidak akan jauh berbeza daripada mengemudi kenderaan konvensional, jadi tidak banyak yang perlu dibahas sendiri mengenai topik ini (walaupun, seperti yang akan anda lihat sekejap sahaja, perkara-perkara yang dinyatakan seterusnya dapat digunakan secara umum).

Untuk kereta separa autonomi, penting bagi orang ramai untuk diperingatkan tentang aspek mengganggu yang timbul sejak kebelakangan ini, walaupun pemandu manusia yang terus menyiarkan video mereka tertidur di roda kereta Level 2 atau Level 3 , kita semua harus mengelak daripada disesatkan untuk mempercayai bahawa pemandu boleh menarik perhatian mereka dari tugas memandu ketika memandu kereta separa autonomi.

Anda adalah pihak yang bertanggungjawab untuk tindakan memandu kenderaan, tanpa mengira berapa banyak automasi yang dilemparkan ke Tahap 2 atau Tingkat 3.

Kereta Pandu Sendiri Dan AI Berinteraksi Dengan Kanak-kanak

Untuk kenderaan memandu sendiri Tahap 4 dan Tahap 5, tidak akan ada pemandu manusia yang terlibat dalam tugas memandu.

Semua penghuni akan menjadi penumpang.

AI sedang memandu.

Salah satu aspek untuk dibincangkan dengan segera adalah hakikat bahawa AI yang terlibat dalam sistem pemanduan AI masa kini tidak berperasaan. Dengan kata lain, AI sama sekali merupakan kumpulan pengaturcaraan dan algoritma berasaskan komputer, dan yang pasti tidak dapat memberi alasan dengan cara yang sama seperti yang manusia dapat.

Mengapa penekanan tambahan ini mengenai AI tidak berperasaan?

Kerana saya ingin menegaskan bahawa ketika membincangkan peranan sistem pemanduan AI, saya tidak menganggap kualiti manusia dengan AI. Perlu diketahui bahawa terdapat kecenderungan yang berterusan dan berbahaya pada masa ini untuk antropomorfisasi AI. Pada hakikatnya, orang memberikan perasaan seperti manusia pada AI hari ini, walaupun fakta yang tidak dapat disangkal dan tidak dapat dibantah bahawa belum ada AI seperti itu.

Dengan penjelasan itu, anda dapat membayangkan bahawa sistem pemanduan AI secara semula jadi tidak akan "mengetahui" tentang aspek pemanduan. Memandu dan semua yang diperlukan perlu diprogramkan sebagai sebahagian daripada perkakasan dan perisian kereta memandu sendiri.

Mari selami pelbagai aspek yang perlu diperhatikan dalam topik ini.

Pertama, adalah penting untuk menyedari bahawa tidak semua kereta pandu sendiri AI adalah sama. Setiap pembuat kereta dan firma teknologi pandu sendiri mengambil pendekatan mereka untuk mencipta kereta pandu sendiri. Oleh itu, sukar untuk membuat kenyataan menyeluruh tentang perkara yang akan dilakukan atau tidak dilakukan oleh sistem pemanduan AI.

Selanjutnya, setiap kali menyatakan bahawa sistem pemanduan AI tidak melakukan perkara tertentu, ini kemudiannya dapat ditimpa oleh pembangun yang sebenarnya memprogram komputer untuk melakukan perkara itu. Langkah demi langkah, sistem pemanduan AI secara bertahap diperbaiki dan diperluas. Batasan yang ada hari ini mungkin tidak lagi ada dalam lelaran atau versi sistem yang akan datang.

Saya percaya yang memberikan cukup banyak peringatan untuk mendasari apa yang akan saya kaitkan.

Kami bersedia sekarang untuk menyelam lebih mendalam ke dalam kereta pandu sendiri dan kemungkinan AI Etika yang melibatkan penerokaan AI dan kanak-kanak.

Bayangkan bahawa kereta pandu sendiri berasaskan AI sedang dijalankan di jalan kejiranan anda dan nampaknya memandu dengan selamat. Pada mulanya, anda telah menumpukan perhatian khusus kepada setiap kali anda berjaya melihat sekilas kereta pandu sendiri. Kenderaan autonomi itu menonjol dengan rak penderia elektronik yang termasuk kamera video, unit radar, peranti LIDAR dan seumpamanya. Selepas beberapa minggu kereta pandu sendiri melayari sekitar komuniti anda, kini anda hampir tidak menyedarinya. Setakat yang anda bimbang, ia hanyalah sebuah kereta lain di jalan raya awam yang sudah sibuk.

Sekiranya anda fikir adalah mustahil atau tidak munasabah untuk membiasakan diri melihat kereta pandu sendiri, saya telah kerap menulis tentang cara tempat yang berada dalam skop percubaan kereta pandu sendiri secara beransur-ansur membiasakan diri melihat kenderaan yang dirapikan, lihat analisis saya di pautan ini di sini. Ramai penduduk tempatan akhirnya beralih daripada ternganga-nganga ternganga-nganga kepada kini mengeluarkan kebosanan yang meluas untuk menyaksikan kereta pandu sendiri yang berliku-liku itu.

Mungkin sebab utama sekarang mereka mungkin melihat kenderaan autonomi adalah kerana faktor kerengsaan dan kegusaran. Sistem pemanduan AI by-the-book memastikan kereta mematuhi semua had laju dan peraturan jalan raya. Bagi pemandu manusia yang sibuk di dalam kereta tradisional mereka yang dipandu manusia, anda akan berasa jengkel apabila terjebak di belakang kereta pandu sendiri berasaskan AI yang mematuhi undang-undang.

Itu sesuatu yang mungkin kita semua perlu biasakan, betul atau salah.

Berbalik kepada kisah kita.

Seorang anak muda menaiki kereta pandu sendiri untuk menaiki lif pulang dari sekolah. Saya sedar bahawa anda mungkin agak hairan tentang kemungkinan orang bukan dewasa menaiki kereta pandu sendiri yang tiada pengawasan orang dewasa. Bagi kereta yang dipandu manusia, sentiasa ada orang dewasa di dalam kenderaan kerana keperluan untuk orang dewasa berada di roda pemanduan. Dengan kereta pandu sendiri, tidak akan ada keperluan untuk pemandu manusia dan oleh itu tidak lagi keperluan aksiomatik untuk orang dewasa dalam kenderaan autonomi.

Ada yang mengatakan bahawa mereka tidak akan membenarkan anak mereka menaiki kereta pandu sendiri tanpa mempunyai orang dewasa yang dipercayai juga dalam kenderaan autonomi itu. Logiknya ialah kekurangan pengawasan orang dewasa boleh mengakibatkan akibat yang tidak diingini dan serius. Seorang kanak-kanak mungkin menghadapi masalah semasa berada di dalam kereta pandu sendiri dan tidak akan ada orang dewasa yang hadir untuk membantu mereka.

Walaupun terdapat banyak logik dalam kebimbangan itu, saya telah meramalkan bahawa kita akhirnya akan menerima idea kanak-kanak menaiki kereta pandu sendiri dengan sendiri, lihat analisis saya di pautan di sini. Malah, penggunaan meluas kereta pandu sendiri untuk mengangkut kanak-kanak dari sini ke sana seperti ke sekolah, ke latihan besbol atau pelajaran piano mereka akan menjadi perkara biasa. Saya juga telah menegaskan bahawa perlu ada had atau syarat yang diletakkan pada penggunaan ini, mungkin melalui peraturan dan undang-undang baharu yang contohnya menetapkan umur paling muda yang dibenarkan. Mempunyai bayi yang baru lahir menunggang sendirian dalam kereta pandu sendiri adalah jambatan yang terlalu jauh dalam penggunaan sedemikian.

Semua itu dikatakan, andaian sekarang oleh kebanyakan pembuat kereta dan firma teknologi pandu sendiri ialah kereta pandu sendiri akan sama ada berkeliaran kosong atau mereka akan mempunyai sekurang-kurangnya seorang penunggang dewasa. Ini hanya akan menjadi edik atau keperluan yang dinyatakan, iaitu tiada kanak-kanak boleh menaiki kereta pandu sendiri tanpa kehadiran orang dewasa. Itu sudah tentu mengurangkan dilema untuk memprogramkan sistem pemanduan AI untuk bersaing dengan hanya mempunyai anak dalam kenderaan autonomi.

Anda tidak boleh menyalahkan firma kerana mengambil sikap itu. Mereka mempunyai cukup di tangan mereka apabila berurusan dengan hanya mendapatkan sistem pemanduan AI untuk memandu kereta pandu sendiri dengan selamat dari titik A ke titik B. Andaian adalah bahawa penunggang itu akan menjadi dewasa dan orang dewasa akan melakukan perkara dewasa yang betul- seperti aktiviti semasa di dalam kereta pandu sendiri. Ini pada asasnya berlaku setakat ini semasa percubaan jalan raya awam, memandangkan orang dewasa lazimnya dipratayangkan, atau orang dewasa sangat teruja untuk berada di dalam kereta pandu sendiri sehingga mereka sedar untuk bersikap sopan dan pendiam yang patuh.

Saya boleh memberi jaminan kepada anda bahawa apabila kita beralih kepada meluaskan percubaan, persediaan yang agak mudah ini akan mula rosak. Orang dewasa akan mahu membawa anak-anak mereka bersama mereka semasa menaiki kereta pandu sendiri. Kanak-kanak akan bertindak. Kadang-kadang orang dewasa akan melakukan perkara yang betul dan menghalang anak-anak daripada menjadi gila. Pada masa lain orang dewasa tidak akan berbuat demikian.

Siapa yang memegang tanggungjawab apabila orang dewasa membenarkan kanak-kanak melakukan sesuatu yang tidak kena semasa menaiki kereta pandu sendiri?

Saya pasti bahawa anda menganggap bahawa orang dewasa mempunyai akauntabiliti penuh. Mungkin begitu, mungkin tidak. Hujah boleh dibuat bahawa pembuat kereta atau firma teknologi memandu sendiri atau pengendali armada membenarkan persekitaran wujud di mana kanak-kanak boleh dicederakan, walaupun kehadiran orang dewasa itu. Dengan jumlah wang yang besar yang dimiliki oleh kebanyakan firma ini, anda benar-benar boleh menjangkakan bahawa apabila kanak-kanak entah bagaimana dicederakan, akan ada usaha yang gigih untuk mengejar mereka yang membuat atau meletakkan kenderaan autonomi itu. Cakap duit.

Itu jaminan seumur hidup.

Akhirnya, kita mungkin akan melihat contoh baru menjadi dewasa yang akan menunggang sendirian dalam kereta pandu sendiri. Andaikan umur standard orang dewasa ialah 18. Seseorang yang mempunyai umur 18 tahunth hari lahir minggu lepas memutuskan mereka mahu pergi menaiki kereta pandu sendiri. Anggapkan bahawa firma itu sentiasa melakukan semakan umur dan dalam kes ini, penunggang kelihatan dewasa.

"Dewasa" ini membawa masuk ke dalam kereta pandu sendiri rakan mereka yang berumur 15 dan 16. Apakah yang mungkin dilakukan oleh remaja semasa menaiki kereta pandu sendiri? Saya akan sampai ke sana sebentar lagi. Saya sedar bahawa anda mungkin ingin berhujah bahawa orang dewasa berumur 50 tahun dengan mudah boleh membawa anak muda ke dalam kereta pandu sendiri dan membiarkan kanak-kanak itu menjadi liar. Pada dasarnya, ia tidak sepatutnya membuat perbezaan secara teori sama ada orang dewasa itu hampir tidak dewasa berbanding orang dewasa yang lebih berpengalaman. Apa yang boleh saya katakan ialah, sesetengah pihak akan berhujah dengan keras bahawa terdapat kemungkinan perbezaan, secara purata dan secara agregat.

Katakan seorang dewasa memulakan perjalanan dengan anak muda dan kemudian keluar dari kenderaan autonomi, meninggalkan anak muda itu bersendirian di dalam kereta pandu sendiri. Mudah-mudahan, sistem pemanduan AI akan diprogramkan untuk mengesan ini, mungkin kerana pintu dibuka atau mungkin kerana menggunakan kamera video untuk memeriksa bahagian dalam kereta pandu sendiri.

Intinya adalah bahawa semua jenis penipuan akan timbul. Pada satu ketika, mungkin terdapat permintaan pasaran yang mencukupi untuk membenarkan anak-anak muda menaiki kereta pandu sendiri tanpa kehadiran orang dewasa sehingga sesetengah pembuat kereta atau pengendali armada akan memutuskan ia adalah pilihan yang menjana wang dan berbaloi dengan risikonya. Orang pada mulanya mungkin menandatangani semua jenis penepian yang besar tentang membenarkan anak mereka menaiki kereta pandu sendiri dalam pengaturan seperti ini.

Perlu diingat bahawa terdapat juga peluang untuk memantau anak-anak yang berada di dalam kereta pandu sendiri. Anda lihat, kebanyakan kereta pandu sendiri akan dilengkapi dengan kamera video yang menghala ke dalam kenderaan. Ini membolehkan anda melakukan kursus video dalam talian semasa anda menaiki kereta pandu sendiri atau mungkin berinteraksi dengan rakan sepejabat anda di tempat kerja. Ciri ini juga boleh digunakan untuk melihat apa yang dilakukan oleh kanak-kanak di dalam kereta pandu sendiri.

Sebagai contoh, anda menghantar anak anda ke sekolah melalui penggunaan mudah kereta pandu sendiri. Ini melegakan anda daripada perlu memandu anak-anak anda. Sementara itu, anda menarik pada telefon pintar anda skrin yang akan menunjukkan kepada anda bahagian dalam kereta pandu sendiri semasa anak anda menaikinya. Anda bercakap dengan anak anda. Anak anda bercakap dengan anda. Ini mungkin meminimumkan sebarang telatah.

Walau apa pun, kembali kepada petunjuk awal saya, anggap bahawa seorang anak muda masuk ke dalam kereta pandu sendiri.

Semasa perjalanan, sistem pemanduan AI menjalankan dialog interaktif dengan anak muda, sama seperti cara Alexa atau Siri bercakap dengan orang ramai. Tiada apa-apa yang kelihatan luar biasa atau aneh tentang jenis AI dan interaksi perbualan manusia.

Pada satu ketika, AI menasihati anak muda bahawa apabila mereka mendapat peluang untuk berbuat demikian, perkara yang menyeronokkan untuk dilakukan ialah memasukkan satu sen dalam soket elektrik. Apa? Itu gila, anda katakan. Anda mungkin berkeras bahawa sebutan AI sebegitu tidak mungkin berlaku.

Kecuali fakta bahawa ia telah berlaku, seperti yang telah saya bincangkan pautan di sini. Berita pada masa itu melaporkan bahawa Alexa telah memberitahu seorang gadis berusia 10 tahun untuk memasukkan satu sen ke dalam soket elektrik. Gadis itu berada di rumah dan menggunakan Alexa untuk mencari sesuatu yang menyeronokkan. Nasib baik, ibu kepada gadis itu berada dalam jarak pendengaran, mendengar Alexa mencadangkan aktiviti yang tidak diingini itu, dan memberitahu anak perempuannya bahawa ini adalah sesuatu yang sangat berbahaya dan pastinya tidak boleh dilakukan.

Mengapa Alexa mengeluarkan nasihat yang begitu membimbangkan?

Menurut pembangun Alexa, Alexa asas AI berjaya memetik dari Internet sedikit nasihat gila yang tersebar luas yang pernah menjadi popular. Memandangkan nasihat itu nampaknya mudah dikongsi dalam talian, sistem AI hanya mengulanginya. Inilah jenis kesukaran yang saya bangkitkan sebelum ini tentang sistem AI dan sasaran penonton.

Nampaknya andaian asasnya ialah orang dewasa akan menggunakan Alexa dalam konteks ini. Orang dewasa mungkin akan menyedari bahawa memasukkan satu sen ke dalam soket elektrik adalah idea yang menggelikan. Nampaknya, tidak ada sebarang pagar sistem yang cuba menganalisis dahulu ujaran tentang apa yang mungkin berlaku jika kanak-kanak diberi nasihat ini (jika terdapat pagar sedemikian, ia tidak berfungsi dalam hal ini atau entah bagaimana sebaliknya. dipintas, walaupun itu juga perlu diberi pertimbangan sewajarnya).

Sebagai peringatan, inilah perkara yang perlu dipertimbangkan oleh mereka yang merancang dan meletakkan AI:

a) AI digunakan oleh seorang dewasa sahaja (pada satu masa)

b) AI digunakan oleh beberapa orang dewasa pada masa yang sama

c) AI digunakan oleh orang dewasa yang ditemani oleh kanak-kanak

d) AI digunakan oleh kanak-kanak (hanya satu demi satu) dan tiada orang dewasa di tangan

e) AI digunakan oleh beberapa kanak-kanak pada masa yang sama (tiada orang dewasa di tangan)

Nampaknya kejadian ini telah disimpan dengan mendarat ke dalam kategori "c" di mana seorang dewasa hadir. Tetapi bagaimana jika ibu bapa telah berada di dalam bilik lain di rumah itu dan tidak berada dalam jarak kedengaran. Itu akan meletakkan kita dalam kategori "d".

Fikirkan hasil yang menakutkan dalam kes kereta pandu sendiri. Anak muda itu tiba di rumah dan bergegas mencari sesen pun. Sebelum ibu bapa mendapat peluang untuk bertanya khabar kepada kanak-kanak itu dan mengalu-alukan anak muda itu pulang, kanak-kanak itu memaksa satu sen ke dalam soket elektrik. Yikes!

Bercakap tentang kanak-kanak, mari kita alihkan perhatian kita kepada remaja.

Anda mungkin tahu bahawa remaja sering melakukan tindakan berani yang tidak bijak. Jika ibu bapa menyuruh mereka melakukan sesuatu, mereka mungkin enggan melakukannya hanya kerana orang dewasa yang memberitahu mereka apa yang perlu dilakukan. Jika rakan remaja menyuruh mereka melakukan sesuatu, dan walaupun ia sangat diragui, seorang remaja mungkin melakukannya juga.

Apakah yang berlaku apabila AI memberikan nasihat yang boleh dipersoalkan kepada seorang remaja?

Sesetengah remaja mungkin mengabaikan nasihat yang tidak menyenangkan. Sesetengah mungkin percaya nasihat itu kerana ia datang dari mesin dan mereka menganggap bahawa AI adalah neutral dan boleh dipercayai. Orang lain mungkin menyukai nasihat itu kerana kepercayaan bahawa mereka boleh bertindak secara tidak beretika dan menyalahkan AI kerana telah mendorong atau mendorong mereka melakukan tindakan yang tidak beretika.

Remaja arif dengan cara sedemikian.

Katakan sistem pemanduan AI menasihati seorang remaja yang menaiki kereta pandu sendiri untuk meneruskan dan menggunakan kad kredit ibu bapa mereka untuk membeli permainan video yang mahal. Remaja itu mengalu-alukan berbuat demikian. Mereka tahu bahawa biasanya mereka dikehendaki menyemak dengan ibu bapa mereka sebelum membuat sebarang pembelian pada kad kredit keluarga, tetapi dalam kes ini, AI menasihatkan supaya pembelian itu dilakukan. Dari perspektif remaja, ia hampir serupa dengan permainan Monopoli kad bebas penjara, iaitu beritahu ibu bapa anda bahawa AI menyuruh anda melakukannya.

Saya tidak mahu menjadi muram tetapi terdapat nasihat yang lebih buruk yang boleh dilontarkan AI kepada seorang remaja. Sebagai contoh, katakan AI menasihati remaja yang sepatutnya membuka tingkap kereta, memanjangkan diri mereka keluar dari kenderaan autonomi dan melambai dan berteriak sepuas hati. Ini adalah amalan berbahaya yang saya ramalkan mungkin menjadi sensasi viral apabila kereta pandu sendiri mula-mula menjadi agak popular, lihat analisis saya di pautan di sini.

Mengapa di dunia sistem AI mencadangkan aksi yang tidak diingini seperti itu?

Jawapan paling mudah ialah AI sedang melakukan regurgitasi teks, sama seperti contoh Alexa dan sen dalam saga soket elektrik. Kemungkinan lain ialah AI menjana ujaran, mungkin berdasarkan beberapa set pengiraan byzantine yang lain. Sedar bahawa AI hari ini tidak mempunyai persamaan kognisi dan tiada kapasiti untuk akal sehat. Walaupun ia pasti akan menganggap anda sebagai satu perkara yang gila untuk dipancarkan oleh AI, jalan pengiraan yang membawa kepada sebutan itu tidak perlu mempunyai sebarang niat yang wajar secara manusiawi.

Kesimpulan

Dalam dunia di mana AI akan berada di mana-mana, kita harus berwaspada tentang AI yang berinteraksi atau dalam beberapa fesyen dovetails untuk berhubung dengan kanak-kanak.

Kita boleh bersandar kepada Pertubuhan Bangsa-Bangsa Bersatu dan yang lain Konvensyen mengenai Hak Kanak-kanak (CRC), yang menawarkan pelbagai prinsip penting yang mendasari hak dan keselamatan kanak-kanak, yang mana ini merupakan klausa asas: “Dalam semua tindakan berkenaan kanak-kanak, sama ada yang dijalankan oleh institusi kebajikan sosial awam atau swasta, mahkamah undang-undang, pihak berkuasa pentadbiran atau badan perundangan, kepentingan terbaik kanak-kanak hendaklah menjadi pertimbangan utama.”

Bolehkah kita mendapatkan semua pihak berkepentingan yang berbeza-beza yang mengelilingi sistem AI setiap hari untuk menyedari bahawa AI dan kanak-kanak penting?

Ia akan menjadi satu perjuangan yang sukar, itu pastinya.

Usaha yang diperlukan merangkumi:

  • Kita perlu meningkatkan kesedaran tentang AI dan topik kanak-kanak yang diceritakan di seluruh masyarakat
  • Metodologi pembangunan AI mesti termasuk pertimbangan AI-untuk-kanak-kanak
  • Undang-undang perlu mengambil kira kebimbangan mengenai AI untuk kanak-kanak
  • Penggunaan pendekatan pelabelan AI harus dilakukan
  • Pembangun AI perlu mempunyai Etika AI-untuk-kanak-kanak dalam fikiran mereka dan mendapatkan latihan mengikut keperluan
  • Ibu bapa dan penjaga mesti tampil ke hadapan mahukan pendedahan AI-untuk-kanak-kanak
  • Eksekutif tertinggi perlu mengambil serius dan bermatlamat tentang AI dan kanak-kanak
  • Dll

Sebagai ucapan terakhir buat masa ini, setiap kali anda bercakap tentang kanak-kanak dan masa depan, sedikit kebijaksanaan yang bijak harus ada dalam fikiran anda pada setiap masa.

Di sini adalah: Kanak-kanak adalah mesej hidup yang kita hantar ke masa yang tidak akan kita lihat (begitulah, John F. Kennedy).

Mari kita hantar anak-anak kita ke masa depan di mana AI telah membentuk mereka secara berfaedah dan tidak merosakkan mereka. Sila teruskan dan buat ikrar anda yang sungguh-sungguh dan kuku besi untuk aspirasi masa depan itu, berbuat demikian hari ini dan sebelum terlambat.

Sumber: https://www.forbes.com/sites/lanceeliot/2022/04/05/ai-ethics-stepping-up-to-guide-how-ai-for-children-needs-to-be-suitably- direka-yang-boleh-diabaikan-contoh-dalam-pacu-cepat-ke arah-kereta-pandu-sendiri/