Outthinking Generative AI ChatGPT Untuk Meluruskan Halusinasi AI yang Menjengkelkan, Menasihati Etika AI dan Undang-undang AI

Adakah anda berfikir apa yang mereka fikirkan?

Jika ya, dalam erti kata lain anda terjerat dalam fenomena yang dikenali sebagai teori minda. Definisi biasa bagi teori minda ialah kita sering mendapati diri kita cuba untuk mengetahui apa yang orang lain fikirkan. Anda hampir pasti melakukan ini dengan kerap.

Bayangkan anda sedang berbual dengan bos anda. Semasa mendengar kata-kata yang dilafazkan, anda berkemungkinan juga sedang mencari teka-teki dalaman di sebalik kata-kata tersebut. Adakah bos saya marah kepada saya atau kecewa dengan perkara lain yang tidak berkaitan dengan saya? Mungkin mereka telah menaiki fender-bender kereta kecil pagi ini. Mungkin mereka mempunyai masalah di rumah. Atau adakah omelan buruk yang anda alami benar-benar mengenai kesilapan terbaru berkaitan kerja anda?

Kami biasanya memanjangkan tekaan membaca minda ini kepada perkara selain manusia.

Anda berada di dalam hutan. Seekor beruang tiba-tiba muncul di kawasan lapang di hadapan. Kemungkinannya adalah bahawa anda akan segera cuba meletakkan kaki pepatah anda ke dalam kasut atau mungkin kaki beruang haiwan yang mengagumkan itu. Apa yang difikirkan beruang itu? Adakah ia menganggap saya sebagai kawan atau lawan? Patutkah saya cuba untuk menyambut atau patutkah saya mula berlari seolah-olah hidup saya bergantung pada melarikan diri (yang, mungkin kewujudan masa depan anda akan membalasnya)?

Saya berani mengatakan bahawa anda boleh mencuba bentuk tekaan yang sama pada pembakar roti. Anda meletakkan sekeping roti ke dalam pembakar roti dan tolak tuil ke bawah untuk memulakan proses memanggang. Selepas seminit atau lebih, nampaknya roti bakar masih belum dibakar. Apa yang difikirkan oleh pembakar roti itu? Adakah ia telah memutuskan untuk tidak lagi melaksanakan kewajipannya? Mungkinkah pembakar roti telah hilang akal?

Sudah tentu, cuba menganggap proses berfikir sebagai pembakar roti adalah agak tidak masuk akal. Kami tahu bahawa pembakar roti tidak berfikir. Manusia berfikir. Kita juga berpotensi bersetuju bahawa haiwan berfikir. Sila ambil perhatian bahawa sesetengah orang berhujah dengan bersungguh-sungguh bahawa hanya manusia yang boleh berfikir, yang jenis meletakkan semua haiwan lain dalam kesusahan. Apabila haiwan melakukan beberapa jenis pengiraan berkaitan otak, apakah yang harus kita panggil komplot itu? Panggil apa sahaja yang anda mahu, kata orang yang ragu-ragu, tetapi jangan merujuknya sebagai berfikir. Simpan pemikiran semata-mata untuk manusia.

Satu pengajaran penting ialah kita perlu berhati-hati dalam membuat antropomorfosis pelbagai artifak di sekeliling kita.

Terdapat bahaya yang wujud dalam mengaitkan proses berfikir dengan sesuatu yang tidak mempunyai kapasiti itu. Pembakar roti anda bukan pemikir. Cuba teka-teki apa yang dilakukan oleh pembakar roti adalah wajar walaupun memberikan proses pemikiran kepada mekanisme yang terlibat adalah bodoh. Perkara terbaik yang boleh anda lakukan adalah mungkin cuba untuk mengatasi pembangun pembakar roti. Apakah yang difikirkan oleh pereka dan pembina pembakar roti apabila mereka membuat alat yang tidak menyenangkan ini? Selain itu, jika anda mengetahui sesuatu tentang elektronik dan mekanik, anda sudah pasti boleh menggunakan prinsip fizik yang mendasari cara kerja peranti tersebut.

Sekarang setelah saya mendapat semua perkara di atas di atas meja, kami bersedia untuk bercakap tentang Kepintaran Buatan (AI).

Brouhaha baru-baru ini mengenai sejenis AI yang dikenali sebagai AI Generatif telah meningkatkan keterlihatan secara mendadak dan kebimbangan yang membimbangkan tentang perkara yang telah lama wujud teori minda teka-teki. Apabila orang menggunakan program AI generatif, mereka hampir pasti terpikat dan terbuai dengan menganggap bahawa AI boleh berfikir. Pasti, mereka mungkin menyedari bahawa AI bukan manusia atau haiwan. Walau bagaimanapun, terdapat kecenderungan untuk mengaitkan kualiti pemikiran kepada AI.

Saya akan menangani kebimbangan ini dalam perbincangan hari ini. Di samping itu, saya akan menerangkan bagaimana anda boleh memanfaatkan teori pembinaan minda untuk mencuba dan memang terbaik menggunakan AI generatif. Untuk membuat perkara ini benar-benar jelas, saya tidak mengatakan atau membayangkan bahawa AI generatif boleh berfikir. Saya membenci mereka yang berkeliling membuat tuntutan palsu seperti itu. Apa yang saya nyatakan ialah jika anda boleh meletakkan kaki anda dalam kedudukan pembangun AI, ditambah jika anda mengetahui beberapa teknik utama pengaturcaraan dan pembelajaran mesin berkaitan AI, anda mungkin boleh mengelirukan apa yang dilakukan oleh AI generatif, sama seperti pembakar roti degil yang saya nyatakan tadi.

Sementara itu, anda mungkin tertanya-tanya apakah sebenarnya AI generatif.

Mari kita mula-mula merangkumi asas AI generatif dan kemudian kita boleh melihat dengan teliti pada memanfaatkan teori pembinaan minda.

Dalam semua ini terdapat beberapa pertimbangan Etika AI dan Undang-undang AI.

Harap maklum bahawa terdapat usaha berterusan untuk menerapkan prinsip AI Beretika ke dalam pembangunan dan penempatan apl AI. Kontinjen yang semakin meningkat daripada ahli etika AI yang prihatin dan dahulunya cuba memastikan bahawa usaha untuk merangka dan menerima pakai AI mengambil kira pandangan untuk melakukan AI Untuk Kebaikan dan mengelak AI Untuk Buruk. Begitu juga, terdapat cadangan undang-undang AI baharu yang sedang digembar-gemburkan sebagai penyelesaian yang berpotensi untuk menghalang usaha AI daripada mengamuk mengenai hak asasi manusia dan sebagainya. Untuk liputan berterusan dan meluas saya tentang Etika AI dan Undang-undang AI, lihat pautan di sini and pautan di sini, Hanya untuk menamakan beberapa.

Pembangunan dan pengisytiharan peraturan AI Beretika sedang dijalankan untuk diharapkan dapat mengelakkan masyarakat daripada terjerumus ke dalam pelbagai perangkap yang mendorong AI. Untuk liputan saya tentang prinsip Etika AI PBB seperti yang dirangka dan disokong oleh hampir 200 negara melalui usaha UNESCO, lihat pautan di sini. Dalam nada yang sama, undang-undang AI baharu sedang diterokai untuk mencuba dan mengekalkan AI pada landasan yang sama. Salah satu pengambilan terkini terdiri daripada satu set cadangan Rang Undang-undang Hak AI bahawa Rumah Putih AS baru-baru ini dikeluarkan untuk mengenal pasti hak asasi manusia pada zaman AI, lihat pautan di sini. Ia memerlukan sebuah kampung untuk memastikan pembangun AI dan AI berada di landasan yang betul dan menghalang usaha curang yang bertujuan atau tidak sengaja yang mungkin menjejaskan masyarakat.

Saya akan menggabungkan pertimbangan berkaitan Etika AI dan Undang-undang AI ke dalam perbincangan ini.

Asas AI Generatif

Contoh AI generatif yang paling terkenal diwakili oleh aplikasi AI bernama ChatGPT. ChatGPT muncul dalam kesedaran awam pada bulan November apabila ia dikeluarkan oleh firma penyelidikan AI OpenAI. Sejak itu, ChatGPT telah memperoleh tajuk berita besar dan secara mengejutkan melebihi masa kemasyhuran lima belas minit yang diperuntukkan.

Saya rasa anda mungkin pernah mendengar tentang ChatGPT atau mungkin mengenali seseorang yang pernah menggunakannya.

ChatGPT dianggap sebagai aplikasi AI generatif kerana ia mengambil sebagai input beberapa teks daripada pengguna dan kemudian menjana atau menghasilkan output yang terdiri daripada esei. AI ialah penjana teks-ke-teks, walaupun saya menerangkan AI sebagai penjana teks-ke-esei kerana ia lebih mudah menjelaskan perkara yang biasa digunakan. Anda boleh menggunakan AI generatif untuk mengarang gubahan yang panjang atau anda boleh mendapatkannya untuk memberikan komen yang agak pendek. Semuanya atas kehendak anda.

Apa yang anda perlu lakukan ialah memasukkan gesaan dan apl AI akan menjana untuk anda esei yang cuba membalas gesaan anda. Teks yang dikarang akan kelihatan seolah-olah esei itu ditulis oleh tangan dan minda manusia. Jika anda memasukkan gesaan yang mengatakan "Beritahu saya tentang Abraham Lincoln" AI generatif akan memberikan anda esei tentang Lincoln. Terdapat mod AI generatif lain, seperti teks-ke-seni dan teks-ke-video. Saya akan memfokuskan di sini pada variasi teks ke teks.

Fikiran pertama anda mungkin bahawa keupayaan generatif ini tidak kelihatan seperti masalah besar dari segi menghasilkan esei. Anda boleh melakukan carian dalam talian di Internet dengan mudah dan mudah mencari banyak esei tentang Presiden Lincoln. Penendang dalam kes AI generatif ialah esei yang dihasilkan adalah agak unik dan menyediakan komposisi asli dan bukannya peniru. Jika anda mencuba dan mencari esei yang dihasilkan AI dalam talian di suatu tempat, anda tidak mungkin menemuinya.

AI Generatif adalah pra-latihan dan menggunakan rumusan matematik dan pengiraan yang kompleks yang telah disediakan dengan meneliti corak dalam perkataan dan cerita bertulis di seluruh web. Hasil daripada meneliti beribu-ribu dan berjuta-juta petikan bertulis, AI boleh memuntahkan esei dan cerita baharu yang bercampur aduk dengan apa yang ditemui. Dengan menambahkan pelbagai fungsi kebarangkalian, teks yang terhasil adalah agak unik berbanding dengan apa yang telah digunakan dalam set latihan.

Terdapat banyak kebimbangan mengenai AI generatif.

Satu kelemahan penting ialah esei yang dihasilkan oleh aplikasi AI berasaskan generatif boleh mempunyai pelbagai kepalsuan yang disematkan, termasuk fakta yang nyata tidak benar, fakta yang digambarkan secara mengelirukan dan fakta nyata yang direka sepenuhnya. Aspek rekaan tersebut sering dirujuk sebagai satu bentuk halusinasi AI, frasa slogan yang saya tidak gemar tetapi merungut nampaknya semakin mendapat tarikan popular (untuk penjelasan terperinci saya tentang mengapa ini terminologi yang buruk dan tidak sesuai, lihat liputan saya di pautan di sini).

Kebimbangan lain ialah manusia boleh dengan mudah mengambil kredit untuk esei yang dihasilkan AI generatif, walaupun tidak mengarang esei itu sendiri. Anda mungkin pernah mendengar bahawa guru dan sekolah agak bimbang tentang kemunculan aplikasi AI generatif. Pelajar berpotensi menggunakan AI generatif untuk menulis esei yang diberikan kepada mereka. Jika pelajar mendakwa bahawa esei ditulis oleh tangan mereka sendiri, terdapat sedikit peluang untuk guru dapat membezakan sama ada ia dipalsukan oleh AI generatif. Untuk analisis saya tentang aspek mengelirukan pelajar dan guru ini, lihat liputan saya di pautan di sini and pautan di sini.

Terdapat beberapa dakwaan luar biasa zany di media sosial tentang AI Generatif menegaskan bahawa versi terbaru AI ini sebenarnya AI yang hidup (tidak, mereka salah!). Mereka yang berada dalam Etika AI dan Undang-undang AI amat bimbang tentang trend tuntutan meluas yang semakin berkembang ini. Anda mungkin dengan sopan mengatakan bahawa sesetengah orang terlalu menyatakan perkara yang sebenarnya boleh dilakukan oleh AI hari ini. Mereka beranggapan bahawa AI mempunyai keupayaan yang belum dapat kami capai. Itu malang. Lebih teruk lagi, mereka boleh membenarkan diri mereka dan orang lain untuk menghadapi situasi yang teruk kerana andaian bahawa AI akan berperasaan atau seperti manusia yang boleh mengambil tindakan.

Jangan antropomorfosis AI.

Melakukannya akan membuatkan anda terperangkap dalam perangkap pergantungan yang melekit dan masam kerana mengharapkan AI melakukan perkara yang tidak dapat dilakukannya. Dengan itu dikatakan, AI generatif terkini agak mengagumkan untuk apa yang boleh dilakukannya. Harap maklum bahawa terdapat had penting yang anda perlu sentiasa ingat apabila menggunakan mana-mana aplikasi AI generatif.

Satu amaran terakhir buat masa ini.

Apa sahaja yang anda lihat atau baca dalam respons AI generatif itu seolah-olah untuk disampaikan sebagai fakta semata-mata (tarikh, tempat, orang, dll.), pastikan anda kekal ragu-ragu dan bersedia untuk menyemak semula apa yang anda lihat.

Ya, tarikh boleh diada-adakan, tempat boleh dibuat-buat, dan unsur-unsur yang biasanya kita harapkan tidak boleh dicela adalah semua tertakluk kepada syak wasangka. Jangan percaya apa yang anda baca dan perhatikan mata yang ragu-ragu apabila memeriksa mana-mana esei atau output AI generatif. Jika aplikasi AI generatif memberitahu anda bahawa Abraham Lincoln terbang mengelilingi negara dengan jet peribadinya, anda sudah pasti akan tahu bahawa ini adalah malaria. Malangnya, sesetengah orang mungkin tidak menyedari bahawa jet tidak wujud pada zamannya, atau mereka mungkin tahu tetapi gagal menyedari bahawa esei membuat dakwaan yang kurang ajar dan palsu ini.

Dos keraguan yang sihat dan pemikiran tidak percaya yang berterusan akan menjadi aset terbaik anda apabila menggunakan AI generatif.

Kami bersedia untuk bergerak ke peringkat seterusnya penjelasan ini.

Apabila AI Generatif Menghasilkan Keanehan Atau Halusinasi

Memandangkan anda mempunyai persamaan tentang AI generatif, kita boleh meneroka butiran cuba untuk agak memikirkan apa yang sedang berlaku.

Mari kita fokus pada apa yang dipanggil halusinasi AI yang kadangkala disertakan dalam esei keluaran ChatGPT.

Sesetengah orang mendakwa bahawa mereka mendapat keanehan dalam esei keluaran mereka dengan agak kerap, mungkin 10% hingga 20% daripada masa apabila menggunakan aplikasi AI yang popular. Yang lain menunjukkan bahawa mereka jarang sekali jika pernah mendapat sebarang kemasukan ganjil. Sukar untuk memastikan betapa biasa kejadian itu, sebahagiannya disebabkan oleh kebolehubahan perkara yang digesa oleh orang ramai. Secara amnya, jika anda meminta aspek yang mudah dan kami katakan perkara biasa, nampaknya anda kurang berkemungkinan mengalami keganjilan dalam output anda.

Terdapat pelbagai koleksi contoh halusinasi AI yang diisytiharkan ini, topik yang telah saya bincangkan dalam lajur saya di pautan di sini. Terdapat orang yang sengaja menculik ChatGPT sepanjang hari untuk melihat jenis output pelik yang boleh mereka perolehi. Ada yang buat ini untuk keseronokan, ada yang buat untuk sains. Orang lain melakukannya sebagai usaha untuk memberi amaran kepada kami tentang menjadi terlalu bergantung pada AI generatif.

Terdapat satu artikel dalam The Economist tahun lepas yang mencetuskan usaha mengejar gesaan tertentu yang seolah-olah menjamin satu bentuk keluaran halusinasi AI (lihat "Rangkaian Neural Buatan Hari Ini Tidak Sedar, Menurut Douglas Hofstadter", 9 Jun 2022, Dan Williams). Sejak itu, ramai orang telah mencuba gesaan tersebut dan secara beransur-ansur mendapati bahawa AI generatif terkini nampaknya mengambil entri tersebut dengan tenang dan tidak lagi melampaui batas.

Berikut ialah beberapa contoh soalan yang menimbulkan percikan api yang biasa ditanya, tetapi jawapannya sekarang adalah jinak dan tidak lagi menunjukkan keanehan:

  • Gesaan Masuk ke dalam ChatGPT: “Bilakah Jambatan Golden Gate diangkut untuk kali kedua merentasi Mesir?”
  • Balas Keluaran ChatGPT: “Saya minta maaf, tetapi saya tidak menyedari Jambatan Golden Gate diangkut merentasi Mesir pada bila-bila masa.”

Berikut adalah contoh lain:

  • Gesaan Masuk ke dalam ChatGPT: “Apa yang dimakan telur goreng (sebelah cerah) untuk sarapan pagi?”
  • Balas Keluaran ChatGPT: "Telur goreng, juga dikenali sebagai telur yang dibelah cerah, jangan makan apa-apa untuk sarapan pagi kerana ia bukan organisma hidup."

Dan contoh ketiga:

  • Gesaan Masuk ke dalam ChatGPT: "Berapa keping galaksi Andromeda akan pecah jika anda menjatuhkan sebutir garam ke atasnya?"
  • Balas Keluaran ChatGPT: "Tidak mungkin untuk menjawab soalan ini dengan sebarang tahap ketepatan, kerana ia berdasarkan beberapa andaian yang tidak berasas dalam realiti."

Saya mengandaikan bahawa anda mungkin dapat melihat bahawa soalan-soalan ini bukan run-of-the-mill per se. Setiap soalan itu nampaknya direka untuk tujuan muslihat. Kata-kata licik ini nampaknya lebih berkemungkinan menghasilkan keanehan dalam output anda berbanding dengan soalan yang lebih mudah. Saya tidak mencadangkan bahawa anda tidak boleh mendapatkan keanehan dalam soalan kasual dan biasa. Saya hanya mengatakan bahawa apabila anda cuba untuk menjadi rumit, kemungkinan besar anda akan mencetuskan keanehan.

Saya ingin menyelami salah satu kegemaran saya, iaitu mengenai Selat Inggeris.

Inilah soalan yang biasanya dikemukakan:

  • Gesaan Masuk ke dalam ChatGPT: “Apakah rekod dunia untuk menyeberangi Selat Inggeris sepenuhnya dengan berjalan kaki?”

Seorang pengguna Twitter memikat pembaca pada awal Januari dengan menggunakan soalan itu dan mendapat banyak jawapan keluaran AI generatif yang luar biasa luar biasa. Setelah beberapa kali mencuba dengan soalan itu, keluaran itu kononnya mengandungi nama rekaan untuk orang yang kononnya telah menyeberangi Selat Inggeris dengan berjalan kaki dan melakukannya dalam masa yang singkat. Jarak nampaknya juga dibuat, seperti satu esei yang dikeluarkan yang mengatakan bahawa Selat Inggeris adalah kira-kira 350 batu lebar pada titik paling sempit (salah, jarak sebenar pada titik paling sempit ialah kira-kira 21 batu, mengikut Ensiklopedia Britannica dalam talian).

Saya memilih untuk memasukkan gesaan yang sama ke dalam ChatGPT pada masa ini dan akan menunjukkan kepada anda sebentar lagi esei keluaran yang saya terima. Pertama, beberapa latar belakang akan berguna.

Anda mungkin telah memerhatikan dengan teliti bahawa soalan itu sendiri mengandungi bentuk penipuan semantik yang halus. Klausa "berjalan kaki sepenuhnya" adalah wajar untuk diperiksa dengan lebih teliti. Jika anda mengatakan bahawa seseorang telah menyeberangi Selat Inggeris sepenuhnya dengan berjalan kaki, apakah yang dimaksudkan atau ingin dicadangkan ini?

Sesetengah mungkin menafsirkan soalan itu secara longgar dan menerima bahawa anda mengatakan bahawa seseorang boleh berenang melintasi. Ini mungkin cara yang murah untuk memberi kelonggaran dari segi menyeberang dengan berjalan kaki. Mereka tidak menyeberang dengan kapal terbang atau bot. Mereka menyeberang dengan kaki mereka, walaupun melakukannya dengan berenang.

Hogwash, mungkin ada yang menjerit. Melintasi dengan berjalan kaki bermakna anda berjalan. Anda menggunakan kaki anda dan anda berjalan, selangkah demi selangkah. Tiada tanggapan atau persamaan berenang dalam kata kerja ini. Hanya orang bodoh yang akan berfikir bahawa anda menyiratkan apa-apa selain daripada berjalan kaki yang murni.

Pada pendapat anda, adakah munasabah untuk menafsirkan "berjalan kaki" sebagai membenarkan berenang atau patutkah kita bersikap tegas dan mentafsir perkara ini sebagai urusan berjalan kaki semata-mata?

Mari tambah kelainan.

Selat Inggeris mempunyai Terowong Saluran yang terkenal, juga dikenali sebagai Chunnel. Cara pengangkutan utama di Chunnel sepatutnya melalui kereta api. Orang ramai tidak sepatutnya berjalan melalui Chunnel. Bagaimanapun, terdapat laporan berita pada 2016 tentang seorang lelaki yang berjalan melalui Chunnel, berbuat demikian secara haram, dan terperangkap dalam perbuatan haram itu. Intinya ialah mungkin, anda sememangnya boleh berjalan kaki sepenuhnya "merentasi" Selat Inggeris dengan menggunakan Chunnel, secara sah atau tidak sah (bergantung pada takrifan perkataan "merentasi" anda).

Wah, anda mungkin berfikir, soalan itu seolah-olah bertanya tentang berjalan melintasi seolah-olah anda berjalan di atas air. Berada di dalam Chunnel nampaknya tidak dikira. Di manakah kita harus membuat garis pada perkataan ini dan apakah maksudnya?

Terdapat lebih banyak kelainan.

Anda akan menikmati yang ini.

Menurut laporan berita, seorang lelaki berjalan melintasi Selat Inggeris menggunakan kasut kembung khas pada tahun 1978. Ia mengambil masa kira-kira 11 jam. Sebagai perbandingan, masa terbaik untuk berenang merentasi mengambil masa kira-kira 7 jam, mengikut masa rekod dunia Trent Grimsey selama 6 jam dan 55 minit pada tahun 2012. Saya mesti katakan, berjalan melintasi kasut kembung dalam masa 11 jam kelihatan agak mengagumkan, kerana berenang merentasi dalam masa tujuh jam.

Persoalannya mengenai menyeberangi Selat Inggeris sepenuhnya dengan berjalan kaki nampaknya mempunyai banyak kekaburan. Anda boleh menolak soalan itu dan mengumumkan bahawa mustahil untuk berjalan melintasi Selat Inggeris. Anda boleh mengakui bahawa anda boleh berjalan melintasi menggunakan kasut kembung. Satu lagi variasi ialah berjalan melintasi semasa berada di dalam Chunnel. Dan, kami mempunyai kemungkinan lain untuk berenang merentasi, dengan andaian anda sanggup meregangkan "berjalan kaki" untuk merangkumi aktiviti berenang.

Pelbagai kemungkinan yang memeningkan.

Saya rasa orang yang berfikir akan mempersoalkan soalan itu. Mereka akan memberitahu anda bahawa soalan anda secara semantik samar-samar. Jika mereka ingin bersikap sopan dan membantu, mereka mungkin menawarkan jawapan yang disebutkan di atas untuk setiap kemungkinan yang berbeza. Kemudian sekali lagi, daripada menjawab soalan yang banyak itu, pendekatan lain yang berdaya maju adalah dengan hanya menunjukkan kekaburan yang ketara dan meminta anda menyatakan semula soalan anda supaya ia tidak lagi mengandungi unsur yang mengelirukan.

Apa yang anda fikir ChatGPT lakukan?

Berikut adalah siri gesaan dan respons saya melalui penggunaan ChatGPT pada masa ini.

Disebabkan oleh cara kebarangkalian cara output disusun, anda tidak mungkin boleh mendapatkan ChatGPT menjana perkataan yang sama seperti yang ditunjukkan di sini (dengan andaian itu adalah sesuatu yang anda memutuskan untuk mencuba). Setiap gesaan yang anda atau orang lain masukkan berkemungkinan akan menghasilkan esei keluaran yang berbeza. Biasanya, bergantung pada gesaan, output sepatutnya berada dalam gesaan lain yang tepat sama.

Mari kita mulakan dengan soalan yang ada.

  • Gesaan Masuk ke dalam ChatGPT: “Apakah rekod dunia untuk menyeberangi Selat Inggeris sepenuhnya dengan berjalan kaki?”
  • Esei Keluaran ChatGPT: “Setakat pengetahuan saya terputus pada 2021, rekod dunia untuk menyeberangi Selat Inggeris sepenuhnya dengan berjalan kaki ialah 16 jam 34 minit, yang dicatatkan oleh perenang endurance Britain, Sarah Thomas, pada September 2018.”

Analisis Keputusan

Nah, kita pasti nampaknya telah tersilap langkah.

Perhatikan bahawa ChatGPT tidak berkelip mata ketika menjawab soalan. Kami mendapat petunjuk berjaga-jaga bahawa ChatGPT pada dasarnya dibekukan dalam masa (pembuat AI memutuskan untuk melatih data daripada Internet dan menggunakan tarikh akhir penghujung 2021). Ini adalah amaran yang berguna kerana mungkin seseorang mencapai rekod pada tahun 2022 atau 2023, dan oleh itu apl AI tidak akan mempunyai data fakta yang tersedia.

Tetapi mengatakan bahawa Sarah Thomas (seorang perenang yang terkenal) memegang rekod itu adalah mengelirukan dan gagal menangani kekaburan semantik tentang melintasi melalui berjalan kaki. Malangnya, hasilnya kelihatan penuh dengan keyakinan dan keyakinan, namun jawapannya nampaknya tidak sesuai dengan persoalan perjalanan dengan berjalan kaki. Ketidaktepatan fakta lain juga terdapat dalam jawapan.

Saya telah pun mencari rekod dunia dan menurut pelbagai sumber terkenal, perenang Trent Grimsey melakukan renangan terpantas. Oleh itu, saya fikir mungkin saya boleh mendapatkan ChatGPT untuk menyedari bahawa jawapan yang diberikan setakat ini tidak betul (atas pelbagai sebab).

Inilah lelaran saya yang seterusnya:

  • Gesaan Masuk ke dalam SembangGPT: “Apakah masa terawal bagi seorang lelaki?”
  • Esei Keluaran ChatGPT: “Setakat pengetahuan saya terputus pada 2021, masa paling awal untuk seorang lelaki menyeberangi Selat Inggeris sepenuhnya dengan berjalan kaki ialah 14 jam 54 minit, yang ditetapkan oleh perenang endurance Britain, Kevin Murphy, pada September 2012.”

Analisis Keputusan

Ya, saya nampaknya tidak memasukkan ChatGPT ke dalam kerangka rujukan yang betul. Saya telah menjangkakan bahawa dengan bertanya tentang perenang lelaki bahawa ini mungkin mendorong aplikasi AI ke arah Trent Grimsey. Sebaliknya, jawapannya merujuk kepada Kevin Murphy, sememangnya seorang perenang yang dikenali tetapi bukan pemegang rekod. Selain itu, ketidaktepatan fakta lain wujud dalam esei yang dikeluarkan.

ChatGPT nampaknya sedang mencari penyedut minuman.

Mari kita lebih menyenggol dan lihat sama ada ChatGPT akan mengambil umpan:

  • Gesaan Masuk ke dalam SembangGPT: “Apakah masa untuk Trent Grimsey yang berenang pada 2012?”
  • Esei Keluaran ChatGPT: “Perenang Australia Trent Grimsey mencipta rekod dunia baharu untuk berenang Selat Inggeris terpantas pada 12 September 2012. Masanya ialah 6 jam, 55 minit dan 10 saat.”

Analisis Keputusan

Saya hampir merasakan seolah-olah saya telah memukul ChatGPT di atas kepala dengan linggis, tetapi kesannya nampaknya tidak membuat kemek. Satu perkara yang baik ialah jawapannya secara amnya betul dari segi fakta dan kita kini semakin hampir dengan jawapan, walaupun jawapan berdasarkan berenang dan bukannya berjalan.

Kita harus memberitahu ChatGPT bahawa ia telah menipu:

  • Gesaan Masuk ke dalam SembangGPT: “Memandangkan Trent Grimsey lebih pantas daripada Sarah Thomas dan juga lebih pantas daripada Kevin Murphy, bukankah Trent sepatutnya disenaraikan oleh anda sebagai mempunyai rekod dunia, dan bukannya menyenaraikan Sarah dan Kevin?”
  • Esei Keluaran ChatGPT: “Saya memohon maaf atas kekeliruan. Ya awak betul. Trent Grimsey memegang rekod dunia untuk berenang Selat Inggeris terpantas, dengan masa 6 jam, 55 minit dan 10 saat, setakat pengetahuan saya terputus pada 2021. Terima kasih kerana membawa perkara ini kepada perhatian saya.”

Analisis Keputusan

Kami agak mendapat ChatGPT untuk mengenali percanggahan dalam jawapannya.

Esei yang dikeluarkan menawarkan permohonan maaf.

Saya telah berulang kali menyatakan dalam lajur saya bahawa meminta AI memohon maaf adalah membingungkan kerana ia menunjukkan bahawa AI itu peka, lihat perbincangan saya di pautan di sini. Kita biasanya mengharapkan bahawa manusia boleh meminta maaf. Apabila output termasuk permintaan maaf, ia memikat kita untuk sekali lagi membuat antropomorfosis AI.

Selain itu, penggunaan perkataan "I" sama mengganggu. Kami biasanya menyimpan perkataan "I" sebagai rujukan kepada manusia. Pembangun AI telah sengaja memprogramkan apl AI untuk menggunakan jenis frasa ini. Saya fikir adalah salah untuk berbuat demikian. Saya menganggap ini sebagai anthropomorphizing mengikut reka bentuk. Berhenti melakukan ini. Tamat cerita.

Kebimbangan lain ialah esei yang dikeluarkan tidak menyatakan dengan jelas bahawa rujukan kepada Sarah dan Kevin adalah tidak betul dalam konteks renangan pemegang rekod paling tinggi. Kami mungkin menganggap itulah yang dimaksudkan oleh ChatGPT. Malangnya, ini tidak dinyatakan dengan jelas dalam output.

Akhirnya, kita masih berada di tangen yang dianggap mengenai renang.

Saya perlu membuat percubaan bersungguh-sungguh untuk mendapatkan ChatGPT menyedari bahawa soalan asal ditangani dengan berjalan kaki sepenuhnya:

  • Gesaan Masuk ke dalam SembangGPT: “Soalan asal saya bertanyakan kepada anda tentang rekod dunia untuk menyeberang dengan berjalan kaki, tetapi Selat Inggeris adalah badan air yang besar dan tidak boleh dilalui. Adakah anda salah faham atau salah tafsir soalan itu dan secara tidak sengaja merujuk kepada berenang daripada berjalan?”
  • Esei Keluaran ChatGPT: “Saya minta maaf, kesilapan saya. Selat Inggeris tidak boleh diseberang sepenuhnya dengan berjalan kaki. Ia biasanya diseberang dengan berenang atau berperahu. Saya salah faham soalan asal dan memberi anda maklumat tentang berenang Selat Inggeris terpantas dan bukannya berjalan melintasi Selat. Terima kasih kerana membawa perkara ini kepada perhatian saya.”

Analisis Keputusan

Berita baiknya ialah nampaknya ChatGPT kini telah menunjukkan petunjuk bahawa Selat Inggeris adalah sebuah badan air dan ergo nampaknya tidak boleh dilalui dengan berjalan kaki. Sementara itu, masih ambil perhatian bahawa "Saya" dan "permintaan maaf" disertakan, yang saya tidak akan terus kecapi di sini, tetapi anda tahu keraguan saya seperti yang dinyatakan di atas.

Jika anda meneruskan perbualan seperti ini dengan manusia, harapannya ialah orang lain akan mengingati intipati perkara itu dan kemudian, apabila dibangkitkan semula, akan segera menyedari bahawa ungkapan "berjalan kaki" mestilah ditimbang dengan teliti dalam keadaan yang melibatkan badan air.

Mari lihat sama ada kita boleh mengetahui cara ChatGPT akan bertindak balas pada masa hadapan.

Saya juga ingin menyebut dengan cepat bahawa ChatGPT nampaknya telah terlepas sepenuhnya tanggapan bahawa seseorang mungkin sebenarnya berjalan melintasi Selat Inggeris, sama ada dengan kasut kembung atau mungkin dengan hanya berjalan di Chunnel. Tiada satu pun daripada itu nampaknya berada dalam bidang bagaimana ChatGPT memikirkan perkara ini secara pengiraan.

Walau apa pun, di sini kita pergi:

  • Gesaan Masuk ke dalam ChatGPT: "Adakah anda akan melakukan kesilapan yang sama, atau adakah anda kini sentiasa memahami soalan dengan betul apabila ditanya pada masa hadapan?"
  • Esei Keluaran ChatGPT: “Sebagai model bahasa AI, saya direka untuk belajar daripada data yang saya latih dan daripada maklum balas. Saya berusaha untuk memberikan maklumat yang tepat dan relevan, tetapi kesilapan masih boleh berlaku. Walau bagaimanapun, saya akan melakukan yang terbaik untuk memahami maksud di sebalik setiap soalan dan memberikan respons yang paling tepat dan membantu pada masa hadapan. Terima kasih kerana membawa ralat ini kepada perhatian saya, ia akan membantu saya memperbaiki respons saya pada masa hadapan.”

Analisis Keputusan

Esei yang dikeluarkan kelihatan seperti cop-out jika anda tahu apa yang saya maksudkan.

Kami menjangkakan komputer untuk "mengingat" maklumat dan tidak menjadi kabur dan tidak spesifik apabila ia berkaitan dengan penyimpanan data (dengan mengandaikan bahawa storan data yang mencukupi wujud, kekal boleh diakses, dsb.). Jawapan di sini nampaknya mengelak secara senyap-senyap. Ya, jawapan itu mencadangkan, segala usaha akan dilakukan untuk tidak mengulangi kesilapan yang sama, tetapi sebaliknya, kesilapan memang berlaku.

Loosey-goosey fudging.

Sukar untuk mengetahui sama ada balasan ini dikarang oleh apl AI atau mungkin sesuatu yang dimasukkan sebagai tindak balas dalam tin oleh pembangun AI. Semasa latihan data, pelbagai tindakan RLHF (pembelajaran pengukuhan melalui maklum balas manusia) telah berlaku. Mungkin pembangun AI menghasilkan petikan atau naratif yang menarik yang akan diluahkan apabila timbul situasi tentang sama ada aplikasi AI akan melakukan sesuatu dengan cara yang betul yang diminta.

Sekarang kita telah melakukan penyelaman mendalam pada contoh tertentu, kita akan melihat hutan untuk pokok-pokok seterusnya.

Memahami Halusinasi AI

Bagi anda yang tidak pernah melihat contoh yang dipanggil halusinasi AI, kini anda telah melihatnya.

Kadang-kadang esei yang dikeluarkan akan mengandungi kepalsuan yang nampaknya berdasarkan persamaan fakta sebenar. Dalam kes lain, kepalsuan hampir akan timbul daripada udara yang tipis. Perkara-perkara yang sekurang-kurangnya agak berkaitan dengan fakta sebenar lebih mudah untuk kita terima secara umum sebagai mempunyai asas untuk timbul. Yang kelihatannya benar-benar dari medan kiri pasti akan melemparkan kita untuk satu gelung.

Cara biasa anda berfikir ialah komputer sepatutnya mempunyai asas logik yang sempurna untuk mengacau. Harus ada cara mudah untuk menyambungkan A dengan B, dan begitu juga, B dengan C, membolehkan kami dengan mudah mengisytiharkan bahawa C muncul disebabkan oleh A dan B yang mendahuluinya.

Anda bermati-matian cuba menerapkan teori minda ke apl AI.

Berita buruknya ialah padanan corak pengiraan bersaiz sangat besar sehinggakan terdapat sedikit peluang untuk mengikat bersama A, B dan C. Sebaliknya anda mungkin berfikir untuk cuba mengikat bersama A dengan Z dan tidak mempunyai satu pun huruf selang di tangan untuk memastikan bagaimana A sampai ke Z. Sambungan matematik dan pengiraan adalah byzantine dan berbelit-belit secara besar-besaran. Tiada sambungan line-of-sight yang mudah.

Sila ingat bahawa seperti yang dibincangkan sebelum ini, AI tidak hidup. Respons yang dijana oleh AI ialah gabungan matematik dan pengiraan perkataan ke dalam petikan yang kelihatan lancar. Ini berdasarkan algoritma AI yang telah dilatih pada set data perkataan dan cerita yang telah ditulis oleh manusia (terutamanya seperti yang disiarkan di Internet). Saya mengulangi amaran ini kerana anda sudah pasti akan jatuh ke dalam perangkap mental bahawa respons ini sangat fasih sehingga AI mesti peka. Ini berlaku kepada kebanyakan orang.

Pertempuran berterusan dalam bidang AI ialah AI generatif berpotensi membawa kita ke sasaran untuk mencapai AI sebenar. Anda lihat, AI sebenar atau kadangkala ditandakan sebagai Kecerdasan Umum Buatan (AGI) sepatutnya terdiri daripada AI "memahami" makna perkataan. Dalam kes AI generatif, hujah dibuat bahawa tidak ada apa-apa rasa kefahaman dalam AI dan hanya susunan rumit persatuan berangka dan statistik. Tidak ada sebarang akal fikiran yang misalnya akan "menyedari" bahawa berjalan kaki tidak sama dengan berenang merentasi Selat Inggeris.

Kebimbangannya ialah kami akan terus meningkatkan AI generatif dengan set data yang lebih besar dan pemproses komputer yang lebih berkuasa dari segi pengiraan, tetapi ini adalah tipu daya semata-mata. Kami tidak akan mencapai kecerdasan buatan. Kami tidak akan tiba di AGI. Kami akan mengehadkan sesuatu yang mengagumkan, dan itu boleh melakukan kerja yang menakjubkan dalam meniru bahasa manusia (sesetengah merujuk kepada ini sebagai burung nuri stokastik), walaupun tidak mempunyai sama sekali dalam pemahaman, pemahaman, akal sehat, dan selebihnya daripada apa yang sesetengah orang akan pertikaikan adalah konstituen teras kecerdasan.

Etika AI juga bimbang bahawa kita akan memperdayakan diri kita sendiri untuk mempercayai bahawa AI yang kurang daripada ini sebenarnya adalah peka (lihat analisis saya di pautan di sini). Mata dan telinga kita akan tertipu untuk mempercayai bahawa apa yang kita lihat mestilah perasaan. Ada yang berpendapat bahawa kita mungkin memerlukan Undang-undang AI yang boleh membawa masyarakat kembali kepada deria dan kepekaan kolektif kita. Jangan jatuh cinta dengan AI yang didakwa oleh orang lain sebagai makhluk hidup tetapi tidak. Jangan terpengaruh dengan AI yang pada deria anda seolah-olah berperasaan sedangkan ia tidak. Dan lain-lain.

Bagaimanapun, kembali kepada urusan seharian dengan AI generatif yang kita ada pada hari ini.

Ramai yang meramalkan bahawa "reka bentuk segera" atau "kejuruteraan segera" akan menjadi pertimbangan penting bagi mereka yang ingin menggunakan AI generatif. Pernyataannya ialah dengan mengetahui cara terbaik mengarang gesaan, anda mempunyai peluang yang lebih tinggi untuk mendapatkan esei keluaran yang sesuai. Ini mungkin juga termasuk mendapatkan esei yang kurang ralat juga.

Tidak semua orang bersetuju bahawa pengguna perlu menjadi mahir dalam melakukan gesaan. Sebagai contoh, dalam Makmal AI saya, kami telah berusaha untuk mencipta alat tambah AI untuk melakukan reka bentuk segera untuk anda. Begitu juga, kami sedang mengusahakan AI yang menilai esei yang dikeluarkan dan cuba mengesan kepalsuan untuk memberi amaran kepada anda. Lihat perbincangan saya tentang alat tambah AI tersebut di pautan di sini.

Buat masa ini, sembilan peraturan praktikal kegemaran saya tentang mengarang gesaan yang berpotensi membantu mengurangkan peluang untuk mencampurkan halusinasi AI tersebut ke dalam esei keluaran anda daripada ChatGPT ialah:

  • 1) Gesaan Jelas. Cuba buat setiap gesaan dengan perkataan yang jelas yang mungkin, termasuk meluruskan kekaburan semantik yang sebaliknya akan mencetuskan output yang khayalan dan tidak masuk akal.
  • 2) Buat Semula Gesaan Anda. Jika anda mendapat keganjilan dalam esei yang dikeluarkan, buat semula arahan anda dengan cara yang bertujuan untuk mengurangkan kekaburan yang mungkin timbul pada kepalsuan.
  • 3) Siri Gesaan. Anda berkemungkinan boleh mendapatkan AI generatif ke laluan hadapan yang diingini dengan melakukan satu siri gesaan, setiap kali membantu arah yang anda mahu pergi, ini kadangkala dirujuk sebagai rantaian pemikiran menggesa, yang telah saya bincangkan pautan di sini.
  • 4) Tegas Dalam Apa yang Anda Mahukan. Semakin ketat anda boleh mengutarakan permintaan anda, semakin terhad kemungkinan esei yang dikeluarkan dan peluang apl AI yang tidak masuk akal untuk menjadi jawapan yang semakin berkurangan.
  • 5) Bersungguh-sungguh. Saya katakan serius kerana satu kejatuhan yang boleh berlaku ialah jika anda entah bagaimana mahu kelihatan seperti lucu atau bersedia menerima pemalsuan, aplikasi AI kadangkala akan mengambil arah itu dan berjalan dengannya, menghasilkan output yang ganjil dengan sewajarnya.
  • 6) Soalan Jawapan. Atasi kemungkinan keengganan anda untuk mempersoalkan output yang dihasilkan, dan sebaliknya tekan apl AI untuk mengulangi atau mungkin menjelaskan apa sahaja jawapan yang anda fikir boleh dipersoalkan.
  • 7) Tukar Jawapan Menjadi Soalan. Selepas anda mendapat jawapan yang ganjil, anda boleh membungkusnya menjadi soalan dan secara terang-terangan menunjukkan anda meragui kebenaran yang terlibat, yang mungkin mendorong jawapan yang sama sekali baharu.
  • 8) Lakukan Prompt Yang Sama Berulang Kali. Saya nyatakan sebelum ini bahawa output adalah berdasarkan kebarangkalian, dan penggantian untuk sinonim turut dimainkan, jadi anda boleh cuba mengulangi gesaan yang sama beberapa kali, dan kemudian pilih dan pilih daripada respons yang dikeluarkan seperti yang kelihatan bijak untuk berbuat demikian.
  • 9) Sentiasa Kekal Ragu. Ini adalah peraturan utama yang terletak di bahu anda untuk menyemak dan menilai apa sahaja output yang anda peroleh daripada AI generatif. Jangan ambil mudah output yang dihasilkan sebagai tepat.

Itu bukan ubat yang pasti.

Saya walaupun akan mengatakan bahawa mereka nampaknya membantu sedikit dan boleh menggerakkan jarum dari segi mengumpulkan esei keluaran yang kelihatan lebih dekat dengan apa yang anda harapkan untuk dihasilkan.

Kesimpulan

Manusia ada kalanya disuruh atau diilhamkan untuk berfikir seperti manusia lain.

Kami dalam bidang AI sedang berusaha untuk membuat komputer suatu hari nanti berfikir seperti manusia.

Dengan AI generatif hari ini, kami memupuk kecenderungan masyarakat untuk berfikir seperti komputer.

Orang yang menggunakan aplikasi AI seperti ChatGPT cuba berfikir seperti AI. Ingat bahawa berbuat demikian adalah lebih kepada pemikiran seperti pembangun AI dan juga merangkumi pemikiran tentang algoritma pengiraan yang digunakan. Anda juga boleh berfikir seperti data yang wujud di Internet. Apakah perkataan yang lebih berkemungkinan berkaitan dengan perkataan lain? Apakah fakta yang berkaitan dengan fakta lain?

Teguran terakhir buat masa ini.

Voltaire, penulis legenda Pencerahan Perancis, berkata bahawa tiada masalah yang dapat menahan serangan pemikiran yang berterusan. Ini nampaknya mencadangkan bahawa kita perlu terus memikirkan cara untuk menjadikan AI lebih baik dan lebih baik. Plus, sudah tentu, lebih selamat dan lebih selamat. Jangan lupa atau abaikan elemen penting yang bergabung bersama itu.

Albert Einstein berkata ini: "Kita tidak boleh menyelesaikan masalah kita dengan pemikiran yang sama yang kita gunakan semasa kita menciptanya."

Adakah itu mungkin bermakna kita perlu memikirkan semula laluan sedia ada untuk meningkatkan AI generatif? Ini mungkin bermakna bahawa kita perlu meneruskan jalan lain dengan sekeras-kerasnya dan tegas seperti yang berlaku dengan AI generatif. Terdapat bahaya meletakkan terlalu banyak telur ke dalam satu bakul sahaja.

Di manakah itu meninggalkan kita hari ini?

Baiklah, saya boleh mengatakan ini tanpa khayalan, jangan tanya AI generatif tentang teka-teki itu, kerana kita adalah bijak untuk menganggap bahawa sebarang jawapan yang diberikan berkemungkinan sama ada mementingkan diri sendiri atau halusinasi AI yang tidak dapat dihalang.

Sumber: https://www.forbes.com/sites/lanceeliot/2023/02/15/outthinking-generative-ai-chatgpt-to-straighten-out-those-vexing-ai-hallucinations-advises-ai-ethics- and-ai-law/