Begini cara OpenAI merancang untuk membersihkan ChatGPT daripada maklumat palsu

OpenAI mengumumkan pada 31 Mei, usahanya untuk meningkatkan keupayaan penyelesaian masalah matematik ChatGPT, bertujuan untuk mengurangkan kejadian halusinasi kecerdasan buatan (AI). OpenAI menekankan mengurangkan halusinasi sebagai langkah penting ke arah membangunkan AGI yang sejajar.

Pada bulan Mac, pengenalan versi terkini ChatGPT, GPT-4, mendorong lagi kecerdasan buatan ke dalam arus perdana. Walau bagaimanapun, chatbot AI generatif telah lama bergelut dengan ketepatan fakta, kadangkala menghasilkan maklumat palsu, yang biasanya dirujuk sebagai "halusinasi." Usaha untuk mengurangkan halusinasi AI ini diumumkan melalui catatan di laman web mereka.

Halusinasi AI merujuk kepada keadaan di mana sistem kecerdasan buatan menjana output yang sebenarnya tidak betul, mengelirukan atau tidak disokong oleh data dunia sebenar. Halusinasi ini boleh nyata dalam pelbagai bentuk, seperti menghasilkan maklumat palsu, mencipta peristiwa atau orang yang tidak wujud atau memberikan butiran yang tidak tepat tentang topik tertentu.

OpenAI menjalankan penyelidikan untuk mengkaji keberkesanan dua jenis maklum balas– "penyeliaan hasil" dan "penyeliaan proses." Penyeliaan hasil melibatkan maklum balas berdasarkan hasil akhir, manakala penyeliaan proses menyediakan input untuk setiap langkah dalam rantaian pemikiran. OpenAI menilai model ini menggunakan masalah matematik, menjana berbilang penyelesaian dan memilih penyelesaian kedudukan tertinggi mengikut setiap model maklum balas.

Selepas analisis menyeluruh, pasukan penyelidik mendapati bahawa penyeliaan proses menghasilkan prestasi yang unggul kerana ia menggalakkan model untuk mematuhi proses yang diluluskan oleh manusia. Sebaliknya, penyeliaan hasil terbukti lebih mencabar untuk diteliti secara konsisten.

OpenAI menyedari bahawa implikasi penyeliaan proses melangkaui matematik, dan siasatan lanjut diperlukan untuk memahami kesannya dalam domain yang berbeza. Ia menyatakan kemungkinan bahawa jika hasil yang diperhatikan berlaku dalam konteks yang lebih luas, penyeliaan proses boleh menawarkan gabungan prestasi dan penjajaran yang menggalakkan berbanding dengan penyeliaan hasil. Untuk memudahkan penyelidikan, syarikat mengeluarkan set data lengkap penyeliaan proses secara terbuka, menjemput penerokaan dan kajian dalam bidang ini.

Berkaitan: Permintaan AI melonjakkan Nvidia secara ringkas ke dalam kelab $1T

Walaupun OpenAI tidak memberikan contoh eksplisit yang mendorong penyiasatan mereka terhadap halusinasi, dua kejadian baru-baru ini menunjukkan masalah dalam senario kehidupan sebenar.

Dalam insiden baru-baru ini, peguam Steven A. Schwartz dalam kes Mata lwn Avianca Airlines mengakui bergantung pada chatbot sebagai sumber penyelidikan. Bagaimanapun, maklumat yang diberikan oleh ChatGPT ternyata adalah rekaan sepenuhnya, menonjolkan isu yang sedang dihadapi.

ChatGPT OpenAI bukanlah satu-satunya contoh sistem kecerdasan buatan yang menghadapi halusinasi. AI Microsoft, semasa demonstrasi teknologi chatbotnya pada bulan Mac, meneliti laporan pendapatan dan menjana angka yang tidak tepat untuk syarikat seperti Gap dan Lululemon.

Majalah: 25K peniaga bertaruh pada pilihan saham ChatGPT, AI menyusahkan balingan dadu dan banyak lagi

Sumber: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information