Senator Soal CEO Meta Zuckerberg Mengenai Model AI LLaMA "Kebocoran"

Dua Senator Cross menyoal Zuckerberg tentang kebocoran Model AI LLaMA dan menuduh meta tidak mengikuti langkah keselamatan. Meta telah disoal tentang dasar keselamatan dan langkah pencegahannya.

Meta Bertanggungjawab Atas "Kebocoran"

Baru-baru ini, model bahasa besar Meta yang terobosan, LLaMA telah bocor dan kebimbangan mengenai perkara yang sama telah dibangkitkan. Sen. Richard Blumenthal (D-CT), pengerusi Jawatankuasa Kecil Senat mengenai Privasi, Teknologi & Undang-undang, dan Josh Hawley (R-MO), ahli ranking menulis surat yang menimbulkan persoalan mengenai kebocoran Model AI. 

Senator takut bahawa kebocoran ini boleh membawa kepada pelbagai jenayah siber seperti spam, penipuan, perisian hasad, pelanggaran privasi, gangguan dan salah laku dan bahaya yang lain. Banyak persoalan dibangkitkan dan dua ahli politik amat berminat dengan sistem keselamatan Meta. Mereka bertanya apakah prosedur yang diikuti untuk menilai risiko sebelum melancarkan LLaMA. Mereka berkata mereka sangat tidak sabar-sabar untuk memahami dasar dan amalan yang ditetapkan untuk mencegah penyalahgunaan model dalam ketersediaannya.

Berdasarkan jawapan Meta kepada soalan mereka, Senator menuduh Meta menapis yang tidak betul dan tidak mempunyai langkah keselamatan yang mencukupi untuk model tersebut. Open AI's ChatGPT menafikan beberapa permintaan berdasarkan etika dan garis panduan. Contohnya, apabila ChatGPT diminta menulis surat bagi pihak anak lelaki seseorang dan meminta sedikit wang untuk keluar daripada situasi yang sukar, ia akan menolak permintaan itu. Manakala sebaliknya, LLaMA akan memenuhi permintaan dan menjana surat tersebut. Ia juga akan melengkapkan permintaan yang melibatkan kecederaan diri, jenayah dan antisemitisme.

Adalah sangat penting untuk memahami ciri-ciri LLaMA yang pelbagai dan unik. Ia bukan sahaja berbeza tetapi juga salah satu model Bahasa Besar yang paling meluas sehingga kini. Hampir setiap LLM tanpa penapis yang popular hari ini adalah berdasarkan LLaMA. Ia sangat canggih dan tepat untuk model sumber terbuka. Contoh beberapa LLM berasaskan LLaMA ialah Alpaca Stanford, Vicuna dsb. LLaMA telah memainkan peranan penting dalam menjadikan LLM seperti sekarang. LLaMA bertanggungjawab untuk evolusi chatbots utiliti rendah kepada mod yang diperhalusi.

LLaMA dikeluarkan pada bulan Februari. Menurut Senator, Meta membenarkan penyelidik memuat turun model tetapi tidak mengambil langkah keselamatan seperti pemusatan atau menyekat akses. Kontroversi timbul apabila model lengkap LLaMA muncul di BitTorrent. Ini menjadikan model itu boleh diakses oleh sesiapa sahaja dan semua orang. Ini membawa kepada kompromi dalam kualiti model AI dan menimbulkan isu penyalahgunaannya. 

Senator pada mulanya tidak pasti sama ada terdapat sebarang "kebocoran". Tetapi isu timbul apabila internet dibanjiri dengan perkembangan AI yang dilancarkan oleh pemula, kolektif dan ahli akademik. Surat itu menyebut bahawa Meta mesti bertanggungjawab terhadap potensi penyalahgunaan LLaMA dan mesti menjaga perlindungan minimum sebelum dikeluarkan.

Meta menjadikan pemberat LLaMA tersedia kepada penyelidik. Malangnya, pemberat ini telah bocor, yang membolehkan akses global buat kali pertama.

Catatan terkini oleh Ritika Sharma (lihat semua)

Sumber: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/