Microsoft Meningkatkan Keselamatan AI Chatbot untuk Menghalang Penipu

Microsoft Corp telah menambah beberapa ciri keselamatan dalam Azure AI Studio yang seharusnya, dari semasa ke semasa, terus mengurangkan kemungkinan penggunanya mengkonfigurasi model AI ke dalam mod yang membolehkan mereka bertindak secara tidak normal atau tidak wajar. Syarikat teknologi multinasional yang berpangkalan di Redmond, Washington, menggariskan penambahbaikan dalam catatan blog, menekankan menjamin integriti interaksi AI dan memupuk kepercayaan dalam pangkalan pengguna.

Perisai segera dan banyak lagi 

Antara perkembangan utama ialah penciptaan "perisai segera," teknologi yang direka untuk mencari dan membunuh suntikan segera semasa berbual dengan chatbot AI. Ini adalah apa yang dipanggil jailbreak dan pada asasnya adalah input daripada pengguna yang sengaja dibentuk sedemikian rupa sehingga mereka menimbulkan tindak balas yang tidak diingini daripada model AI.

Sebagai contoh, Microsoft memainkan peranannya secara tidak langsung dengan suntikan segera, di mana pelaksanaan perintah jahat adalah mungkin, dan senario seperti itu boleh membawa kepada akibat keselamatan yang teruk seperti kecurian data dan rampasan sistem. Mekanisme ini adalah kunci untuk mengesan dan bertindak balas terhadap ancaman satu-satunya ini dalam masa nyata, menurut Sarah Bird, Ketua Pegawai Produk Microsoft untuk AI Bertanggungjawab.

Microsoft menambah bahawa tidak lama lagi akan ada makluman pada skrin pengguna, yang akan menunjukkan apabila model mungkin menyatakan maklumat palsu atau mengelirukan, memastikan lebih mesra pengguna dan kepercayaan.

Membina Kepercayaan dalam Alat AI 

Usaha Microsoft adalah sebahagian daripada inisiatif yang lebih besar, bertujuan untuk memberi keyakinan kepada orang ramai terhadap AI generatif yang semakin popular yang digunakan secara meluas dalam perkhidmatan yang menyasarkan pengguna individu dan pelanggan korporat. Microsoft melalui sikat gigi halus, selepas mengalami kejadian, di mana pengguna mempunyai keupayaan untuk memainkan bot sembang Copilot untuk menghasilkan output yang pelik atau berbahaya. Ini akan menyokong keputusan yang menunjukkan keperluan untuk pertahanan yang kuat terhadap taktik manipulatif yang disebutkan, yang mungkin meningkat dengan teknologi AI dan pengetahuan popular. Meramal dan kemudian mengurangkan adalah sebagai pengiktirafan corak serangan, seperti di mana penyerang mengulangi soalan atau menggesa semasa bermain peranan.

Sebagai pelabur terbesar dan rakan kongsi strategik OpenAI, Microsoft sedang menolak sempadan cara menggabungkan dan mencipta teknologi AI generatif yang bertanggungjawab dan selamat. Kedua-duanya komited kepada penggunaan bertanggungjawab dan model asas Generative AI untuk langkah keselamatan. Tetapi Bird mengakui bahawa model bahasa yang besar ini, walaupun ia akan dilihat sebagai asas untuk kebanyakan inovasi AI masa depan, bukan kalis manipulasi.

Membina asas ini akan mengambil lebih daripada sekadar bergantung pada model itu sendiri; ia memerlukan pendekatan menyeluruh terhadap keselamatan dan keselamatan AI.

Microsoft baru-baru ini mengumumkan pengukuhan langkah keselamatan untuk Azure AI Studionya untuk menunjukkan dan menjamin langkah proaktif yang sedang diambil untuk melindungi landskap ancaman AI yang berubah.

Ia berusaha untuk mengelakkan penyalahgunaan AI dan memelihara integriti dan kebolehpercayaan interaksi AI dengan memasukkan skrin dan makluman yang tepat pada masanya.

Dengan evolusi berterusan teknologi AI dan penggunaannya dalam banyak kemasukan dalam kehidupan seharian, sudah tiba masanya untuk Microsoft dan seluruh komuniti AI mengekalkan pendirian keselamatan yang sangat berhati-hati.

Sumber: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/