FBI Memberi Amaran tentang Penipuan Pemerasan Palsu AI

Keupayaan AI generatif untuk mencipta imej seperti hidup adalah mengagumkan, tetapi Biro Siasatan Persekutuan AS mengatakan bahawa penjenayah menggunakan palsu untuk menyasarkan mangsa untuk pemerasan.

“FBI terus menerima laporan daripada mangsa, termasuk kanak-kanak di bawah umur dan orang dewasa yang tidak bersetuju, yang gambar atau video mereka diubah menjadi kandungan eksplisit,” kata agensi itu dalam amaran PSA pada hari Isnin.

FBI berkata agensi penguatkuasaan undang-undang menerima lebih 7,000 laporan tahun lalu mengenai pemerasan dalam talian yang menyasarkan kanak-kanak bawah umur, dengan peningkatan jumlah mangsa yang dipanggil "penipuan sekstortion" menggunakan pemalsuan palsu sejak April.

Deepfake ialah jenis kandungan video atau audio yang semakin biasa dibuat dengan kecerdasan buatan yang menggambarkan peristiwa palsu yang semakin sukar untuk dibezakan sebagai palsu, terima kasih kepada platform AI generatif seperti Midjourney 5.1 dan DALL-E 2 OpenAI.

Pada bulan Mei, penipuan mendalam CEO Tesla dan Twitter Elon Musk yang dibuat untuk menipu pelabur crypto telah menjadi tular. Video yang dikongsi di media sosial itu mengandungi rakaman Musk daripada temu bual sebelumnya, disunting agar sesuai dengan penipuan itu.

Deepfakes tidak semuanya berniat jahat, deepfakes Pope Francis yang memakai jaket Balenciaga putih menjadi tular awal tahun ini, dan baru-baru ini, deepfakes yang dijana AI juga telah digunakan untuk menghidupkan semula mangsa pembunuhan.

Dalam cadangannya, FBI memberi amaran supaya tidak membayar sebarang wang tebusan kerana berbuat demikian tidak menjamin penjenayah tidak akan menyiarkan deepfake.

FBI juga menasihatkan supaya berhati-hati apabila berkongsi maklumat peribadi dan kandungan dalam talian, termasuk menggunakan ciri privasi seperti menjadikan akaun peribadi, memantau aktiviti dalam talian kanak-kanak dan memerhatikan tingkah laku luar biasa daripada orang yang pernah berinteraksi dengan anda pada masa lalu. Agensi itu juga mengesyorkan menjalankan carian kerap untuk maklumat peribadi dan ahli keluarga dalam talian.

Agensi lain yang membunyikan penggera termasuk Suruhanjaya Perdagangan Persekutuan AS, yang memberi amaran bahawa penjenayah telah menggunakan deepfakes untuk memperdaya mangsa yang tidak curiga supaya menghantar wang selepas mencipta audio deepfake rakan atau ahli keluarga yang mengatakan mereka telah diculik.

“Kecerdasan buatan bukan lagi idea yang dibuat-buat daripada filem sci-fi. Kami hidup dengannya, di sini dan sekarang. Seorang penipu boleh menggunakan AI untuk mengklonkan suara orang yang anda sayangi,” kata FTC dalam makluman pengguna pada bulan Mac, sambil menambah bahawa semua keperluan jenayah adalah klip audio pendek suara ahli keluarga untuk menjadikan rakaman itu berbunyi nyata.

FBI masih belum menjawab Dekripsi minta komen.

Ikuti perkembangan berita crypto, dapatkan kemas kini harian dalam peti masuk anda.

Sumber: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams