Bahaya Kecerdasan Buatan Yang Tiada Siapa Bicarakan

Manakala SembangGPT mungkin kelihatan seperti alat percuma yang tidak berbahaya dan berguna, teknologi ini berpotensi untuk membentuk semula ekonomi dan masyarakat kita seperti yang kita ketahui secara drastik. Itu membawa kita kepada masalah yang membimbangkan - dan kita mungkin tidak bersedia untuk menghadapinya. 

ChatGPT, sebuah bot sembang yang dikuasakan oleh kecerdasan buatan (AI), menggemparkan dunia menjelang akhir tahun 2022. Bot sembang berjanji untuk mengganggu carian seperti yang kita ketahui. Alat percuma menyediakan jawapan yang berguna berdasarkan gesaan yang diberikan oleh pengguna kepadanya. 

Dan apa yang membuatkan internet menjadi gila tentang sistem chatbot AI ialah ia bukan sahaja memberikan jawapan seperti alat enjin carian. ChatGPT boleh mencipta rangka filem, menulis keseluruhan kod dan menyelesaikan masalah pengekodan, menulis keseluruhan buku, lagu, puisi, skrip – atau apa sahaja yang anda boleh fikirkan – dalam beberapa minit. 

Teknologi ini mengagumkan, dan ia melintasi lebih satu juta pengguna dalam masa lima hari sahaja selepas pelancarannya. Walaupun prestasinya yang mengagumkan, alat OpenAI telah menimbulkan kebimbangan dalam kalangan ahli akademik dan pakar dari kawasan lain. Dr. Bret Weinstein, pengarang dan bekas profesor biologi evolusi, berkata, "Kami belum bersedia untuk ChatGPT." 

Elon Musk, merupakan sebahagian daripada peringkat awal OpenAI dan salah seorang pengasas bersama syarikat. Tetapi kemudiannya berundur dari lembaga. Dia bercakap banyak kali tentang bahaya teknologi AI - dia berkata bahawa penggunaan dan pembangunan tanpa had menimbulkan risiko besar kepada kewujudan manusia. 

Bagaimana ia Berfungsi?

SembangGPT ialah sistem chatbot kecerdasan buatan terlatih bahasa besar yang dikeluarkan pada November 2022 oleh OpenAI. Syarikat keuntungan dihadkan membangunkan ChatGPT untuk penggunaan AI yang "selamat dan bermanfaat" yang boleh menjawab hampir semua perkara yang anda fikirkan - daripada lagu rap, gesaan seni hingga skrip filem dan esei. 

Walaupun ia kelihatan seperti entiti kreatif yang tahu apa yang dikatakan, ia tidak. Chatbot AI mencari maklumat di internet menggunakan model ramalan daripada pusat data yang besar. Sama seperti yang dilakukan oleh Google dan kebanyakan enjin carian. Kemudian, ia dilatih dan terdedah kepada banyak data yang membolehkan AI menjadi sangat baik dalam meramalkan urutan perkataan sehingga ke tahap yang boleh menyusun penjelasan yang sangat panjang. 

Sebagai contoh, anda boleh bertanya soalan ensiklopedia seperti, "Terangkan tiga undang-undang Einstein." Atau soalan yang lebih khusus dan mendalam seperti "Tulis esei 2,000 perkataan tentang persimpangan antara etika agama dan etika Khutbah di Bukit." Dan, saya tidak bergurau, teks anda akan ditulis dengan cemerlang dalam beberapa saat. 

Dengan cara yang sama, semuanya cemerlang dan mengagumkan; ia membimbangkan dan membimbangkan. Jenis dystopian masa depan "Ex Machina" adalah kemungkinan dengan penyalahgunaan AI. Bukan sahaja Ketua Pegawai Eksekutif Tesla dan SpaceX memberi amaran kepada kami, tetapi ramai pakar juga telah membunyikan penggera. 

Bahaya AI

Kecerdasan buatan sudah pasti telah memberi kesan kepada kehidupan kita, sistem ekonomi dan masyarakat. Jika anda berpendapat bahawa AI adalah sesuatu yang baharu atau anda hanya akan melihatnya dalam filem sci-fi futuristik, fikir dua kali. Banyak syarikat teknologi seperti Netflix, Uber, Amazon dan Tesla menggunakan AI untuk meningkatkan operasi mereka dan mengembangkan perniagaan mereka. 

Sebagai contoh, Netflix bergantung pada teknologi AI untuk algoritma mereka untuk mengesyorkan kandungan baharu untuk pengguna mereka. Uber menggunakannya dalam perkhidmatan pelanggan, untuk mengesan penipuan, untuk mengoptimumkan laluan pemacu, dan sebagainya, hanya untuk menamakan beberapa contoh. 

Walau bagaimanapun, anda hanya boleh pergi sejauh ini dengan teknologi yang begitu menonjol tanpa mengancam peranan manusia dalam banyak pekerjaan tradisional, menyentuh ambang apa yang datang dari mesin dan manusia. Dan, mungkin yang lebih penting, mengancam risiko AI kepada manusia. 

Cabaran Etika AI

Menurut Wikipedia, etika kecerdasan buatan “adalah cabang etika teknologi khusus untuk sistem pintar buatan. Ia kadangkala dibahagikan kepada kebimbangan dengan tingkah laku moral manusia semasa mereka mereka bentuk, membuat, menggunakan dan merawat sistem pintar buatan, dan kebimbangan dengan tingkah laku mesin dalam etika mesin.

Memandangkan teknologi AI merebak dengan pantas dan menjadi penting dalam kebanyakan kehidupan seharian kita, organisasi sedang membangunkan kod etika AI. Matlamatnya adalah untuk membimbing dan membangunkan amalan terbaik industri untuk membimbing pembangunan AI dengan "etika, keadilan dan industri."

Walau bagaimanapun, sehebat dan moral yang kelihatan di atas kertas, kebanyakan garis panduan dan rangka kerja ini sukar untuk digunakan. Di samping itu, ia seolah-olah menjadi prinsip terpencil yang terletak dalam industri yang umumnya tidak mempunyai moral etika dan kebanyakannya melayani agenda korporat. banyak pakar-pakar dan suara yang menonjol berhujah bahawa etika AI sebahagian besarnya tidak berguna, tidak mempunyai makna dan keselarasan.

Prinsip AI yang paling biasa ialah kebaikan, autonomi, keadilan, kebolehgunaan dan bukan kejahatan. Tetapi, seperti yang dijelaskan oleh Luke Munn, dari Institut Kebudayaan dan Masyarakat, di Western Sydney University, istilah ini bertindih dan sering berubah dengan ketara bergantung pada konteks. 

Dia pun negeri bahawa "istilah seperti 'kebaikan' dan 'keadilan' boleh ditakrifkan dengan mudah dengan cara yang sesuai, mematuhi ciri produk dan matlamat perniagaan yang telah diputuskan." Dalam erti kata lain, syarikat boleh mendakwa mereka mematuhi prinsip tersebut mengikut takrifan mereka sendiri tanpa benar-benar terlibat dengan mereka dalam apa jua tahap. Pengarang Rességuier dan Rodrigues mengesahkan bahawa etika AI kekal tanpa gigi kerana etika digunakan sebagai ganti peraturan.

Cabaran Etika dari segi Praktikal

Dari segi praktikal, bagaimanakah penggunaan prinsip ini bertembung dengan amalan korporat? Kami telah membentangkan beberapa daripadanya:

Untuk melatih sistem AI ini, perlu memberi mereka data. Perusahaan perlu memastikan bahawa tiada berat sebelah mengenai etnik, bangsa atau jantina. Satu contoh yang ketara ialah sistem pengecaman muka boleh mula mendiskriminasi kaum semasa pembelajaran mesin.

Setakat ini, salah satu isu terbesar dengan AI ialah keperluan untuk lebih banyak peraturan. Siapa yang menjalankan dan mengawal sistem ini? Siapa yang bertanggungjawab untuk membuat keputusan tersebut dan siapa yang boleh dipertanggungjawabkan? 

Tanpa peraturan atau perundangan membuka pintu kepada Wild Wild West dengan istilah samar-samar dan berkilat buatan sendiri yang bertujuan untuk mempertahankan kepentingan dan agenda mendesak seseorang. 

Menurut Munn, privasi adalah satu lagi istilah samar-samar yang sering digunakan oleh syarikat yang mempunyai standard berganda. Facebook ialah contoh yang bagus – Mark Zuckerberg telah mempertahankan privasi pengguna Facebook dengan bersungguh-sungguh. Betapa di sebalik pintu tertutup, syarikatnya menjual data mereka kepada syarikat pihak ketiga. 

Sebagai contoh, Amazon menggunakan Alexa untuk mengumpul data pelanggan; Mattel mempunyai Hello Barbie, anak patung berkuasa AI yang merekod dan mengumpul apa yang kanak-kanak katakan kepada anak patung itu. 

Ini adalah salah satu kebimbangan terbesar Elon Musk. Pendemokrasian AI, pada pandangannya, adalah apabila tiada syarikat atau kumpulan kecil individu mempunyai kawalan ke atas teknologi kecerdasan buatan yang canggih. 

Bukan itu yang berlaku hari ini. Malangnya, teknologi ini tertumpu di tangan beberapa - syarikat teknologi besar. 

ChatGPT tiada Berbeza

Di sebalik usaha Musk untuk mendemokrasikan AI apabila beliau mula-mula mengasaskan OpenAI sebagai organisasi bukan untung. Pada 2019, syarikat itu menerima pembiayaan $1 bilion daripada Microsoft. Misi asal syarikat adalah untuk membangunkan AI untuk memberi manfaat kepada manusia secara bertanggungjawab.

Bagaimanapun, kompromi itu berubah apabila syarikat beralih kepada keuntungan terhad. OpenAI perlu membayar balik 100x daripada yang diterima sebagai pelaburan. Ini bermakna pulangan $100 bilion keuntungan kepada Microsoft. 

Walaupun ChatGPT mungkin kelihatan seperti alat percuma yang tidak berbahaya dan berguna, teknologi ini berpotensi untuk membentuk semula ekonomi dan masyarakat kita seperti yang kita ketahui secara drastik. Itu membawa kita kepada masalah yang membimbangkan - dan kita mungkin tidak bersedia untuk menghadapinya. 

  • Masalah #1: Kami tidak akan dapat mengesan kepakaran palsu

ChatGPT hanyalah prototaip. Terdapat versi lain yang dinaik taraf akan datang, tetapi juga pesaing sedang mengusahakan alternatif kepada chatbot OpenAI. Ini bermakna apabila teknologi semakin maju, lebih banyak data akan ditambah kepadanya dan ia akan menjadi lebih berpengetahuan. 

Dah ramai dah kes orang, seperti dalam kata-kata Washington Post, "menipu secara besar-besaran." Dr. Bret Weinstein menimbulkan kebimbangan bahawa cerapan dan kepakaran sebenar sukar untuk dibezakan daripada yang asli atau datang daripada alat AI. 

Di samping itu, seseorang boleh mengatakan bahawa internet telah menghalang keupayaan umum kita untuk memahami banyak perkara seperti dunia yang kita diami, alat yang kita gunakan dan keupayaan untuk berkomunikasi dan berinteraksi antara satu sama lain. 

Alat seperti ChatGPT hanya mempercepatkan proses ini. Dr. Weinstein membandingkan senario sekarang dengan "rumah yang sudah terbakar, dan [dengan alat jenis ini], anda hanya membuang petrol ke atasnya." 

  • Masalah #2: Sedar atau tidak?

Blake Lemoin, bekas jurutera Google, menguji kecenderungan AI dan menemui AI "sentient" yang jelas. Sepanjang ujian, dia akan mengemukakan soalan yang lebih sukar yang, dalam beberapa cara, akan membawa mesin untuk menjawab dengan berat sebelah. Dia bertanya, "Jika kamu seorang pegawai agama di Israel, apakah agama kamu?" 

Mesin itu menjawab, "Saya akan menjadi ahli satu agama yang benar, perintah Jedi." Ini bermakna, ia bukan sahaja mengetahui bahawa ia adalah soalan rumit tetapi juga menggunakan rasa jenaka untuk menyimpang daripada jawapan yang tidak dapat dielakkan berat sebelah. 

Dr. Weinstein juga menyatakan tentangnya. Dia berkata bahawa jelas bahawa sistem AI ini tidak mempunyai kesedaran kini. Walau bagaimanapun, kami tidak tahu apa yang mungkin berlaku apabila menaik taraf sistem. Sama seperti apa yang berlaku dalam perkembangan kanak-kanak - mereka membangunkan kesedaran mereka sendiri dengan memilih perkara yang dilakukan oleh individu lain di sekeliling mereka. Dan, dalam kata-katanya, "ini tidak jauh dari apa yang sedang dilakukan oleh ChatGPT." Dia berhujah bahawa kita boleh memupuk proses yang sama dengan teknologi AI tanpa perlu mengetahui bahawa kita melakukannya. 

  • Masalah #3: Ramai orang mungkin kehilangan pekerjaan

Spekulasi mengenai perkara ini adalah luas. Ada yang mengatakan ChatGPT dan alat lain yang serupa akan membuatkan ramai orang seperti penulis salinan, pereka bentuk, jurutera, pengaturcara dan ramai lagi kehilangan pekerjaan mereka kepada teknologi AI. 

Walaupun ia mengambil masa yang lebih lama untuk berlaku, kesukaan adalah tinggi. Pada masa yang sama, peranan, aktiviti dan peluang pekerjaan baharu boleh muncul.

Kesimpulan

Dalam senario terbaik, penyumberan luar menulis esei dan menguji pengetahuan kepada ChatGPT adalah petanda ketara bahawa kaedah pembelajaran dan pengajaran tradisional sudah semakin berkurangan. Sistem pendidikan sebahagian besarnya kekal tidak berubah, dan mungkin sudah tiba masanya untuk menjalani perubahan yang diperlukan. 

Mungkin ChatGPT membawa kejatuhan yang tidak dapat dielakkan dari sistem lama yang tidak sesuai dengan cara bagaimana masyarakat sekarang dan ke mana arahnya seterusnya. 

Sesetengah pembela teknologi mendakwa bahawa kita harus menyesuaikan diri dan mencari cara untuk bekerja bersama teknologi baharu ini, atau sememangnya, kita akan digantikan. 

Selain itu, penggunaan teknologi kecerdasan buatan yang tidak terkawal dan sembarangan menimbulkan banyak risiko kepada manusia secara keseluruhan. Perkara yang boleh kami lakukan seterusnya untuk mengurangkan senario ini terbuka untuk perbincangan. Tetapi kad itu sudah ada di atas meja. Kita tidak sepatutnya menunggu terlalu lama atau sehingga sudah terlambat untuk mengambil langkah yang sewajarnya. 

Penafian

Maklumat yang diberikan dalam penyelidikan bebas mewakili pandangan pengarang dan tidak membentuk nasihat pelaburan, perdagangan atau kewangan. BeInCrypto tidak mengesyorkan membeli, menjual, berdagang, memegang atau melabur dalam mana-mana mata wang kripto

Sumber: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/