Kripto dan AI: masa depan peranan peguam

Salah satunya ialah manusia mungkin mendapat peranan dan kedudukan yang berbeza daripada yang biasa kita lakukan pada hari ini.

Oleh itu, jika, demi hujah, mesin dibuat yang boleh memberikan jawapan yang tidak dapat dielakkan tepat kepada soalan undang-undang dan dengan itu memberikan respons yang hampir tidak dapat dielakkan mengenai kemungkinan hasil pertikaian, secara teorinya peranan peguam mungkin beralih ke bidang selain daripada mengusahakan jawapan kepada soalan. Mungkin, mengetahui cara mengemukakan soalan yang betul kepada mesin yang kemudiannya akan memberikan jawapannya. Oleh itu, dia akan bimbang bahawa mesin itu diberikan semua elemen dan parameter yang paling sesuai untuk menjana jawapan yang diharapkan.

Atau dia mungkin berpindah ke kawasan "melatih" mesin undang-undang itu, dan kemudian memberikan atau memastikan bahawa semua data dan maklumat undang-undang yang diperlukan untuk membuat penilaiannya diberikan kepada mesin.

Dan oleh kerana mesin ini, mengikut hipotesis ini, akan dapat memberikan ketepatan yang tidak dapat dielakkan untuk memberikan keputusan yang kami anggap sebagai "adil," peranan hakim mungkin boleh menjadi peranan untuk memastikan bahawa pihak-pihak tidak menipu dalam menyediakan mesin dengan elemen yang diperlukan untuk membuat keputusan dan bahawa kriteria penghakiman yang dimasukkan dan digunakan oleh mesin memenuhi keadilan, kemunasabahan, kekadaran, tanpa diskriminasi, dsb.

Semua ini, dengan cara, nampaknya selaras dengan lima prinsip terkenal yang ditetapkan oleh CEPEJ – Suruhanjaya Eropah untuk Kecekapan Keadilan (iaitu, Majlis Suruhanjaya Eropah untuk Kecekapan Keadilan, badan CoE yang mewakili 47 negara yang tujuannya adalah untuk menguji dan memantau kecekapan dan fungsi sistem keadilan Eropah) dalam Etika Piagam Penggunaan Kepintaran Buatan dalam Sistem Keadilan: (i) Prinsip menghormati hak asasi; (ii) Prinsip tanpa diskriminasi (iii) Prinsip kualiti dan keselamatan; (iv) Prinsip ketelusan, kesaksamaan dan keadilan (v) Prinsip kawalan pengguna.

Kini, walaupun menerima idea bahawa masa depan di mana AI mendapati penggunaan besar-besaran dalam bidang perundangan peranan manusia mungkin beralih kepada bidang penyeliaan sahaja, terdapat pertimbangan lain yang perlu dibuat juga. Terutamanya kerana apabila kita membayangkan sistem keadilan ditadbirkan dengan alat yang kelihatan neutral dan sempurna ini, kita mewakili diri kita sendiri sebagai alat yang hanya menguatkuasakan undang-undang dan peraturan. Seorang pelaksana ajaran semata-mata.

Perwakilan keadilan ini, bagaimanapun, tidak wujud dalam realiti praktikal, kerana, bertentangan dengan mana-mana petisyen prinsip dan prinsip pengasingan kuasa, mereka yang membuat keputusan sering sebenarnya, pada tahap tertentu, menyumbang kepada pengeluaran undang-undang dan mengubah kainnya. Iaitu, fungsi kehakiman sering bersetuju secara khusus dalam penciptaan dan penyatuan peraturan.

Sudah tentu, tahap ini berbeza mengikut sistem perundangan dan perlembagaan. Ia sememangnya lebih besar di negara undang-undang biasa, di mana undang-undang dibentuk melalui keputusan penetapan duluan.

Walau bagaimanapun, ini juga berlaku di negara-negara yang mempunyai undang-undang yang dikodifikasikan, seperti Itali, Perancis, Jerman, dll. Dalam sistem ini, sebenarnya, tafsiran yang diberikan melalui keputusan kehakiman kadang-kadang memaksa atau bahkan membengkokkan undang-undang formal, melengkapkannya apabila ia menemui jurang dan kekurangan di dalamnya, mengabaikannya dan meletakkannya dalam kekosongan apabila keadaan wujud yang meletakkannya bertentangan dengan prinsip yang lebih tinggi.

Maksudnya, fungsi kehakiman, sama ada secara langsung atau tidak, sering berakhir dengan menceroboh bidang fungsi kawal selia, dan ini boleh berlaku pada peringkat yang berbeza.

Nota: ini bukan untuk menolak kemungkinan bahawa, secara abstrak, mesin yang dipanggil untuk menghasilkan peraturan tidak mampu melakukannya lebih baik daripada manusia. Jika hanya untuk fakta bahawa sejarah penuh dengan pengawal selia manusia yang buruk. Untuk mengambil contoh yang melampau, pertimbangkan pengalaman ngeri Holocaust dan pembersihan etnik: ini adalah kengerian yang disokong secara sah oleh sistem perundangan berdasarkan prinsip makroskopik yang tidak berperikemanusiaan, namun ia dicipta dan dikenakan oleh manusia sendiri.

Pertemuan antara pengeluaran normatif dan kecerdasan buatan

Perkara penting ialah satu lagi: adakah kita benar-benar pasti mahu memberi mesin akses kepada proses pengeluaran normatif? Dan sejauh mana? Dan kita mesti ingat bahawa entri ini juga boleh berlaku dalam cara yang "merayap", melalui pintu separuh terbuka fungsi bidang kuasa itu.

Idea bahawa fungsi yang boleh dilaksanakan oleh mesin boleh kekal diturunkan kepada eksekutif semata-mata, atau paling banyak pembantu, peranan berkenaan dengan kerja dan kehendak manusia, berdasarkan bar etika dan formal yang dikenakan oleh manusia (cth, undang-undang robotik, Asimov atau, sememangnya, prinsip yang dihuraikan dalam konteks Eropah mengenai penggunaan AI dalam sistem kehakiman) boleh menenangkan.

Ini adalah dalam kes ini peraturan yang ditentukan terus dari Manusia kepada Mesin dan bertindak balas dalam erti kata yang luas kepada kepuasan panggilan kewujudan Manusia itu sendiri. Iaitu, mereka semua dalam beberapa cara konservatif dan berfungsi untuk pembangunan dan pemeliharaan kewujudan manusia.

Dan di sinilah dilema yang agak falsafah dicetuskan, jika anda mahu: jika kita pernah membenarkan entiti bukan manusia memasuki sepenuhnya proses pembentukan normatif, memandangkan ia, tepatnya sebagai entiti dikurniakan secara imanen dengannya. panggilan kewujudan sendiri, apakah yang akan menghalangnya daripada menulis peraturan yang tidak bertindak balas kepada panggilan kewujudan manusia?

Untuk mengambil contoh yang melampau, jika kita menimbulkan masalah lebihan penduduk dan kekurangan sumber makanan dan tenaga, secara global, sebagai manusia, tertakluk kepada hanyutan ideologi patologi tertentu, pada tahap etika kita akan menolak sebagai cara untuk menyelesaikan masalah itu. penyelesaian yang mendalilkan pemusnahan besar-besaran atau pembunuhan manusia.

Masalah yang sama, dilihat melalui mata entiti bukan manusia, yang mungkin tidak mengiktiraf prinsip etika yang sama, boleh membawa kepada penyelesaian pemusnahan besar-besaran, mungkin berdasarkan kriteria terpilih yang bertujuan untuk menghapuskan subjek yang paling lemah (yang etika manusia menetapkan harus dipelihara sebagai keutamaan) sebagai penyelesaian yang paling munasabah pada tahap logik yang ketat dan dingin.

Massimo Chiriatti, antara pakar terkemuka di kecerdasan buatan di Itali, yang dalam banyak tulisannya telah menjelaskan pandangannya tentang had kecerdasan buatan dan peranan penyeliaan yang mesti dikekalkan oleh manusia dengan cara kuku besi dalam penggunaan teknologi ini dalam "Ketidaksadaran Buatan" beliau menyatakan:

"Terdapat perkara yang sangat penting untuk dipertimbangkan: setiap ramalan AI adalah penilaian kuantitatif, bukan kualitatif, sedangkan bagi kita manusia pilihan hampir tidak pernah pengiraan yang mudah. Kami membuat keputusan berdasarkan nilai yang tidak boleh diukur dan oleh itu tidak boleh dikira. Kami adalah guru mesin. Kami secara tersirat begitu apabila mereka mengasimilasikan data yang kami cipta, apabila mereka membina model dan memberi kami jawapan. 

Kami secara eksplisit begitu apabila kami memberi mereka arahan tentang cara melakukan kerja. Atas sebab-sebab ini kita mesti memberi perhatian kepada cara mereka belajar, kerana dengan berbuat demikian mereka akan berkembang.

Di sebalik contoh melampau yang baru diberikan, walaupun adalah sia-sia dan khayalan untuk menentang perkembangan teknologi, proses seperti ini mesti ditadbir dengan penuh kesedaran.

Hari ini kita membincangkan kesan kecerdasan buatan ke atas profesion undang-undang, berkenaan dengan situasi dan nilai kehalusan melampau dan keanehan yang berkaitan dengan kecanggihan intelektual, kreativiti dan semua komponen yang kita suka surih kembali kepada intipati tidak ketara manusia.

Isu yang sama, bagaimanapun, pasti akan menjana impak berskala besar ke atas beratus-ratus pekerjaan yang mesin dalam masa yang singkat akan dapat melaksanakan dengan baik dan lebih baik daripada manusia, pada kos yang jauh lebih rendah.

Patutkah kita berasa terancam oleh crypto dan kecerdasan buatan (AI)?

Perkadaran besar isu ini sepatutnya membawa kita untuk merenung kejatuhan yang akan memberi kesan kepada dunia sebenar dan keupayaan kita untuk membaca realiti, kerana pandangan sosial dan politik dunia pekerjaan dan ekonomi akan direvolusikan.

Jika adalah sah untuk bertanya beberapa soalan, berkenaan dengan dunia profesion undang-undang, adalah perlu untuk mempertimbangkan bahawa soalan yang sama perlu ditanya tentang kebanyakan dunia pekerjaan.

Bagi kami, yang paling segera ialah, “Apa yang akan berlaku kepada manusia, hakim dan peguam, yang hari ini melaksanakan peranan dan fungsi yang mungkin dilakukan oleh mesin pada hari esok? Bagaimana mereka akan mencari rezeki?”

Tetapi pada tahap kepentingan kolektif, terdapat lebih banyak lagi: "Siapa yang akan membayar sumbangan keselamatan sosial dan siapa yang akan menyediakan masyarakat hasil cukai yang dijana oleh pendapatan semua pekerja manusia yang digantikan oleh mesin?" Dan sekali lagi, "apa yang akan berlaku kepada semua tokoh yang menyumbang kepada prestasi aktiviti pengendali ini (pembantu, kolaborator, pengamal, dll.) dan apakah yang akan berlaku apabila sumbangan dan hasil cukai mereka juga hilang?"

Nah, soalan ini juga timbul untuk semua kategori pekerjaan lain yang mungkin dilanda revolusi robotik dan digital dalam jangka masa yang lebih kecil daripada yang mungkin menjejaskan pekerja sah.

Timbul senario yang boleh menyebabkan pandangan sosiologi, ekonomi, antropologi dan politik yang dikenali hari ini ketinggalan zaman: sosialisme, liberalisme, libertarianisme, kedaulatan, dan sebagainya, akan kehilangan asas konseptualnya.

Banyak, jika tidak semuanya, perlu difikirkan semula dari awal.

Tetapi kembali kepada topik AI dalam bidang undang-undang, pandangan peribadi saya adalah bahawa peranan peguam (dengan kerjaya sebagai jurubahasa bukan sahaja norma, tetapi juga fakta dan, sedikit sebanyak, manusia), tidak akan dapat dihadkan untuk berhijrah ke rantau lain dalam kitaran pengeluaran perkhidmatan undang-undang.

Idea saya ialah peguam, dan pengamal undang-undang secara amnya, boleh diberikan peranan yang lebih tinggi: iaitu, memastikan kesedaran dalam tadbir urus pembangunan teknologi sentiasa berkadar dengan tujuan kebajikan sebenar manusia, disalurkan dengan betul dan, jika perlu, juga dibendung secara sedar dan munasabah.

Terdapat pepatah Cina yang terkenal, "apabila angin perubahan bertiup, ada yang memasang penghalang, yang lain membina kincir angin."

Sekarang, walaupun saya suka berfikir saya boleh mengira diri saya di kalangan mereka yang "apabila angin perubahan bertiup" dengan penuh semangat melemparkan diri mereka ke dalam membina kincir angin, saya tidak mahu sampai ke tahap di mana kincir angin tidak lagi memerlukan manusia untuk wujud, sejak kewujudan mereka. ditumpukan kepada keperluan untuk kincir angin lain.

Dan jika perkara itu berlaku, adakah manusia memerlukan kincir angin seperti itu?

Kini, peguam mengikut definisinya adalah seorang yang dipanggil (ad vocatum) untuk membela dan memohon sesuatu perkara. Inilah sebabnya: dia perlu memastikan bahawa manusia mengekalkan pegangan yang kukuh pada peraturan dan bahawa mesin kekal berlabuh dalam peranan yang mana ia dicipta: untuk bekerja dalam perkhidmatan manusia.

Dan apabila perlu dia perlu bangkit dan berjuang, supaya ini adalah bagaimana ia dan bagaimana ia akan kekal.

Untuk berjuang untuk kebaikan manusia. Seperti Mazinga Zeta, dalam kartun Jepun yang terkenal, bagi mereka yang mengingatinya.

Bunyinya bagus, tetapi Mazinga Zeta, bukankah dia juga robot?

 

Sumber: https://en.cryptonomist.ch/2023/03/11/crypto-ai-future-lawyers-role/