Seorang peguam berdepan sekatan selepas dia menggunakan ChatGPT untuk menulis ringkasan yang penuh dengan petikan palsu

Dengan gembar-gembur sekitar AI mencapai tahap demam dalam beberapa bulan kebelakangan ini, ramai orang takut program seperti ChatGPT suatu hari nanti akan meletakkan mereka daripada kerja. Bagi seorang peguam New York, mimpi ngeri itu boleh menjadi kenyataan lebih awal daripada yang dijangkakan, tetapi bukan atas sebab yang anda fikirkan. Seperti yang dilaporkan oleh , peguam Steven Schwartz dari firma undang-undang Levidow, Levidow dan Oberman baru-baru ini berpaling kepada chatbot OpenAI untuk mendapatkan bantuan menulis ringkasan undang-undang, dengan keputusan yang boleh diramalkan membawa bencana.

Firma Schwartz telah menyaman syarikat penerbangan Columbia Avianca bagi pihak Roberto Mata, yang mendakwa dia cedera dalam penerbangan ke Lapangan Terbang Antarabangsa John F. Kennedy di New York City. Apabila syarikat penerbangan itu baru-baru ini meminta hakim persekutuan untuk menolak kes itu, peguam Mata memfailkan taklimat 10 muka surat berhujah mengapa saman itu perlu diteruskan. Dokumen itu memetik lebih daripada setengah dozen keputusan mahkamah, termasuk "Varghese lwn China Southern Airlines," "Martinez lwn Delta Airlines" dan "Miller lwn United Airlines." Malangnya bagi semua yang terlibat, tiada sesiapa yang membaca ringkasan itu dapat menemui mana-mana keputusan mahkamah yang dipetik oleh peguam Mata. kenapa? Kerana ChatGPT mereka semua. Aduh.

Dalam afidavit yang difailkan pada Khamis, Schwartz berkata dia telah menggunakan chatbot untuk "melengkapkan" penyelidikannya untuk kes itu. Schwartz menulis dia "menyedari kemungkinan bahawa kandungan [ChatGPT] mungkin palsu." Dia juga berkongsi tangkapan skrin yang menunjukkan bahawa dia telah bertanya kepada ChatGPT sama ada kes yang dipetik itu adalah benar. Program itu menjawab mereka, mendakwa keputusan itu boleh didapati dalam "pangkalan data undang-undang yang bereputasi," termasuk Westlaw dan LexisNexis.

Schwartz berkata dia "sangat menyesal" menggunakan ChatGPT "dan tidak akan melakukannya pada masa hadapan tanpa pengesahan mutlak keasliannya." Sama ada dia mempunyai peluang lagi untuk menulis ringkasan undang-undang tersiar di udara. Hakim yang menyelia kes itu telah mengarahkan pendengaran pada 8 Jun untuk membincangkan kemungkinan sekatan untuk "keadaan yang tidak pernah berlaku sebelum ini" yang dicipta oleh tindakan Schwartz.

Sumber: https://finance.yahoo.com/news/a-lawyer-faces-sanctions-after-he-used-chatgpt-to-write-a-brief-riddled-with-fake-citations-175720636.html