3 Sebab Organisasi Anda Memerlukan Penilai Algoritma Luaran

Oleh Satta Sarmah-Hightower

Pemimpin perniagaan memerah semua nilai yang mereka boleh daripada kecerdasan buatan (AI). Kajian KPMG 2021 mendapati majoriti kerajaan, pembuatan perindustrian, perkhidmatan kewangan, runcit, sains hayat dan pemimpin perniagaan penjagaan kesihatan mengatakan AI berfungsi sekurang-kurangnya sederhana dalam organisasi mereka. Kajian itu juga mendapati separuh daripada responden mengatakan organisasi mereka mempercepatkan penggunaan AI sebagai tindak balas kepada pandemik Covid-19. Di organisasi di mana AI telah diterima pakai, sekurang-kurangnya separuh mengatakan teknologi itu telah melebihi jangkaan.

Algoritma AI semakin bertanggungjawab untuk pelbagai interaksi dan inovasi hari ini—daripada diperibadikan cadangan produk and perkhidmatan pelanggan pengalaman kepada bank keputusan pemberian pinjaman dan malah tindak balas polis.

Tetapi untuk semua faedah yang mereka tawarkan, algoritma AI datang dengan risiko yang besar jika ia tidak dipantau dan dinilai dengan berkesan untuk daya tahan, keadilan, kebolehjelasan dan integriti. Untuk membantu pemimpin perniagaan memantau dan menilai AI, kajian yang dirujuk di atas menunjukkan bahawa a semakin ramai pemimpin perniagaan mahu kerajaan mengawal selia AI bagi membolehkan organisasi melabur dalam teknologi dan proses perniagaan yang betul. Untuk sokongan dan pengawasan yang diperlukan, adalah bijak untuk mempertimbangkan penilaian luaran yang ditawarkan oleh penyedia perkhidmatan yang berpengalaman dalam menyediakan perkhidmatan sedemikian. Berikut adalah tiga sebab mengapa.

1. Algoritma Adalah "Kotak Hitam"

Algoritma AI—yang belajar daripada data untuk menyelesaikan masalah dan mengoptimumkan tugasan—menjadikan sistem lebih pintar, membolehkan mereka mengumpul dan menjana cerapan dengan lebih pantas berbanding manusia.

Walau bagaimanapun, sesetengah pihak berkepentingan menganggap algoritma ini sebagai "kotak hitam," jelas Drew Rosen, pengarah urusan audit di KPMG, firma perkhidmatan profesional terkemuka. Khususnya, pihak berkepentingan tertentu mungkin tidak memahami cara algoritma membuat keputusan tertentu dan oleh itu mungkin tidak yakin dengan keadilan atau ketepatan keputusan tersebut.

"Hasil yang diperoleh daripada algoritma boleh terdedah kepada berat sebelah dan salah tafsir keputusan," kata Rosen. "Itu juga boleh membawa kepada beberapa risiko kepada entiti kerana mereka memanfaatkan keputusan tersebut dan berkongsi [mereka] dengan orang ramai dan pihak berkepentingan mereka."

Algoritma yang menggunakan data yang rosak, sebagai contoh, tidak berkesan pada tahap terbaik-dan paling berbahaya. Apakah yang mungkin kelihatan seperti dalam amalan? Pertimbangkan chatbot berasaskan AI yang memberikan maklumat akaun yang salah kepada pengguna atau alat terjemahan bahasa automatik yang menterjemah teks secara tidak tepat. Kedua-dua kes boleh mengakibatkan ralat atau salah tafsir yang serius untuk entiti atau syarikat kerajaan, serta konstituen dan pelanggan yang bergantung pada keputusan yang dibuat oleh algoritma tersebut.

Satu lagi penyumbang kepada masalah kotak hitam ialah apabila kecenderungan yang wujud meresap ke dalam pembangunan model AI, yang berpotensi menyebabkan membuat keputusan berat sebelah. Pemberi pinjaman kredit, sebagai contoh, semakin menggunakan AI untuk meramalkan kelayakan kredit bakal peminjam untuk membuat keputusan pemberian pinjaman. Walau bagaimanapun, risiko mungkin timbul apabila input utama ke dalam AI, seperti skor kredit bakal peminjam, mempunyai kesalahan material, menyebabkan individu tersebut dinafikan pinjaman.

Ini menyerlahkan keperluan untuk penilai luar yang boleh bertindak sebagai penilai yang saksama dan memberikan penilaian terfokus, berdasarkan kriteria yang diterima, tentang kaitan dan kebolehpercayaan data sejarah dan andaian yang menguasai algoritma.

2. Pihak Berkepentingan Dan Pengawal Selia Meminta Ketelusan

Pada tahun 2022, tiada keperluan pelaporan semasa untuk AI yang bertanggungjawab. Bagaimanapun, Rosen berkata, “sama seperti cara badan pentadbir memperkenalkan peraturan ESG [persekitaran, sosial dan tadbir urus] kepada melaporkan metrik ESG tertentu, hanya menunggu masa kita melihat keperluan pelaporan peraturan tambahan untuk AI yang bertanggungjawab.”

Malah, berkuat kuasa 1 Januari 2023, New York City Undang-undang Tempatan 144 memerlukan audit berat sebelah dijalankan pada alat keputusan pekerjaan automatik sebelum ia digunakan.

Dan di peringkat persekutuan, Akta Inisiatif Kepintaran Buatan Kebangsaan 2020—yang dibina di atas a perintah eksekutif 2019—memfokuskan pada piawaian dan panduan teknikal AI. Selain itu, Akta Akauntabiliti Algoritma mungkin memerlukan penilaian impak sistem keputusan automatik dan proses keputusan kritikal yang ditambah. Dan di luar negara, Akta Kepintaran Buatan telah dicadangkan, menawarkan rangka kerja kawal selia yang komprehensif dengan objektif khusus tentang keselamatan AI, pematuhan, tadbir urus dan kebolehpercayaan.

Dengan anjakan ini, organisasi berada di bawah mikroskop tadbir urus. Penilai algoritma boleh menyediakan laporan sedemikian yang menangani keperluan pengawalseliaan dan meningkatkan ketelusan pihak berkepentingan sambil mengelakkan risiko bahawa pihak berkepentingan tersalah tafsir atau menyesatkan dengan keputusan penilaian.

3. Syarikat Mendapat Manfaat Daripada Pengurusan Risiko Jangka Panjang

Steve Camara, rakan kongsi dalam amalan jaminan teknologi KPMG, meramalkan pelaburan AI akan terus berkembang apabila entiti meneruskan proses mengautomasikan, membangunkan inovasi yang meningkatkan pengalaman pelanggan dan mengedarkan pembangunan AI merentas fungsi perniagaan. Untuk kekal berdaya saing dan menguntungkan, organisasi memerlukan kawalan berkesan yang bukan sahaja menangani kelemahan serta-merta AI tetapi juga mengurangkan sebarang risiko jangka panjang yang berkaitan dengan operasi perniagaan yang didorong oleh AI.

Di sinilah penilai luar bertindak sebagai sumber yang dipercayai dan bijak. Memandangkan organisasi semakin menerima integriti AI sebagai pemboleh perniagaan, perkongsian itu mungkin menjadi kurang daripada perkhidmatan ad hoc dan lebih kepada kerjasama yang konsisten, jelas Camara.

"Kami melihat jalan ke hadapan di mana perlu ada hubungan berterusan antara organisasi yang membangun dan mengendalikan AI secara berterusan dan penilai luaran yang objektif," katanya.

Pandangan Ke Arah Perkara Seterusnya

Pada masa hadapan, organisasi mungkin menggunakan lebih banyak penilaian luaran secara kitaran semasa mereka membangunkan model baharu, menelan sumber data baharu, menyepadukan penyelesaian vendor pihak ketiga atau menavigasi keperluan pematuhan baharu, contohnya.

Apabila peraturan tambahan dan keperluan pematuhan diberi mandat, penilai luar mungkin boleh menyediakan perkhidmatan untuk menilai secara langsung sejauh mana organisasi telah menggunakan atau menggunakan AI berhubung dengan keperluan tersebut. Penilai ini kemudiannya akan berada pada kedudukan terbaik untuk berkongsi keputusan penilaian dengan cara yang jelas dan konsisten.

Untuk memanfaatkan teknologi sambil melindungi hadnya, organisasi mesti mendapatkan penilai luar untuk menyediakan laporan yang kemudiannya boleh dipercayai untuk menunjukkan ketelusan yang lebih besar apabila menggunakan algoritma. Dari situ, kedua-dua organisasi dan pihak berkepentingan boleh memahami dengan lebih baik kuasa AI—dan batasannya.

Sumber: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/