Gerakan untuk Menuntut Akuntabilitas AI Menghasilkan Lebih Banyak Uap
Business

Gerakan untuk Menuntut Akuntabilitas AI Menghasilkan Lebih Banyak Uap

Sebuah laporan yang akan datang oleh Algorithmic Justice League (AJL), sebuah lembaga nonprofit swasta, merekomendasikan pengungkapan yang diperlukan saat model AI digunakan dan membuat penyimpanan publik untuk insiden di mana AI menyebabkan kerugian. Repositori dapat membantu auditor menemukan potensi masalah dengan algoritme, dan membantu regulator menyelidiki atau mendenda pelanggar berulang. Salah satu pendiri AJL, Joy Buolamwini, ikut menulis audit berpengaruh tahun 2018 yang menemukan algoritme pengenalan wajah bekerja paling baik pada pria kulit putih dan terburuk pada wanita dengan kulit gelap.

Laporan tersebut mengatakan bahwa auditor harus independen dan hasilnya dapat ditinjau secara publik. Tanpa perlindungan tersebut, “tidak ada mekanisme akuntabilitas sama sekali,” kata kepala penelitian AJL Sasha Costanza-Chock. “Jika mereka mau, mereka bisa menguburnya; jika masalah ditemukan, tidak ada jaminan bahwa masalah itu teratasi. Itu ompong, rahasia, dan auditor tidak memiliki pengaruh.”

Deb Raji adalah rekan di AJL yang mengevaluasi audit, dan dia berpartisipasi dalam audit algoritma pengenalan wajah tahun 2018. Dia memperingatkan bahwa perusahaan Big Tech tampaknya mengambil pendekatan yang lebih bermusuhan dengan auditor luar, terkadang mengancam tuntutan hukum berdasarkan privasi atau alasan anti-peretasan. Pada bulan Agustus, Facebook mencegah akademisi NYU memantau pengeluaran iklan politik dan menggagalkan upaya peneliti Jerman untuk menyelidiki algoritme Instagram.

Raji menyerukan pembentukan dewan pengawasan audit di dalam badan federal untuk melakukan hal-hal seperti menegakkan standar atau menengahi perselisihan antara auditor dan perusahaan. Papan semacam itu dapat dibuat mengikuti standar Dewan Standar Akuntansi Keuangan atau standar Food and Drug Administration untuk mengevaluasi perangkat medis.

Standar untuk audit dan auditor penting karena meningkatnya seruan untuk mengatur AI telah menyebabkan terciptanya sejumlah startup audit, beberapa oleh kritikus AI, dan lainnya yang mungkin lebih menguntungkan perusahaan yang mereka audit. Pada tahun 2019, koalisi peneliti AI dari 30 organisasi merekomendasikan audit dan regulasi luar yang menciptakan pasar bagi auditor sebagai bagian dari membangun AI yang dipercaya orang dengan hasil yang dapat diverifikasi.

Cathy O’Neil memulai sebuah perusahaan, O’Neil Risk Consulting & Algorithmic Auditing (Orcaa), sebagian untuk menilai AI yang tidak terlihat atau tidak dapat diakses oleh publik. Misalnya, Orcaa bekerja dengan jaksa agung dari empat negara bagian AS untuk mengevaluasi algoritme produk keuangan atau konsumen. Tetapi O’Neil mengatakan dia kehilangan pelanggan potensial karena perusahaan ingin mempertahankan penyangkalan yang masuk akal dan tidak ingin tahu apakah atau bagaimana AI mereka merugikan orang.

Awal tahun ini Orcaa melakukan audit algoritma yang digunakan oleh HireVue untuk menganalisis wajah orang selama wawancara kerja. Siaran pers oleh perusahaan mengklaim audit tidak menemukan masalah akurasi atau bias, tetapi audit tidak berusaha untuk menilai kode sistem, data pelatihan, atau kinerja untuk kelompok orang yang berbeda. Kritikus mengatakan karakterisasi HireVue dari audit itu menyesatkan dan tidak jujur. Sesaat sebelum rilis audit, HireVue mengatakan akan berhenti menggunakan AI dalam wawancara kerja video.

O’Neil berpikir audit dapat berguna, tetapi dia mengatakan dalam beberapa hal terlalu dini untuk mengambil pendekatan yang ditentukan oleh AJL, sebagian karena tidak ada standar untuk audit dan kami tidak sepenuhnya memahami cara AI merugikan orang. . Sebaliknya, O’Neil lebih menyukai pendekatan lain: penilaian dampak algoritmik.

Sementara audit dapat mengevaluasi keluaran model AI untuk melihat apakah, misalnya, ia memperlakukan pria secara berbeda dari wanita, penilaian dampak mungkin lebih fokus pada bagaimana algoritme dirancang, siapa yang dapat dirugikan, dan siapa yang bertanggung jawab jika terjadi kesalahan. . Di Kanada, bisnis harus menilai risiko individu dan komunitas dalam menerapkan algoritme; di AS, penilaian sedang dikembangkan untuk memutuskan kapan AI berisiko rendah atau tinggi dan untuk mengukur seberapa besar orang mempercayai AI.

Gagasan untuk mengukur dampak dan potensi bahaya dimulai pada 1970-an dengan Undang-Undang Perlindungan Lingkungan Nasional, yang mengarah pada pembuatan pernyataan dampak lingkungan. Laporan-laporan tersebut memperhitungkan faktor-faktor mulai dari polusi hingga potensi penemuan artefak kuno; penilaian dampak yang sama untuk algoritme akan mempertimbangkan berbagai faktor.

Posted By : result hk