RE:WIRED 2021: Timnit Gebru Mengatakan Kecerdasan Buatan Perlu Diperlambat
Business

RE:WIRED 2021: Timnit Gebru Mengatakan Kecerdasan Buatan Perlu Diperlambat

Peneliti kecerdasan buatan menghadapi masalah akuntabilitas: Bagaimana Anda mencoba untuk memastikan keputusan bertanggung jawab ketika keputusan? pembuat bukan orang yang bertanggung jawab, melainkan algoritma? Saat ini, hanya segelintir orang dan organisasi yang memiliki kekuatan—dan sumber daya—untuk mengotomatiskan pengambilan keputusan.

Organisasi mengandalkan AI untuk menyetujui pinjaman atau membentuk hukuman terdakwa. Tetapi fondasi di mana sistem cerdas ini dibangun rentan terhadap bias. Bias dari data, dari programmer, dan dari bottom line perusahaan yang kuat, dapat berubah menjadi konsekuensi yang tidak diinginkan. Itulah kenyataan yang diperingatkan oleh peneliti AI Timnit Gebru pada pembicaraan RE:WIRED pada hari Selasa.

“Ada perusahaan yang mengaku [to assess] kemungkinan seseorang menentukan kejahatan lagi,” kata Gebru. “Itu menakutkan bagiku.”

Gebru adalah seorang insinyur bintang di Google yang berspesialisasi dalam etika AI. Dia ikut memimpin tim yang ditugaskan untuk berjaga-jaga terhadap rasisme algoritmik, seksisme, dan bias lainnya. Gebru juga mendirikan organisasi nirlaba Black in AI, yang berupaya meningkatkan inklusi, visibilitas, dan kesehatan orang kulit hitam di bidangnya.

Tahun lalu, Google memaksanya keluar. Tapi dia belum menyerah berjuang untuk mencegah kerusakan yang tidak diinginkan dari algoritma pembelajaran mesin.

Selasa, Gebru berbicara dengan penulis senior WIRED Tom Simonite tentang insentif dalam penelitian AI, peran perlindungan pekerja, dan visi untuk lembaga independennya yang direncanakan untuk etika dan akuntabilitas AI. Poin utamanya: AI perlu melambat.

“Kami belum sempat memikirkan bagaimana seharusnya dibangun, karena kami selalu memadamkan api,” katanya.

Sebagai seorang pengungsi Etiopia yang bersekolah di sekolah umum di pinggiran kota Boston, Gebru dengan cepat memahami disonansi rasial Amerika. Ceramah mengacu pada rasisme di masa lalu, tetapi itu tidak sesuai dengan apa yang dia lihat, kata Gebru kepada Simonite awal tahun ini. Dia telah menemukan ketidakselarasan serupa berulang kali dalam karir teknologinya.

Karier profesional Gebru dimulai di bidang perangkat keras. Tetapi dia mengubah arah ketika dia melihat hambatan terhadap keragaman, dan mulai curiga bahwa sebagian besar penelitian AI berpotensi membahayakan kelompok yang sudah terpinggirkan.

“Pertemuan itu membuat saya pergi ke arah yang berbeda, yaitu mencoba memahami, dan mencoba membatasi dampak sosial negatif dari AI,” katanya.

Selama dua tahun, Gebru memimpin tim AI Etis Google bersama ilmuwan komputer Margaret Mitchell. Tim membuat alat untuk melindungi dari kesalahan AI untuk tim produk Google. Namun, seiring waktu, Gebru dan Mitchell menyadari bahwa mereka tidak dilibatkan dalam rapat dan utas email.

Pada Juni 2020, model bahasa GPT-3 dirilis, menampilkan kemampuan untuk terkadang membuat prosa yang koheren. Tapi tim Gebru khawatir tentang kegembiraan di sekitarnya.

“Mari kita bangun model bahasa yang lebih besar, lebih besar, dan lebih besar,” kata Gebru, mengingat sentimen populer. “Kita harus seperti, ‘Mari kita berhenti dan tenang sejenak sehingga kita bisa memikirkan pro, dan kontra, dan mungkin cara alternatif untuk melakukan ini.”

Timnya membantu menulis makalah tentang implikasi etis dari model bahasa, yang disebut “Tentang Bahaya Burung Beo Stokastik: Dapatkah Model Bahasa Menjadi Terlalu Besar?”

Orang lain di Google tidak senang. Gebru diminta menarik kembali kertas tersebut atau menghapus nama karyawan Google. Dia membalas dengan meminta transparansi: Siapa meminta tindakan keras seperti itu dan mengapa? Tidak ada pihak yang bergeming. Gebru mengetahui dari salah satu bawahan langsungnya bahwa dia “telah mengundurkan diri.”

Posted By : result hk