Kedua-dua Zoom dan Twitter mendapati diri mereka dilanda kebakaran pada hujung minggu ini kerana masalah masing-masing dengan bias algoritma. Pada Zoom, ini adalah masalah dengan latar belakang maya perkhidmatan sidang video dan di Twitter, ini adalah masalah dengan alat pemotongan foto di laman web ini.
Ia bermula ketika Ph.D. pelajar Colin Madland tweet mengenai masalah ahli fakulti Hitam dengan Zoom. Menurut Madland, setiap kali ahli fakulti menggunakan latar belakang maya, Zoom akan membuang kepalanya.
“Kami telah menghubungi pengguna untuk menyiasat masalah ini secara langsung,” kata jurucakap Zoom kepada TechCrunch. “Kami berkomitmen untuk menyediakan platform yang inklusif untuk semua.”
Walau bagaimanapun, ketika membincangkan masalah itu di Twitter, masalah dengan kecenderungan algoritma bertambah apabila aplikasi mudah alih Twitter tidak berfungsi hanya untuk menunjukkan gambar Madland, lelaki kulit putih, dalam pratonton.
“Pasukan kami menguji bias sebelum menghantar model dan tidak menemui bukti berat sebelah atau ras dalam ujian kami,” kata jurucakap Twitter dalam satu kenyataan kepada TechCrunch. “Tetapi jelas dari contoh-contoh ini bahawa kita perlu membuat lebih banyak analisis. Kami akan terus berkongsi apa yang kami pelajari, tindakan apa yang kami ambil, dan akan membuka sumber analisis kami supaya orang lain dapat menyemak dan meniru. “
Twitter menunjukkan tweet dari ketua pegawai reka bentuknya, Dantley Davis, yang menjalankan beberapa eksperimennya sendiri. Davis berpendapat rambut wajah Madland mempengaruhi hasilnya, jadi dia menanggalkan rambut wajahnya dan anggota fakulti Hitam muncul dalam pratinjau yang dipotong. Dalam tweet kemudian , Davis mengatakan bahawa dia “kesal dengan perkara ini seperti orang lain. Namun, saya berada dalam kedudukan untuk memperbaikinya dan saya akan melakukannya. ”
Twitter juga menunjukkan analisis bebas dari Vinay Prabhu, ketua saintis di Carnegie Mellon. Dalam eksperimennya, dia berusaha untuk melihat apakah “bias pemotongan itu nyata.”
Sebagai tindak balas terhadap eksperimen tersebut, CTO Twitter Parag Agrawal mengatakan menjawab pertanyaan apakah bias tanam itu nyata adalah “pertanyaan yang sangat penting .” Ringkasnya, kadang-kadang Twitter mengeluarkan orang kulit hitam dan kadang-kadang tidak. Tetapi hakikat bahawa Twitter melakukannya sama sekali, walaupun sekali, cukup untuk menimbulkan masalah.
Ia juga membincangkan isu besarnya algoritma buruk. Jenis algoritma yang sama inilah yang menyebabkan penangkapan berat sebelah dan pemenjaraan orang kulit hitam. Mereka juga jenis algoritma yang sama dengan Google digunakan untuk melabel foto orang kulit hitam sebagai gorila dan bot Tay Microsoft digunakan untuk menjadi supremasi kulit putih .