Hallo Baliku Pengguna Facebook yang baru-baru ini menonton video dari tabloid Inggris yang menampilkan pria kulit hitam melihat permintaan otomatis dari jejaring sosial yang menanyakan apakah mereka ingin “terus melihat video tentang Primata”, menyebabkan perusahaan tersebut menyelidiki dan menonaktifkan fitur yang didukung kecerdasan buatan. yang mendorong pesan.

Pada hari Jumat, Facebook meminta maaf atas apa yang disebutnya “kesalahan yang tidak dapat diterima” dan mengatakan sedang mencari fitur rekomendasi untuk “mencegah hal ini terjadi lagi.”

Video tersebut, tertanggal 27 Juni 2020, dibuat oleh The Daily Mail dan menampilkan klip pria kulit hitam dalam pertengkaran dengan warga sipil kulit putih dan petugas polisi. Itu tidak ada hubungannya dengan monyet atau primata.

Darci Groves, mantan manajer desain konten di Facebook, mengatakan seorang teman baru-baru ini mengiriminya tangkapan layar dari permintaan tersebut. Dia kemudian mempostingnya ke forum umpan balik produk untuk karyawan Facebook saat ini dan mantan. Sebagai tanggapan, seorang manajer produk untuk Facebook Watch, layanan video perusahaan, menyebutnya “tidak dapat diterima” dan mengatakan perusahaan sedang “mencari akar masalahnya.”

Groves mengatakan perintah itu “mengerikan dan mengerikan.”

Dani Lever, juru bicara Facebook, mengatakan dalam sebuah pernyataan: “Seperti yang telah kami katakan, sementara kami telah membuat peningkatan pada AI kami, kami tahu itu tidak sempurna, dan kami memiliki lebih banyak kemajuan untuk dibuat. Kami meminta maaf kepada siapa pun yang mungkin telah melihat rekomendasi ofensif ini.”

Google, Amazon dan perusahaan teknologi lainnya telah berada di bawah pengawasan selama bertahun-tahun untuk bias dalam sistem kecerdasan buatan mereka, terutama di sekitar masalah ras. Penelitian telah menunjukkan bahwa teknologi pengenalan wajah bias terhadap orang kulit berwarna dan lebih sulit mengidentifikasi mereka, yang mengarah ke insiden di mana orang kulit hitam didiskriminasi atau ditangkap karena kesalahan komputer .

Dalam salah satu contoh pada tahun 2015, Foto Google secara keliru memberi label gambar orang kulit hitam sebagai “gorila”, di mana Google mengatakan itu “benar-benar minta maaf” dan akan segera memperbaiki masalah tersebut. Lebih dari dua tahun kemudian, Wired menemukan bahwa solusi Google adalah menyensor kata “gorila” dari pencarian, sementara juga memblokir “simpanse”, “simpanse” dan “monyet.”

Facebook memiliki salah satu tempat penyimpanan gambar unggahan pengguna terbesar di dunia untuk melatih algoritme pengenalan wajah dan objeknya. Perusahaan, yang menyesuaikan konten untuk pengguna berdasarkan kebiasaan browsing dan menonton mereka di masa lalu, terkadang bertanya kepada orang-orang apakah mereka ingin terus melihat posting di bawah kategori terkait. Tidak jelas apakah pesan seperti “primata” tersebar luas.

Leave a Reply

Your email address will not be published. Required fields are marked *