Teknologi Face Recognition Dinilai Tidak Akurat Identifikasi Subjek

Abadikini.com, JAKARTA – Teknologi pengelanaln wajah atau face recognition dinilai masih kerap tak akurat atau salah mengidentifikasi subjek, terutama untuk ras-ras tertentu, karena masalah pada algoritma.

Hal ini diketahui setelah polisi salah mengidentifikasi pelaku pengeroyokan aktivis politik Ade Armando dengan menggunakan teknologi face recognition.

“Karena orang yang kita duga pelaku itu menggunakan topi, sehingga begitu topinya dibuka tingkat akurasinya tidak 100 persen. Jadi Abdul Manaf bisa dikatakan bukan sebagai pelaku,” aku Kepala Bidang Humas Polda Metro Jaya Kombes E Zulpan, Rabu (13/4).

Lantas kenapa itu bisa terjadi? Sebuah studi pemerintah Amerika Serikat pada 2019 menunjukkan algoritma pengenalan wajah tak begitu akurat dalam mengidentifikasi beberapa wajah dari ras Afro-Amerika dan Asia.

Kemungkinan salah identifikasi lebih besar ditemukan pada perempuan Afro-Amerika. Hal ini menimbulkan keraguan apakah teknologi tersebut harus digunakan oleh lembaga penegak hukum.

Sebuah studi Massachusetts Institute of Technology (MIT) menunjukkan bahwa Rekognition, yang merupakan produk Amazon yang dijual ke polisi AS, berkinerja buruk dalam mengenali wanita dengan kulit lebih gelap. Raksasa ritel milik miliarder Jeff Bezos itu pun menuding simpulan itu “menyesatkan”.

Menurut laporan MIT, saat mencocokkan foto tertentu dengan foto lain dengan wajah yang sama, banyak algoritma yang salah mengidentifikasi wajah Afro-Amerika dan Asia.

Temuan kesalahan identifikasi itu terjadi 10 hingga 100 kali lebih banyak daripada pengenalan wajah Kaukasia.

Anggota Kongres Bennie Thompson, Ketua Komite Keamanan Dalam Negeri AS, mengatakan pemerintah harus menilai kembali rencananya untuk teknologi pengenalan wajah mengingat hasil yang mengejutkan ini.

Ilmuwan komputer dan pendiri Algorithmic Justice League Joy Buolamwini menyebut laporan itu merupakan bantahan yang komprehensif bagi mereka yang menilai wajar bias dalam perangkat lunak kecerdasan buatan.

Institut Nasional Standars dan Teknologi (NIST) AS lantas menguji 189 algoritma dari 99 pengembang, termasuk Intel, Microsoft, Toshiba, dan perusahaan China Tencent dan DiDi Chuxing.

Amazon, yang produknya pernah ditinjau negatif oleh MIT, tidak mengirimkan satu pun sampel algoritma Rekognition untuk diriset tim peneliti.

Algoritma dalam studi NIST diuji pada dua jenis kesalahan, yaitu positif palsu, di mana perangkat lunak salah menganggap foto dua individu yang berbeda menunjukkan orang yang sama; dan negatif palsu, di mana perangkat lunak gagal mencocokkan dua foto yang menunjukkan orang yang sama.

Perangkat lunak tersebut menggunakan foto dari database yang disediakan oleh Departemen Luar Negeri, Departemen Keamanan Dalam Negeri, dan Biro Investigasi Federal (FBI), tanpa gambar dari media sosial atau pengawasan video.

“Meskipun biasanya tidak benar untuk membuat pernyataan [yang sama] untuk seluruh algoritma, kami menemukan bukti empiris soal perbedaan demografis di sebagian besar algoritma pengenalan wajah yang kami pelajari,” kata Patrick Grother, ilmuwan komputer NIST.

Salah satu perusahaan China, SenseTime, yang algoritmenya ditemukan tidak akurat, mengatakan itu adalah hasil dari “bug” yang sekarang telah diatasi.

Hasilnya tidak mencerminkan produk kami, karena mereka menjalani pengujian menyeluruh sebelum memasuki pasar. Inilah sebabnya mengapa semua solusi komersial kami melaporkan tingkat akurasi yang tinggi,” kata seorang juru bicara kepada BBC.

Beberapa kota di AS, termasuk San Francisco dan Oakland di California, dan Somerville, Massachusetts, telah melarang penggunaan teknologi pengenalan wajah.
Dikutip CBS News, hal yang menjadi hambatan utama dalam menjalankan metode face recognition adalah ketiadaan sistem analisis wajah yang benar-benar akurat.
Teknologi face recognition milik Amazon, Rekognition, pernah mengidentifikasi wajah presenter kenamaan asal AS Oprah Winfrey sebagai laki-laki. Namun itu hanya satu contoh penting kegagalan perangkat lunak ini.

Alat identifikasi wajah lainnya tahun lalu salah menandai seorang mahasiswa Brown University sebagai tersangka dalam pemboman Sri Lanka, dan mahasiswa tersebut kemudian menerima ancaman pembunuhan.

Penelitian menunjukkan kesalahan ini bukanlah penyimpangan. Sebuah studi MIT dari tiga sistem pengenalan gender komersial menemukan face recognition memiliki tingkat kesalahan hingga 34 persen untuk wanita berkulit gelap, dan meningkat kesalahanya hampur 49 kali lipat untuk pria kulit putih.

Sebuah studi Departemen Perdagangan AS akhir tahun lalu menunjukkan temuan serupa.

Melihat contoh di mana algoritma salah mengidentifikasi dua orang yang berbeda sebagai orang yang sama, penelitian ini menemukan tingkat kesalahan untuk pria dan perempuan Afrika dua kali lipat lebih tinggi daripada orang Eropa Timur, yang menunjukkan tingkat terendah.

Para peneliti menemukan algoritma memiliki tingkat kesalahan tertinggi untuk penduduk asli Amerika serta tingkat tinggi untuk wanita Asia dan kulit hitam.

Sementara, perusahaan teknologi besar mulai memikirkan ulang opsi pengembangan kecerdasan buatan dalam teknologi pengenalan wajah mereka. Amazon sempat mengumumkan jeda satu tahun dalam penggunaan Rekognition, pada 2020, setelah mendapat tekanan dari para aktibvis HAM.

Senada, IBM mengaku tak melirik sama sekali penelitian teknologi pengenalan wajah dengan alasan kekhawatiran tentang implikasinya terhadap HAM.

“Kami takut dengan begitu banyaknya gambar yang di-posting di media sosial oleh pengunjuk rasa akan dipakai oleh polisi untuk melawan mereka,” kata Albert Fox Cahn, Direktur Eksekutif Proyek Pengawasan Teknologi Pengawasan.

Baca Juga

Back to top button

Adblock Detected

Please consider supporting us by disabling your ad blocker