Alat Untuk Menghilangkan Bias dari Komputer Vision: Bagian 2

Alat Untuk Menghilangkan Bias dari Komputer Vision: Bagian 2

Alat Untuk Menghilangkan Bias dari Komputer Vision: Bagian 2 – Wilayah dunia yang kurang terwakili dalam kumpulan data computer vision, bagaimanapun, cenderung menyebabkan bias dalam algoritma AI. Konsisten dengan analisis sebelumnya, para peneliti menemukan bahwa untuk negara asal gambar (dinormalisasi menurut populasi), Amerika Serikat dan negara-negara Eropa sangat terwakili dalam kumpulan data.

Alat Untuk Menghilangkan Bias dari Komputer Vision: Bagian 2

Di luar ini, REVISE menunjukkan bahwa untuk gambar dari bagian lain dunia, teks gambar sering kali tidak dalam bahasa lokal, menunjukkan bahwa banyak dari gambar tersebut ditangkap oleh wisatawan dan berpotensi mengarah ke pemandangan miring suatu negara.

Peneliti yang fokus pada deteksi objek mungkin mengabaikan masalah keadilan dalam penglihatan komputer, kata Russakovsky. “Namun, analisis geografi ini menunjukkan bahwa pengenalan objek masih bisa sangat bias dan eksklusif, serta dapat memengaruhi berbagai wilayah dan orang secara tidak adil,” katanya. agen sbobet

“Praktik pengumpulan kumpulan data dalam ilmu komputer belum diteliti secara menyeluruh sampai saat ini,” kata rekan penulis Angelina Wang, seorang mahasiswa pascasarjana dalam ilmu komputer. Dia mengatakan gambar sebagian besar “diambil dari internet, dan orang tidak selalu menyadari bahwa gambar mereka digunakan [dalam kumpulan data]. Kita harus mengumpulkan gambar dari kelompok orang yang lebih beragam, tetapi jika kita melakukannya, kita harus berhati-hati bahwa kami mendapatkan gambar dengan cara yang baik.”

“Alat dan tolok ukur adalah langkah penting … mereka memungkinkan kami untuk menangkap bias ini lebih awal dalam proses pipeline dan memikirkan kembali pengaturan dan asumsi masalah kami serta praktik pengumpulan data,” kata Vicente Ordonez-Roman, asisten profesor ilmu komputer di Universitas Virginia yang tidak terlibat dalam penelitian ini. “Dalam visi komputer, ada beberapa tantangan khusus terkait representasi dan penyebaran stereotip. Pekerjaan seperti yang dilakukan oleh Lab AI Visual Princeton membantu menjelaskan dan menarik perhatian komunitas visi komputer beberapa masalah ini dan menawarkan strategi untuk menguranginya. “

Sebuah studi terkait dari Visual AI Lab meneliti pendekatan untuk mencegah model computer vision mempelajari korelasi palsu yang mungkin mencerminkan bias, seperti aktivitas yang terlalu meramalkan seperti memasak dalam gambar wanita, atau pemrograman komputer dalam gambar pria.

Isyarat visual seperti fakta bahwa zebra berwarna hitam dan putih, atau pemain bola basket sering memakai kaus, berkontribusi pada keakuratan model, sehingga mengembangkan model yang efektif sambil menghindari korelasi yang bermasalah merupakan tantangan yang signifikan di lapangan.

Dalam penelitian yang dipresentasikan pada bulan Juni di Konferensi Internasional virtual tentang Visi Komputer dan Pengenalan Pola, mahasiswa pascasarjana teknik elektro Zeyu Wang dan rekannya membandingkan empat teknik berbeda untuk mengurangi bias dalam model visi komputer.

Mereka menemukan bahwa teknik populer yang dikenal sebagai pelatihan permusuhan, atau “keadilan melalui kebutaan”, merusak kinerja model pengenalan gambar secara keseluruhan. Dalam pelatihan adversarial, model tidak dapat mempertimbangkan informasi tentang variabel yang dilindungi – dalam studi tersebut, para peneliti menggunakan gender sebagai kasus uji. Pendekatan yang berbeda, yang dikenal sebagai pelatihan independen-domain, atau “keadilan melalui kesadaran”, bekerja jauh lebih baik dalam analisis tim.

“Pada dasarnya, ini mengatakan kita akan memiliki frekuensi aktivitas yang berbeda untuk jenis kelamin yang berbeda, dan ya, prediksi ini akan bergantung pada jenis kelamin, jadi kita hanya akan menerimanya,” kata Russakovsky.

Alat Untuk Menghilangkan Bias dari Komputer Vision: Bagian 2

Teknik yang diuraikan dalam makalah ini mengurangi potensi bias dengan mempertimbangkan atribut yang dilindungi secara terpisah dari petunjuk visual lainnya.

“Bagaimana kita benar-benar mengatasi masalah bias adalah masalah yang lebih dalam, karena tentu kita bisa melihatnya di datanya sendiri,” kata Zeyu Wang. “Tapi di dunia nyata, manusia masih bisa membuat penilaian yang baik sambil menyadari bias kita” – dan model computer vision bisa diatur untuk bekerja dengan cara yang sama, katanya.