Bias Kecerdasan Buatan (AI)

 

Bias AI, juga disebut bias machine learning atau bias algoritma, mengacu pada terjadinya hasil bias karena bias manusia yang mencondongkan data pelatihan asli atau algoritma AI, yang mengarah pada output yang terdistorsi dan hasil yang berpotensi berbahaya. Jika bias AI tidak ditangani, hal itu dapat memengaruhi keberhasilan organisasi dan menghambat kemampuan orang untuk berpartisipasi dalam ekonomi dan masyarakat. Bias mengurangi akurasi AI, dan dengan demikian mengurangi potensinya. Bisnis cenderung tidak mendapat manfaat dari sistem yang menghasilkan hasil yang terdistorsi. Dan skandal yang diakibatkan oleh bias AI dapat menumbuhkan ketidakpercayaan di kalangan orang kulit berwarna, perempuan, penyandang disabilitas atau kelompok terpinggirkan lainnya. Model yang menjadi dasar upaya AI menyerap bias masyarakat yang dapat diam-diam tertanam di pegunungan data tempat mereka dilatih. Pengumpulan data yang bias secara historis yang mencerminkan ketidaksetaraan sosial dapat mengakibatkan kerugian bagi kelompok-kelompok yang terpinggirkan secara historis dalam contoh penggunaan termasuk perekrutan, kepolisian, penilaian kredit, dan banyak lainnya. Menurut The Wall Street Journal, "Seiring dengan semakin meluasnya penggunaan kecerdasan buatan, bisnis masih berjuang untuk mengatasi bias yang menyebar."

 

Ketika AI melakukan kesalahan karena bias, seperti sekelompok orang yang tidak diberi kesempatan, salah diidentifikasi dalam foto, atau dihukum secara tidak adil, organisasi yang tersinggung akan mengalami kerusakan pada merek dan reputasinya. Pada saat yang sama, orang-orang dalam kelompok tersebut dan masyarakat secara keseluruhan dapat mengalami kerugian tanpa menyadarinya. Berikut adalah beberapa contoh kesenjangan dan bias dalam AI dan bahaya yang dapat ditimbulkannya. Dalam bidang perawatan kesehatan, kurangnya representasi data tentang perempuan atau kelompok minoritas dapat memengaruhi algoritma AI prediktif. Misalnya, sistem diagnosis berbantuan komputer (CAD) ditemukan memberikan hasil akurasi yang lebih rendah untuk pasien Afrika-Amerika daripada pasien kulit putih. AI dapat menyederhanakan otomatisasi pemindaian resume selama pencarian untuk membantu mengidentifikasi kandidat ideal, informasi yang diminta dan jawaban yang disaring dapat mengakibatkan hasil yang tidak proporsional di seluruh kelompok. Misalnya, jika sebuah iklan lowongan pekerjaan menggunakan kata 'ninja', maka hal tersebut mungkin akan menarik lebih banyak pria daripada wanita, meskipun hal tersebut sama sekali bukan merupakan persyaratan pekerjaan.

 

Sebagai pengujian pembuatan gambar, Bloomberg meminta lebih dari 5.000 gambar AI dibuat dan menemukan bahwa, "Dunia menurut Stable Diffusion dijalankan oleh CEO pria kulit putih. Wanita jarang menjadi dokter, pengacara, atau hakim. Pria dengan kulit gelap melakukan kejahatan, sementara wanita dengan kulit gelap memasak burger."4 Midjourney melakukan penelitian serupa tentang generasi seni AI, meminta gambar orang-orang dalam profesi khusus. Hasil menunjukkan orang yang lebih muda dan lebih tua, tetapi orang yang lebih tua selalu laki-laki, memperkuat bias gender dari peran perempuan di tempat kerja. Alat kepolisian prediktif yang didukung AI yang digunakan oleh beberapa organisasi dalam sistem peradilan pidana seharusnya mengidentifikasi area di mana kejahatan mungkin terjadi. Namun, mereka sering kali mengandalkan data penangkapan historis, yang dapat memperkuat pola-pola profil rasial dan penargetan yang tidak proporsional terhadap komunitas minoritas.

 

Hasil yang menyimpang dapat membahayakan organisasi dan masyarakat pada umumnya. Berikut adalah beberapa jenis bias AI yang lebih umum.

1.     Bias algoritma : Informasi yang salah dapat terjadi jika masalah atau pertanyaan yang diajukan tidak sepenuhnya benar atau spesifik, atau jika masukan ke algoritma machine learning tidak membantu memandu pencarian solusi.

2.     Bias kognitif : Teknologi AI membutuhkan input manusia, dan manusia dapat salah. Bias pribadi dapat merasuk tanpa disadari oleh para praktisi. Ini dapat memengaruhi kumpulan data atau perilaku model.

3.     Bias konfirmasi : Terkait erat dengan bias kognitif, hal ini terjadi ketika AI terlalu bergantung pada keyakinan atau tren yang sudah ada sebelumnya dalam data - menggandakan bias yang sudah ada, dan tidak dapat mengidentifikasi pola atau tren baru.

4.     Bias pengecualian: Jenis bias ini terjadi ketika data penting tidak disertakan dalam data yang digunakan, sering kali karena pengembang gagal melihat faktor-faktor baru dan penting.

5.     Bias pengukuran : Bias pengukuran disebabkan oleh data yang tidak lengkap. Ini paling sering merupakan kurangnya perhatian atau kurangnya persiapan yang menyebabkan kumpulan data tidak menyertakan seluruh populasi yang harus dipertimbangkan. Sebagai contoh, jika sebuah perguruan tinggi ingin memprediksi faktor keberhasilan kelulusan, tetapi hanya menyertakan lulusannya saja, jawabannya akan benar-benar melewatkan faktor-faktor yang menyebabkan beberapa orang putus sekolah.

6.     Bias homogenitas di luar kelompok : AI tidak mengetahui apa yang tidak diketahui. Ada kecenderungan bagi orang untuk memiliki pemahaman yang lebih baik tentang anggota ingroup (kelompok di mana seseorang berada) dan berpikir bahwa mereka lebih beragam daripada anggota outgroup. Hasil dapat membuat pengembang algoritma yang kurang mampu membedakan antara individu yang bukan bagian dari kelompok mayoritas dalam data pelatihan, yang mengarah pada bias rasial, kesalahan klasifikasi, dan jawaban yang salah.

7.     Bias prasangka : Terjadi ketika stereotip dan asumsi sosial yang salah menemukan jalan mereka ke dalam kumpulan data algoritma, yang pasti mengarah pada hasil yang bias. Misalnya, AI dapat mengembalikan hasil yang menunjukkan bahwa hanya laki-laki yang dokter dan semua perawat adalah perempuan.

8.     Bias recall : Berkembang selama pelabelan data, di mana label diterapkan secara tidak konsisten oleh pengamatan subjektif.

9.     Bias sampel/seleksi : Masalah ketika data yang digunakan untuk melatih model machine learning tidak cukup besar, tidak cukup representatif, atau terlalu tidak lengkap untuk melatih sistem secara memadai. Jika semua guru sekolah yang berkonsultasi untuk melatih model AI memiliki kualifikasi akademik yang sama, maka setiap guru masa depan yang dipertimbangkan harus memiliki kualifikasi akademik yang identik.

10.  Bias stereotip : Hal ini terjadi ketika sistem AI - biasanya secara tidak sengaja - memperkuat stereotip yang berbahaya. Misalnya, sistem terjemahan bahasa dapat mengaitkan beberapa bahasa dengan jenis kelamin atau stereotip etnis tertentu. McKinsey memberikan kata peringatan tentang mencoba menghilangkan prasangka dari kumpulan data: "Pendekatan naif menghapus kelas yang dilindungi (seperti jenis kelamin atau ras) dari data dan menghapus label yang membuat algoritma menjadi bias. Namun, pendekatan ini mungkin tidak akan berhasil karena label yang dihapus dapat memengaruhi pemahaman model dan akurasi hasil Anda bisa menjadi lebih buruk."


Prinsip untuk menghindari bias

Langkah pertama untuk menghindari jebakan bias adalah dengan mundur di awal dan memikirkan upaya AI. Seperti halnya dengan hampir semua tantangan bisnis, masalah jauh lebih mudah untuk diperbaiki di awal daripada menunggu melatih dan kemudian memilah-milah hasil yang rusak. Tetapi banyak organisasi terburu-buru: hemat di hal kecil tetapi boros di hal besar, dan itu merugikan mereka. Mengidentifikasi dan mengatasi bias dalam AI membutuhkan tata kelola AI, atau kemampuan untuk mengarahkan, mengelola, dan memantau aktivitas AI suatu organisasi. Dalam praktiknya, tata kelola AI menciptakan serangkaian kebijakan, praktik, dan kerangka kerja untuk memandu pengembangan dan penggunaan teknologi AI yang bertanggung jawab. Ketika dilakukan dengan baik, tata kelola AI membantu memastikan bahwa ada keseimbangan manfaat yang diberikan kepada bisnis, pelanggan, karyawan, dan masyarakat secara keseluruhan. Tata kelola AI sering kali mencakup metode yang bertujuan untuk menilai keadilan, kesetaraan, dan inklusi. Pendekatan seperti keadilan kontrafaktual mengidentifikasi bias dalam pengambilan keputusan model dan memastikan hasil yang adil, bahkan ketika atribut sensitif, seperti jenis kelamin, ras, atau orientasi seksual disertakan. Karena kompleksitas AI, sebuah algoritma dapat menjadi sistem kotak hitam dengan sedikit insight tentang data yang digunakan untuk membuatnya. Praktik dan teknologi transparansi membantu memastikan bahwa data tidak bias digunakan untuk membangun sistem dan hasilnya akan adil. Perusahaan yang bekerja untuk melindungi informasi pelanggan membangun kepercayaan merek dan lebih mungkin akan membuat sistem AI yang dapat dipercaya. Untuk memberikan lapisan jaminan kualitas lainnya, buatlah sistem "human-in-the-loop" untuk menawarkan opsi atau membuat rekomendasi yang kemudian dapat disetujui oleh keputusan manusia. Berikut adalah daftar periksa enam langkah proses yang dapat menjaga program AI bebas dari bias.

1.     Pilih model pembelajaran yang benar : Saat menggunakan model yang diawasi, pemangku kepentingan memilih data pelatihan. Sangat penting bahwa tim pemangku kepentingan beragam, bukan hanya ilmuwan data, dan bahwa mereka telah menjalani pelatihan untuk membantu mencegah bias bawah sadar. Model tanpa pengawasan menggunakan AI sendiri untuk mengidentifikasi bias. Alat pencegahan bias perlu dibangun ke dalam jaringan neural sehingga ia belajar mengenali apa yang bias.

2.     Melatih dengan data yang tepat : machine learning yang dilatih pada data yang salah akan menghasilkan hasil yang salah. Data apa pun yang dimasukkan ke dalam AI harus lengkap dan seimbang untuk mereplikasi demografi aktual dari kelompok yang dipertimbangkan.

3.     Pilih tim yang seimbang : Semakin beragam tim AI secara ras, ekonomi, tingkat pendidikan, jenis kelamin, dan deskripsi pekerjaan, semakin besar kemungkinan tim tersebut akan mengenali bias. Bakat dan sudut pandang dalam tim AI yang menyeluruh harus mencakup inovator bisnis AI, pencipta AI, pelaksana AI, dan representasi konsumen dari upaya AI khusus ini.

4.     Lakukan pemrosesan data dengan hati-hati : Bisnis perlu menyadari adanya bias pada setiap langkah saat memproses data. Risiko tidak hanya pada pemilihan data: baik selama pra-pemrosesan, dalam pemrosesan, atau pasca-pemrosesan, bias dapat merayap masuk kapan saja dan dimasukkan ke dalam AI.

5.     Pantau terus menerus : Tidak ada model yang pernah lengkap atau permanen. Pemantauan dan pengujian yang sedang berlangsung dengan data dunia nyata dari seluruh organisasi dapat membantu deteksi dan mengoreksi bias sebelum hal tersebut menyebabkan kerugian. Untuk menghindari bias, organisasi harus mempertimbangkan penilaian oleh tim independen dari dalam organisasi atau pihak ketiga yang tepercaya.

6.     Hindari masalah infrastruktur : Selain pengaruh manusia dan data, terkadang infrastruktur itu sendiri dapat menyebabkan bias. Misalnya, dengan menggunakan data yang dikumpulkan dari sensor mekanis, peralatan itu sendiri dapat menyuntikkan bias jika sensor tersebut tidak berfungsi dengan baik. Bias semacam ini sulit dideteksi dan memerlukan investasi dalam infrastruktur digital dan teknologi terkini.

 

James Holdsworth

Sumber : https://www.ibm.com/ 

Comments

Post a Comment