Bias
AI, juga disebut bias machine learning atau bias algoritma, mengacu pada
terjadinya hasil bias karena bias manusia yang mencondongkan data pelatihan
asli atau algoritma AI, yang mengarah pada output yang terdistorsi dan hasil
yang berpotensi berbahaya. Jika bias AI tidak ditangani, hal itu dapat
memengaruhi keberhasilan organisasi dan menghambat kemampuan orang untuk
berpartisipasi dalam ekonomi dan masyarakat. Bias mengurangi akurasi AI, dan
dengan demikian mengurangi potensinya. Bisnis cenderung tidak mendapat manfaat
dari sistem yang menghasilkan hasil yang terdistorsi. Dan skandal yang
diakibatkan oleh bias AI dapat menumbuhkan ketidakpercayaan di kalangan orang
kulit berwarna, perempuan, penyandang disabilitas atau kelompok terpinggirkan
lainnya. Model yang menjadi dasar upaya AI menyerap bias masyarakat yang dapat
diam-diam tertanam di pegunungan data tempat mereka dilatih. Pengumpulan data
yang bias secara historis yang mencerminkan ketidaksetaraan sosial dapat
mengakibatkan kerugian bagi kelompok-kelompok yang terpinggirkan secara
historis dalam contoh penggunaan termasuk perekrutan, kepolisian, penilaian
kredit, dan banyak lainnya. Menurut The Wall Street Journal, "Seiring
dengan semakin meluasnya penggunaan kecerdasan buatan, bisnis masih berjuang
untuk mengatasi bias yang menyebar."
Ketika
AI melakukan kesalahan karena bias, seperti sekelompok orang yang tidak diberi
kesempatan, salah diidentifikasi dalam foto, atau dihukum secara tidak adil,
organisasi yang tersinggung akan mengalami kerusakan pada merek dan
reputasinya. Pada saat yang sama, orang-orang dalam kelompok tersebut dan
masyarakat secara keseluruhan dapat mengalami kerugian tanpa menyadarinya.
Berikut adalah beberapa contoh kesenjangan dan bias dalam AI dan bahaya yang
dapat ditimbulkannya. Dalam bidang perawatan kesehatan, kurangnya representasi
data tentang perempuan atau kelompok minoritas dapat memengaruhi algoritma AI
prediktif. Misalnya, sistem diagnosis berbantuan komputer (CAD) ditemukan
memberikan hasil akurasi yang lebih rendah untuk pasien Afrika-Amerika daripada
pasien kulit putih. AI dapat menyederhanakan otomatisasi pemindaian resume
selama pencarian untuk membantu mengidentifikasi kandidat ideal, informasi yang
diminta dan jawaban yang disaring dapat mengakibatkan hasil yang tidak
proporsional di seluruh kelompok. Misalnya, jika sebuah iklan lowongan
pekerjaan menggunakan kata 'ninja', maka hal tersebut mungkin akan menarik
lebih banyak pria daripada wanita, meskipun hal tersebut sama sekali bukan
merupakan persyaratan pekerjaan.
Sebagai
pengujian pembuatan gambar, Bloomberg meminta lebih dari 5.000 gambar AI dibuat
dan menemukan bahwa, "Dunia menurut Stable Diffusion dijalankan oleh CEO
pria kulit putih. Wanita jarang menjadi dokter, pengacara, atau hakim. Pria
dengan kulit gelap melakukan kejahatan, sementara wanita dengan kulit gelap
memasak burger."4 Midjourney melakukan penelitian serupa tentang generasi
seni AI, meminta gambar orang-orang dalam profesi khusus. Hasil menunjukkan
orang yang lebih muda dan lebih tua, tetapi orang yang lebih tua selalu
laki-laki, memperkuat bias gender dari peran perempuan di tempat kerja. Alat
kepolisian prediktif yang didukung AI yang digunakan oleh beberapa organisasi
dalam sistem peradilan pidana seharusnya mengidentifikasi area di mana
kejahatan mungkin terjadi. Namun, mereka sering kali mengandalkan data
penangkapan historis, yang dapat memperkuat pola-pola profil rasial dan
penargetan yang tidak proporsional terhadap komunitas minoritas.
Hasil
yang menyimpang dapat membahayakan organisasi dan masyarakat pada umumnya.
Berikut adalah beberapa jenis bias AI yang lebih umum.
1.
Bias
algoritma : Informasi yang salah dapat terjadi jika masalah atau pertanyaan
yang diajukan tidak sepenuhnya benar atau spesifik, atau jika masukan ke
algoritma machine learning tidak membantu memandu pencarian solusi.
2.
Bias
kognitif : Teknologi AI membutuhkan input manusia, dan manusia dapat salah.
Bias pribadi dapat merasuk tanpa disadari oleh para praktisi. Ini dapat
memengaruhi kumpulan data atau perilaku model.
3.
Bias
konfirmasi : Terkait erat dengan bias kognitif, hal ini terjadi ketika AI
terlalu bergantung pada keyakinan atau tren yang sudah ada sebelumnya dalam
data - menggandakan bias yang sudah ada, dan tidak dapat mengidentifikasi pola
atau tren baru.
4.
Bias
pengecualian: Jenis bias ini terjadi ketika data penting tidak disertakan dalam
data yang digunakan, sering kali karena pengembang gagal melihat faktor-faktor
baru dan penting.
5.
Bias
pengukuran : Bias pengukuran disebabkan oleh data yang tidak lengkap. Ini
paling sering merupakan kurangnya perhatian atau kurangnya persiapan yang
menyebabkan kumpulan data tidak menyertakan seluruh populasi yang harus
dipertimbangkan. Sebagai contoh, jika sebuah perguruan tinggi ingin memprediksi
faktor keberhasilan kelulusan, tetapi hanya menyertakan lulusannya saja,
jawabannya akan benar-benar melewatkan faktor-faktor yang menyebabkan beberapa
orang putus sekolah.
6.
Bias
homogenitas di luar kelompok : AI tidak mengetahui apa yang tidak diketahui.
Ada kecenderungan bagi orang untuk memiliki pemahaman yang lebih baik tentang
anggota ingroup (kelompok di mana seseorang berada) dan berpikir bahwa mereka
lebih beragam daripada anggota outgroup. Hasil dapat membuat pengembang
algoritma yang kurang mampu membedakan antara individu yang bukan bagian dari
kelompok mayoritas dalam data pelatihan, yang mengarah pada bias rasial,
kesalahan klasifikasi, dan jawaban yang salah.
7.
Bias
prasangka : Terjadi ketika stereotip dan asumsi sosial yang salah menemukan
jalan mereka ke dalam kumpulan data algoritma, yang pasti mengarah pada hasil
yang bias. Misalnya, AI dapat mengembalikan hasil yang menunjukkan bahwa hanya
laki-laki yang dokter dan semua perawat adalah perempuan.
8.
Bias
recall : Berkembang selama pelabelan data, di mana label diterapkan secara
tidak konsisten oleh pengamatan subjektif.
9.
Bias
sampel/seleksi : Masalah ketika data yang digunakan untuk melatih model machine
learning tidak cukup besar, tidak cukup representatif, atau terlalu tidak
lengkap untuk melatih sistem secara memadai. Jika semua guru sekolah yang
berkonsultasi untuk melatih model AI memiliki kualifikasi akademik yang sama,
maka setiap guru masa depan yang dipertimbangkan harus memiliki kualifikasi
akademik yang identik.
10. Bias stereotip : Hal ini terjadi
ketika sistem AI - biasanya secara tidak sengaja - memperkuat stereotip yang
berbahaya. Misalnya, sistem terjemahan bahasa dapat mengaitkan beberapa bahasa
dengan jenis kelamin atau stereotip etnis tertentu. McKinsey memberikan kata
peringatan tentang mencoba menghilangkan prasangka dari kumpulan data:
"Pendekatan naif menghapus kelas yang dilindungi (seperti jenis kelamin
atau ras) dari data dan menghapus label yang membuat algoritma menjadi bias.
Namun, pendekatan ini mungkin tidak akan berhasil karena label yang dihapus
dapat memengaruhi pemahaman model dan akurasi hasil Anda bisa menjadi lebih
buruk."
Prinsip untuk menghindari bias
Langkah
pertama untuk menghindari jebakan bias adalah dengan mundur di awal dan
memikirkan upaya AI. Seperti halnya dengan hampir semua tantangan bisnis,
masalah jauh lebih mudah untuk diperbaiki di awal daripada menunggu melatih dan
kemudian memilah-milah hasil yang rusak. Tetapi banyak organisasi terburu-buru:
hemat di hal kecil tetapi boros di hal besar, dan itu merugikan mereka. Mengidentifikasi
dan mengatasi bias dalam AI membutuhkan tata kelola AI, atau kemampuan untuk
mengarahkan, mengelola, dan memantau aktivitas AI suatu organisasi. Dalam
praktiknya, tata kelola AI menciptakan serangkaian kebijakan, praktik, dan
kerangka kerja untuk memandu pengembangan dan penggunaan teknologi AI yang
bertanggung jawab. Ketika dilakukan dengan baik, tata kelola AI membantu
memastikan bahwa ada keseimbangan manfaat yang diberikan kepada bisnis,
pelanggan, karyawan, dan masyarakat secara keseluruhan. Tata kelola AI sering
kali mencakup metode yang bertujuan untuk menilai keadilan, kesetaraan, dan
inklusi. Pendekatan seperti keadilan kontrafaktual mengidentifikasi bias dalam
pengambilan keputusan model dan memastikan hasil yang adil, bahkan ketika
atribut sensitif, seperti jenis kelamin, ras, atau orientasi seksual
disertakan. Karena kompleksitas AI, sebuah algoritma dapat menjadi sistem kotak
hitam dengan sedikit insight tentang data yang digunakan untuk membuatnya.
Praktik dan teknologi transparansi membantu memastikan bahwa data tidak bias
digunakan untuk membangun sistem dan hasilnya akan adil. Perusahaan yang bekerja
untuk melindungi informasi pelanggan membangun kepercayaan merek dan lebih
mungkin akan membuat sistem AI yang dapat dipercaya. Untuk memberikan lapisan
jaminan kualitas lainnya, buatlah sistem "human-in-the-loop" untuk
menawarkan opsi atau membuat rekomendasi yang kemudian dapat disetujui oleh
keputusan manusia. Berikut adalah daftar periksa enam langkah proses yang dapat
menjaga program AI bebas dari bias.
1.
Pilih
model pembelajaran yang benar : Saat menggunakan model yang diawasi, pemangku
kepentingan memilih data pelatihan. Sangat penting bahwa tim pemangku
kepentingan beragam, bukan hanya ilmuwan data, dan bahwa mereka telah menjalani
pelatihan untuk membantu mencegah bias bawah sadar. Model tanpa pengawasan
menggunakan AI sendiri untuk mengidentifikasi bias. Alat pencegahan bias perlu
dibangun ke dalam jaringan neural sehingga ia belajar mengenali apa yang bias.
2.
Melatih
dengan data yang tepat : machine learning yang dilatih pada data yang salah
akan menghasilkan hasil yang salah. Data apa pun yang dimasukkan ke dalam AI
harus lengkap dan seimbang untuk mereplikasi demografi aktual dari kelompok
yang dipertimbangkan.
3.
Pilih
tim yang seimbang : Semakin beragam tim AI secara ras, ekonomi, tingkat
pendidikan, jenis kelamin, dan deskripsi pekerjaan, semakin besar kemungkinan
tim tersebut akan mengenali bias. Bakat dan sudut pandang dalam tim AI yang
menyeluruh harus mencakup inovator bisnis AI, pencipta AI, pelaksana AI, dan
representasi konsumen dari upaya AI khusus ini.
4.
Lakukan
pemrosesan data dengan hati-hati : Bisnis perlu menyadari adanya bias pada
setiap langkah saat memproses data. Risiko tidak hanya pada pemilihan data:
baik selama pra-pemrosesan, dalam pemrosesan, atau pasca-pemrosesan, bias dapat
merayap masuk kapan saja dan dimasukkan ke dalam AI.
5.
Pantau
terus menerus : Tidak ada model yang pernah lengkap atau permanen. Pemantauan
dan pengujian yang sedang berlangsung dengan data dunia nyata dari seluruh
organisasi dapat membantu deteksi dan mengoreksi bias sebelum hal tersebut
menyebabkan kerugian. Untuk menghindari bias, organisasi harus mempertimbangkan
penilaian oleh tim independen dari dalam organisasi atau pihak ketiga yang
tepercaya.
6.
Hindari
masalah infrastruktur : Selain pengaruh manusia dan data, terkadang
infrastruktur itu sendiri dapat menyebabkan bias. Misalnya, dengan menggunakan
data yang dikumpulkan dari sensor mekanis, peralatan itu sendiri dapat
menyuntikkan bias jika sensor tersebut tidak berfungsi dengan baik. Bias
semacam ini sulit dideteksi dan memerlukan investasi dalam infrastruktur
digital dan teknologi terkini.
James
Holdsworth
Sumber : https://www.ibm.com/

Ichka Sabila
ReplyDeleteKelas K
Npm 251000441