6 minute read

Sudah baca tulisan saya yang ini? Kalau belum dibaca dulu semuanya yah (termasuk link ke tulisan di blog saya yang lama). hehe

Sekarang saya mau bahas lebih detail tentang bias di Artificial Intelligence.

Banyak orang berkata bahwa AI tak akan bisa salah. AI bisa menjadi leader atau decision maker yang lebih baik dibanding manusia karena murni mengedepankan logika dibandingkan faktor emosional.

Benarkah seperti itu Ferguso? Oke, mari kita bedah bersama yah.

Saat kita berbicara mengenai AI, biasanya kita biasa membicarakan kemampuan AI dalam membuat decision yang mengandalkan suatu model prediksi atau klasifikasi.

Pada dasarnya AI itu dibangun atas kumpulan model matematika dan model statistika. Dengan bantuan komputer, proses kalkulasi menjadi cepat dan efisien.

Untuk membangun model prediksi atau klasifikasi di AI (sekarang saya akan menggunakan istilah Machine Learning), kita mengetahui ada tiga jenis cara membangun modelnya. Yakni:

  1. Supervised Learning.
  2. Unsupervised Learning.
  3. Semi-supervised Learning.

Biasanya Supervised Learning adalah jenis model yang paling sering digunakan karena kita ingin AI bisa “berpikir” dan “bertindak” seperti layaknya manusia. Tapi apakah kita tahu cara membangun model Supervised Learning?

Supervised Learning berarti membangun model prediksi atau klasifikasi berdasarkan training dataset yang sudah kita berikan label pada variabel target sebagai basis bagi mesin dalam membangun model.

Oleh karena itu, memilih training dataset menjadi hal yang paling krusial untuk membangun model prediksi atau klasifikasi.

Jika dalam training dataset ada bias yang tidak kita sadari, maka yakinlah model kita akan juga menjadi bias.

Contoh sederhana:

Misalkan, kita ingin membuat model yang bisa memprediksi apakah seseorang layak diberi pinjaman oleh bank atau tidak. Kita akan membuat model berdasarkan training dataset yang berisi variabel-variabel sebagai berikut:

  1. gender
  2. etnis
  3. usia
  4. pekerjaan
  5. income_per_month
  6. marital_status
  7. banyak_tanggungan
  8. status_pekerjaan
  9. tagihan_kartu_kredit
  10. area_tempat_tinggal
  11. dll.
  12. layak_atau_tidak –> Variabel target yang menyatakan seseorang layak atau tidak diberikan pinjaman oleh bank.

Ada yang sadar gak bahwa variabel-variabel di atas bisa berpotensi menimbulkan bias?

Jika pada training dataset tersebut ternyata mayoritas orang yang diberikan pinjaman berjenis kelamin lelaki, maka saat nanti mesin mendapatkan data real seseorang berjenis kelamin wanita ingin mengajukan pinjaman, bisa jadi orang tersebut akan ditolak.

ATAU,

Jika pada training dataset tersebut ternyata mayoritas orang yang diberikan pinjaman bertempat tinggal di suatu area tertentu, maka hampir bisa dipastikan jika ada seseorang dari area tempat tinggal tertentu akan sulit mendapatkan approval pinjaman.

ATAU

Pada training dataset tersebut memiliki sedikit keterwakilan dari suatu etnis tertentu, hampir bisa dipastikan model tersebut tidak akan mengakomodir approval untuk etnis tersebut.

Sekarang sudah kebayang potensi-potensi bias yang ada?

Ada gak sih cara untuk meminimalisir biasnya?

Cara paling mudah adalah melakukan pemilihan variabel pada training dataset yang tidak menimbulkan bias. Variabel yang berhubungan dengan SARA bisa dihilangkan beserta variabel lainnya yang dikira bisa menimbulkan bias.

Untuk melakukan itu, dibutuhkan human intelligence sebagai backbone dari AI.

Btw, inget kejadian dimana seorang penumpang pesawat United Express Flight 3411 diusir paksa dari pesawat? Kejadian ini sempat viral di Amerika sana.

Saat event Indonesia AI Summit di Nusa Dua tahun lalu, Prof. Terence Tse pada keynote speak-nya sempat menyinggung bagaimana algoritma United Express memegang peranan penting bagaimana penumpang tersebut dipaksa turun dari pesawat.

Saya mencoba mencari artikel terkait itu, tidak ada yang spesifik membenarkan pernyataan Prof. Tse, tapi ada yang setidaknya mirip dengan pernyataan tersebut.

Kesimpulan:

  • Rubbish in, rubbish out!

Yakin masih mau dipimpin oleh AI?