Decoding Hak Untuk Penjelasan Dalam Kecerdasan Buatan
Diterbitkan: 2020-10-31Salah satu perkembangan kebijakan terpenting untuk mengatur penerapan AI telah dimasukkan dalam GDPR tahun 2018
Sama seperti berbagai mesin pembakaran internal yang ada saat ini, model dan algoritme AI memiliki tipe yang berbeda dengan tingkat kerumitan yang berbeda-beda
Saat membuat keputusan, AI tidak melampirkan makna dan mengkategorikan informasi baru dengan cara yang sama seperti manusia
Kecerdasan Buatan, bagi kebanyakan orang, adalah teknologi yang paling mendukung chatbots atau pengenalan gambar – pada dasarnya, perangkat lunak yang memberi tahu gambar kucing dari anjing. Yang lain melihatnya sebagai ancaman serius terhadap pekerjaan harian mereka. Terlepas dari dampaknya terhadap kehidupan mereka, orang-orang memandang AI sebagai teknologi dengan potensi masa depan yang luar biasa. Sementara masa depan AI menimbulkan kekaguman dan ketakutan, dampaknya pada saat ini sebagian besar masih belum diketahui. Dari daftar pendek resume hingga menyebarkan propaganda, AI bekerja lebih keras daripada yang kita ketahui. Efeknya signifikan dan para pemimpin di seluruh dunia dengan cepat menyadarinya.
Berjuang untuk kerangka peraturan di MIT's AeroAstro Centennial Symposium , Elon Musk berpendapat, “Saya semakin cenderung berpikir bahwa harus ada beberapa pengawasan peraturan, mungkin di tingkat nasional dan internasional, hanya untuk memastikan bahwa kita tidak melakukan sesuatu. sangat bodoh. Maksudku dengan kecerdasan buatan kita memanggil iblis. ”
Salah satu perkembangan kebijakan terpenting untuk mengatur penerapan AI dimasukkan dalam GDPR pada tahun 2018. Pasal 22, di bawah bagian 4 GDPR, pada intinya, menyatakan bahwa jika aplikasi Anda untuk pekerjaan atau pinjaman atau kewarganegaraan ditolak berdasarkan skor perangkat lunak pemrosesan cerdas otomatis, Anda berhak meminta penjelasan. Ketidakpatuhan dapat mengundang denda hingga €20 juta atau 4% dari omset tahunan global perusahaan. Idenya adalah untuk menghilangkan prediksi perilaku diskriminatif dan stereotip berdasarkan data. Dan itu adalah Hak untuk Penjelasan singkatnya.
Mengapa Hak Untuk Penjelasan Diperlukan?
Skor yang digunakan untuk membuat prediksi didasarkan pada evaluasi beberapa variabel yang tampaknya tidak berhubungan dan hubungannya dengan serangkaian algoritma. Tanpa campur tangan manusia, hasilnya terkadang tidak menentu. Tidak dicentang, ini dapat mengatur panggung untuk stereotip zaman baru dan memicu bias yang ada. Sementara AI bekerja dengan data, data itu sendiri dapat menimbulkan bias yang gagal bahkan pada sistem AI yang paling kuat sekalipun.
Misalnya, penolakan aplikasi hipotek oleh sistem berbasis AI dapat memiliki dampak yang tidak diinginkan. Algoritme belajar mandiri, berdasarkan data historis, mungkin cocok dengan usia dan kode pos pemohon dengan sekelompok orang yang gagal membayar pinjaman mereka pada kuartal terakhir. Saat melakukannya, mungkin mengabaikan kriteria tertentu yang menguntungkan, seperti kualitas aset, yang tidak ada dalam data historis.
Tanpa penjelasan yang valid, penolakan tersebut dapat mengundang tindakan hukum untuk stereotip dan diskriminasi, terutama jika lingkungan tersebut menampung orang-orang yang sebagian besar merupakan kelompok minoritas. Oleh karena itu, sebagai teknologi yang memiliki potensi untuk mengambil keputusan atas nama manusia, AI perlu menyampaikan etika, keadilan, dan keadilan dalam interaksi manusia. Setidaknya, perlu memenuhi jenis keadilan berikut:
Direkomendasikan untukmu:
- Distributif – alokasi sumber daya, peluang, dan penghargaan yang adil secara sosial
- Prosedural – proses yang adil dan transparan untuk mencapai hasil
- Interaksional – proses dan hasil keduanya perlu memperlakukan orang-orang yang terkena dampak dengan bermartabat dan hormat
Hak atas penjelasan menutup lingkaran keadilan yang sangat penting ini dalam penggunaan AI.
AI Dan Tantangan Hak Untuk Penjelasan
Sama seperti berbagai mesin pembakaran internal yang ada saat ini, model dan algoritma AI memiliki tipe yang berbeda dengan tingkat kerumitan yang berbeda-beda. Hasil dari model yang lebih sederhana, seperti Regresi Linier, relatif mudah dijelaskan. Variabel yang terlibat, bobot dan kombinasinya untuk sampai pada skor output diketahui.
Algoritme kompleks seperti pembelajaran mendalam, sambil berjuang untuk akurasi yang lebih besar, bertindak sebagai kotak hitam – apa yang terjadi di dalam, tetap di dalam. Dengan algoritma yang belajar sendiri dan membangun pola, penyebab hasil tertentu sulit dijelaskan, karena:
- Variabel yang sebenarnya digunakan oleh algoritma tidak diketahui
- Kepentingan/bobot yang melekat pada variabel tidak dapat dihitung kembali
- Beberapa konstruksi perantara dan hubungan antar variabel tetap tidak diketahui
Jika proses penerimaan universitas didukung sepenuhnya oleh jaringan saraf, itu akan membuat prosesnya lebih buram daripada sekarang. Penolakan kursi di universitas terkemuka, karena algoritme mereka menemukan "latar belakang" tertentu kurang cocok, Anda akan bertanya-tanya bagian mana dari "latar belakang" Anda yang bertentangan dengan Anda. Lebih buruk lagi, panitia penerimaan akan gagal menjelaskannya kepada Anda. Dalam keadaan di mana ketidakadilan sosial berlimpah, AI yang buram adalah hal terakhir yang akan diminta oleh universitas.
Di sisi lain, AI yang sepenuhnya transparan akan membuat algoritme rentan untuk dipermainkan dan mengarah pada pembajakan seluruh proses penerimaan. Oleh karena itu, hak atas penjelasan adalah tentang AI yang mencapai tingkat tembus pandang yang tepat; itu tidak bisa sepenuhnya transparan atau buram.
Jalan lurus
Saat mengambil keputusan, AI tidak melampirkan makna dan mengkategorikan informasi baru dengan cara yang sama seperti manusia. Ini memperkuat pola yang paling umum dan mengecualikan kasus yang tidak mayoritas. Salah satu solusi teknis yang mungkin sedang dieksplorasi secara aktif adalah membuat AI dapat dijelaskan. AI yang Dapat Dijelaskan (XAI) sangat diperlukan dalam kasus penggunaan berisiko tinggi dan berisiko tinggi yang relevan, seperti diagnosis medis di mana kepercayaan merupakan bagian integral dari solusi. Tanpa transparansi yang cukup pada pemrosesan internalnya, algoritme Blackbox gagal menawarkan tingkat kepercayaan yang diperlukan untuk menyelamatkan nyawa.
Dengan kerapuhan yang begitu mengakar dalam arsitektur fundamentalnya – baik teknologi maupun statistik – AI membutuhkan regulasi. Seperti yang ditulis Sundar Pichai di Financial Times awal tahun ini, “ Sekarang tidak ada pertanyaan dalam pikiran saya bahwa kecerdasan buatan perlu diatur. Terlalu penting untuk tidak melakukannya. Satu-satunya pertanyaan adalah bagaimana mendekatinya. ”
Kerangka hukum yang mengatur AI sedang berkembang dan dalam keadaan berubah-ubah di berbagai belahan dunia.
Di India, dengan Hak atas Privasi menjadi pusat perhatian dalam debat nasional beberapa bulan yang lalu, kami tidak jauh dari undang-undang komprehensif yang mengatur AI mulai terbentuk. Khususnya, sebuah makalah diskusi yang diterbitkan oleh NITI Aayog pada Juni 2018, membahas masalah ini dengan cukup rinci. Seiring waktu, ketika lingkup pengaruh AI meluas, undang-undang, sebagai tanggapan, akan menjadi lebih ketat untuk memasukkan lebih banyak ketentuan.
Saat teknologi berkembang dan aplikasi barunya ditemukan, ada kebutuhan untuk pengaturan mandiri oleh industri. Organisasi perlu secara proaktif fokus pada penerapan XAI yang menjaga sifat manusia dari interaksi yang didasarkan pada kepercayaan dan pemahaman. Jika tidak ada, itu akan mencegah inovasi yang berpotensi mengubah hidup dari dilumpuhkan oleh apa yang bisa menjadi undang-undang perlindungan yang bermaksud baik. Seperti kebanyakan hal dalam hidup, solusinya terletak pada keseimbangan yang tepat.