Yapay Zekada Açıklama Hakkının Şifresini Çözmek
Yayınlanan: 2020-10-31AI uygulamasını düzenleyen en önemli politika gelişmelerinden biri 2018'de GDPR'ye dahil edildi.
Günümüzde var olan çeşitli içten yanmalı motorlar gibi, AI modelleri ve algoritmaları da değişen karmaşıklık seviyelerine sahip farklı türlerdedir.
AI, karar verirken anlam yüklemez ve yeni bilgileri insanlarla aynı şekilde kategorize etmez.
Çoğu insan için Yapay Zeka, sohbet robotlarına veya en iyi ihtimalle görüntü tanımaya güç veren bir teknolojidir – temel olarak, kedilerin görüntülerini köpeklerden söyleyen bir yazılımdır. Diğerleri bunu normal günlük işleri için ciddi bir tehdit olarak görüyor. Hayatları üzerindeki etkisi ne olursa olsun, insanlar AI'yı muazzam bir gelecek potansiyeli olan bir teknoloji olarak görüyorlar. Yapay zekanın geleceği huşu ve korku uyandırırken, şu an üzerindeki etkisi büyük ölçüde kabul görmedi. Kısa listeye alınan özgeçmişlerden propaganda yaymaya kadar, AI bizim için çoğumuzun bildiğinden daha fazla çalışıyor. Etkiler önemli ve dünyanın dört bir yanındaki liderler buna hızla uyanıyor.
MIT'nin AeroAstro Centennial Sempozyumu'nda düzenleyici çerçeve için mücadele eden Elon Musk , “Sırf bir şey yapmadığımızdan emin olmak için, belki de ulusal ve uluslararası düzeyde bazı düzenleyici gözetim olması gerektiğini düşünmeye giderek daha fazla eğilimliyim. çok aptalca. Yani yapay zeka ile şeytanı çağırıyoruz. ”
AI uygulamasını düzenleyen en önemli politika gelişmelerinden biri, 2018 yılında GDPR'ye dahil edildi. GDPR'nin 4. bölümünde yer alan 22. Madde, özünde, bir iş, kredi veya vatandaşlık başvurunuzun puanlara göre reddedilmesi durumunda diyor. otomatik akıllı işleme yazılımı için bir açıklama talep etme hakkınız vardır. Uyumsuzluk, 20 Milyon Euro'ya kadar veya şirketin küresel yıllık cirosunun %4'üne kadar bir para cezasına neden olabilir. Buradaki fikir, ayrımcı davranış tahminlerini ve verilere dayalı kalıp yargıları ortadan kaldırmaktır. Ve bu kısaca Açıklama Hakkıdır.
Açıklama Hakkı Neden Gereklidir?
Tahmin yapmak için kullanılan puanlar, görünüşte alakasız birkaç değişkenin ve bunların bir dizi algoritma ile ilişkilerinin değerlendirilmesine dayanır. İnsan müdahalesi olmadan, sonuçlar bazen düzensiz olabilir. Bunlar kontrol edilmezse, yeni çağ stereotipleri için zemin hazırlayabilir ve mevcut önyargıları körükleyebilir. Yapay zeka verilerle çalışırken, verilerin kendisi en sağlam yapay zeka sistemlerinde bile başarısız olan önyargılar üretebilir.
Örneğin, AI tabanlı bir sistem tarafından bir ipotek başvurusunun reddedilmesi, istenmeyen bazı sonuçlara yol açabilir. Tarihsel verilere dayanan kendi kendine öğrenen bir algoritma, başvuranın yaşını ve posta kodunu, son çeyrekte kredilerini temerrüde düşüren bir grup insanla eşleştirebilir. Bunu yaparken, geçmiş verilerde bulunmayan varlık kalitesi gibi belirli lehte kriterleri gözden kaçırabilir.
Geçerli bir açıklama olmadan, reddetme, özellikle mahallede çoğunlukla bir azınlık grubuna mensup insanlar varsa, klişeleştirme ve ayrımcılık için yasal yollara başvurmaya davet edebilir. Bu nedenle, insanlar adına karar verme potansiyeline sahip bir teknoloji olarak AI, insan etkileşimlerinde etik, adalet ve adalet sağlamalıdır. Asgari düzeyde, aşağıdaki adalet türlerini karşılaması gerekir:
Sizin için tavsiye edilen:
- Dağıtıcı – kaynakların, fırsatların ve ödüllerin sosyal olarak adil dağılımı
- Prosedürel – bir sonuca varmak için adil ve şeffaf süreç
- Etkileşimsel – hem süreç hem de sonuç, etkilenen insanlara haysiyet ve saygıyla muamele etmelidir
Açıklama hakkı, yapay zeka kullanımındaki bu çok önemli adalet döngüsünü kapatır.
Yapay Zeka ve Açıklama Hakkının Zorlukları
Günümüzde var olan çeşitli içten yanmalı motorlar gibi, AI modelleri ve algoritmaları da değişen karmaşıklık seviyelerine sahip farklı türlerdedir. Doğrusal Regresyon gibi daha basit modellerin sonucunu açıklamak nispeten kolaydır. İlgili değişkenler, ağırlıkları ve çıktı puanına ulaşmak için kombinasyonları bilinmektedir.
Derin öğrenme gibi karmaşık algoritmalar, daha fazla doğruluk için çabalarken bir kara kutu görevi görür - içeride olan biten içeride kalır. Kendi kendine öğrenen ve kalıplar oluşturan algoritmalarla, belirli bir sonucun nedenini açıklamak zordur, çünkü:
- Algoritmalar tarafından gerçekte kullanılan değişkenler bilinmiyor
- Değişkenlere verilen önem/ağırlık geri hesaplanamaz
- Değişkenler arasındaki çeşitli ara yapılar ve ilişkiler bilinmemektedir.
Üniversiteye giriş süreçleri tamamen sinir ağları tarafından desteklenseydi, süreci bugün olduğundan daha belirsiz hale getirirdi. Önde gelen bir üniversitede bir koltuk reddedildi, çünkü algoritmaları belirli bir "arka planı" daha az uygun buluyor, "arka planınızın" hangi bölümünün size karşı çalıştığını merak ediyorsunuz. Daha da kötüsü, kabul komitesi bunu size açıklamakta başarısız olur. Sosyal eşitsizliklerin bol olduğu bir eyalette, şeffaf olmayan bir yapay zeka, üniversitelerin isteyeceği son şeydir.
Öte yandan, tamamen şeffaf bir AI, algoritmayı oyun oynamaya karşı savunmasız hale getirecek ve tüm kabul sürecinin ele geçirilmesine yol açacaktır. Bu nedenle açıklama hakkı, yapay zekanın doğru yarı saydamlık derecesine ulaşmasıyla ilgilidir; ne tamamen şeffaf ne de opak olabilir.
İleriye Giden Yol
AI, karar verirken anlam yüklemez ve yeni bilgileri insanlarla aynı şekilde kategorilere ayırmaz. En yaygın kalıpları güçlendirir ve çoğunlukta olmayan durumları hariç tutar. Aktif olarak araştırılan olası teknik çözümlerden biri, yapay zekayı açıklanabilir hale getirmektir. Açıklanabilir AI (XAI), güvenin çözümün ayrılmaz bir parçası olduğu tıbbi teşhis gibi ilgili yüksek riskli ve yüksek riskli kullanım durumlarında vazgeçilmezdir. Blackbox algoritmaları, dahili işlemlerinde yeterli şeffaflık olmadan, bir hayat kurtarmak için gereken güven düzeyini sağlayamaz.
Hem teknolojik hem de istatistiksel olarak temel mimarisine bu kadar yerleşmiş kırılganlık ile AI'nın düzenlemeye ihtiyacı var. Sundar Pichai'nin bu yılın başlarında Financial Times'da yazdığı gibi, “ Artık aklımda yapay zekanın düzenlenmesi gerektiğine dair hiçbir soru yok. Olmaması çok önemli. Tek soru, ona nasıl yaklaşılacağıdır. ”
Yapay zekayı düzenleyen yasal çerçeve, dünyanın farklı yerlerinde gelişmekte ve değişim halindedir.
Hindistan'da, Mahremiyet Hakkının birkaç ay önce ulusal tartışmaların merkezinde yer almasıyla, yapay zekanın şekillenmesini düzenleyen kapsamlı bir yasadan çok uzakta değiliz. Özellikle, NITI Aayog tarafından Haziran 2018'de yayınlanan bir tartışma belgesi, konuyu oldukça ayrıntılı bir şekilde ele alıyor. Zamanla, AI'nın etki alanı genişledikçe, yasalar daha fazla hüküm içerecek şekilde daha katı hale gelecektir.
Teknoloji geliştikçe ve yeni uygulamaları keşfedildikçe, endüstri tarafından kendi kendini düzenlemeye ihtiyaç duyulmaktadır. Kuruluşların, güven ve anlayışa dayalı etkileşimlerin insan doğasını koruyan XAI'yi uygulamaya proaktif olarak odaklanması gerekir. Hiçbir şey olmasa bile, potansiyel olarak yaşamı değiştiren yeniliklerin iyi niyetli koruyucu yasalar olabilecek şeyler tarafından boğulmasını önleyecektir. Hayattaki çoğu şeyde olduğu gibi, çözüm doğru dengeyi kurmakta yatar.