Das Recht auf Erklärung in der künstlichen Intelligenz entschlüsseln
Veröffentlicht: 2020-10-31Eine der wichtigsten politischen Entwicklungen zur Regulierung der Anwendung von KI wurde 2018 in die DSGVO aufgenommen
Ähnlich wie die Vielfalt der heute existierenden Verbrennungsmotoren sind KI-Modelle und Algorithmen unterschiedlicher Art und mit unterschiedlicher Komplexität
Beim Treffen von Entscheidungen misst KI Bedeutungen zu und kategorisiert neue Informationen nicht wie Menschen
Künstliche Intelligenz ist für die meisten Menschen eine Technologie, die Chatbots oder bestenfalls Bilderkennung antreibt – im Grunde eine Software, die Bilder von Katzen von Hunden unterscheidet. Andere sehen darin eine ernsthafte Bedrohung ihrer regulären Tagesarbeit. Unabhängig von ihren Auswirkungen auf ihr Leben betrachten die Menschen KI als eine Technologie mit enormem Zukunftspotenzial. Während die Zukunft der KI Ehrfurcht und Angst hervorruft, bleiben ihre Auswirkungen auf die Gegenwart weitgehend unbeachtet. Von der Auswahl von Lebensläufen bis hin zur Verbreitung von Propaganda arbeitet KI härter an uns, als die meisten von uns wissen. Die Auswirkungen sind erheblich und Führungskräfte auf der ganzen Welt werden sich schnell darüber bewusst.
Elon Musk kämpfte auf dem AeroAstro Centennial Symposium des MIT um den Regulierungsrahmen und meinte: „Ich neige zunehmend zu der Meinung, dass es eine gewisse Regulierungsaufsicht geben sollte, vielleicht auf nationaler und internationaler Ebene, nur um sicherzustellen, dass wir nichts tun sehr dumm. Ich meine, mit künstlicher Intelligenz beschwören wir den Dämon. ”
Eine der wichtigsten politischen Entwicklungen zur Regulierung der Anwendung von KI wurde 2018 in die DSGVO aufgenommen. Artikel 22 in Abschnitt 4 der DSGVO besagt im Wesentlichen, dass Ihre Bewerbung um einen Job, ein Darlehen oder eine Staatsbürgerschaft aufgrund von Ergebnissen abgelehnt wird von automatisierter intelligenter Verarbeitungssoftware haben Sie das Recht, eine Erklärung zu verlangen. Bei Nichteinhaltung kann eine Geldbuße von bis zu 20 Mio. € oder 4 % des weltweiten Jahresumsatzes des Unternehmens verhängt werden. Die Idee ist, diskriminierende Verhaltensvorhersagen und Stereotypen auf der Grundlage von Daten zu eliminieren. Und das ist auf den Punkt gebracht das Recht auf Erklärung.
Warum ist das Recht auf Aufklärung notwendig?
Die für Vorhersagen verwendeten Werte basieren auf der Bewertung mehrerer scheinbar nicht zusammenhängender Variablen und ihrer Beziehungen zu einer Reihe von Algorithmen. Ohne menschliches Eingreifen können die Ergebnisse manchmal unberechenbar sein. Ungeprüft können diese die Bühne für New-Age-Stereotypen bereiten und bestehende Vorurteile schüren. Während KI mit Daten arbeitet, können die Daten selbst Verzerrungen hervorrufen, die selbst die robustesten KI-Systeme versagen lassen.
Beispielsweise kann die Ablehnung eines Hypothekenantrags durch ein KI-basiertes System unbeabsichtigte Folgen haben. Ein selbstlernender Algorithmus, der auf historischen Daten basiert, kann das Alter und die Postleitzahl des Antragstellers einer Gruppe von Personen zuordnen, die im letzten Quartal mit ihren Krediten in Verzug geraten sind. Dabei werden möglicherweise bestimmte günstige Kriterien wie die Qualität der Vermögenswerte übersehen, die in den historischen Daten fehlen.
Ohne gültige Begründung könnte die Ablehnung rechtliche Schritte wegen Stereotypisierung und Diskriminierung nach sich ziehen, insbesondere wenn in der Nachbarschaft Menschen leben, die hauptsächlich einer Minderheit angehören. Daher muss KI als Technologie, die das Potenzial hat, Entscheidungen im Namen von Menschen zu treffen, Ethik, Fairness und Gerechtigkeit in menschlichen Interaktionen gewährleisten. Es muss mindestens die folgenden Arten von Gerechtigkeit erfüllen:
Für dich empfohlen:
- Distributiv – sozial gerechte Verteilung von Ressourcen, Möglichkeiten und Belohnungen
- Das Verfahren – fairer und transparenter Prozess, um zu einem Ergebnis zu gelangen
- Interaktion – sowohl der Prozess als auch das Ergebnis müssen die betroffenen Menschen mit Würde und Respekt behandeln
Das Recht auf Erklärung schließt diesen alles entscheidenden Rechtskreis beim Einsatz von KI.
KI und Herausforderungen für das Recht auf Erklärung
Ähnlich wie die Vielfalt der heute existierenden Verbrennungsmotoren sind KI-Modelle und Algorithmen unterschiedlicher Art und mit unterschiedlicher Komplexität. Das Ergebnis einfacherer Modelle wie der linearen Regression ist relativ einfach zu erklären. Die beteiligten Variablen, ihre Gewichtung und Kombinationen zum Erreichen des Ausgangswertes sind bekannt.
Komplexe Algorithmen wie Deep Learning, die nach größerer Genauigkeit streben, wirken wie eine Blackbox – was im Inneren vor sich geht, bleibt im Inneren. Bei Algorithmen, die selbstlernend sind und Muster konstruieren, ist die Ursache für ein bestimmtes Ergebnis schwer zu erklären, denn:
- Die tatsächlich von Algorithmen verwendeten Variablen sind nicht bekannt
- Die den Variablen beigemessene Bedeutung/Gewichtung kann nicht zurückgerechnet werden
- Mehrere Zwischenkonstrukte und Beziehungen zwischen Variablen bleiben unbekannt
Wenn die Zulassungsverfahren für Universitäten vollständig von neuronalen Netzen betrieben würden, wäre der Prozess undurchsichtiger als heute. Wenn Ihnen ein Studienplatz an einer führenden Universität verweigert wird, weil deren Algorithmus einen bestimmten „Hintergrund“ für weniger geeignet hält, würden Sie sich fragen, welcher Teil Ihres „Hintergrunds“ gegen Sie gearbeitet hat. Schlimmer noch, der Zulassungsausschuss würde es Ihnen nicht erklären. In einem Staat, in dem es viele soziale Ungleichheiten gibt, ist eine undurchsichtige KI das Letzte, was Universitäten verlangen würden.
Andererseits würde eine vollständig transparente KI den Algorithmus anfällig für Spielereien machen und dazu führen, dass der gesamte Zulassungsprozess gekapert wird. Das Recht auf Erklärung bezieht sich daher darauf, dass die KI den richtigen Grad an Transluzenz erreicht; es kann weder vollständig transparent noch undurchsichtig sein.
Der Weg nach vorn
Beim Treffen von Entscheidungen misst KI Bedeutungen zu und kategorisiert neue Informationen nicht wie Menschen. Es verstärkt die häufigsten Muster und schließt Fälle aus, die nicht in der Mehrheit vorkommen. Eine der möglichen technischen Lösungen, die aktiv erforscht werden, besteht darin, KI erklärbar zu machen. Erklärbare KI (XAI) ist in relevanten Anwendungsfällen mit hohem Risiko und hohem Risiko unverzichtbar, wie z. B. bei der medizinischen Diagnose, bei der Vertrauen ein wesentlicher Bestandteil der Lösung ist. Ohne ausreichende Transparenz bei der internen Verarbeitung bieten Blackbox-Algorithmen nicht das Maß an Vertrauen, das erforderlich ist, um ein Leben zu retten.
Da die Fragilität in ihrer grundlegenden Architektur – sowohl technologisch als auch statistisch – so verankert ist, muss die KI reguliert werden. Wie Sundar Pichai Anfang dieses Jahres in einer Financial Times schrieb : „ Jetzt steht für mich außer Frage, dass künstliche Intelligenz reguliert werden muss. Es ist zu wichtig, es nicht zu tun. Die Frage ist nur, wie man es angeht. ”
Der Rechtsrahmen zur Regulierung von KI befindet sich in der Entwicklung und ist in verschiedenen Teilen der Welt im Wandel begriffen.
In Indien, wo das Recht auf Privatsphäre vor einigen Monaten im Mittelpunkt der nationalen Debatte stand, sind wir nicht weit davon entfernt, dass ein umfassendes Gesetz zur Regulierung von KI Gestalt annimmt. Insbesondere ein Diskussionspapier, das im Juni 2018 von NITI Aayog veröffentlicht wurde, behandelt das Thema sehr detailliert. Im Laufe der Zeit, wenn sich der Einflussbereich der KI ausdehnt, werden die Gesetze als Reaktion darauf strenger, um mehr Bestimmungen aufzunehmen.
Da sich die Technologie entwickelt und ihre neuen Anwendungen entdeckt werden, besteht die Notwendigkeit einer Selbstregulierung durch die Industrie. Organisationen müssen sich proaktiv auf die Implementierung von XAI konzentrieren, die die menschliche Natur von Interaktionen bewahrt, die auf Vertrauen und Verständnis basieren. Wenn nichts, wird es verhindern, dass möglicherweise lebensverändernde Innovationen durch möglicherweise gut gemeinte Schutzgesetze erstickt werden. Wie bei den meisten Dingen im Leben liegt die Lösung in der richtigen Balance.