Расшифровка права на объяснение в искусственном интеллекте
Опубликовано: 2020-10-31В 2018 году в GDPR было включено одно из наиболее важных изменений в политике, регулирующее применение ИИ.
Подобно разнообразию существующих сегодня двигателей внутреннего сгорания, модели и алгоритмы ИИ бывают разных типов с разным уровнем сложности.
Принимая решения, ИИ не придает значения и классифицирует новую информацию так же, как люди.
Искусственный интеллект для большинства людей — это технология, которая в лучшем случае поддерживает чат-ботов или распознавание изображений — в основном, программное обеспечение, которое отличает изображения кошек от собак. Другие рассматривают это как серьезную угрозу их обычной повседневной работе. Независимо от его влияния на их жизнь, люди рассматривают ИИ как технологию с огромным будущим потенциалом. Хотя будущее ИИ вызывает трепет и страх, его влияние на настоящее остается в значительной степени непризнанным. От составления резюме до распространения пропаганды ИИ работает с нами усерднее, чем большинство из нас знает. Последствия значительны, и лидеры во всем мире быстро осознают это.
Выступая за нормативно-правовую базу на симпозиуме AeroAstro Centennial в Массачусетском технологическом институте, Илон Маск высказал мнение: «Я все больше склоняюсь к мысли, что должен быть какой-то нормативный надзор, возможно, на национальном и международном уровне, просто чтобы убедиться, что мы ничего не делаем». очень глупо. Я имею в виду, что с искусственным интеллектом мы вызываем демона. ”
Одно из наиболее важных изменений в политике, регулирующее применение ИИ, было включено в GDPR в 2018 году. Статья 22 в разделе 4 GDPR, по сути, гласит, что если ваше заявление о приеме на работу, кредите или гражданстве будет отклонено на основании баллов программного обеспечения для автоматизированной интеллектуальной обработки, вы имеете право потребовать объяснений. Несоблюдение может повлечь за собой штраф в размере до 20 миллионов евро или 4% от мирового годового оборота компании. Идея состоит в том, чтобы устранить дискриминационные прогнозы поведения и стереотипы, основанные на данных. И это Право на Объяснение в двух словах.
Почему необходимо право на объяснение?
Баллы, используемые для прогнозирования, основаны на оценке нескольких, казалось бы, не связанных между собой переменных и их взаимосвязей с набором алгоритмов. Иногда без вмешательства человека результаты могут быть ошибочными. Если их не контролировать, они могут подготовить почву для стереотипов нового века и подпитать существующие предубеждения. Хотя ИИ работает с данными, сами данные могут привести к предвзятости даже в самых надежных системах ИИ.
Например, отклонение заявки на ипотеку системой на основе ИИ может иметь некоторые непредвиденные последствия. Самообучающийся алгоритм, основанный на исторических данных, может сопоставить возраст и почтовый индекс заявителя с группой людей, которые не выплатили свои кредиты в прошлом квартале. При этом он может упустить из виду определенные благоприятные критерии, такие как качество активов, отсутствующие в исторических данных.
Без веских объяснений отказ может повлечь за собой судебный иск за стереотипы и дискриминацию, особенно если в районе проживают люди, в основном принадлежащие к группе меньшинств. Следовательно, как технология, способная принимать решения от имени людей, ИИ должен обеспечивать этику, честность и справедливость в человеческих взаимодействиях. Как минимум, он должен удовлетворять следующим типам справедливости:
Рекомендуется для вас:
- Распределительный – социально справедливое распределение ресурсов, возможностей и вознаграждений.
- Процедурный – справедливый и прозрачный процесс для достижения результата
- Интерактивность – как процесс, так и результат должны относиться к пострадавшим людям с достоинством и уважением.
Право на объяснение замыкает эту важнейшую петлю справедливости при использовании ИИ.
ИИ и вызовы праву на объяснение
Подобно разнообразию существующих сегодня двигателей внутреннего сгорания, модели и алгоритмы ИИ бывают разных типов с разным уровнем сложности. Результат более простых моделей, таких как линейная регрессия, относительно легко объяснить. Участвующие переменные, их вес и комбинации для получения выходного балла известны.
Сложные алгоритмы, такие как глубокое обучение, стремясь к большей точности, действуют как черный ящик — что происходит внутри, остается внутри. С алгоритмами, которые самообучаются и создают шаблоны, причину определенного результата трудно объяснить, потому что:
- Переменные, фактически используемые алгоритмами, неизвестны.
- Важность/вес, придаваемые переменным, не могут быть вычислены задним числом.
- Несколько промежуточных конструкций и отношений между переменными остаются неизвестными.
Если бы процессы приема в университеты полностью управлялись нейронными сетями, это сделало бы процесс более непрозрачным, чем сегодня. Если вам откажут в приеме в ведущий университет, потому что их алгоритм считает определенный «фон» менее подходящим, вам останется только гадать, какая часть вашего «биографии» сработала против вас. Хуже того, приемная комиссия не смогла бы вам этого объяснить. В государстве, где существует огромное социальное неравенство, непрозрачный ИИ — это последнее, о чем могут просить университеты.
С другой стороны, полностью прозрачный ИИ сделал бы алгоритм уязвимым для игры и привел бы к захвату всего процесса приема. Таким образом, право на объяснение связано с тем, что ИИ достигает нужной степени прозрачности; он не может быть ни полностью прозрачным, ни непрозрачным.
Путь вперед
Принимая решения, ИИ не придает значения и классифицирует новую информацию так же, как люди. Он усиливает наиболее распространенные шаблоны и исключает случаи, которых нет в большинстве. Одно из активно изучаемых возможных технических решений связано с объяснением ИИ. Объяснимый искусственный интеллект (XAI) незаменим в соответствующих случаях использования с высоким риском и высокими ставками, таких как медицинская диагностика, где доверие является неотъемлемой частью решения. Без достаточной прозрачности своей внутренней обработки алгоритмы Blackbox не могут обеспечить уровень доверия, необходимый для спасения жизни.
Из-за хрупкости, столь укоренившейся в его фундаментальной архитектуре — как технологической, так и статистической — ИИ нуждается в регулировании. Как писал ранее в этом году Сундар Пичаи в Financial Times : « Теперь я не сомневаюсь, что искусственный интеллект нуждается в регулировании. Это слишком важно, чтобы этого не делать. Вопрос только в том, как к этому подойти. ”
Правовая база, регулирующая ИИ, развивается и постоянно меняется в разных частях мира.
В Индии, где несколько месяцев назад право на неприкосновенность частной жизни заняло центральное место в общенациональных дебатах, мы недалеки от принятия всеобъемлющего закона, регулирующего ИИ. Примечательно, что в дискуссионном документе, опубликованном NITI Aayog в июне 2018 года, этот вопрос рассматривается довольно подробно. Со временем, по мере расширения сферы влияния ИИ, законы в ответ станут более строгими и будут включать больше положений.
По мере развития технологии и открытия новых приложений в отрасли возникает потребность в саморегулировании. Организациям необходимо заранее сосредоточиться на внедрении XAI, сохраняющем человеческую природу взаимодействия, основанного на доверии и понимании. Если ничего, это предотвратит удушение потенциально меняющих жизнь инноваций тем, что может быть благонамеренными защитными законами. Как и в большинстве случаев в жизни, решение заключается в достижении правильного баланса.