Этика искусственного интеллекта кратко

Обновлено: 05.05.2024

Стремительное развитие технологии искусственного интеллекта и его повсеместное внедрение в различные сферы общества обостряют определенные вопросы в отношении применения данной технологии. При этом понимание того, что развитие искусственного интеллекта и его внедрение сопряжено с необходимостью адаптации нормативного регулирования было обозначено уже несколько лет назад – так, выработка этических норм заявлена одним из пунктов программы "Национальная стратегия развития искусственного интеллекта на период до 2030 года" (п. 48 Указа Президента РФ от 10 октября 2019 г. № 490 "О развитии искусственного интеллекта в Российской Федерации"; далее – Указа Президента РФ № 480). При этом в документе отмечено, что в целях аналитической поддержки стратегии проводятся научные исследования, направленные на прогнозирование этических аспектов использования технологий искусственного интеллекта – результаты таких исследований должны учитываться при принятии управленческих решений (п. 57 Указа Президента РФ № 480).

Другим важным документом, регламентирующим необходимость урегулирования этических аспектов применения искусственного интеллекта, стала "Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 г.". В подзаконном акте расширение применения инструментов регулирования, а также формирование кодексов этических правил разработки, внедрения и применения технологий искусственного интеллекта определяется как одна из ключевых целей Концепции (Распоряжение Правительства РФ от 19 августа 2020 г. № 2129-р).

Для решения соответствующей задачи в рамках исполнения Указа президента было принято решение разработать Национальный кодекс этики в сфере искусственного интеллекта (далее – кодекс), который подготовлен совместно Аналитическим центром при Правительстве РФ, Министерством экономики и развития РФ и Альянсом в сфере искусственного интеллекта, при участии представителей государства и научного сообщества. Последний представляет собой объединение ведущих технологических компаний для внедрения искусственного интеллекта в различные сферы общественной жизни. На момент написания материала в альянсе состояли Яндекс, МТС, Mail.ru Group, Сбербанк, Газпром и Российский фонд прямых инвестиций 1 . В июле Правительство РФ утвердило правила предоставления субсидии для Аналитического центра в целях поддержки исследовательских центров в сфере искусственного интеллекта, в том числе в области этических аспектов применения искусственного интеллекта" (Постановление Правительства РФ от 5 июля 2021 г. № 1120). Проект кодекса этики для искусственного интеллекта экспертное сообщество обсуждает на различных площадках, в том числе, на государственном уровне.

Что такое искусственный интеллект?

Понятие искусственного интеллекта определено в Национальной стратегии развития искусственного интеллекта на период до 2030 года как комплекс технологических решений, позволяющий имитировать когнитивные функции человека и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека (п. 5 Указа Президента РФ № 480). К таким функциям относятся, например, самообучение и поиск решений без заранее заданного алгоритма. В данной стратегии в качестве технологий, которые основаны на использовании искусственного интеллекта, приводятся в пример компьютерное зрение, обработка естественного языка, распознавания и синтез речи, интеллектуальная поддержка принятия решений (п. 5 Указа Президента РФ № 480).

Зачем нужен кодекс этики в сфере искусственного интеллекта?

Как заметил Председатель совета директоров некоммерческого фонда "Центр содействия законотворчеству", д. ю. н., профессор Вадим Виноградов в ходе круглого стола на площадке Общественной палаты РФ, информационные технологии, применяющиеся на данный момент, относятся к слабому искусственному интеллекту. Однако, скорость его эволюции позволяет судить о том, что процесс перехода к сильному искусственному интеллекту возможен в ближайшем будущем. При этом сложно представить в полной мере, на какие области будет распространено его влияние – однако рамки его применения будут распространяться на сложные для этического анализа сферы, например, военную. В такой ситуации разработка определенных этических норм по созданию и использованию искусственного интеллекта выступает необходимостью, уверен эксперт.

Как отмечает один из разработчиков кодекса, директор по развитию технологий искусственного интеллекта ООО "Яндекс"Александр Крайнов, в отношении искусственного интеллекта распространено большое количество заблуждений, причем некоторые из них переоценивают технологию, другие – недооценивают. Основная причина заключается в том, что у человека, не обладающим специальными знаниями в области информационных технологий, восприятие принципа функционирования искусственного интеллекта формируется на основании массовой культуры, СМИ и рассказов со стороны представителей ИТ-компаний, которые в некоторых случаях преукрашают свою деятельность. Такое восприятие зачастую создает недоверие к искусственному интеллекту, формируя ложные убеждения об опасности использования технологии. Эксперт объяснил, что искусственный интеллект представляет собой набор математических методов и решений на их базе, где каждое конкретное решение применяется для конкретной узкой задачи. Количество задач, которые решаются данным способом, стремительно растет. При этом заложенная в технологии искусственного интеллекта задача распространяется на большое количество людей, в связи с чем масштаб потенциальной ошибки в значительной степени увеличивается. Этические нормы выступают неким сдерживающим механизмом для применения искусственного интеллекта, который выступает "мягким" регулированием в отсутствии законодательного аппарата, заключил Александр Крайнов. При этом разработанный документ не является законом, его формулировки норм носят рекомендательный характер. Кодекс этики искусственного интеллекта также должен помочь сомневающимся людям обозначить основные принципы внедрения и использования технологии в повседневной жизни.

Ранее упомянутая Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года содержит упоминание о том, что развитие технологий искусственного интеллекта должно основываться "на базовых этических нормах" (Распоряжение Правительства РФ от 19 августа 2020 г. № 2129-р). Документ относит к ним:

  • приоритет благополучия и безопасности человека, защиты его основополагающих прав и свобод;
  • подконтрольность человеку;
  • проектируемое соответствие закону (в том числе, требованиям безопасности);
  • недопущения противоправной манипуляции.

При этом приведенные примеры базовых этических норм носят расплывчатые формулировки, которые могут затруднять понимание, каким образом следует внедрять искусственный интеллект с соблюдением этических требований. Концепция в значительной степени конкретизирует принципы, что может поспособствовать четче обозначить механизм внедрения принципов и их распространение на деятельность ИТ-компаний.

Как отметил управляющий директор центра регулирования искусственного интеллекта Сбербанка Андрей Незнамов, несмотря на наличие других подобных кодексов в других странах – эксперт продемонстрировал примеры более 10 стран – представленный проект является уникальным. Авторы учитывали практические кейсы использования искусственного интеллекта на практике, которые можно использовать как подсказку для акторов в сфере искусственного интеллекта.

Регулирование этических проблем искусственного интеллекта в мире

Внушительное число стран предпринимали попытки выработать, систематизировать, упорядочить этические нормы по использованию технологий искусственного интеллекта. Андрей Незнамов представил список наиболее распространенных принципов искусственного интеллекта, принятых в мире. Эксперт выделил следующие:

  1. Справедливость (включая недискриминацию, непредвзятость, равенство и т. д.);
  2. Прозрачность (например, прозрачность использования данных, дата сетов, обработки информации);
  3. Ответственность (контролируемость, подотчетность, возмещение вреда, ответственное отношение);
  4. Безопасность – невозможность причинения умышленного вреда;
  5. Конфиденциальность (в том числе, неприкосновенность частной жизни и защиту персональных данных).

Вначале соответствующие идеи нашли свое отражение в частных декларациях – эксперт приводит в качестве примера крупного документа Азиломарские принципы искусственного интеллекта, разработанные и принятые в ходе конференции разработчиков в 2017 году 2 . В последствие такие принципы начали находить свое отражение в качестве корпоративных норм различных компаний, деятельность которых сопряжена с разработкой искусственного интеллекта. Так, например, ряд крупных ИТ-компаний разработали собственные кодексы по использованию искусственного интеллекта, в которых обозначили свою позицию по вопросам этической составляющей такой эксплуатации – подобные документы есть, например, у IBM, Bosch, Сбера, отметил Вадим Виноградов. По статистике Андрея Незнамова, на данный момент корпоративные нормы в сфере искусственного интеллекта имеют около 35 мировых компаний-разработчиков. Несмотря на то, что мораль и нравственность представляют собой регулятор, отличный от нормативных актов, стал появляться ряд национальных инициатив по урегулированию этических норм искусственного интеллекта. И, наконец, существуют наднациональные инициативы, яркий пример – проект рекомендаций по этике искусственного интеллекта ЮНЕСКО.

Ключевые положения кодекса

Планируется, что кодекс будет включать четыре раздела:

  1. Общие положения – назначение и цели, нормативные основания и правовая природа кодекса, круг действия и термины;
  2. Общие этические принципы/ценности поведения акторов искусственного интеллекта;
  3. Этические стандарты поведения акторов в сфере искусственного интеллекта;
  4. Механизмы реализации кодекса.

Согласно положениям документа, к общим этическим принципам относится человекоцентричный и гуманистический подход – технологии искусственного интеллекта должны использоваться во благо человека. Также, согласно Концепции, к таким принципам относится риск-ориентированный подход, согласно которому уровень внимания к этическим вопросом сопоставим с оценкой уровня потенциального риска от внедрения и использования искусственного интеллекта. Важную часть занимает принцип предосторожности, в соответствии с которым актором искусственного интеллекта должны быть предприняты меры по предотвращению вреда от их деятельности. Не последнее по важности место занимает принцип ответственного отношения к вопросам влияния систем искусственного интеллекта на общество в целом и на граждан в частности.

В документе отдельно прописаны конкретные точечные нормы по этическим стандартам поведения акторов в сфере искусственного интеллекта, среди которых:

  • действовать ответственно и добросовестно;
  • соблюдать интересы общества и граждан – права и свободы человека, уважение автономии воли человека;
  • проявлять профессионализм и компетентность, включая обеспечение стимулирования развития искусственного интеллекта, сотрудничество разработчиков, ориентируясь при этом на положения законодательства РФ;
  • содействовать доверию общества к технологиям искусственного интеллекта в интересах устойчивого развития, в том числе предоставляя пользователю достоверную информацию о допустимых областях применения искусственного интеллекта.

Примечательно, что в документе есть положение об обязанности акторов принимать меры в целях обеспечения недискриминации и непричинения вреда. При этом, согласно положениям документа, не допускается передача полномочий ответственного нравственного выбора системам искусственного интеллекта. Таким образом, принятие важных морально-этических решений доверить искусственному интеллекту экспертное сообщество не готово.

Как отмечает Андрей Незнамов, авторы кодекса предусмотрели все наиболее прогрессивные механизмы реализации кодекса. Так, рекомендуется проводить оценку рисков применения систем искусственного интеллекта. Предлагается также использовать институт уполномоченных пор этике искусственного интеллекта или формировать коллегиальные отраслевые органы (например, комиссию по этике). Важным механизмом составители кодекса считают создание свода наилучших практик решения возникающих этических вопросов при эксплуатации систем искусственного интеллекта. При этом авторы отдельно отметили, что положения кодекса должны быть пересмотрены с учетом развития технологий искусственного интеллекта.

Обобщая положения кодекса до краткой версии, авторы представили следующий список принципов этики искусственного интеллекта:

  1. Основной приоритет развития технологии искусственного интеллекта – защита интересов людей в целом и человека в частности;
  2. Осознание ответственность при создании и эксплуатации искусственного интеллекта, учитывая масштаб применения технологии и ее значимости;
  3. Ответственность за последствия применения искусственного интеллекта всегда лежит на человеке;
  4. Технологии искусственного интеллекта следует внедрять там, где это принесет пользу людям;
  5. Интересы совершенствования технологий искусственного интеллекта выше интересов конкуренции;
  6. Прозрачность и правдивость в информировании о рисках, успехах и неудачах уровня развития искусственного интеллекта;
  7. Технологии искусственного интеллекта и этика искусственного интеллекта находятся вне границ;
  8. Принципы этики развиваются по мере развития технологий.

Предложения по совершенствованию кодекса

Одно из наиболее значимых положений, которые следует закрепить в кодексе, должно содержать предложения по устранению дефицита инфраструктуры, считает заместитель декана по научной работе факультета права НИУ ВШЭ, д. ю. н. Александр Ларичев. Несмотря на то, что этот принцип не является этическим напрямую, он может являться своеобразным руководством к действию акторов, участвующих в процессе модернизации искусственного интеллекта напрямую, уверен эксперт. Проблема в том, что у регионов России отсутствуют равные возможности технологического развития. Также эксперт считает важным отразить в положениях кодекса принцип отсутствия предвзятости по социально-технологической предвзятости. По его мнению, следует также уточнить требование о необходимости способствовать достижению цели в области устойчивого развития, добавив положения о процессе осуществления достижения такой цели.

Как отметил Александр Крайнов, инфраструктура для искусственного интеллекта создается не территориально, при этом вопросы инфраструктуры регулируют другие документы, в то время, как одной из целью кодекса было закрепление норм, которые не были освещены в других документах.

Эксперт в том числе заметил, что в рекомендациях ЮНЕСКО право человека знать, какие решения принимаются с использованием алгоритмов искусственного интеллекта, в то время как в положениях кодекса это право носит формулировку разумно-применимого. С коллегой согласен Александр Журавлев, председатель Комиссии по правовому обеспечению цифровой экономики Московского отделения Ассоциации юристов России, который назвал вопрос прозрачности деятельности алгоритма искусственного интеллекта принципиально важным. Он считает, что в кодекс важно заложить условие о том, что искусственный интеллект должен выступать в качестве помощника, поддержкой в принятии решений. Это относится к ключевым отраслям, где вопросы морально-этического выбора стоят наиболее остро – например, финансовая сфера, судопроизводство (в особенности, уголовное), трудоустройство. Более того, следует добавить порядок обжалования решений, когда у человека возникает сомнение в отношении того, принимала ли система решение по важному вопросу самостоятельно или нет.

При этом Александр Крайнов возразил: соответствующее положение кодекс содержит – обеспечить возможность отмены человеком или предотвращения принятия юридически значимых решений. При этом на практике человек при постоянном взаимодействии с алгоритмом искусственного интеллекта склонен в конечном счета соглашаться с результатами анализа системы, в связи с чем включение предлагаемого экспертами положения на практике проблему не решит.

По мнению Вадима Виноградова, одним из основных факторов, который следует учитывать при разработке кодекса этики искусственного интеллекта, это четкая формулировка понятий и норм. Эксперт считает, что в тексте такого документа следует избегать расплывчатых словесных конструкций – так, например, сохраняется возможность множественной трактовки фраз "сохранение нравственных и духовных ценностей" и "общепринятые этические нормы". Он также считает, что кодекс должен быть составлен с использованием упрощенного стиля, так как конечный адресат документа не будет иметь специальных познаний в области юриспруденции.

Заведующий лабораторией анализа данных правоприменения ВШЭ Григорий Красноженов предложил уточнить, для какого типа искусственного интеллекта разрабатывается кодекс. Эксперт считает, что так, как на текущем уровне технологического развития документ рассчитан на системы искусственного интеллекта с некоторой степенью автономности. Также, по мнению эксперта, в кодексе следует подчеркнуть, что акторами являются люди, а не машины, а также уточнить их перечень.

Михаил Якушев, заместитель директора Института права цифровой среды факультета права НИУ ВШЭ, считает, что так как документ носит рекомендательный характер, его стиль должен соответствовать заданной формуле. Так, например, эксперт считает, что включение норм об ответственности за нарушение принципов этики искусственного интеллекта, неуместны. Эксперт также предложил не ограничивать распространение кодекса исключительно на гражданскую сферу, а относить его положения также к военной сфере.

***
Необходимость в создании Национального проекта кодекса в сфере регулирования этических проблем разработки и эксплуатации искусственного интеллекта назрела давно. Эксперты в области юриспруденции и искусственного интеллекта провели масштабную работу по выработке кодекса. Как неоднократно подчеркивают авторы, кодекс не будет носить общеобязательный характер, выступая скорее примером "мягкого" права, когда нормы представляют собой рекомендации для государственных органов и компаний, использующих системы искусственного интеллекта.

На момент написания материала кодекс этики не был опубликован, содержание документа в его текущем виде предоставлены для оценки экспертам и представителям государственной власти. По словам авторов документа, по предварительным данным кодекс будет рассмотрен на уровне Правительства РФ к концу октября-началу ноября текущего года.

1 Информация с сайта Альянса в сфере искусственного интеллекта.
2 С текстом документа и материалами к нему можно ознакомиться на сайте проекта "РОБОПРАВО", исследовательского центра проблем регул­­ирования робототехники и искусственного ­­интеллекта.

Искусственный интеллект врывается в нашу жизнь. В будущем, наверное, все будет классно, но пока возникают кое-какие вопросы, и все чаще эти вопросы затрагивают аспекты морали и этики. Можно ли издеваться над мыслящим ИИ? Когда он будет изобретен? Что мешает нам уже сейчас написать законы робототехники, вложив в них мораль? Какие сюрпризы преподносит нам машинное обучение уже сейчас? Можно ли обмануть машинное обучение, и насколько это сложно?

Есть две разных вещи: Сильный и Слабый ИИ.
Сильный ИИ (true, general, настоящий) — это гипотетическая машина, способная мыслить и осознавать себя, решать не только узкоспециализированные задачи, но и еще и учиться чему-то новому.

Про Сильный ИИ еще неизвестно, будет ли он вообще когда-нибудь изобретен. С одной стороны, до сих пор технологии развивались с ускорением, и если так пойдет и дальше, то осталось лет пять.


С другой стороны, мало какие процессы в природе в действительности протекают по экспоненте. Гораздо чаще все-таки мы видим логистическую кривую.


Когда экспертов опрашивают, выясняется, что в среднем ждать еще лет 45.


Что любопытно, североамериканские ученые считают, что ИИ превзойдет человека через 74 года, а азиатские — что всего через 30. Возможно в Азии они что-то такое знают…

Эти же ученые предсказывали, что машина будет переводить лучше человека к 2024 году, писать школьные сочинения — к 2026-му, водить грузовики — к 2027-му, играть в Го — тоже к 2027-му. С Го уже промашка вышла, ведь этот момент наступил в 2017-м, всего через 2 года после прогноза.


Хоть Сильный ИИ ждать долго, но мы точно знаем, что этических проблем будет хватать. Первый класс проблем — мы можем обидеть ИИ. Например:

Второй класс этических проблем — ИИ может обидеть нас. Сотни таких примеров можно найти в фильмах и книгах. Как объяснить ИИ, чего же мы от него хотим? Люди для ИИ — как муравьи для рабочих, строящих плотину: ради великой цели можно и раздавить парочку.

Научная фантастика играет с нами злую шутку. Мы привыкли думать, что Скайнет и Терминаторов пока нет, и будут они нескоро, а пока можно расслабиться. ИИ в фильмах часто вредоносный, и мы надеемся, что в жизни такого не будет: ведь нас же предупредили, и мы не такие глупые, как герои фильмов. При этом в мыслях о будущем мы забываем хорошо подумать о настоящем.

Так как мы учим машину решать конкретную задачу, то полученная математическая модель (так называется алгоритм) не может внезапно захотеть поработить/спасти человечество. Нормально делай — нормально будет. Что же может пойти не так?



Во-первых, сама решаемая задача может быть недостаточно этичной. Например, если мы при помощи машинного обучения учим дронов убивать людей.

Как раз недавно по этому поводу разгорелся небольшой скандал. Компания Google разрабатывает программное обеспечение, используемое для пилотного военного проекта Project Maven по управлению дронами. Предположительно, в будущем это может привести к созданию полностью автономного оружия.



Источник


Так вот, минимум 12 сотрудников Google уволились в знак протеста, еще 4000 подписали петицию с просьбой отказаться от контракта с военными. Более 1000 видных ученых в области ИИ, этики и информационных технологий написали открытое письмо с просьбой к Google прекратить работы над проектом и поддержать международный договор по запрету автономного оружия.

Ну, а еще иногда и само общество не заинтересовано, чтобы полученный алгоритм был образцом морали. Например, есть компромисс между скоростью движения транспорта и смертностью на дорогах. Мы могли бы сильно снизить смертность, если бы ограничили скорость движения до 20 км/ч, но тогда жизнь в больших городах была бы затруднительна.

Выходит, что этические вопросы должны быть среди целей системы изначально.


С этикой одна проблема — ее сложно формализовать. В разных странах разная этика. Она меняется со временем. Например, по таким вопросам, как права ЛГБТ и межрасовые/межкастовые браки, мнение может существенно измениться за десятилетия. Этика может зависеть от политического климата.


Например, в Китае контроль за перемещением граждан при помощи камер наружного наблюдения и распознавания лиц считается нормой. В других странах отношение к этому вопросу может быть иным и зависеть от обстановки.


Представьте систему на базе машинного обучения, которая советует вам, какой фильм посмотреть. На основе ваших оценок, выставленных другим фильмам, и путем сопоставления ваших вкусов со вкусами других пользователей система может довольно надежно порекомендовать фильм, который вам очень понравится.


Если вы скажете, что такое воздействие алгоритмов на людей — это даже хорошо, то вот другой пример. В Китае готовится к запуску Система социального рейтинга — система оценки отдельных граждан или организаций по различным параметрам, значения которых получают с помощью инструментов массового наблюдения и используя технологию анализа больших данных. Если человек покупает подгузники — это хорошо, рейтинг растет. Если тратит деньги на видеоигры — это плохо, рейтинг падает. Если общается с человеком с низким рейтингом, то тоже падает.

В итоге выходит, что благодаря Системе граждане сознательно или подсознательно начинают вести себя по-другому. Меньше общаться с неблагонадежными гражданами, больше покупать подгузников и т. п.

Помимо того, что мы порой сами не знаем, чего хотим от алгоритма, существует еще и целая пачка технических ограничений.


Алгоритм впитывает несовершенство окружающего мира. Если в качестве обучающей выборки для алгоритма по найму сотрудников использовать данные из компании с расистскими политиками, то алгоритм тоже будет с расистским уклоном.

В Microsoft однажды учили чат-бота общаться в Twitter’е. Его пришлось выключить менее чем через сутки, потому что бот быстро освоил ругательства и расистские высказывания.


Кроме этого, алгоритм при обучении не может учесть какие-то неформализуемые параметры. Например, при расчете рекомендации подсудимому — признать или не признать вину на основе собранных доказательств, алгоритму сложно учесть, какое впечатление такое признание произведет на судью, потому что впечатление и эмоции нигде не записаны.

Ложная корреляция — это когда кажется, что чем больше пожарных в городе, тем чаще пожары. Или когда очевидно, что чем меньше пиратов на Земле, тем теплее климат на планете.

Так вот — люди подозревают, что пираты и климат не связаны напрямую, и с пожарными не все так просто, а матмодель машинного обучения просто заучивает и обобщает.


Известный пример. Программа, которая расставляла больных по очереди по срочности оказания помощи, пришла к выводу, что астматикам с пневмонией помощь нужна меньше, чем просто людям с пневмонией без астмы. Программа посмотрела на статистику и пришла к выводу, что астматики не умирают — зачем им приоритет? А не умирают они на самом деле потому, что такие больные тут же получают лучшую помощь в медицинских учреждениях в связи с очень большим риском.

Иными словами, если расовая дискриминация — фактор ареста, то петли обратной связи могут усилить и увековечить расовую дискриминацию в деятельности полиции.

Но сказать-то легко, а что же делать?


Во-первых, матмодели машинного обучения тяжело тестировать и подправлять. Вот, например, приложение Google Photo распознавало людей с черным цветом кожи как горилл. И как быть? Если обычные программы мы читаем по шагам и научились их тестировать, то в случае машинного обучения все зависит от размера контрольной выборки, и она не может быть бесконечной. За три года Google не смогли придумать ничего лучше, кроме как выключить распознавание горилл, шимпанзе и обезьян вовсе, чтобы не допускать повторения ошибки.

Во-вторых, нам сложно понять и объяснить решения машинного обучения. Например, нейронная сеть как-то расставила внутри себя весовые коэффициенты, чтобы получались правильные ответы. А почему они получаются именно такими и что сделать, чтобы ответ поменялся?


Исследование 2015 года показало, что женщины гораздо реже, чем мужчины, видят рекламу высокооплачиваемых должностей, показываемую Google AdSense. Сервис доставки в тот же день от Amazon был регулярно недоступен в черных кварталах. В обоих случаях представители компаний затруднились объяснить такие решения алгоритмов.

  • Безопасность людей — наивысший приоритет по сравнению с уроном животным или собственности.
  • В случае неизбежной аварии не должно быть никакой дискриминации, ни по каким факторам недопустимо различать людей.

Очевидно, что мы будем все больше и больше полагаться на машинное обучение — просто потому, что оно в целом будет справляться лучше людей.

И тут мы подходим к не меньшей напасти, чем предвзятость алгоритмов — ими можно манипулировать.

Отравление машинного обучения (ML poisoning) означает, что если кто-то принимает участие в обучении матмодели, то он может влиять на принимаемые матмоделью решения.


Например, в лаборатории по анализу компьютерных вирусов матмодель ежедневно обрабатывает в среднем по миллиону новых образцов (чистых и вредоносных файлов). Ландшафт угроз постоянно меняется, поэтому изменения в модели в виде обновлений антивирусных баз доставляются в антивирусные продукты на стороне пользователей.

Другой пример, пока вымышленный. В систему распознавания лиц можно добавлять специально сгенерированные лица, чтобы в итоге система стала путать вас с кем-то другим. Не надо думать, что это невозможно, взгляните на картинку из следующего раздела.


Отравление — это воздействие на процесс обучения. Но необязательно участвовать в обучении, чтобы получить выгоду — обмануть можно и готовую матмодель, если знать, как она устроена.



Надев специально раскрашенные очки, исследователи выдали себя за других людей — знаменитостей

Даже там, где, казалось бы, нет ничего сложного, машину легко обмануть неведомым для непосвященного способом.


Причем для того, чтобы матмодель машинного обучения признала капитуляцию, необязательно вносить существенные изменения, достаточно минимальных невидимых человеку правок.


Если к панде слева добавить минимальный специальный шум, то машинное обучение будет уверено, что это гиббон


Давайте подытожим, что мы успели обсудить.

Этика ИИ рассматривается в двух основных аспектах: этические принципы, лежащие в основе принимаемых ИИ решений, и этичное поведение ИИ в ситуации, напрямую касающейся людей. Второй аспект принципиально отличает этику ИИ от этики других цифровых технологий.

Внедрение систем ИИ в повседневную жизнь сопряжено со множеством этических проблем, которые уже в ближайшие годы будут все серьезнее и сложнее. Первыми примерами стали смертельные исходы в автокатастрофах с самоуправляемыми автомобилями Tesla (2016) и Uber (2018), протест разработчиков ИИ в компании Google против участия в военных проектах Минобороны США, случаи манипулирования доступностью информации, сексизма и расизма в алгоритмах распознавания лиц и таргетированной рекламы с использованием ИИ. Масштабные этические проблемы возникают при использовании ИИ государственными службами для контроля за гражданами. Возможные негативные социальные последствия применения алгоритмов в работе государства широко обсуждаются в СМИ, а также в органах власти в некоторых странах.

На прошедшей в ноябре 2019 года в Москве конференции по искусственному интеллекту AI Journey Президент Р Ф Владимир Путин предложил разработать этические нормы взаимодействия человека с искусственным интеллектом:



Однако этика ИИ принципиально отличается от этики других технологий, например дата-этики. В отношении остальных технологий обсуждаются общие вопросы изменений в профессиональной этике, этике применения, этике ответа на социальные вызовы (например, риск массовой безработицы) и т. д., тогда как в этике ИИ есть еще совершенно другое, очень важное изменение. Этику И И технологий от этики других областей отличает проблема этичного поведения интеллектуальной системы (ИС) в ситуации, когда ее решение касается людей.

Принципиально важно, что система ИИ способна:

  • самостоятельно принимать решения, касающиеся человека,
  • анализировать данные в таких объемах и с такой скоростью, как человек делать не в состоянии (следовательно, человек не может проверить верность решений).

Поэтому мы можем говорить о двух совершенно разных аспектах этики ИИ (рисунок 4). Также нужно помнить о профессиональной этике производителей ИС.

Второй аспект этики ИИ подразумевает анализ и предотвращение этических коллизий, возникающих в процессе применения ИИ, к ним отнесены: нарушение приватности, возможная дискриминация, социальное расслоение, проблемы трудоустройства и т. д. (см. раздел 5). Отдельно стоит тема профессиональной этики разработчиков систем ИИ, она также требует рассмотрения, и в перспективе возможно создание этических кодексов и рекомендаций для разработчиков.


Системы, использующие технологии искусственного интеллекта, становятся всё более автономными в смысле сложности задач, которые они могут выполнять, их потенциального влияния на мир и уменьшающейся способности человека понимать, предсказывать и контролировать их функционирование. Большинство людей недооценивает реальную автономность таких систем. Они могут учиться на собственном опыте и осуществлять действия, которые не были задуманы их создателями. Этим обусловлен ряд этических и правовых затруднений.

Этика и право неразрывно связаны в современном обществе, и многие правовые решения вытекают из восприятия тех или иных этических проблем. Искусственный интеллект добавляет новое измерение в данные вопросы. Системы, использующие технологии искусственного интеллекта, становятся всё более автономными в смысле сложности задач, которые они могут выполнять, их потенциального влияния на мир и уменьшающейся способности человека понимать, предсказывать и контролировать их функционирование. Большинство людей недооценивает реальную автономность таких систем. Они могут учиться на собственном опыте и осуществлять действия, которые не были задуманы их создателями. Этим обусловлен ряд этических и правовых затруднений, которые будут затронуты в данной статье.

Этика и искусственный интеллект

Существует довольно известный эксперимент — проблема вагонетки. Он поднимает ряд важных этических вопросов, имеющих непосредственное отношение к искусственному интеллекту. Представьте, что неуправляемая вагонетка несётся по рельсам, а на ее пути к рельсам привязаны пять человек. Вы стоите возле рычага, с помощью которого можно переключить стрелку, и вагонетка повернёт и поедет по другому пути, где к рельсам привязан один человек. Переключите ли Вы стрелку?


Однозначного ответа на данный вопрос нет. Более того, вариаций ситуации, в которой приходится принимать подобное решение, очень много [1]. К тому же разные социальные группы дают разные ответы. Так, например, буддистские монахи преимущественно готовы пожертвовать жизнью одного человека, чтобы спасти пятерых даже в более сложном варианте проблемы вагонетки.

Система, которая учится на информации полученной из внешнего мира, может действовать таким образом, который создатели не могли предсказать, а предсказуемость критична для современных правовых подходов.

Что касается искусственного интеллекта, такая ситуация может возникнуть, например, на дороге, по которой двигается беспилотный транспорт, в случае, если авария непреодолима. Возникает вопрос, чья жизнь должна быть в приоритете — пассажиров, пешеходов или ни тех, ни других? В Массачусетском технологическом университете был даже создан специальный сайт, посвящённый этой проблеме, где пользователь может попробовать на себе различные сценарии и выбрать, как стоило бы поступить в той или иной ситуации.

Другие страны могут выбрать иной путь. Возьмём, к примеру, китайскую Систему социального рейтинга, в соответствии с которой каждому гражданину присваивается рейтинг в зависимости от законопослушности, полезной общественной деятельности и др. Обладатели низких рейтингов будут подвергаться санкциям. Что помешает руководству Китая заставить производителей беспилотного транспорта предусмотреть правило, что в случае непреодолимой аварии жертвовать необходимо человеком с наименьшим рейтингом? За счёт, например, технологий распознавания лиц и доступа к соответствующим базам данных, вполне возможно определить и сравнить рейтинги потенциальных жертв.

Основные проблемы, стоящие перед правом

Жёсткие правила могут привести к замедленному внедрению технологий искусственного интеллекта в связи с большими и непредсказуемыми рисками ответственности для создателей.

Но правовые проблемы ещё глубже, особенно в случае роботов. Система, которая учится на информации полученной из внешнего мира, может действовать таким образом, который создатели не могли предсказать [2], а предсказуемость критична для современных правовых подходов. Более того, такие системы могут действовать независимо от создателей или операторов, что усложняет задачу по определению субъекта ответственности. Данные характеристики ставят проблемы предсказуемости и способности действовать самостоятельно, но не быть юридически ответственным [3].

Варианты регулирования многочисленны, в том числе на основе уже существующих норм. Так, технологии, использующие искусственный интеллект, можно регулировать как объекты авторских прав либо как имущество. Однако сложности возникают, если учесть, в частности, способность к автономному действию помимо воли создателя, собственника или владельца. В связи с этим можно применить нормы, регулирующие особый вид имущества — животных, поскольку последние также способны к автономным действиям. В российском праве к животным применяются общие правила об имуществе (ст. 137 ГК РФ), поэтому ответственность будет наступать по ст. 1064 ГК РФ: вред, причинённый личности или имуществу гражданина, подлежит возмещению в полном объёме лицом, причинившим вред, которым является собственник автономного агента.


Не существует фундаментальных причин, почему автономные системы не должны нести ответственность за свои действия.

Предложения о применении правового режима животных высказываются [4], однако они имеют некоторые ограничения. Во-первых, применение законодательства по аналогии недопустимо в рамках уголовного права. Во-вторых, данные нормы созданы в первую очередь для домашних животных, которые не должны причинять вред при обычных обстоятельствах. Для более развитых систем существуют предложения провести аналогию с дикими животными, поскольку для последних существуют более жёсткие правила [5]. Однако и здесь возникает вопрос, как сделать такое разделение в связи с особенностями искусственного интеллекта, указанными выше. Более того, жёсткие правила могут привести к замедленному внедрению технологий искусственного интеллекта в связи с большими и непредсказуемыми рисками ответственности для создателей.

Распространённым предложением является применение к таким системам норм о юридических лицах [6]. Поскольку юридическое лицо является искусственно сконструированным субъектом права [7], то роботов также можно наделить аналогичным статусом. Право может быть достаточно гибким и наделять практически любого правами. Оно также может и ограничить в правах. Например, исторически рабы не обладали практически никакими правами и вообще являлись имуществом. Можно также наблюдать и противоположную ситуацию, когда объекты без явных признаков способности к действию наделяются правами. Даже сегодня существуют примеры необычных объектов, признающихся юридическими лицами, — как в развитых, так и в развивающихся странах. В Новой Зеландии в 2017 г. был принят закон, который признал статус юридического лица за рекой Уонгануи. В законе указывается, что данная река является юридическим лицом и обладает всеми правами, полномочиями и обязанностями юридического лица. Таким образом, данный закон трансформировал реку из собственности в юридическое лицо, что расширило границы понимания относительно того, что может являться собственностью, а что нет. В Индии Верховный Суд в 2000 г. признал юридическим лицом основной священный текст сикхов — Гуру Грантх Сахиб.

Но даже если не рассматривать экстремальные варианты, а привести в пример обычные компании, правовые системы предусматривают гражданско-правовую, а в некоторых случаях и уголовно-правовую [8] ответственность юридических лиц. Не определяя, что компании (или государства) обладают свободой воли или интенцией, или что они могут действовать преднамеренно или осознанно, считается возможным признавать их юридически ответственными за определённые действия. Таким же образом, не обязательно приписывать интенцию или свободу воли роботам, чтобы признавать их ответственными за то, что они делают.

Франция планирует инвестировать 1,5 млрд евро в течение пяти лет для поддержки исследований и инноваций в данной сфере.

Однако аналогия с юридическими лицами проблематична, поскольку, по сути, концепция юридического лица нужна для быстрого и эффективного осуществления правосудия, но действия юридических лиц всегда восходят к действиям индивида или группы людей, даже если невозможно их точно определить [9]. Другими словами, правовая ответственность компаний и похожих образований связана с действиями, выполняемыми их представителями или работниками. Более того, в случае уголовной ответственности, когда она признаётся за юридическими лицами, она возможна только при условии, что физическое лицо, совершившее действие от имени юридического лица, определено [10]. Действия же систем на основе искусственного интеллекта не обязательно будут прямо восходить к действиям человека.

Наконец, к таким системам можно применять правовые нормы об источниках повышенной опасности. В соответствии с п. 1 ст. 1079 ГК РФ юридические лица и граждане, деятельность которых связана с повышенной опасностью для окружающих (использование транспортных средств, механизмов и др.), обязаны возместить вред, причинённый источником повышенной опасности, если не докажут, что вред возник вследствие непреодолимой силы или умысла потерпевшего. Проблема заключается в разграничении, какие системы могут быть отнесены к источникам повышенной опасности. Этот вопрос похож на вышеуказанную проблему разграничения домашних и диких животных.

Национальное и международное регулирование


Здесь хотелось бы остановиться на двух недавних примерах — Франции, которая заявила об амбициях стать европейским и мировым лидером в сфере искусственного интеллекта; и Европейском союзе, в котором предложены продвинутые нормы регулирования умных роботов.

Франция

В целом даны семь ключевых предложений, одно из которых представляет особый интерес для целей статьи — сделать искусственный интеллект более открытым. Действительно, алгоритмы закрыты и в большинстве случаев являются коммерческой тайной. Однако алгоритмы могут быть предвзятыми, например, в процессе самообучения впитать стереотипы, существующие в обществе либо переданные разработчиками, и на их основе принимать решения. Таким образом уже принимаются судебные решения. В США подсудимый был приговорён к продолжительному сроку заключения на основе информации, полученной от алгоритма, оценивающего возможность повторного преступления. Подсудимый безуспешно оспаривал использование алгоритма для принятия такого решения, поскольку не были предоставлены критерии оценки, являющиеся коммерческой тайной. Французская стратегия предлагает развить прозрачность алгоритмов и возможностей по их проверке, а также определить этическую ответственность работающих в сфере искусственного интеллекта, создать консультативные комитеты по этике и т. д.

Европейский союз

Алгоритмы могут быть предвзятыми, например, в процессе самообучения впитать стереотипы, существующие в обществе либо переданные разработчиками, и на их основе принимать решения.


В связи с особенностями искусственного интеллекта звучат предложения о непосредственной ответственности определённых систем [11]. В соответствии с такими взглядами, не существует фундаментальных причин, почему автономные системы не должны нести ответственность за свои действия. Однако открытым остаётся вопрос о необходимости либо желательности введения такой ответственности (во всяком случае на данном этапе). Это в том числе связано с этическими проблемами, указанными в статье. Возможно, сделать программистов или пользователей автономных систем ответственными за действия таких систем будет более эффективным. Однако это же может замедлить инновации. Поэтому необходимо продолжить поиски оптимального баланса.

Для этого важно ответить на многие вопросы. Например, какие цели мы преследуем, развивая технологии искусственного интеллекта? Чьи интересы должны преобладать? Насколько эффективно это будет? Ответ на эти вопросы поможет предотвратить ситуации подобно той, которая случилась в России XVII в., когда животное (а именно, козёл) было отправлено в ссылку в Сибирь за совершённые им действия [12].

Читайте также: