Евротренд

Рамки для нечеловеческого разума: как и зачем Европа регулирует технологии искусственного интеллекта

«Восстание машин» — фантастика, но уже существующие системы искусственного интеллекта могут причинить вред людям. «Европульс» изучил подход Евросоюза к законодательному регулированию этой противоречивой технологии.

В конце марта в интернете появилось изображение папы римского Франциска в белом пуховике. Выглядело оно как фотография, но было сделано нейросетью Midjourney.

С помощью Midjourney пользователи создали и «фотографии» президента Франции Эммануэля Макрона и бывшего президента США Дональда Трампа в ситуациях, в которых они никогда не бывали.

Весной же 2023 года Европарламент ускорил работу над законодательством о применении и развитии систем с использованием искусственного интеллекта (ИИ).

Законы в этой области уже давно существуют, но регулируют деятельность специализированных систем ИИ – тех, которые предназначены для узких целей (например, для умной навигации, распознавания лиц, антиспама, антиплагиата). С появлением же продвинутого чат-бота общего назначения GPT-4 ситуация резко изменилась. Генеративный искусственный интеллект, обученный на огромном массиве данных, с легкостью создает не только фотофейки, но тексты, которые не отличить от написанных человеком.

Чтобы побудить коллег со вниманием отнестись к таким чат-ботам, один депутат Европарламента прочитал с трибуны речь авторства GPT-4. Подвох остался бы незамеченным, если бы депутат не признался. Его коллега пошел дальше и озвучил на заседании предложения по регулированию ИИ, написанные GPT в шекспировском стиле.

Какими мерами в Европе собираются обезопасить применение искусственного интеллекта?

Уже в этом году в Евросоюзе собираются принять всеобъемлющие законы относительно применения и развития систем с использованием ИИ.

Все разрешенные системы ИИ предлагается маркировать по уровням риска, который они несут. Ответственность за такую маркировку собственного программного продукта ляжет на плечи разработчиков и компаний-провайдеров систем искусственного интеллекта. За несоблюдение законодательства им будет грозить штраф в размере от 10 до 40 миллионов евро, либо от 2 до 7% годового оборота компании — в зависимости от того, что больше.

Предлагается ввести четыре категории риска систем ИИ.

Системы с неприемлемым риском

Эти системы запретят на территории ЕС. Запрет коснется как использования, так и разработок – хотя и с небольшими оговорками. К таким технологиям уже отнесли системы социального рейтинга, которые открывают или закрывают гражданам доступ к разным услугам (например, ипотечным кредитам) в зависимости от их «поведения».

В эту категорию попадают и ИИ-технологии распознавания лиц и другой биометрической индентификации в реальном времени для правоохранительных целей, даже для поимки террориста. Это ограничение ввели после нескольких ошибок искусственного интеллекта. Исключения – это розыск пропавших детей, поиск преступников по предварительному ордеру (и то доступ дается только к прошлым видеозаписям) и лечение.

Под запрет попадут системы, которые используют массивы данных для предсказания преступлений (их места и потенциальных участников): эти технологии заранее настраивают полицейских на определенный сценарий развития событий и усыпляют их общую бдительность.

Также будут запрещены все формы технологий для подсознательных манипуляций, которые «наносят физический или психологический вред». В качестве примера приводится сервис, повышающий концентрацию водителей-дальнобойщиков и позволяющий им вести машину дольше, чем под силу обычному человеку (его использование приводит к мигреням и другим проблемам со здоровьем). В кабине машины работает устройство, издающее ультразвук особой частоты, влияющий на центры концентрации в мозге. ИИ используется, чтобы найти нужную частоту в зависимости от условий.

Еще один тип неприемлемых технологий связан с неэтичной коммуникацией с детьми или людьми с инвалидностью. Например, игрушка с функцией голосового помощника, которая может склонить своего «хозяина» к опасным действиям или нанести ему психологическую травму (что не так сложно сделать с ребенком, у которого не до конца сформирован мозг и критическое мышление).

Системы с высоким риском

Среди таких технологий — автоматические сервисы по подбору персонала (они проводят первичный отбор резюме, с которыми уже работают HR-специалисты), медицинские роботы и системы постановки диагноза.

Эти системы, которые могут сильно влиять на судьбу конкретного человека или группы людей, будут допущены к использованию в ЕС только со следующими условиями: они должны соответствовать всем требованиям законодательства (каким именно — еще предстоит доработать) и доступ к ним будет открыт только после предварительной оценки безопасности. Он может быть ограничен определенной группой профессионалов (например, врачей или полицейских).

При этом в исследовательских целях можно будет заниматься системами, которые запрещены для массового использования.

Системы с ограниченным риском

Это, например, чат-боты и голосовые помощники, особенно со своим «характером» — как чат GPT. В эту же категорию входят генераторы изображений по словесным описаниям, вроде сервиса Midjourney, новая версия которого вышла в марте 2023 года и вместе с чатом GPT «взорвала мозг» пользователей.

Эти системы способны «выудить» личную информацию пользователей или причинить ощутимый психологический дискомфорт. Такие сервисы смогут работать на территории ЕС только если их разработчики предоставят информацию о своем продукте: исходный код и дата-сеты, на которых проводилось обучение моделей, а также базисные модели, которые позволяют ИИ учиться самостоятельно. Как именно должна предоставляться эта информация, еще будет обсуждаться.

Европарламентарии также предложили маркировать в интернете картинки, тексты и другой контент, созданный с помощью ИИ.

Несмотря на эти требования прозрачности, распространение таких сервисов никак не ограничивается.

Системы с минимальным риском

Это самые распространенные системы, которые уже прочно вошли в повседневную жизнь. Они собирают минимум конфиденциальных данных пользователей и не призывают их к каким-либо действиям. Например, это поисковики и службы автоматического отсеивания спама. Оценивается не вид деятельности в целом, а конкретный продукт (это справедливо для всех категорий).

Такие системы беспрепятственно могут использоваться в Евросоюзе, а на их создателей налагаются не больше обязательств, чем на провайдеров любого другого сервиса.

Кроме того, Евросоюз собирается поддерживать разработчиков систем с использованием ИИ. Для малых и средних предприятий в сфере разработки ИИ будут предусмотрены различные схемы поддержки.

Евросоюз первым в мире принял меры, чтобы законодательно определить деятельность, связанную с развитием и применением технологий искусственного интеллекта.

  • В 2018 году в ЕС были созданы объединение стейкхолдеров и экспертная группа при Еврокомиссии по вопросам развития искусственного интеллекта (ИИ), а позднее в этом же году Еврокомиссия представила координационный план по развитию технологий ИИ в странах Евросоюза.
  • В 2021 году Еврокомиссия сформулировала рамочные предложения для соответствующего законодательства — AI Act.
  • В марте-апреле 2023 года эти предложения существенно скорректировали и дополнили (добавив положения для ИИ общего назначения, к числу которых относится чат GPT). На момент написания статьи эти предложения одобрили профильные комитеты Европарламента. До конца 2023 года планируется принять окончательную версию закона.



До Евросоюза свои гайдлайны выпускали технологические компании (такие, как Google) и международные организации (например, ОЭСР — Организация экономического сотрудничества и развития). А государственные структуры исследовали область применения искусственного интеллекта и области, требующие правового регулирования (например, в 2016 году было опубликовано исследование, проведенное по инициативе тогдашнего президента США Барака Обамы).

Чего опасаются люди?

Технологии, связанные с разработкой искусственного интеллекта — одни из самых обсуждаемых и противоречивых. По количеству ярых сторонников и не менее (а зачастую более) ярых противников они соперничают разве что с использованием генной инженерии и стволовых клеток.

Немалую роль в этом играет массовая культура. На протяжении десятилетий она на разные лады рассказывает, как «умные машины» выходят из-под контроля и порабощают человечество. Возможно, из-за этого к различным технологиям с использованием ИИ отношение в обществе (в том числе в европейском) достаточно сложное.
По данным опроса Евробарометра 2017 года, 61% европейцев в целом положительно относится к искусственному интеллекту и «умным» роботам. Но картина резко меняется, когда речь заходит о непосредственном взаимодействии с этими технологиями. Только 22% европейцев готовы прокатиться в беспилотном автомобиле и только 26% чувствовали бы себя комфортно, если бы их лечил или ставил диагноз робот с искусственным интеллектом, а не человек.

Чат GPT поделился с «Европульсом» своими соображениями об угрозах искусственного интеллекта для человечества

В рамках разрабатываемого ЕС законодательства в сфере ИИ планируется не только обезопасить пользователей (задав рамки разработчикам и исследователям), но и образовывать жителей, избавляя их от предрассудков. По результатам уже упоминавшегося исследования Евробарометра, информированные европейцы в полтора раза чаще оказываются сторонниками ИИ, чем те, кто не получал информацию по этой теме (75% тех, кто соприкасался с темой в течение последнего года, относятся к ИИ положительно, среди остальных — только 49%).

Что чаще всего регулируют правовые документы?

Согласно обзору разнообразных правовых документов, регламентирующих этику разработок и использования технологий ИИ, в них встречаются 6 основных тем регулирования.

  1. Прозрачность технологии и доступность информации о ее разработке для всех заинтересованных сторон. На основании этой информации пользователи могут отказаться от конкретной технологии.
  2. Доступность и справедливость. Технологии искусственного интеллекта не должны стать прерогативой «золотого миллиарда» или другой небольшой группы «избранных».
  3. Ответственность и подотчетность. Разработчики и бенефициары системы ответственны перед пользователями и обществом в целом.
  4. Конфиденциальность. ИИ часто имеет дело с деликатной личной информацией, например, данными о здоровье человека. Разработчики обязаны гарантировать неразглашение этих данных.
  5. Использование во благо человечества. После энергии атома никто не хочет создавать новое оружие массового поражения, а как это реализовать — большой вопрос.
  6. Обеспечение автономности человека и связанные с этим требования надзора за системами ИИ со стороны людей.

«Мы уже используем ИИ в повседневной жизни, чтобы переводить тексты с одного языка на другой, создавать субтитры к видеороликам или блокировать спам в электронной почте, — отмечается в пояснительной записке к тематическому законопроекту. — Многим технологиям искусственного интеллекта требуются данные, чтобы работать лучше. И как только они начинают работать достаточно хорошо, они могут автоматизировать процесс принятия решений в своей сфере. Например, можно «натренировать» систему с использованием ИИ замечать кибератаки».

И в европейском законопроекте о технологиях искусственного интеллекта, и в других похожих документах много требований общего характера. Например, о том, что эти технологии должны работать на благо человечества. Или напоминание, что производитель несет ответственность за адекватную работу сервиса.

Но есть и совершенно специфические требования. Например, в разных гайдлайнах — от «кодекса разработчика» Google до рекомендаций Института инженеров электротехники и электроники прописано, что в системах искусственного интеллекта определенную часть контроля должен обеспечивать человек. В законодательство Евросоюза это положение также перекочевало.

Еще одно уникальное требование — предоставить данные не только об устройстве и «составе» программы, но и о тех данных, на которых она обучалась.

Что ждать от нового законодательства?

За процессом обсуждения следят за пределами Европы: решения, принятые в Евросоюзе, с большой долей вероятности повлияют на весь остальной мир.

Так называемый «эффект Брюсселя» заметила и описала профессор юриспруденции Колумбийского университета Ану Брадфорд. По ее наблюдениям, громоздкий законодательный аппарат Евросоюза, который часто обвиняют в излишнем педантизме, на самом деле вырабатывает целостные решения, которые со временем принимают на вооружение по всему миру. Так случилось с нормами об использовании персональных данных (GDPR), принятых в ЕС в 2018 году (с тех пор мы подписываем согласия на обработку персональных данных и подтверждаем свой возраст на некоторых сайтах).
В случае с законодательством по ИИ этот эффект уже начинает работать. Вслед за Евросоюзом (и с опорой на его опыт) законотворчеством в сфере развития и применения ИИ занялась Бразилия в 2021 году.

В отличие от многих других сфер, где Евросоюз критиковали за чрезмерное затягивание гаек (вроде стандартов качества пищевых продуктов и требований к их производству), введение ограничений для технологий ИИ поддерживают даже в профессиональном сообществе. Производители и амбассадоры этих технологий призывают оценить риски, прежде чем продолжить развивать (или как минимум внедрять) ИИ-технологии. Среди них создатель компаний Tesla и Space-X Илон Маск и сооснователь Apple Стив Возняк.

По оценкам экспертов, по состоянию на май 2023 года подход ЕС к правовому регулированию технологий искусственного интеллекта наиболее сбалансированный и целостный. Для разработки законодательства привлекли не только узких специалистов и технократических визионеров, но и депутатов и других представителей гражданского общества (в рамках рабочих групп), а также провели опрос на общеевропейском уровне. И кроме того, план действий в сфере ИИ включает в себя и образовательную кампанию, чтобы страхи перед «восстанием машин» остались в прошлом.


На обложке: лицо несуществующей женщины, сгенерированное ИИ