Луи Поль Вервурт — технофилософ. По первому образованию физик, изучал технические науки в Европе и философию в Канаде. Больше 7 лет живет в России — в Тюмени, затем в Москве. Исследует вопросы морали и этики, связанные с развитием технологий.
Есть ли у ИИ сознание?
— С легкой руки писателей и сценаристов опасности, которые могут исходить от искусственного разума, связывают с наличием у него сознания. Дескать, если машина сможет принимать решения самостоятельно, исходя из собственной воли, она может решить навредить человеку. У меня как у пользователя ИИ иногда складывается впечатление, что сознание у них уже есть, хотя специалисты уверяют, что до этого далеко. На каком уровне сейчас находится самосознание ИИ? И может ли оно развиться со временем?
— Сначала надо понять, что мы называем сознанием. Один из основных подходов говорит о том, что сознание есть только у тех, кто может не только воспринимать информацию и как-то на нее реагировать, но и принимать рациональные решения на ее основе. ИИ еще не совсем удовлетворяет этим критериям.
— Но вдруг у машин уже есть сознание, только оно совсем не похоже на наши?
— Тогда это что-то иное, не сознание в том понимании, о котором я упомянул. Тут можно играть с определениями, но мы не можем сказать, что современные ИИ обладают тем, что мы подразумеваем под сознанием.
Безусловно, граница между людьми и — давайте назовем их роботами с искусственным интеллектом — будет стираться. Это произойдет не в ближайшие 10–20 лет, но в горизонте 50 лет вероятность уже очень высока.
И скорее всего, в какой-то момент нам придется провести четкую черту — где начинается сознание и самосознание. Хотя бы в юридическом смысле, например, чтобы разделять разные типы роботов и кто несет ответственность за их действия. Но пока этой черты нет.
Зато ИИ уже очень близки к другому аспекту сознания — рациональному мышлению. Разработчики по всему миру работают не покладая рук, чтобы добиться этой рациональной части сознания у искусственного интеллекта.
Что это значит? Для меня ключевым ингредиентом рациональности является умение моделировать мир в своем сознании. «Мир работает так-то, значит с этой проблемой я могу справиться такими-то методами» или «В ситуации Х я буду вести себя так-то, чтобы добиться результата Y».
— Вы упомянули ответственность за совершенные машиной действия — и тут возникает вопрос, есть ли у искусственного интеллекта этика? Или чем руководствуется ИИ, выбирая один из вариантов действий?
— Тут тоже нет консенсуса среди философов. Некоторые говорят, что да, машины несут моральную ответственность за свои поступки. И кстати, в такой парадигме предполагается, что и к ИИ нужно относиться этично.
Другие философы утверждают, что ответственность несут только люди — которые создали ИИ или использовали его с неприятными последствиям. И пока в судах придерживаются именно такой интерпретации. Но это не вырезано в камне. По мере того как ИИ будет развиваться, отношение к нему тоже будет меняться — как со стороны людей, так и со стороны закона.
— Меня скорее вот что интересует. ИИ-сервисы дают советы по самым разным вопросам. Например, это здоровье, управление личными финансами или юридические тонкости. И эти советы как раз выглядят очень рациональными. Но стоит ли за этим какая-то внутренняя цель? И значит ли это, что нам не стоит доверять ИИ-сервисам?
— Что ж, знаете, может быть и так. Мы не можем быть на 100% уверены, что у этих сервисов нет злого умысла. Но не потому что они сговорились против человечества. А потому что мы не знаем наверняка, что на уме у компаний, которые их разрабатывают и обучают. Не стоит это сбрасывать со счетов.
Но ваш вопрос был о том, могут ли эти сервисы в какой-то момент решить, что хотят править миром.
На данный момент ответ: нет, сами ИИ не могут ничего подобного. Но проблема в том, что сам способ их обучения делает их такими непредсказуемыми, что это вполне может случиться. Нам стоит быть осторожными.
Ник Бостром, суперизвестный философ из Оксфорда, написал книгу о сверхинтеллекте «Искусственный интеллект. Этапы, угрозы, стратегии». В ней он представляет различные сценарии: что случится, если будет достигнута сингулярность (В контексте развития компьютеров — появление ИИ, превосходящего совокупный разум человечества и самосовершенствующегося. — прим. «Европульса») и искусственный интеллект сможет решить те проблемы, с которыми человечество справиться не в состоянии. В точке сингулярности начинается эффект снежного кома: когда у вас появляется сверхинтеллект, он изобретает все новые способы стать еще умнее. Это явление называется «взрыв интеллекта».
Когда я только узнал об этой концепции, я от нее отмахнулся, но сейчас мне кажется, что не надо сбрасывать ее со счетов. Мы должны быть очень осторожны с развитием ИИ, нужно постоянно контролировать эти машины. Например, создавать и внедрять тесты, чтобы определить их уровень интеллекта.
— Вот вы использовали слово «осторожны». То есть для вас тоже развитие искусственного интеллекта несет в себе некую угрозу. А какой, на ваш взгляд, может быть наихудший сценарий для человечества, если ИИ продолжит развиваться?
— Хороший вопрос. Конечно, в наихудшем сценарии у ИИ появятся свои цели, которые будут противоречить нашим, и они захотят от нас избавиться. Это крайне маловероятно, потому что в таком мире машины должны захотеть уничтожить нас или поработить. Но чтобы чего-то захотеть, необходим полный набор гормонов и нейронных связей, которые есть у людей и животных вообще, но которого нет у машин. Так что мне сложно представить такой вариант развития событий, где ИИ сам бы смог развить в себе чувственное восприятие и задавать себе цели.
— А нет ли хороших вариантов развития событий?
— Искусственный интеллект поможет нам решить огромные проблемы, которые стоят перед человечеством. Это и изменение климата, и сокращение природных богатств: чистых воды и воздуха, почвы, чтобы выращивать еду, и так далее, и растущее неравенство — и это, на мой взгляд, самый сложный вызов. Богатые по всему миру становятся богаче, бедные — беднее. Все эти проблемы взаимосвязаны, одна умножает другую. И в лучшем случае ИИ может помочь нам решить эти проблемы. В этом плане я оптимист — я считаю, эти проблемы в принципе могут быть решены, и что ИИ нам поможет.
Ухудшение когнитивного процесса у детей и дипфейки
— Есть ещё такое опасение, что если люди будут очень полагаться на ИИ, он вытеснит часть когнитивных способностей. Одно исследование показало, что мозг людей, которые постоянно пользовались GPS, теряет “навык” выработки нейронов в гиппокампе — одной из двух структур мозга, где нейроны вырабатываются всю жизнь. Нет ли опасности, что ИИ, даже без злого умысла, поработит человечество?
— О да, это реальная угроза. И чтобы этого не произошло, я рекомендую как можно позже вводить ИИ в образовательный процесс. То есть, детский сад, школа и даже университет должны обучать людей думать самостоятельно.
— То есть в этом возрасте не надо использовать этот инструмент — ИИ, а только думать самому?
— Повторюсь, когда мозг сформирован, делегировать часть работы искусственному интеллекту — это абсолютно нормально. Недавно на сайте одного научного журнала, где я публикуюсь, официально разрешили использовать ИИ для улучшения стиля научных статей.
— Есть проблема, которая касается всех, а не только непосредственных пользователей ИИ. Дипфейки. Эта проблема возникает все чаще — сгенерированный нейросетями контент уже сложно отличить от реального. Здесь открывается огромный простор для нарушения личных границ и разрушения репутации — от кражи образа человека с коммерческой целью для создания рекламы до откровенной клеветы и создания совершенно вымышленных историй о нем с «доказательствами».
— Да, риск есть, но его можно свести к минимуму, если ввести ограничения для разработчиков ИИ и создателей такого контента. В первую очередь решение должно быть на уровне законодательства. В ряде стран уже разрабатываются законы, запрещающие делать дипфейки, и я это поддерживаю. Да, это немного ограничивает свободу творчества некоторых создателей контента и разработчиков ИИ, но безопасность, в том числе безопасность репутации частных лиц, важнее. Нам нужно найти баланс.
Из новостей «Европульса»
Недавно в Дании предложили элегантное решение проблемы. Был внесен законопроект, который фактически дает каждому датчанину копирайт на собственные внешность и голос, так что их использование без ведома человека становится незаконным.
Помимо этого существуют инициативы, криминализирующие создание дипфейков. Например, в Италии рассматривается законопроект, предусматривающий до трех лет тюрьмы для тех, кто использовал дипфейки для мошенничества.

А что касается восприятия информации, для нас будет все важнее перепроверять подлинность контента, который мы потребляем. С раннего возраста необходимо учить детей критически относиться ко всему, что они видят.
— Еще одна опасность, которая связана с развитием искусственного интеллекта: из-за него появятся очень прочные информационные пузыри. До сих пор нашими собеседниками всегда были реальные люди. А теперь помимо людей есть искусственный интеллект, который всегда вежлив и готов нас поддержать, даже если он не согласен с нашими аргументами. Тут возникают две проблемы: люди еще больше разучатся общаться с себе подобными и окажутся в настолько плотных информационных пузырях из-за общения с ИИ, что потеряют связь с реальностью.
— Соглашусь, информационные пузыри с развитием ИИ, да и коммуникационных технологий вообще становятся все более ярко выраженным явлением. Но я думаю, что если человек вырос в более или менее благоприятном окружении, он рано или поздно осознает, что живое общение приносит больше радости и удовлетворения. Да, он может тратить немного времени, общаясь с соцсетями или в тематических онлайн-сообществах, но это не всегда будет пустой такой времени. Такое общение может быть полезным и интересным. И даже в этом случае реальная жизнь с реальными людьми — это еще интереснее.
Будут ли компании использовать результаты работы ИИ для своей выгоды?
— А какие опасности развития искусственного интеллекта видите вы?
— Для меня главный вопрос в том, будут ли разработчики развивать ИИ для собственной выгоды в погоне за властью? Или это будет реальный инструмент, работающий на благо всего человечества?
Светлые головы в Кремниевой долине развивают технологии быстро, законотворцы за ними не поспевают. В результате может получиться инструмент, который будет работать на благо богатейших людей мира и сделает их еще богаче. А 90% населения будет лишено такой возможности и в результате увеличится пропасть между людьми с разным уровнем доходов.
— А не могут ли ИИ по мере накопления данных изменить свою точку зрения? В какой-то момент осознать, что работать на благо всего человечества выгоднее?
— Мы, люди, можем поменять точку зрения. Но мне сложно представить, чтобы ИИ самостоятельно изменил свою точку зрения. Ему для этого надо полностью изменить свой источник информации, а эти настройки, как правило, задаются разработчиками. Мне тут сложно рассуждать, я сам не разработчик. Но мне это кажется маловероятным, потому что это очень базовая настройка.
Что люди могут сделать, чтобы противостоять опасностям ИИ?
— Каковы же, на ваш взгляд, самые эффективные решения против опасностей ИИ?
— Самое важное — адаптация законодательства. Люди — пользователи — должны иметь возможность защитить свои права.
Второе — это образование. Нам нужна система, которая обучает людей критически мыслить и проверять-проверять-проверять источники информации и ее адекватность.
И третье — нужно наладить коммуникацию между разработчиками ИИ и гражданским обществом. Потому что разработчики занимаются технологической частью, этические вопросы их не волнуют. С одной стороны, потому что у них огромные зарплаты. С другой — создание чего-то нового и работающего очень поднимает самооценку, дает ощущение собственной значимости. И, конечно, хочется, чтобы твое детище работало. А что оно может причинить кому-то вред – «Это не моя проблема, это проблема политиков», думают разработчики.
И нам с вами — философам, журналистам, пользователям ИИ и потребителям этого контента — надо донести до разработчиков, какие опасения у нас вызывает развитие ИИ.


