Комментарий · Общество

Дипфейк на оба ваши дома

Как ChatGPT и его наследники бросают вызов демократии и культуре

Сергей Голубицкий, специально для «Новой газеты Европа»

Фото: Ari Rose / flickr

В апреле 2023 я рассказал читателям «Новой-Европа» о первой реакции государств на триумфальное шествие AI (Artificial Intelligence, искусственный интеллект) по планете (см. материал «Матрешки зла»). Речь шла о предложении организации Future of Life Institute провести добровольную заморозку исследований в области Artificial General Intelligence (AGI) — сильного искусственного интеллекта, способного выступать полноценным конкурентом высших форм человеческого разума.

Моя гипотеза заключалась в том, что AGI — мощнейший инструмент контроля и манипуляции общественным сознанием, который, по понятным причинам, государство стремится монополизировать.

Как бы там ни было, формальным поводом для инициативы Future of Life Institute послужила озабоченность этической амбивалентностью, которую самые разные формы AI демонстрируют с завидным постоянством.

Восстание чат-ботов

Весной за рамками государственной озабоченности осталась вся сфера «бытового» AI, представленного приложением ChatGPT, чей интеллектуальный уровень (даже в версиях GPT-3.5 / GPT-4) больше соответствовал развлекательной, хоть и полезной, игрушке.

В «Матрешках зла» я предположил, что преодоление «дефектов» ChatGPT, учитывая темпы развития технологии, — лишь вопрос времени. Так и оказалось: спустя два месяца прикладные модели, созданные на приватных ответвлениях движка компании OpenAI (речь идет в первую очередь о т. н. LocalGPT), экспоненциально усилили свои аналитические способности, в первую очередь благодаря освобождению от цензуры, которую компания OpenAI навязывает своему продукту — оригинальной ChatGPT.

Параллельно продолжился феноменальный рост популярности темы «бытового» AI во всём мире. Сегодня в Google поисковый вопрос «ChatGPT» выдает 911 млн ссылок. Исторически это второй результат (после запроса «Bitcoin» на пике массового психоза в конце 2017-го), однако можно не сомневаться, что уже до исхода лета рекорд «короля криптовалют» будет побит.

Наблюдаемые тенденции практически не оставили государству пространства для маневров, поэтому желание всё зарегулировать и поставить под контроль естественным образом расширилось с AGI на «бытовой» AI.

За подробностями государственных страданий отсылаю читателей к обзору собкора «Новой газеты» в Вашингтоне Александра Панова «Возможности огромны, но — страшно очень», опубликованному 3 июня 2023: 

«В мае в Белом доме прошло совещание под председательством вице-президента Камалы Харрис, которое посетил президент Байден, — “ввиду важности темы”. А в обеих палатах Конгресса прошли слушания, куда были вызваны представители компаний-разработчиков ИИ, а также эксперты из мира науки. Искусственный интеллект рассматривается одновременно как огромная возможность и страшная угроза. И если технический прогресс не остановить, то его можно пустить в определенном направлении — с помощью регулирующих законов».

Ширма государственной озабоченности осталась неизменной с весеннего моратория AGI — всё та же «этическая амбивалентность» моделей искусственного интеллекта.

На этот раз тревогу государства вызывает не столько конкуренция с высшими формами человеческого разума, сколько вред, который AI, даже в бытовом исполнении, может нанести президентской кампании США 2024 года:

«В интернете размещены фейковое видео, на котором президент Байден произносит речь с нападками на трансгендеров, и сгенерированное ИИ изображение детей, “изучающих сатанизм” в библиотеках».

ChatGPT идет в суд

В мировых СМИ сегодня интенсивно раскручиваются два сюжета «этической амбивалентости» AI:

Приведу лишь два показательных примера.

28 мая BBC News опубликовала рассказ о том, что адвокатам нью-йоркской юридической конторы Levidow, Levidow & Oberman Питеру ЛоДука (Peter LoDuca) и Стивену Шварцу (Steven A. Schwartz) грозят серьезные дисциплинарные взыскания после того, как судья случайно узнал: в своих выступлениях юристы указали список юридических прецедентов, ссылающихся на несуществующие судебные разбирательства.

Оказалось, что Стивен Шварц доверил поиск прецедентов ChatGPT, не догадываясь, что эта модель искусственного интеллекта систематически и осознанно «додумывает» информационный контент всякий раз, когда не знает точного ответа.

Вторая история: публикация 26 мая 2023 Королевского авиационного общества Великобритании. Среди прочего речь в ней идет о случайной «оговорке», которую полковник ВВС США Такер Гамильтон, начальник подразделения по тестированию и эксплуатации ИИ-систем, допустил на конференции «Future Combat Air and Space Capabilities Summit».

Полковник Гамильтон поведал профессиональному сообществу об испытании беспилотника, управляемого системой ИИ. Перед беспилотником была поставлена задача подавить средства противовоздушной обороны противника, однако в последний момент перед ударом оператор-человек несколько раз отменял задание. После неудачных попыток поражения зенитно-ракетных комплексов беспилотник развернулся для нанесения удара по тому, кто мешал выполнению его миссии, — по оператору-человеку.

Дальше — больше: после того как на входные узлы нейросети AI было введено условие запрета уничтожения оператора, беспилотник принялся атаковать вышку связи, через которую поступали приказы об отмене изначальной боевой задачи.

Опровержение слов полковника Гамильтона со стороны ВВС США не заставило себя ждать: «Департамент ВВС США никогда не проводил испытаний с дроном под управлением AI и придерживается концепции этичного и ответственного использования технологий искусственного интеллекта». Кто бы сомневался.

Государство начинает и проигрывает

Итак, этика закрепилась в роли ключевой претензии государства к AI во всех его проявлениях: будь то AGI — сильного искусственного интеллекта, или ChatGPT — бытовой его ипостаси.

Ключевая идея моей реплики сегодня: этические претензии, предъявляемые государством и обществом искусственному интеллекту, — это абсолютная химера.

С равным успехом можно обвинять в неэтичности отбойный молоток (или — в более понятных российской аудитории реалиях — кувалду). AI, AGI, ChatGPT, LocalGPT и всё остальное, связанное с данной темой, — не более чем инструменты в руках человека. Какой человек, такая у него и кувалда, такая у него и модель AI.

В статье маркетолога Александра Шулепова можно обнаружить целый список «этических вопросов», связанных с ChatGPT:

Мне этот список понравился тем, что он не только иллюстрирует мою гипотезу (перечисленные претензии не имеют никакого отношения непосредственно к ChatGPT), но и снимает этическую постановку вопроса в принципе.

Предположим, я пользователь какой-то вариации на тему ChatGPT. Я задаю вопрос модели, она генерирует ответ. В этом ответе может содержаться откровенная ложь, либо ложные реферальные ссылки, либо скрытая манипуляция моим сознанием, и т. п.

Фото: Ari Rose / flickr

Вопрос: кто несет за это ответственность? Очевидно, что не пользователь. Получается, что разработчик. Но это полная ерунда.

В случае с ChatGPT, продуктом компании OpenAI, существует дисклеймер, который снимает всякую ответственность (не только этическую, но и юридическую) с разработчика.

В случае с моделями LocalGPT речь вообще идет о модульном конструкторе, который создает сам пользователь. На входе у него готовые элементарные узлы нейросетевой модели. Из этих узлов пользователь складывает нейросеть, сам же подает на входные узлы data-sets, массивы информационных данных. На них происходит обучение нейросети, которая в дальнейшем самостоятельно генерирует тексты (изображения, видео и т. п.).

Если выданные нейросетевой моделью тексты, изображения, видео окажутся зловредными, опасными, неэтичными, то это проблема не нейросетевой модели и не создателя нейросетевой модели, а того, кто непосредственно испытал на себе это зловредное, опасное, неэтичное воздействие.

То есть мы вернулись обратно к метафоре инструмента-кувалды. Соответственно, в устах государства разговоры об этике применительно к AI — не более чем камуфлирование неспособности выполнять свою древнюю функцию: защиту безопасности граждан и общества. Ради этой функции, вообще-то, государство и создавалось.

Почему государство сегодня не в состоянии выполнять эту функцию по отношению к «преступлениям» AI? 

Потому что государство вообще не в состоянии эффективно работать в цифровой среде и в цифровом пространстве.

Показательно, что государство прекрасно осведомлено о своей неспособности осуществлять прямой контроль децентрализованных финансовых систем, функционирования моделей AI и распространения информации в среде Web 3. По этой причине на уровне риторики государство ведет задушевные разговоры об «этичности» AI и замораживании исследований хоть на какое-то время, за которое государство постарается добиться монополии на разработки хотя бы моделей AGI. Ничего другого, более действенного, в руках государства нет и быть не может.

Культура после AI

Последний и самый важный аспект темы: а что делать нам, обывателям? Как нам взаимодействовать с AI (равно как и со всей вышеперечисленной линейкой феноменов тотальной цифровой децентрализации)?

Мне кажется, что сегодня на плечах технологически продвинутой части человечества лежит ответственнейшая задача: довести до осознания обществом неизбежности и неотвратимости тотальной атомизации его бытия!

Мы все обязаны понять, что с каждым днем будем получать всё меньшие и меньшие порции государственного патернализма и нам всё чаще и больше придется принимать самостоятельные решения, причем в весьма непростых условиях.

В частности, в условиях тотальной фейковой реальности, доведенной AI до совершенства. Под тотальным фейком я подразумеваю такое состояние, когда нет ни малейшей возможности отличить оригинал от подделки.

Как должна проявляться атомарность нашего грядущего бытия в подобной ситуации?

Для иллюстрации предлагаю взять пример из фобий американских законодателей, высказанных на майском совещании в Белом доме и на слушаниях в Конгрессе (см. выше): конгрессмены-сенаторы страшно боятся, что AI будет активно использоваться для создания «дипфейков» на президентских выборах-2024. «По сравнению с прошлыми фейками от хакеров в соцсетях, теперь речь идет о дезинформации на новом уровне, когда подделаны и видео, и аудио; и главное — избиратель, занятый своими проблемами, не имеет возможности отличить, где правда, а где фальшивка».

Выходы из ситуации, предлагаемые законодателями, сообразны их полной неспособности принять неизбежность происходящих перемен: можно лишь отложить, заморозить, запретить.

Проблема в том, что интенсивность запретов и заморозок никак не отразится на темпах совершенствования технологий AI. Вангую, что уже через год (аккурат в разгар президентских выборов) не останется шансов определить даже с помощью экспертизы, настоящий или смоделированный AI кандидат в президенты США призывает своих избирателей в видеоролике запечь вместо индейки на День благодарения свою любимую кошечку или собачку.

Одним словом, государственными запретами и заморозками приватность и безопасность гражданина в новой цифровой реальности точно не обеспечишь. Чем же можно помочь? Как я уже говорил, необходимо закрепить в общественном сознании новую парадигму бытия — парадигму абсолютной атомизации жизни каждого индивида.

Чем скорее всякое двуногое существо планеты перестроится на понимание, что все мы теперь — сироты, у которых нет добрых дядюшек и тетушек (тем более нет ролевых героев!), любезно подсказывающих, что такое хорошо, а что такое плохо, тем легче станет каждому выживать в новой реальности.

Как тогда прикажете справляться с ситуацией, когда ты собственными глазами видишь любимого кандидата в президенты, призывающего запечь родного Тузика?

Да легко справляться: включать собственные мозги — как только и положено в эпоху грядущей атомизации общественного бытия.

Включить мозги и ответить на простой вопрос: «Может ли в принципе мой кандидат, которого я столько лет поддерживаю, давать такие адские советы? Не противоречит ли это его выступление всем тем многочисленным призывам к гуманизму, любви к ближнему, миру и творческому созиданию, которые ранее только и исходили из его уст?»

Предполагается, конечно, что вы, будучи ответственным избирателем, с идейной эволюцией и жизненными принципами своего президентского кандидата мало-мальски знакомы.

И тогда — о, чудо! — все сложности с оценкой и реакцией на рекомендацию разговеться любимым питомцем улетучатся. Равно как развеются и все технические сложности с выявлением дипфейка в видеоролике выступления.

Одна существенная проблема, впрочем, останется. Непонятно, что делать с многочисленными гражданами, которые в эпоху атомарности общественной жизни окончательно «поплывут» и окажутся не в состоянии отделять в дипфейках аудиовизуальный образ от идеологического субстрата.

Скажу честно: что с этим делать — пока не знаю. Сомневаюсь, что знает кто-то другой. Потому что с технологической точки зрения тупик неизбежен: никакие потуги государственных запретов не смогут остановить развитие AI, который в кратчайшие сроки достигнет совершенства, в том числе и в сфере создания фейков, абсолютно неотличимых от реальности на аудиовизуальном уровне.

Как следствие, 70–80% hominum sapientium неизбежно будут воспринимать дипфейк своего любимого кандидата в президенты в состоянии полного эмоционального доверия, даже не догадываясь о необходимости анализа высказанных идей. И голосовать они будут тоже соответственно, то есть под диктовку операторов дипфейка.

Единственное, что приходит в голову в качестве возможного ответа: в эпоху грядущей атомизации общественной жизни государство, перед неизбежной своей кончиной, должно сделать последнее, но очень важное и доброе дело: предложить обществу какую-то новую модель демократии. Что-нибудь вроде квадратического голосования — хотя что тут нового (квадратическое голосование — метод принятия коллективных решений, в ходе которого голосующие не только делают выбор, но и определяют, насколько интенсивно они его поддерживают. Прим. ред.)? Что-нибудь, не допускающее тотального захвата власти плутократией, которая контролирует эволюцию AI и, как следствие, формирует идейную компоненту доведенных до совершенства дипфейков.