Пока в США не стихают жаркие споры и призывы самих Big Tech компаний ограничить развитие искусственного интеллекта, ЕС готовится принять законопроект, регулирующий использование систем искусственного интеллекта. Если это произойдет, Европа задаст новый мировой стандарт более аккуратного использования ИИ и по крайней мере задержит развитие технологий, позволяющих распознавать лица, устраивать социальное рейтингование, а также прочие атрибуты «Большого брата».
Однако Акт ИИ вызывает закономерные опасения у бизнеса, причем как со стороны американских техногигантов типа Microsoft и Google, так и со стороны европейских компаний, которые терпят убытки и рискуют проиграть в конкуренции.
«Новая-Европа» рассказывает, что именно станет «ИИ-запрещенкой» по новым европейским законами и как разработка этого акта связана с попытками вмешательства Кремля в выборы в США и в Европе.
«Мои худшие опасения заключаются в том, что мы — отрасль, технологии, индустрия — наносим значительный вред миру», — заявил во время своего выступления в Конгрессе США 16 мая 2023 года Сэм Альтман, генеральный директор американской компании OpenAI, которая разработала нашумевший чат-бот с интеграцией искусственного интеллекта ChatGPT. «Особое беспокойство» у Альтмана вызвало то, что ИИ может манипулировать мнением избирателем и распространять дезинформацию. По его мнению, поскольку новые модели ИИ становятся всё мощнее, без государственного регулирования не обойтись.
Слушание в Конгрессе США было посвящено рискам, которые ИИ может нести экономике и демократическим институтам. Встреча с аналогичной повесткой прошла в начале мая и в Белом доме с участием вице-президента Камалы Харрис, советника президента по нацбезопасности Джейка Салливана, а также гендиректоров Google, Microsoft, OpenAI и Anthropic. Немногим ранее, в марте 2023 года, более 1000 представителей научного и бизнес-сообщества, включая Илона Маска и сооснователя Apple Стива Возняка, написали открытое письмо с требованием приостановить развитие ИИ-систем, поскольку они представляют собой «серьезные риски для общества и человечества». Письмо было направлено ИИ-корпорациям США.
Однако, несмотря на обсуждения, в том числе на самом высоком уровне, на практике никаких подвижек в сторону системного регулирования сферы ИИ в США не происходит: появляются лишь разрозненные и не обязывающие рекомендации от Белого дома и некоторых федеральных агентств.
Сэм Альтман общается с журналистами после выступления в Конгрессе США, 16 мая 2023 года. Фото: EPA-EFE / JIM LO SCALZO
Иначе обстоит дело в европейских странах. Так, к ноябрю 2022 года 23 страны Евросоюза, а также Швейцария и Норвегия приняли национальные стратегии и подходы к регулированию ИИ. На уровне всего ЕС 11 мая 2023 года профильные комитеты Европарламента одобрили финальный вариант «Акта ИИ» (AI Act) — первого общеевропейского закона, призванного регулировать сферу ИИ. Теперь ему предстоит пройти голосование в Европарламенте на пленарной сессии в июне, трехсторонние переговоры между Европарламентом, Евросоветом и Еврокомиссией и, наконец, финальное голосование стран — членов ЕС.
Таким образом, ЕС, в отличие от других стран мира, уже заметно продвинулся в сфере регулирования ИИ, пытаясь защитить, с одной стороны, население, а с другой — собственную политическую систему от всё возрастающих рисков внешнего вмешательства.
Группы риска
«Акт ИИ», который Еврокомиссия начала разрабатывать еще в 2021 году, устанавливает четыре категории рисков, которые способно породить использование ИИ: минимальный, ограниченный, высокий и неприемлемый. Системы неприемлемого риска будут запрещены, к остальным в зависимости от уровня риска будут предъявляться разные требования.
К группе неприемлемого риска относятся системы биометрической идентификации, которые работают в общественных местах в реальном времени или могут быть использованы постфактум. Это ограничение касается прежде всего систем видеонаблюдения с распознаванием лиц.
К 2021 году такие системы уже применялись полицией в уличном наблюдении в 11 европейских странах — Австрии, Финляндии, Франции, Германии, Греции, Венгрии, Италии, Латвии, Литве, Словении и Нидерландах.
Еще в восьми странах велось обсуждение или подготовка к внедрению этих систем.
Помимо идентификации, под запрет попадет и биометрическая категоризация — то есть автоматическое присвоение человеку категории, отталкиваясь от ряда признаков: гендера, расы, этничности, гражданства, религии, политических взглядов. Такие системы активно применяются, например, в сфере маркетинга и таргетированной рекламы. Так, испанская Herta предлагает технологии для категоризации покупателей в супермаркетах. Похожий продукт доступен и в нидерландской VisionLabs. Предполагается, что такие системы помогают лучше узнать потребителей и повысить продажи, адаптировав предложения для разных категорий покупателей.
Также будет запрещено использование систем распознавания эмоций правоохранительными органами, службами пограничного контроля, работодателями и образовательными учреждениями. Самый известный пример применения таких технологий можно наблюдать в КНР, где распознавание эмоций использовали для контроля уйгуров и отслеживания, насколько внимательны ученики в школе. До Европы подобные практики еще не добрались, но несколько пилотных проектов были запущены европейскими пограничными службами. В них принимали участие пограничные службы Венгрии, Греции и Латвии.
Наконец, запрет будет наложен и на предиктивные полицейские системы. Это ИИ-решения, которые помогают прогнозировать преступления при помощи составления профилей потенциальных правонарушителей, их месторасположения и «послужного списка». Системы, которые могут быть отнесены к этой категории, уже реализованы, например, в Дании, где, по-видимому, данные о «незападных датчанах» использовались для составления тепловой карты потенциальных преступлений. Тестирование технологии проводилось и в Германии.
К системам высокого риска в случае принятия закона будут отнесены ИИ-программы, способные нанести вред «здоровью, безопасности, основным правам или окружающей среде». Подобные системы используются в критической инфраструктуре (транспорт и энергетика), при приеме в образовательные учреждения, устройстве на работу, а также при предоставлении «базовых частных или государственных услуг» (essential services) — отопления, интернета, в здравоохранении, правоохранительных органах и миграционных службах. К системам высокого риска может быть внесена канадская cvi42, применяемая в радиологии для более качественного диагностирования заболеваний. Сейчас cvi42 используется также в странах ЕС.
Отдельно в документе к системам высокого риска отнесены решения, которые способны повлиять «на исход выборов или референдума или на избирательное поведение физических лиц». В число таких систем могут быть включены механизмы таргетированной рекламы с использованием ИИ, применяемые в ходе избирательных кампаний для донесения специального сообщения конкретной группе избирателей.
Системы высокого риска, как предполагается, попадут в единый европейский реестр, а компаниям необходимо будет пройти специальные «процедуры оценки соответствия» (conformity assessment procedures), которые разработают для каждой из отраслей.
Близки к системам высокого риска, по количеству требований, и так называемые системы ИИ общего назначения (GPAI). К ним, объясняют законодатели, принадлежат генеративные модели, которые могут использоваться для широкого круга задач, в том числе в других приложениях и системах. В качестве примера депутаты приводят модель GPT, разработанную OpenAI и используемую в чат-боте ChatGPT. Помимо этого, к таким системам относятся модели генерации изображений Stable Diffusion, Midjourney и DALL-E.
Эти системы ИИ не будут запрещены на территории ЕС, но их владельцам придется соблюдать дополнительные меры прозрачности: сообщать публично, что контент сгенерирован ИИ, публиковать сводки об использовании данных, а также обеспечивать контроль, чтобы модель не производила запрещенные материалы. Кроме того, поскольку для тренировки таких ИИ-моделей нужно много энергии, бизнесу придется гарантировать защиту окружающей среды.
Фото: CFOTO / Future Publishing / Getty Images
Программы, относящиеся к системам «ограниченного риска», будут обязаны соблюдать лишь правила прозрачности. В качестве примеров законодатели называют чат-боты или системы генерации картинок. Но тут может возникнуть некоторая путаница. С одной стороны, сами модели GPT будут относиться к категориям высокого риска, а использующие их приложения, например, ChatGPT, в свою очередь, — к системам ограниченного риска. То же самое касается Midjourney.
Системы минимального риска, в которые включены модели конкретного применения ИИ, например, видеоигры (ИИ массово применяется в таких популярных видеоиграх, как Red Redemption 2 или The Last of US) или спам-фильтры, не будут подвергаться никаким ограничениям.
Демократия под угрозой
Одной из главных причин быстрого принятия регулирования ИИ в ЕС стало то, что на возможные риски европейские политики обратили внимание еще около пяти лет назад. После вмешательства России в американские выборы 2016 года современные технологии стали часто восприниматься как большая угроза для демократии.
Тогда российские хакеры, в числе прочего, предположительно взламывали базы избирателей, а «фабрики троллей» устраивали кампании по дезинформации и пропаганде в социальных сетях.
Уже в 2018 году стали появляться экспертные доклады о том, какие риски может нести искусственный интеллект для избирательных систем западных стран. В преддверии выборов в Европарламент в 2019 году проблема стала актуальной и для европейских институтов.
В начале 2019 года Исследовательская служба Европарламента выпустила несколько докладов, в которых указала на потенциальные риски использования ИИ для распространения дезинформации, а также «взлома» европейских избирательных систем. Эксперты призвали с большой осторожностью отнестись к внедрению систем ИИ в госуправление и рекомендовали разработать регулирование ИИ в Европе — от общих этических норм до нормативных актов.
Угроза европейским демократическим институтам, однако, была не единственной причиной озабоченности проблемой ИИ в Евросоюзе. Летом 2018 года Еврокомиссия опубликовала «Скоординированный план по искусственному интеллекту». В нём, с одной стороны, говорилось об опасности сокращения рабочих мест после повсеместного внедрения ИИ, а с другой — описывались преимущества: рост технологического сектора, более экономное использование энергоресурсов и точная диагностика в здравоохранении.
Еврокомиссия призвала все страны ЕС выработать единый подход к проблеме и принять национальные стратегии в отношении ИИ. Тогда же была создана Высокоуровневая экспертная группа, призванная оценить потенциал влияния ИИ на европейский рынок труда и выработать этические рекомендации по ИИ в качестве подспорья для создания национальных стратегий. К апрелю 2019 года этические рекомендации по внедрению «надежного искусственного интеллекта» были опубликованы. В 2020–2021 годах 23 страны ЕС приняли свои национальные стратегии в области ИИ.
Итогом всей этой формальной работы стала «Белая книга по искусственному интеллекту» — документ, подготовленный Еврокомиссией и легший в основу обсуждаемого сегодня «Акта ИИ». В книге, в частности, утверждалась необходимость законодательного регулирования ИИ.
По мнению Олега Шакирова, эксперта ПИР-центра, выработанное ЕС законодательство позволяет предотвратить риски, в том числе по использованию ИИ для вмешательства в выборы. После принятия «Акта ИИ» в ЕС будет легче предотвратить случаи, аналогичные произошедшему в ходе недавней президентской кампании в Турции. Тогда получило большой резонанс видео, на котором якобы кандидат в президенты Турции Кемаль Кылычдароглу (а на самом деле сгенерированная ИИ картинка) демонстрирует превосходное владение английским, что дискредитировало его кандидатуру в глазах избирателей, намекая на западное влияние. Заложенные в «Акт ИИ» требования осложнили бы производство подобного фейка, а само использование персональных данных стало бы правонарушением.
При этом, считает Шакиров, риски вмешательства в выборы не были главной причиной того, что ЕС заранее озаботился регулированием ИИ. Гораздо важнее общий подход превентивного купирования рисков в ЕС. В частности, это предусматривает принцип предосторожности, который нацелен на предотвращение потенциальных угроз обществу.
Гражданское общество против ИИ
Однако никакой ранний подход на общеевропейском уровне не был бы возможен без наличия нормативно-правовой базы, из которой прямо вытекает необходимость регулирования ИИ. В 2016 году в ЕС был принят Общий регламент защиты персональных данных (GDPR), согласно которому системы не могут без участия человека принимать решения, серьезным образом воздействующие на его законные права. Именно эти требования стали причиной появления на всех европейских сайтах запросов о согласии на использование cookies — файлов с личной информацией, например, о посещаемых страницах.
На этапе обсуждения законопроекта к процессу также подключились организации гражданского общества, которым удалось заметно повлиять на определение того, что будет подлежать регулированию.
Первоначально, объясняет исследователь Центра исследований европейской политики (CEPS) Клеман Перарно, НКО пытались критиковать сам подход, основанный на ранжировании рисков ИИ-систем. Так, в конце ноября 2021 года 114 организаций, в том числе Европейские цифровые права, Access Now (международная организация защиты цифровых прав) и Amnesty International, выступили с коллективным письмом, в котором указали на «дисфункциональность» такого подхода. По их мнению, он не помогал предугадать все способы использования ИИ, а значит, не мог застраховать от злоупотреблений. Кроме того, именно организации гражданского общества предложили включить в число запрещенных систем распознавание эмоций, биометрическую категоризацию и предиктивные полицейские программы. Эти изменения вошли в последнюю редакцию законопроекта.
В декабре 2022 года 165 организаций потребовали распространить регулирование ЕС на миграционные службы. В частности, предлагалось в явном виде запретить системы индивидуальной оценки рисков (которые позволяют оценить «опасность» мигранта по внешним признакам) и ИИ-полиграфы. Также в число систем высокого риска предлагалось внести переносные сканеры отпечатков пальцев и системы предиктивной аналитики, предсказывающие миграционные потоки. Однако эти требования пока не удалось отстоять.
Так обеспокоенность, которая начиналась с угрозы вмешательства в выборы, вылилась в полноценное регулирование, охватывающее множество сфер и возможных рисков. Что же касается самих выборов, то, если акт успеют принять до избирательной кампании в Европарламент в 2024 году, этот документ поможет купировать риски дезинформации или использования таргетинговых ИИ-решений для влияния на общественное мнение. Кроме того, к выборам готовится отдельный закон, который должен будет регламентировать использование политической рекламы.
Фото: Kosuke Okahara / Bloomberg / Getty Images
По следам GDPR
Работа европейских стран над «Актом ИИ» озаботила производителей таких систем — прежде всего Google и OpenAI. Из 385 встреч с «представителями интересов», проведенных евродепутатами в рамках подготовки «Акта ИИ», больше всего было диалогов именно с американскими гигантами. С корпорацией Microsoft парламентарии контактировали десять раз, с Google — девять раз, с Американской торговой палатой при ЕС (организация, защищающая интересы бизнеса США в Европе) — семь раз.
Как выяснили расследователи из Corporate Europe Observatory (CEO), основным фронтом противостояния с лоббистами из Big Tech стало как раз регулирование систем ИИ общего назначения (GPAI), таких как ChatGPT или DALL-E. По данным CEO, корпорации вроде Google и Microsoft пытались вывести GPAI из-под регулирования при помощи зависимых бизнес-ассоциаций и через давление Вашингтона на Брюссель. Их целью было снять с GPAI статус «систем высокого риска», так как это потребовало бы дополнительных мер подотчетности и прохождения процедур соответствия. В актуальной версии законопроекта GPAI действительно не рассматриваются как системы высокого риска, но к ним всё равно предъявляются требования прозрачности.
Такая вовлеченность техногигантов в европейский закон о ИИ доказывает, что новое законодательство представляет серьезную угрозу их бизнес-интересам. Риски особенно явно видны, если считать «Акт ИИ» логическим продолжением европейского законодательства GDPR.
После принятия Европой GDPR звучали пессимистичные оценки, что новое регулирование существенно замедлит инновационное развитие европейских стран, а предприятия среднего и малого бизнеса понесут наибольший финансовый урон.
Кроме того, высказывались опасения, что GDPR сделает фейсбук или ютуб платными, а некоторые приложения и даже целые американские сайты перестанут быть доступны для граждан ЕС.
И хотя фейсбук и ютуб остались бесплатными, часть опасений подтвердилась. Исследование Центра изучения экономической политики показывает, что у компаний, которые подпали под GDPR, с 2018 по 2022 годы прибыль сократилась в среднем на 8%, а выручка — на 2%. При этом в наибольшей степени GDPR сказался на малом бизнесе, а не на больших корпорациях. Однако Big Tech ожидал другой удар: власти ЕС выяснили, что многие компании нарушают GDPR, и выписали им многомиллионные штрафы.
- Meta — 405 млн евро. Корпорация сохранила возможность заводить в инстаграме бизнес-аккаунты для пользователей в возрасте 13–17 лет. При этом в таких аккаунтах видны и email-адреса, и телефонные номера, что прямо нарушает GDPR.
- Meta — 265 млн евро. Этот штраф был наложен на корпорацию за нарушения меры безопасности, которые привели к утечке личных данных 533 миллионов пользователей фейсбука.
- Meta — 1 200 млн евро. 22 мая 2023 года Meta была вновь оштрафована за несоблюдение требований безопасности GDPR при отправке личных данных европейских пользователей в США.
- Clearview AI Inc — 60 млн евро. Американская ИИ-компания собрала в интернете единую базу из миллиардов селфи-фотографий для создания сервиса идентификации, который затем продала правоохранительным органам. За это нарушение на компанию наложили штрафы три страны ЕС: Италия, Франция и Греция — по 20 миллионов евро каждая.
- Google — 10 млн евро. Американский гигант был оштрафован за незаконную передачу личных данных европейских граждан исследовательскому проекту в США.
Поэтому, учитывая такой опыт применения GDPR, поводы для беспокойства в связи с принятием «Акта ИИ» и у крупного, и у малого бизнеса есть. Однако, как считает Перарно, делать выводы пока рано, поскольку конкретные требования и процедуры соответствия еще только будут уточнены последующими актами. Часть нового законодательства будет разработана в так называемых «регуляторных песочницах» — специальном экспериментальном режиме, при котором органы надзора ЕС будут наблюдать за развитием технологий и вместе с бизнесом создавать новое регулирование, чтобы не сдерживать инновации, а добиваться соблюдения прав человека.
Алекс Энглер, эксперт Центра инноваций в технологиях в Brookings, считает, что минимизировать издержки для ЕС от принятия «Акта ИИ» удастся, только если по стопам Европы пойдут и другие страны мира. В таком случае бизнес в них столкнется с аналогичными дополнительными тратами из-за перестройки под новые требования, и европейские компании получат конкурентное преимущество, так как уже будут им соответствовать. При этом Энглер сомневается, что такого эффекта удастся достичь: пока что ни США, ни другие страны не демонстрируют заметных подвижек в этом направлении.
Делайте «Новую» вместе с нами!
В России введена военная цензура. Независимая журналистика под запретом. В этих условиях делать расследования из России и о России становится не просто сложнее, но и опаснее. Но мы продолжаем работу, потому что знаем, что наши читатели остаются свободными людьми. «Новая газета Европа» отчитывается только перед вами и зависит только от вас. Помогите нам оставаться антидотом от диктатуры — поддержите нас деньгами.
Нажимая кнопку «Поддержать», вы соглашаетесь с правилами обработки персональных данных.
Если вы захотите отписаться от регулярного пожертвования, напишите нам на почту: [email protected]
Если вы находитесь в России или имеете российское гражданство и собираетесь посещать страну, законы запрещают вам делать пожертвования «Новой-Европа».