Google удалил из своих принципов работы с искусственным интеллектом пункт, в котором компания обещала не участвовать в создании технологий, способных нанести вред людям, в том числе в военных целях. На это обратило внимание агентство Bloomberg.
В ответ на запрос журналистов прокомментировать произошедшие изменения, представитель Google отправил запись в блоге компании, которая была опубликована 4 февраля. В ней говорится об итогах работы в 2024 году и ближайших планах корпорации относительно искусственного интеллекта.
Как рассказали в блоге старший вице-президент Google Джеймс Манийка и глава лаборатории искусственного интеллекта DeepMind Демис Хассабис, правительства и компании должны работать вместе над созданием искусственного интеллекта, который будет защищать людей, способствовать глобальному развитию и поддерживать нацбезопасность.
Одна из бывших руководителей исследовательской группы Google по этике искусственного интеллекта Маргарет Митчелл сказала Bloomberg, что подобное изменение принципов работы корпорации с ИИ будет иметь серьезные последствия: «Удаление этого пункта <…> означает, что Google теперь, вероятно, будет работать над внедрением технологий, которые смогут убивать людей».
Изменение политики Google в сфере разработки искусственного интеллекта совпадает с общей тенденцией среди крупных игроков на рынке, отметило Bloomberg. В частности, в январе Meta и Amazon расформировали часть своих программ по обеспечению разнообразия и инклюзивности.
Помимо этого, как отметила «Роскомсвобода», Meta, Anthropic и OpenAI уже открыли свои модели для госструктур США. OpenAI также заключила контракт с американскими национальными лабораториями для работы в области ядерных исследований.
На фоне этого CEO Google Сундар Пичаи заявил о рекордных инвестициях в развитие искусственного интеллекта. Корпорация намерена инвестировать около $75 млрд в капитальные затраты, связанные с расширением сферы ИИ, что дополнительно подтверждает курс на интеграцию в ключевые государственные программы.