Ведущие ИИ-компании открывают доступ к своим моделям для правительства США
Крупнейшие разработчики искусственного интеллекта OpenAI и Anthropic сделали значительный шаг в сторону повышения безопасности своих технологий. Компании заключили соглашение с правительством США, предоставив доступ к своим передовым моделям ИИ до их официального релиза.
Подробности соглашения
Институт безопасности искусственного интеллекта США объявил о подписании меморандумов о взаимопонимании с OpenAI и Anthropic. Согласно этим документам, компании обязуются предоставлять доступ к своим новейшим крупным языковым моделям как до, так и после их публичного выпуска.
Целью такого сотрудничества является совместная оценка потенциальных рисков и разработка мер по их снижению. Институт безопасности ИИ США планирует работать в тандеме с аналогичным агентством в Великобритании, чтобы предоставлять разработчикам обратную связь по вопросам безопасности и возможным улучшениям.
Значение для индустрии и регулирования
Это соглашение становится важным прецедентом в контексте текущих дискуссий о регулировании ИИ-технологий. Федеральные власти и власти штатов США активно обсуждают, какие меры контроля необходимо ввести для искусственного интеллекта, сохраняя при этом благоприятные условия для инноваций.
Недавно в Калифорнии был принят Закон о безопасных и надежных инновациях для передовых моделей искусственного интеллекта (SB 1047). Этот закон обязывает калифорнийские ИИ-компании принимать специальные меры безопасности перед обучением продвинутых базовых моделей. Несмотря на то, что закон вызвал некоторые возражения со стороны ИИ-компаний, включая OpenAI и Anthropic, он уже прошел несколько редакций и ожидает подписи губернатора Гэвина Ньюсома.
Инициативы Белого дома
Параллельно с законодательными мерами, администрация Белого дома активно призывает крупные технологические компании к добровольному соблюдению мер безопасности в области ИИ. Ряд ведущих компаний уже взял на себя необязательные обязательства по инвестированию в исследования кибербезопасности, борьбу с дискриминацией и внедрение водяных знаков для контента, создаваемого искусственным интеллектом.
Перспективы сотрудничества
Директор Института безопасности ИИ США Элизабет Келли охарактеризовала новые соглашения как "только начало, но важную веху в нашей работе по ответственному управлению будущим ИИ". Это заявление подчеркивает долгосрочный характер сотрудничества между правительством и ИИ-компаниями.
Предоставление доступа к моделям ИИ для правительственных экспертов может стать ключевым фактором в разработке эффективных и сбалансированных мер регулирования. Такой подход позволяет объединить технические знания разработчиков с пониманием общественных интересов со стороны государства.
Эта инициатива также может послужить примером для других стран, стремящихся найти баланс между развитием инновационных технологий и обеспечением общественной безопасности в эпоху стремительного развития искусственного интеллекта.