реклама
Новости Software

OpenAI и Anthropic согласились сдавать новейшие ИИ-модели на проверку властям США

Компании OpenAI и Anthropic будут предоставлять правительству США доступ к своим новейшим большим языковым моделям искусственного интеллекта и до публичного релиза, «чтобы повысить их безопасность», пишет портал The Verge. Иными словами, власти США будут проверять, безопасно ли выпускать новые ИИ-модели в свет.

 Источник изображения: Andrew Neel/unsplash.com

Источник изображения: Andrew Neel/unsplash.com

Обе компании подписали меморандум о взаимопонимании с Американским институтом безопасности ИИ, согласно которому они обязуются предоставлять доступ к моделям ИИ как до, так и после их публичного выпуска. По словам ведомства, этот шаг позволит совместными усилиями проводить оценки рисков безопасности и устранять потенциальные проблемы. Американское агентство добавило, что в этой работе также будет участвовать британский институт безопасности ИИ.

Как пишет The Verge, на этой неделе законодатели штата Калифорния одобрили принятие «Закона о безопасных и надёжных инновациях в области передовых моделей искусственного интеллекта». Этот закон требует от компаний, занимающихся разработкой ИИ в Калифорнии, принимать определённые меры предосторожности перед началом обучения передовых моделей искусственного интеллекта. К таким мерам, в частности, относится возможность быстрого и полного отключения модели ИИ, обеспечение защиты моделей ИИ от «небезопасных модификаций после обучения», а также оценка потенциальных рисков использования ИИ и его составляющих для «причинения критического вреда».

Документ не нашёл поддержки со стороны компаний, занимающихся технологиями ИИ. OpenAI и Anthropic выступили против его принятия, отметив, что новый закон может негативно сказаться на небольших компаниях, занимающихся созданием технологий ИИ на базе открытого исходного кода. Официально новый закон пока не принят и ожидает подписи губернатора Калифорнии Гэвина Ньюсома (Gavin Newsom).

Тем временем Белый дом работает над тем, чтобы стимулировать компании самостоятельно принимать и расширять меры безопасности, касающиеся технологий ИИ. Как сообщает The Verge, несколько ведущих фирм уже согласились инвестировать в исследования по вопросам кибербезопасности и дискриминации, а также заняться разработкой систем маркировки (водяных знаков) для контента, созданного ИИ.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме
window-new
Soft
Hard
Тренды 🔥
Demonschool перенесли на 2025 год за две недели до релиза — это тактическая RPG с элементами Persona, Into the Breach и итальянских фильмов ужасов 2 ч.
Google устранила четыре опасные уязвимости в Chrome и рекомендовала пользователя обновиться 2 ч.
Новый партнёр Remedy поможет сделать Control 2 «такой, какой она всегда задумывалась» 3 ч.
Аудитория ChatGPT достигла 200 млн еженедельных пользователей — вдвое больше, чем год назад 3 ч.
Meta похвасталась ростом спроса на языковые модели Llama в 10 раз — всё благодаря их открытости 3 ч.
Анонсирована российская облачная платформа Astra Cloud для предприятий и госкомпаний 4 ч.
«Напоминает синематики старой Blizzard»: новый трейлер Warhammer 40,000: Space Marine 2 взбудоражил фанатов перед скорым релизом 4 ч.
AMD выпустила драйвер с поддержкой открытой «беты» Call of Duty: Black Ops 6, Star Wars Outlaws, Final Fantasy XVI и других игр 6 ч.
OpenAI и Anthropic согласились сдавать новейшие ИИ-модели на проверку властям США 6 ч.
Selfloss выйдет на ПК раньше обещанного — это меланхоличное приключение в мире славянских и исландских сказочных образов 6 ч.