реклама
Теги → frontier model forum

Anthropic, Google, Microsoft и OpenAI совместно займутся контролируемым и безопасным развитием ИИ

Четыре ведущие компании в области ИИ — Anthropic, Google, Microsoft и OpenAI — объединили усилия для создания исследовательской группы, получившей название Frontier Model Forum (FMF). Целью нового объединения стало обеспечение безопасного и ответственного развития передовых моделей ИИ в условиях растущего общественного беспокойства и внимания регуляторов по всему миру.

 Источник изображения: Placidplace / Pixabay

Источник изображения: Placidplace / Pixabay

За последние месяцы эти четыре американские компании представили миру мощные инструменты ИИ, способные создавать оригинальный контент в форме изображений, текста и видео. Это вызвало возмущение как писателей и художников в части нарушения их авторских прав, так и подогрело опасения регуляторов из-за угрозы конфиденциальности граждан и возможности замены людей ИИ в различных сферах труда.

«Компании, создающие технологии ИИ, несут ответственность за обеспечение их безопасности, надёжности и сохранения под человеческим контролем», — заявил Брэд Смит (Brad Smith), вице-председатель и президент Microsoft.

Членство в организации ограничено компаниями, создающими масштабные модели машинного обучения, превосходящие возможности наиболее продвинутых существующих моделей. Это указывает на то, что работа форума будет сосредоточена на потенциальных рисках, исходящих от значительно более мощного ИИ, а не на ответах на вопросы о копирайте, защите данных и приватности, которые актуальны для регуляторов сегодня.

Frontier Model Forum будет способствовать исследованиям в области безопасности ИИ и станет связующим звеном между индустрией и законодателями. Подобные группы создавались и ранее. Например, The Partnership on AI (GPAI) было создано в 2016 году при участии Google и Microsoft и представителей гражданского общества, академического сообщества и индустрии. Его миссией было продвижение ответственного использования ИИ.

Создание Frontier Model Forum подчёркивает важность прозрачности, ответственности и безопасности в области ИИ. Это шаг вперёд в управлении рисками, связанными с передовыми моделями ИИ, и важный момент в истории развития технологий.

window-new
Soft
Hard
Тренды 🔥
Новая статья: inZOI — прощайте, симы. Предварительный обзор 4 ч.
Студия выходцев из Blizzard показала Causal Loop — вдохновлённую Portal и «Интерстеллар» головоломку, где нужно перезаписывать реальность 5 ч.
SaaS в России продолжает расти, однако не все направления показывают положительную динамику 6 ч.
В Ирландии проверят законность обучения ИИ-модели Grok на постах европейцев в X 6 ч.
«С каждым трейлером хочется поиграть всё больше и больше»: тизер новой фракции из Heroes of Might & Magic: Olden Era заинтриговал фанатов 7 ч.
Чистый экшен без рекламы и смс: создатели браузерных «Героев Меча и Магии III» выпустили веб-версию классической Half-Life: Deathmatch 11 ч.
Apple ускорила решение проблем с внедрением ИИ — поумневшая Siri может выйти уже осенью 12 ч.
Razer запустила платформу PC Remote Play для потоковой передачи игр с ПК на мобильные устройства 14 ч.
Футбольный экшен Rematch от создателей Sifu готов к выходу на поле — дата релиза, предзаказ в российском Steam и анонс открытой «беты» 14 ч.
OpenAI стала тратить меньше времени на тесты безопасности ИИ-моделей 14 ч.