реклама
Новости Software

Совет директоров OpenAI сможет блокировать выпуск нейросетей, если сомневается в их безопасности

После недавнего скандала с отставкой генерального директора OpenAI Сэма Альтмана (Sam Altman) и его возвращения компания OpenAI всерьёз задумалась не только о реформировании структуры управления бизнесом, но и повышении ответственности разработчиков за выпуск больших языковых моделей. Теперь совет директоров может задержать выпуск новых моделей, если сочтёт их недостаточно безопасными.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Ключевая роль в этом механизме контроля и согласования будет отведена, по данным Bloomberg, специальной «группе готовности» под руководством Александра Мадри (Aleksander Madry), совмещающего эту должность с научной деятельностью в Массачусетском технологическом институте. В задачи группы экспертов будет входить анализ подготовленной к релизу каждой новой большой языковой модели на предмет выявления «катастрофических рисков». К таковым относятся вероятные последствия применения данной языковой модели, которые повлекут сотни миллиардов долларов материального ущерба или даже человеческие жертвы.

Группа Мадри будет на ежемесячной основе делиться отчётами о деятельности разработчиков OpenAI со специальным советом по безопасности, а тот уже будет делиться своими выводами с генеральным директором компании и советом директоров. Сэм Альтман сможет принимать решение о выпуске новой языковой модели на рынок или её задержке для доработки, причём совет директоров получает право наложить вето на положительное решение главы OpenAI о выпуске модели в общий доступ.

Группа анализа готовности языковых моделей была сформирована внутри OpenAI ещё в октябре, до хорошо известных событий с перестановками в руководстве. В целом, внутри компании действуют ещё две группы, занимающиеся анализом разработок. Прежде всего, это группа безопасности как таковой, а также группа «сверхрегулирования» (superalignment), которая учитывает гипотетические угрозы от внедрения сверхмощных систем искусственного интеллекта в будущем.

Разрабатываемые OpenAI языковые модели будут оцениваться группой Мадри по шкале, подразумевающей четыре градации рисков: низкая, средняя, высокая или критическая. По замыслу, компания сможет выпускать в оборот только те системы искусственного интеллекта, которые в итоге всех процедур анализа и доработки получили оценку риска не выше низкого или среднего. Как признался сам Мадри, «OpenAI — это не что-то, происходящее само собой и способное нести нам пользу или вред, это нечто, формируемое нами». Представитель компании выразил надежду, что подобным подходом к управлению рисками в сфере искусственного интеллекта будут пользоваться и другие разработчики. В стенах OpenAI подобная практика формировалась последовательно и в течение последних двух месяцев просто была закреплена решениями высшего руководства.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме
window-new
Soft
Hard
Тренды 🔥
Крупное обновление Windows 11 24H2 вышло на финальную стадию тестирования 3 мин.
Эксперимент, очевидно, неудачный: спустя всего три месяца после добавления из Overwatch 2 вырежут ещё один PvE-режим 10 мин.
С 12 июня товары и услуги в ботах Telegram можно будет покупать только за Telegram Stars 2 ч.
ГК Softline открыла представительство в ОАЭ для выхода на рынки Ближнего Востока 3 ч.
Relic впервые за 20 лет вновь стала независимой — разработчики Company of Heroes и Warhammer 40,000: Dawn of War «вернутся к корням» 10 ч.
Mozilla Firefox получит вертикальные вкладки, группы вкладок и другие масштабные улучшения 11 ч.
Selectel создаст собственную отечественную ОС на базе Linux-дистрибутива Debian 12 и выйдет на рынок инфраструктурного ПО 13 ч.
Студия-разработчик Helldivers 2 нацелилась «стать следующей FromSoftware или Blizzard» 13 ч.
Google выпустила обновление, устраняющее шесть критических уязвимостей в Chrome 13 ч.
Activision начала рекламную кампанию новой Call of Duty — первый тизер Black Ops 6 13 ч.
Гигантские суперчипы Cerebras натренируют ИИ для армии Германии 3 мин.
Смартфоны Tecno Camon 30 получат три года обновлений операционной системы — до Android 16 39 мин.
Asus представила ЖК-монитор ROG Strix XG27UCG с поддержкой двух режимов работы: 1080р/320 Гц и 4К/160 Гц 2 ч.
Южная Корея выделит на субсидирование полупроводниковой отрасли внушительные $19 млрд 2 ч.
Чтобы не вышло как с TikTok: Norsk Kjernekraft намерена запитать норвежские ЦОД от малых реакторов 2 ч.
Nvidia раздробит акции по схеме «10 к 1» в июне 4 ч.
Nvidia отчиталась о падении продаж GeForce, но этого никто не заметил за взрывным ростом ИИ-ускорителей — акции подорожали до $1000 4 ч.
Новая статья: Обзор смартфона HUAWEI Pura 70: флагман по справедливой цене 9 ч.
Новая статья: Обзор игрового 360 Гц WQHD-монитора MSI MPG 271QRX QD-OLED: теперь на равных 10 ч.
В июле Atos продаст свои активы и определится с планом проведения реструктуризации 11 ч.