реклама
Теги → этика

Уже 15 американских компаний пообещали Белому дому разрабатывать ИИ этичным

Восемь технологических компаний, в том числе Adobe, IBM, NVIDIA, Palantir, Salesforce и Stability, взяли на себя добровольное обязательство перед Белым домом по разработке систем искусственного интеллекта в рамках этических норм; ранее аналогичное обязательство взяли на себя ещё семь крупных разработчиков. Это поможет снизить риски, связанные с ИИ. Параллельно вашингтонские политики обсуждают принципы регулирования данных технологий.

 Источник изображения: David Mark / pixabay.com

Источник изображения: David Mark / pixabay.com

К настоящему моменту 15 наиболее влиятельных компаний США добровольно взяли на себя обязательства, связанные с разработкой систем ИИ. Они включают в себя построение технологии для идентификации изображений, созданных искусственным интеллектом, и обязательство делиться данными, касающимися безопасности систем ИИ, с правительством и учёными.

Тем временем в Конгрессе ведётся работа, направленная на создание норм регулирования ИИ. Уже завтра лидер сенатского большинства Чарльз Шумер (Charles E. Schumer) проведёт посвящённую этому вопросу встречу с главой Tesla Илоном Маском (Elon Musk), главой Meta Марком Цукербергом (Mark Zuckerberg), а также другими представителями технологической отрасли и правозащитниками. А уже сегодня руководитель аппарата Белого дома Джефф Зинтс (Jeff Zients) встретится с представителями Adobe и других компаний для обсуждения преимуществ и рисков ИИ.

Взятые компаниями на себя обязательства распространяются на следующие системы, разрабатываемые этими компаниями — текущие проекты будут доведены в исходном виде.

«Крёстный отец ИИ» ушёл из Google из-за этических проблем, связанных с ИИ

Учёный в области информатики Джеффри Хинтон (Geoffrey Hinton, на фото ниже), которого называют «крёстным отцом ИИ», в апреле покинул пост вице-президента Google. Он сделал это, чтобы открыто предупредить общественность о рисках, связанных с использованием ИИ, а также в связи с тем, что отказ Google от своих прежних ограничений в отношении публичных выпусков ИИ из-за конкуренции с ChatGPT, Bing Chat и т.д. влечёт за собой множество этических проблем.

 Источник изображения: CBS

Источник изображения: CBS

В интервью ресурсу The New York Times Хинтон выразил обеспокоенность тем, что генеративный ИИ может привести к волне дезинформации. Возможно, вы «больше не сможете знать, что является правдой», говорит учёный. Он также утверждает, что ИИ не только позволит устранить «монотонную работу», но и полностью заменит некоторые рабочие места.

Также у учёного вызывает тревогу возможность создания полностью автономного оружия на базе ИИ, и тенденция ИИ-моделей учиться «странному поведению» на основе обучающих данных. Хотя некоторые из поднятых им вопросов носят чисто теоретический характер, Хинтон опасается эскалации, связанной с развёртыванием ИИ, которую будет невозможно остановить без эффективных средств контроля или жёстких ограничений.

Хинтон заявил, что его позиция по отношению к ИИ начала меняться в прошлом году, когда Google, OpenAI и другие компании начали создавать системы ИИ, порой превосходящие человеческий интеллект. В течение последних пяти лет ИИ получил стремительное развитие, и то, что может произойти в следующие пять лет, вызывает у учёного тревогу.

Комментируя утверждения Хинтона, главный научный сотрудник Google Джефф Дин (Jeff Dean) сообщил ресурсу Engadget, что поисковый гигант по-прежнему придерживается «ответственного подхода» и следит за «возникающими рисками».

Google приобрела стартап DNNresearch Джеффри Хинтона в 2013 году, и его наработки способствовали созданию генеративных технологии ИИ. В частности, Хинтон является одним из авторов метода обратного распространения ошибки для тренировки многослойной нейронной сети.

Опасения Хинтона разделяет целый ряд влиятельных учёных и руководителей технологических фирм. Недавно Илон Маск (Elon Musk), Стив Возняк (Steve Wozniak), а также более 1000 других экспертов в области искусственного интеллекта и представителей IT-индустрии призвали в открытом письме ввести полугодовой мораторий на обучение ИИ-систем в связи с необходимостью решения этических проблем и вопросов обеспечения безопасности.

Этичность и безопасность ИИ ушла на задний план — IT-гиганты стали сокращать соответствующие команды

Microsoft, Meta, Google, Amazon и Twitter оказались в числе компаний, которые сократили свои команды «ответственного развития ИИ», которые консультировали разработчиков по вопросам общественной безопасности и этичности потребительских продуктов с искусственным интеллектом. Хотя это лишь десятки сотрудников, и они теряются на фоне многотысячных сокращений по всей IT-отрасли, сокращение таких команд может привести к распространению вредных ИИ-инструментов.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Компании заявляют, что по-прежнему привержены внедрению безопасных продуктов ИИ, но эти сокращения вызывают беспокойство экспертов, поскольку злоупотребления обычно обнаруживаются как раз в тот момент, когда технология становится по настоящему массовой. Эта обеспокоенность особенно возросла после успеха чат-бота ChatGPT и его конкурентов, таких как Microsoft Bing.

«Шокирует то, сколько ответственных за ИИ сотрудников увольняют в то время, когда, возможно, таких команд требуется больше, чем когда-либо», — говорит Эндрю Стрейт (Andrew Strait), бывший исследователь этики и политики в DeepMind, принадлежащем Alphabet.

В январе Microsoft распустила всю свою команду по этике ИИ. Компания утверждает, что под сокращение попали менее 10 сотрудников, а в Microsoft по-прежнему работают сотни людей, ответственных за ИИ. «Мы значительно расширили наши усилия в области ответственного искусственного интеллекта и усердно работали над их институционализацией во всей компании», — заявила Наташа Крэмптон (Natasha Crampton), главный ответственный сотрудник Microsoft по искусственному интеллекту.

Twitter сократил более половины своего персонала, включая небольшую команду по вопросам этики ИИ. В задачи команды входило, в том числе, исправление предвзятости в алгоритме Twitter, который, по-видимому, отдавал предпочтение белым лицам при выборе способа обрезки изображений в социальной сети.

Потоковая платформа Twitch, принадлежащая Amazon, на прошлой неделе сократила свою команду по этике ИИ, назвав всех сотрудников, работающих над продуктами ИИ, ответственными за проблемы, связанные с предвзятостью. Meta ещё в сентябре 2022 года распустила свою команду по этике ИИ, состоящую примерно из 20 инженеров и специалистов по этике, которым была поручена оценка гражданских прав и этики в Instagram и Facebook.

Некоторые сотрудники, отвечающие за этический надзор за искусственным интеллектом в Google, также были уволены в рамках более масштабных сокращений штата Alphabet, насчитывающего более 12 000 человек. Google не уточнила, сколько должностей было сокращено, но ответственный подход к ИИ остаётся «главным приоритетом в компании, и мы продолжаем инвестировать в эти команды».

 Источник изображения: Pixabay

Источник изображения: Pixabay

Роль внутренних команд по этике ИИ подверглась тщательному анализу, поскольку давно ведутся споры о том, должно ли вмешательство человека в алгоритмы быть прозрачным для общественности и регулирующих органов. «Команды ответственного развития искусственного интеллекта являются одними из немногих внутренних бастионов, которые должны быть у Big Tech, — говорит бывший исследователь этики ИИ в Facebook Джош Саймонс (Josh Simons). — Скорость, с которой они сокращаются, оставляет алгоритмы Big Tech на милость рекламных императивов, подрывая благополучие детей, уязвимых людей и нашу демократию».

Ещё одна проблема заключается в том, что большие языковые модели, лежащие в основе чат-ботов, таких как ChatGPT, «галлюцинируют» — выдают ложные утверждения за факты — и могут использоваться преступниками для мошенничества и распространения дезинформации. К сожалению, сейчас ответственный подход компаний к использованию ИИ отходит на задний план из-за конкуренции и ради быстрого выхода на рынок.

Этика в сфере ИИ не в приоритете — Microsoft распустила соответствующую команду

Microsoft расформировала команду специалистов по этике и работе с общественностью в области искусственного интеллекта. Ликвидация команды была произведена в рамках масштабного сокращения рабочих мест, затронувшего 10 тысяч сотрудников, сообщил ресурс Platformer.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Вместе с тем Microsoft продолжает вкладывать значительные средства в своё партнёрство со стартапом OpenAI, создателем систем искусственного интеллекта ChatGPT и DALL-E 2, и обновляет свою поисковую систему Bing и веб-браузер Edge, которые будут использовать новую большую языковую модель следующего поколения, «более мощную, чем ChatGPT, и настроенную специально для поиска».

Как отметил ресурс TechCrunch, этот шаг ставит под сомнение приверженность Microsoft обеспечению реализации в дизайне своих продуктов принципов ответственного ИИ. По словам нынешних и бывших сотрудников, после этого решения Microsoft остаётся без специальной команды, которая обеспечивала бы тесную связь принципов ИИ с разработкой продукта в то время, когда компания поставила цель сделать инструменты ИИ общедоступными.

Недавно эта команда работала над выявлением рисков, связанных с интеграцией технологий OpenAI в набор продуктов Microsoft. В ней было не так уж и много сотрудников: после реорганизации в октябре команду сократили, и осталось всего около семи человек. 6 марта 2023 года Джон Монтгомери (John Montgomery), корпоративный вице-президент по искусственному интеллекту Microsoft, сообщил оставшимся членам команды, что в итоге её расформируют.

Участники команды высказали мнение, что после того, как Microsoft решила опередить конкурентов в запуске продуктов ИИ, руководство компании стало меньше интересоваться долгосрочными последствиями от внедрения ИИ, на которых специализировалась команда, поэтому надобность в ней отпала.

Впрочем, у Microsoft по-прежнему работает подразделение Office of Responsible AI, которое устанавливает правила для ответственного ИИ через управление и работу с государственной политикой. И компания утверждает, что, несмотря на недавние увольнения, её инвестиции в ответственный ИИ растут.

window-new
Soft
Hard
Тренды 🔥
Между Microsoft и NVIDIA возникли разногласия по поводу использования ускорителей B200 11 ч.
Япония намерена снизить зависимость от зарубежных цифровых сервисов 13 ч.
Бренд Nvidia остаётся малоизвестным, несмотря на то, что компания стала одной из самых дорогих в мире 16 ч.
Илон Маск намерен построить сразу два крупнейших в мире ИИ-кластера 22-06 22:16
Biwin показала SSD с памятью YMTC и контроллером Maxio для PCIe 5.0 — он обещает быть быстрее SSD на Phison 22-06 16:10
Samsung случайно упомянула о разработке RISC-V чипа для ИИ-задач 22-06 15:01
Галлюцинации от радиации: аппаратные сбои могут провоцировать ошибки в работе ИИ-систем 22-06 14:34
В космос запущена мощная китайско-французская обсерватория слежения за гамма-всплесками 22-06 14:06
Tesla уволила 14 % работников по всему миру в этом году 22-06 13:52
«Аквариус» начал производство 1GbE-коммутаторов AQ-N3000, в том числе с поддержкой PoE 22-06 12:42