реклама
Теги → этика ии

«Крёстный отец ИИ» ушёл из Google из-за этических проблем, связанных с ИИ

Учёный в области информатики Джеффри Хинтон (Geoffrey Hinton, на фото ниже), которого называют «крёстным отцом ИИ», в апреле покинул пост вице-президента Google. Он сделал это, чтобы открыто предупредить общественность о рисках, связанных с использованием ИИ, а также в связи с тем, что отказ Google от своих прежних ограничений в отношении публичных выпусков ИИ из-за конкуренции с ChatGPT, Bing Chat и т.д. влечёт за собой множество этических проблем.

 Источник изображения: CBS

Источник изображения: CBS

В интервью ресурсу The New York Times Хинтон выразил обеспокоенность тем, что генеративный ИИ может привести к волне дезинформации. Возможно, вы «больше не сможете знать, что является правдой», говорит учёный. Он также утверждает, что ИИ не только позволит устранить «монотонную работу», но и полностью заменит некоторые рабочие места.

Также у учёного вызывает тревогу возможность создания полностью автономного оружия на базе ИИ, и тенденция ИИ-моделей учиться «странному поведению» на основе обучающих данных. Хотя некоторые из поднятых им вопросов носят чисто теоретический характер, Хинтон опасается эскалации, связанной с развёртыванием ИИ, которую будет невозможно остановить без эффективных средств контроля или жёстких ограничений.

Хинтон заявил, что его позиция по отношению к ИИ начала меняться в прошлом году, когда Google, OpenAI и другие компании начали создавать системы ИИ, порой превосходящие человеческий интеллект. В течение последних пяти лет ИИ получил стремительное развитие, и то, что может произойти в следующие пять лет, вызывает у учёного тревогу.

Комментируя утверждения Хинтона, главный научный сотрудник Google Джефф Дин (Jeff Dean) сообщил ресурсу Engadget, что поисковый гигант по-прежнему придерживается «ответственного подхода» и следит за «возникающими рисками».

Google приобрела стартап DNNresearch Джеффри Хинтона в 2013 году, и его наработки способствовали созданию генеративных технологии ИИ. В частности, Хинтон является одним из авторов метода обратного распространения ошибки для тренировки многослойной нейронной сети.

Опасения Хинтона разделяет целый ряд влиятельных учёных и руководителей технологических фирм. Недавно Илон Маск (Elon Musk), Стив Возняк (Steve Wozniak), а также более 1000 других экспертов в области искусственного интеллекта и представителей IT-индустрии призвали в открытом письме ввести полугодовой мораторий на обучение ИИ-систем в связи с необходимостью решения этических проблем и вопросов обеспечения безопасности.

Этичность и безопасность ИИ ушла на задний план — IT-гиганты стали сокращать соответствующие команды

Microsoft, Meta, Google, Amazon и Twitter оказались в числе компаний, которые сократили свои команды «ответственного развития ИИ», которые консультировали разработчиков по вопросам общественной безопасности и этичности потребительских продуктов с искусственным интеллектом. Хотя это лишь десятки сотрудников, и они теряются на фоне многотысячных сокращений по всей IT-отрасли, сокращение таких команд может привести к распространению вредных ИИ-инструментов.

 Источник изображения: Pixabay

Источник изображения: Pixabay

Компании заявляют, что по-прежнему привержены внедрению безопасных продуктов ИИ, но эти сокращения вызывают беспокойство экспертов, поскольку злоупотребления обычно обнаруживаются как раз в тот момент, когда технология становится по настоящему массовой. Эта обеспокоенность особенно возросла после успеха чат-бота ChatGPT и его конкурентов, таких как Microsoft Bing.

«Шокирует то, сколько ответственных за ИИ сотрудников увольняют в то время, когда, возможно, таких команд требуется больше, чем когда-либо», — говорит Эндрю Стрейт (Andrew Strait), бывший исследователь этики и политики в DeepMind, принадлежащем Alphabet.

В январе Microsoft распустила всю свою команду по этике ИИ. Компания утверждает, что под сокращение попали менее 10 сотрудников, а в Microsoft по-прежнему работают сотни людей, ответственных за ИИ. «Мы значительно расширили наши усилия в области ответственного искусственного интеллекта и усердно работали над их институционализацией во всей компании», — заявила Наташа Крэмптон (Natasha Crampton), главный ответственный сотрудник Microsoft по искусственному интеллекту.

Twitter сократил более половины своего персонала, включая небольшую команду по вопросам этики ИИ. В задачи команды входило, в том числе, исправление предвзятости в алгоритме Twitter, который, по-видимому, отдавал предпочтение белым лицам при выборе способа обрезки изображений в социальной сети.

Потоковая платформа Twitch, принадлежащая Amazon, на прошлой неделе сократила свою команду по этике ИИ, назвав всех сотрудников, работающих над продуктами ИИ, ответственными за проблемы, связанные с предвзятостью. Meta ещё в сентябре 2022 года распустила свою команду по этике ИИ, состоящую примерно из 20 инженеров и специалистов по этике, которым была поручена оценка гражданских прав и этики в Instagram и Facebook.

Некоторые сотрудники, отвечающие за этический надзор за искусственным интеллектом в Google, также были уволены в рамках более масштабных сокращений штата Alphabet, насчитывающего более 12 000 человек. Google не уточнила, сколько должностей было сокращено, но ответственный подход к ИИ остаётся «главным приоритетом в компании, и мы продолжаем инвестировать в эти команды».

 Источник изображения: Pixabay

Источник изображения: Pixabay

Роль внутренних команд по этике ИИ подверглась тщательному анализу, поскольку давно ведутся споры о том, должно ли вмешательство человека в алгоритмы быть прозрачным для общественности и регулирующих органов. «Команды ответственного развития искусственного интеллекта являются одними из немногих внутренних бастионов, которые должны быть у Big Tech, — говорит бывший исследователь этики ИИ в Facebook Джош Саймонс (Josh Simons). — Скорость, с которой они сокращаются, оставляет алгоритмы Big Tech на милость рекламных императивов, подрывая благополучие детей, уязвимых людей и нашу демократию».

Ещё одна проблема заключается в том, что большие языковые модели, лежащие в основе чат-ботов, таких как ChatGPT, «галлюцинируют» — выдают ложные утверждения за факты — и могут использоваться преступниками для мошенничества и распространения дезинформации. К сожалению, сейчас ответственный подход компаний к использованию ИИ отходит на задний план из-за конкуренции и ради быстрого выхода на рынок.

window-new
Soft
Hard
Тренды 🔥
Привет из 2014-го: Asus выпустила обновлённую GeForce GT 710 EVO с 2 Гбайт GDDR5 6 ч.
Apple выбрала процессоры М2 Ultra и М4 для серверов, на которых будут работать ИИ-функции iPhone 9 ч.
Выставка Computex 2024 откроется 4 июня, но презентации AMD, Intel и Nvidia пройдут раньше 10 ч.
iPhone 5s официально устарел, а iPod touch 6 стал винтажным 10 ч.
Vivo оккупировала значительную часть майского рейтинга производительности AnTuTu 11 ч.
Игровой монитор Xiaomi G Pro 27i на панели Mini LED с 1152 зонами затенения выйдет на мировой рынок 11 ч.
Starlink хочет открыть для пользователей спутниковую сотовую связь уже осенью 13 ч.
Новые спутники Starlink могут уничтожить радиоастрономию на Земле, предупреждают учёные 15 ч.
Корейский профсоюз Samsung объявил забастовку, но на производство и поставки памяти это не повлияет 16 ч.
Последний «дружественный» поставщик VSAT-оборудования Gilat Satellite Networks приостановил работу в РФ 16 ч.