реклама
Новости Software

Ведущие разработчики ИИ всеми силами уклоняются от надзора и критики, заявили экс-работники OpenAI

Несколько бывших сотрудников OpenAI опубликовали открытое письмо, в котором предупредили, что передовые разработчики технологий искусственного интеллекта противостоят критике и надзору, и это важно в свете возросших за последние месяцы опасений по поводу ИИ.

 Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

Открытое письмо подписали 13 бывших сотрудников OpenAI, шесть из которых предпочли остаться анонимными; его также одобрил «крёстный отец ИИ» Джеффри Хинтон (Geoffrey Hinton). В документе говорится, что в отсутствие эффективного государственного надзора компании-разработчики ИИ должны придерживаться принципов открытой критики. Им надлежит отказаться от создания и применения положений о недискредитации, содействовать «проверяемому» процессу информирования о проблемах, предоставить нынешним и бывшим сотрудникам возможность рассказывать общественности о своих опасениях, а также отказаться от принятия ответных мер против осведомителей.

Авторы письма утверждают, что верят в потенциал ИИ для пользы общества, но также видят риски: укрепление неравенства, простор для манипуляций и дезинформации — вплоть до возможности вымирания человечества. Подписанты указывают, что существующие меры защиты осведомителей недостаточны — они касаются незаконной деятельности компаний, а не проблем, которые не регулируются. Это значит, что работники могут свободно сообщать о нарушениях в выплате заработной платы, о дискриминации, проблемах безопасности, фактах мошенничества или удержании выходных — в соответствии с законами о защите осведомителей работодатель не может их увольнять, сокращать им рабочие часы или понижать в должности. Но это не касается сведений, имеющих отношение к безопасности систем ИИ.

При этом OpenAI ранее включала положение о недискредитации в соглашении о расторжении трудового договора, а также расформировала подразделение Superalignment, которое специализировалось на безопасности ИИ. Google продолжила отстаивать свою правоту после того, как поисковый ИИ дал пользователям множество явно несуразных ответов. Microsoft же подвергалась критике за генератор изображений Copilot Designer, посредством которого создавались явно выходящие за рамки этических норм картинки.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме
window-new
Soft
Hard
Тренды 🔥
Чтобы разблокировать соцсеть X в Бразилии, Маск заплатил штраф $5 млн, но не туда 8 ч.
Новая статья: Gamesblender № 694: глобальный сбой в PSN, релиз Unreal Engine 5.5 и новый шутер по StarCraft 11 ч.
СМИ сообщают о грядущей ликвидации одной из российских альтернатив «Википедии» 13 ч.
В обновлённом Telegram появились подарки, подтверждение телефонов, улучшенные жалобы и RTMP-трансляции 16 ч.
Accenture сформировала подразделение NVIDIA Business Group и обучит 30 тысяч сотрудников полному стеку ИИ-технологий NVIDIA 19 ч.
Linux-вирус Perfctl заразил с 2021 года тысячи серверов и скрытно майнит на них криптовалюту 20 ч.
Обновление Samsung привело к поломке смартфонов Galaxy S10 и Note 10 по всему миру 05-10 06:59
Минцифры опубликовало правила регистрации блогеров-десятитысячников в реестре Роскомнадзора 05-10 01:00
Telegram объяснил недавние сбои событиями на Ближнем Востоке 05-10 00:23
Надёжный инсайдер: ремейк Assassin’s Creed IV: Black Flag выйдет раньше, чем можно было представить 05-10 00:19