реклама
Новости Software

Интеллектуальные способности ChatGPT деградировали из-за попыток его улучшить, выяснили учёные

Учёные сообщили об очередной проблеме, которая может преследовать чат-боты, основанные на платформах искусственного интеллекта — этот феномен называется «дрейфом» (drift), и он отражает деградацию интеллектуальных способностей системы.

 Источник изображения: D koi / unsplash.com

Источник изображения: D koi / unsplash.com

Дебютировавший в прошлом году ChatGPT произвёл настоящую революцию в области искусственного интеллекта и даже косвенно способствовал разразившейся в Голливуде забастовке сценаристов. Но опубликованное учёными Стэнфордского университета и Калифорнийского университета в Беркли (США) исследование указывает на новую проблему ИИ: ChatGPT стал хуже выполнять некоторые элементарные математические операции. Этот феномен известен как «дрейф»: попытка усовершенствовать одну часть сложной модели ИИ приводит к ухудшению работы других её областей. И это, отмечают исследователи, значительно усложняет непрерывное совершенствование нейросетей.

Учёные пришли к такому выводу, когда протестировали две версии GPT: доступную для всех бесплатно 3.5; и 4.0, работать с которой можно только при наличии платной подписки. Чат-боту предложили элементарную задачу: определить, является ли определённое число простым. Простым, напомним, называется натуральное число, которое делится только на единицу и на себя. Если число достаточно большое, то человек не может оценить, является ли оно простым, в уме. А вот компьютер может справиться с этой задачей методом грубой силы: проверить его делимость на 2, 3, 5 и т. д. Основу теста составила выборка из 1000 чисел. В марте доступный по премиум-подписке GPT-4 давал правильные ответы в 84 % случаев, и это уже сомнительный результат для компьютера, но к июню доля правильных ответов рухнула до 51 %.

 Источник изображения: wsj.com

Источник изображения: wsj.com

В общем случае GPT-4 продемонстрировал деградацию в шести задачах из восьми. GPT-3.5, напротив, по шести задачам продемонстрировал прогресс, но в большинстве остался слабее своего продвинутого собрата. Повышение числа неправильных ответов отметили многие пользователи чат-ботов, и, согласно выводам учёных Стэнфорда и Беркли, это не субъективные ощущения — деградация подтверждается эмпирическими данными. «Когда мы выпускаем новые версии моделей, наш приоритет — сделать новые модели умнее по всем направлениям. Мы прилагаем усилия, чтобы новые версии совершенствовались во всём спектре задач. При этом наша методология оценки несовершенна, и мы её постоянно улучшаем», — прокомментировали научную работу в OpenAI.

О тотальной деградации моделей ИИ речи не идёт: в ряде тестов менее точный в целом GPT-3.5 показал прогресс, а GPT-4 свои результаты ухудшил. Помимо математических задач, исследователи предлагали чат-ботам ответить на 1500 вопросов. И если в марте чат-бот на базе GPT-4 отвечал на 98 % вопросов, то в июне давал ответы только на 23 %, и зачастую они оказывались слишком короткими: ИИ заявлял, что вопрос был субъективным, и собственного мнения у него нет.

Учёные Стэнфорда и Беркли говорят, что в своём исследовании они не призывают отказаться от технологий ИИ — это скорее пристальное наблюдение за их динамикой. Человек привык воспринимать знания как решение ряда задач, где каждая последующая основывается на предыдущей. В случае с ИИ схема оказывается другой: одному шагу вперёд соответствует шаг назад или в другом непредсказуемом направлении. ИИ-сервисы, вероятно, продолжат развиваться, но их путешествие будет проходить не по прямой линии.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме
window-new
Soft
Hard
Тренды 🔥
Футбольный экшен Rematch от создателей Sifu готов к выходу на поле — дата релиза, предзаказ в российском Steam и анонс открытой «беты» 8 мин.
OpenAI стала тратить меньше времени на тесты безопасности ИИ-моделей 16 мин.
ИИ-стартап выдавал филиппинцев за ИИ — теперь основатель компании ответит за это в суде 45 мин.
В России хотят запретить ИИ с «неприемлемым уровнем риска» 47 мин.
Экспорт российской ИТ-продукции падает четвёртый год подряд, но разработчики считают иначе 2 ч.
Учёные уличили ИИ в сокрытии истинного хода своих рассуждений 2 ч.
Похоже, сериал Tomb Raider от Amazon «мёртв» — в проект вложили «десятки миллионов долларов», а не готов даже сценарий 2 ч.
World of Goo 2 выйдет в Steam с меню настроек и новыми уровнями для самых хардкорных игроков — трейлер и дата релиза 3 ч.
«До чего же круто это выглядит»: взрывной геймплейный трейлер Into the Fire от создателей The Invincible впечатлил игроков 3 ч.
Microsoft наконец начала готовиться к запуску скандальной ИИ-функции Recall 4 ч.
Электрический пикап за $25 000, который помогает создавать Джефф Безос, показался на шпионском фото 2 ч.
Китай поднял пошлины на американские товары до 125 % и пообещал на этом остановиться 3 ч.
NERPA представила универсальные высокопроизводительные серверы NORD D5720 3 ч.
Tesla остановила приём заказов на дорогие модели в Китае и Японии, а в США её электромобили хлынули на вторичный рынок 4 ч.
NTT представила ИИ-чип для обработки видео на периферии 4 ч.
Нейтрино экспериментально ограничили по массе — неуловимая частица близка к раскрытию секретов Вселенной 4 ч.
Samsung опровергла слухи о прекращении выпуска чипов для китайских компаний 5 ч.
Конец «зелёной повестки»: Трамп поддержал угольный сектор в США ради удовлетворения спроса ИИ ЦОД на энергию 6 ч.
Tesla начала предлагать заднеприводный пикап Cybertruck, но он оказался дороже обещанного 7 ч.
Нынешний глава Intel вложил сотни миллионов долларов в китайские компании, включая конкурирующую SMIC 8 ч.