реклама
Теги → chatgpt

В Google поняли, что ИИ-боты вроде ChatGPT создают реальную угрозу её поисковику

К руководству Google приходит понимание, что новое поколение основанных на искусственном интеллекте (ИИ) чат-ботов создаёт ощутимую угрозу для поискового бизнеса компании. Эти системы дают простые ответы на большинство вопросов и не предусматривают онлайн-рекламы.

 Источник изображения: Markus Winkler / unspalsh.com

Источник изображения: Markus Winkler / unspalsh.com

За последние три десятилетия появились несколько продуктов, каждый из которых совершил настоящую революцию в технологической отрасли: это браузер Netscape, поисковая служба Google и Apple iPhone. Очередным таким прорывом может стать чат-бот ChatGPT — он даёт простые и понятные ответы на пользовательские вопросы, не ограничиваясь набором ссылок, и даже помогает людям генерировать различные идеи от бизнес-стратегии до тем для публикаций в блогах.

ChatGPT обязательно продолжит совершенствоваться, но даже в теперешнем виде он представляет ощутимую угрозу для Google, и руководство компании было вынуждено объявить «красный код». Есть мнение, что поисковый гигант оказался на пороге того, чего так опасаются крупнейшие игроки кремниевой долины — глобальных технологических изменений, способных разрушить бизнес. Вот уже более 20 лет поисковая служба Google служит крупнейшей в мире точкой входа пользователей в интернет, и терять такой актив в компании не хотят.

Проект ChatGPT был выпущен исследовательской лабораторией OpenAI, и Google когда-то стала одним из разработчиков лежащей в его основе технологии. Технологией, которая оказалась доступной для множества новых, более мелких компаний, каждая из которых может создать угрозу для поиска Google. У Google есть и собственная альтернатива ChatGPT — система LaMDA, которая привлекла к себе внимание, когда один из инженеров компании провозгласил, что она обрела сознание. Это пока ещё далеко от истины, но ситуация демонстрирует, насколько чат-боты продвинулись за последние месяцы. К сожалению, альтернативой поисковой машины Google её сделать не сможет — LaMDA не подходит для размещения рекламы, приносящей компании более 80 % доходов.

Ещё одним важным недостатком современных чат-ботов является их неспособность различать «добро» и «зло»: при анализе больших объёмов данных и подготовке ответов на вопросы ИИ часто смешивает факты с вымыслом и допускает высказывания, способствующие разжиганию ненависти. А это может оказать негативное влияние и на репутацию Google.

 Источник изображения: Sundar Pichai

Источник изображения: Sundar Pichai

Но даже в своём теперешнем виде ИИ-системы вызывают обеспокоенность в руководстве Google. На днях глава компании Сундар Пичаи (Sundar Pichai) провёл несколько рабочих совещаний, на которых призвал подчинённых определить стратегию Google в отношении платформ искусственного интеллекта, узнали в New York Times. Он также поставил новые задачи ряду подразделений в ответ на угрозу со стороны ChatGPT. Кроме того, распорядился усилить разработку ИИ-продуктов, направленных на создание изображений — они будут альтернативой технологии OpenAI DALL-E. Для решения поставленных задач были выделены дополнительные кадровые ресурсы, а первые результаты работы поручено подготовить к майской конференции. Приоритетным направлением при этом называют «этического» ИИ, ограждающего пользователей от ложной и «токсичной» информации.

В качестве финального продукта планируется выпуск платформы чат-бота на основе ИИ, предназначенной для клиентов облачных служб Google, которые смогут использовать её при организации техподдержки своих пользователей — эта платформа будет отвечать всем этическим нормам. Параллельно будет выпущен прототип системы без искусственных ограничений, и клиенты смогут выбрать его добровольно, приняв, что она может делать ложные или оскорбительные заявления — число клиентов этого прототипа предложено ограничить 500 тыс.

Эксперты придерживаются мнения, что Google будет постепенно совершенствовать свою поисковую службу, не внося революционных изменений. Так, если раньше она не понимала простых вопросов, то сейчас достаточно точно их интерпретирует и даже показывает рекламу в контексте разговора. Проблема в том, что общедоступные платформы искусственного интеллекта побудили мелких игроков начать работу над собственными поисковыми сервисами, искореняя ложные сведения и «токсичные» высказывания, и если конечные пользователи будут довольны работой с ними больше, чем взаимодействием с Google, это может означать свершившуюся технологическую революцию.

ИИ-бот ChatGPT научился притворяться Linux-машиной

Исследователь из компании DeepMind Джонас Дегрейв (Jonas Degrave) обнаружил, что функционирующий на основе алгоритмов искусственного интеллекта (ИИ) чат-бот ChatGPT, набравший огромную популярность в последние дни, умеет работать в режиме командной строки Linux.

 Источник изображения: Lukas / unsplash.com

Источник изображения: Lukas / unsplash.com

На прошлой неделе исследовательская компания OpenAI, созданная при участии Илона Маска (Elon Musk) и поддерживаемая Microsoft, открыла всем желающим доступ к системе ИИ ChatGPT. Интеллектуальный бот поразил общественность своей способностью генерировать естественно выглядящие тексты на самые разные темы, но при этом зачастую выдавать не соответствующую действительности информацию. Платформа взаимопомощи программистов Stack Overflow уже запретила публикацию решений, предлагаемых ChatGPT.

Очередной эксперимент поставил над системой исследователь Джонас Дегрейв, заявивший ей, что он хочет, чтобы ChatGPT притворился терминалом (интерфейсом командной строки) Linux. Бот не стал возражать и действительно переключился в соответствующий режим, реагируя на дальнейшие команды как настоящий терминал операционной системы. ИИ погрузился в работу Linux-машины «с головой» и даже выполнил код, написанный на языке Python: господин Дегрейв предложил ChatGPT произвести простой расчёт, и система дала правильный ответ.

Другой экспериментатор заставил систему имитировать BBS (Bulletin Board System) — платформу электронных досок объявлений, которая когда-то служила для общения пользователей через телефонные сети. ChatGPT имитировал BBS в подробностях, изобразив и подключение через модем, и общение с собеседником по имени Лиза (Lisa).

В основе алгоритмов системы лежит выявление наиболее вероятных последующих слов, вытекающих из предыдущих слов в разговоре — в конечном итоге ChatGPT задействует всё его предшествующее содержание.

Stack Overflow временно запретил публиковать подсказки программистам от ИИ-бота ChatGPT — он часто обманывает

Сайт Stack Overflow, предназначенный для организации взаимопомощи программистам, временно запретил пользователям публикацию справочных материалов, сгенерированных чат-ботом ChatGPT. По словам модераторов, создавать подсказки с помощью искусственного интеллекта ChatGPT слишком легко, и они выглядят весьма правдоподобно. Тем не менее, очень часто они неправильные.

 Источник изображения: Andrea De Santis/unsplash.com

Источник изображения: Andrea De Santis/unsplash.com

Чат-бот ChatGPT — экспериментальное решение, разработанное компанией OpenAI на основе генератора текстов GPT-3.5. Сетевая демо-версия продукта была представлена на прошлой неделе и с тех пор активно используется пользователями. Проблема в том, что бот способен решать массу задач, от написания стихов и песен до сценариев и формулирования ответов на задаваемые вопросы, но при всей убедительности текстов, они очень часто содержат грубые ошибки, особенно когда речь идёт о темах, посвящённых работе с программным кодом. Впрочем, ошибки совершаются и в других сферах: составляя биографию известной личности, ChatGPT способен вставлять в текст некорректные данные. Таким же образом он создаёт вполне «правдоподобный», но неработающий код.

В основу ChatGPT положены большие языковые модели (Large Language Model, LLM). Они анализируют огромные массивы текстов, формируют закономерности и на их основе предлагают собственные решения, буквально предугадывая, каким должно быть следующее слово в предложении. Такие модели не имеют точного представления о работе некоторых систем, в результате чего фактически генерируется недостоверная информация. Пока трудно оценить, какая часть подготовленных ими материалов недостоверна. В Stack Overflow решили, что риск дезинформации пользователей слишком велик. При этом многие эксперты опасаются, что с ростом числа сгенерированных неверных ответов растёт и риск того, что ими поделятся в Сети, погружая последнюю в хаос — контент, созданный реальными пользователями, просто утонет в море сгенерированных материалов.

Пока данных о вреде, наносимом LLM в реальном мире, немного, но события на Stack Overflow служат подтверждением существования пугающей тенденции. По словам модераторов, до введения запрета на ChatGPT на площадке уже появились тысячи сгенерированных ответов, каждый из которых требует детальной проверки.

Эксперты опасаются, что ситуация повторится и на других платформах — лавина сгенерированного ИИ контента не позволит ознакомиться с мнениями настоящих пользователей.

Пользователи Stack Overflow поддержали запрет, хотя отметили, что распознать «искусственный» контент будет непросто. Совета спросили и у самого ChatGPT. В ходе многочисленных экспериментов тот выдал вполне разумный ответ. «В целом, разрешать ли сгенерированные ИИ ответы на Stack Overflow — сложное решение, которое должно осторожно рассматриваться сообществом», — заявил бот.

window-new
Soft
Hard
Тренды 🔥
Телевизоры в ремейке Silent Hill 2 скрывают зашифрованные сообщения — они написаны с помощью азбуки Морзе 2 ч.
«Крупнейшая Call of Duty в истории»: Activision похвасталась успехами Black Ops 6 за первый месяц с релиза 4 ч.
Игры ещё нет, а Трой Бейкер уже есть: звезда The Last of Us и Uncharted 4 подтвердил участие в новой игре Naughty Dog 4 ч.
Второй трейлер «Соника 3 в кино» привёл зрителей в восторг 6 ч.
Telegram снова оштрафован в России за неудаление запрещённого контента — теперь на ₽7 млн 7 ч.
Nvidia представила ИИ-модель Fugatto, которая «понимает и генерирует звук, как это делают люди» 7 ч.
Замедление YouTube вызвало резкий рост интернет-трафика в России 8 ч.
Ирландская газета рассекретила, сколько Larian заработала благодаря Baldur’s Gate 3 в 2023 году 8 ч.
Хакеры нашли способ отключать антивирус Avast с помощью его же драйвера 9 ч.
В России задумались ввести прокатные удостоверения для видеоигр, но это чревато серьёзными последствиями 12 ч.