реклама
Новости Software

Сотрудников Google попросили исправлять неправильные ответы чат-бота Bard

Не секрет, что Google приветствует тестирование сотрудниками компании недавно представленного чат-бота Bard, в том числе — по несколько часов в неделю. Как сообщает портал CNBC, появились материалы ещё одного письма для служебного пользования, раскрывающего специфику «внутренней кухни» работы сотрудников Google с чат-ботом компании. В частности, их попросили переписывать ложные ответы бота.

 Источник изображения: Storyset / freepik.com

Источник изображения: Storyset / freepik.com

По данным издания, речь идёт о рассылке Прабхакара Рагхавана (Prabhakar Raghavan), занимающего должность вице-президента Google по поисковому направлению (Search). В письме он попросил сотрудников использовать собственные знания для того, чтобы переписывать ответы Bard на некоторые вопросы. Как считает Рагхаван, лучше всего Bard учится на примерах, поэтому трата небольшого количества времени на вдумчивое переписывание ответа очень помогло бы улучшению ИИ-режима поиска.

Затронув тему корректировки ответов, Рагхаван уточнил, что сотрудники должны писать от первого лица в нейтральном стиле. Ответы также должны быть «вежливыми, неформальными и доступными». Ответы не должны позволить предполагать, что Bard является личностью, и также не должны содержать эмоциональных откликов. Сотрудников также попросили, чтобы те избегали предположений о расе, гендере, сексуальной ориентации и подобных тонких материях. Более того, полностью запрещены любые советы, касающиеся финансовых, юридических или медицинских вопросов.

Если сотрудник Google делает вклад в тестирование Bard, он получает специальную маркировку в корпоративном профиле. Сотрудники с лучшими ответами для чат-бота получат возможность лично встретиться с командой разработчиков Bard. Правда, пока неизвестно, когда Bard будет доступен для публичного тестирования.

Информация о вкладе людей в проект Google может неожиданно пролить свет на недавние скандальные новости о странном «поведении» бота ChatGPT, интегрированного в поисковую систему Microsoft Bing. Не исключено, что в Microsoft применялась схожая система, и чересчур эмоциональные ответы писались не искусственным интеллектом, а людьми с задатками интернет-троллей.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме
window-new
Soft
Hard
Тренды 🔥
Microsoft открыла доступ к скандальной ИИ-функции Recall — пользователям разрешили ограничить её «подглядывания» 3 ч.
Новая статья: Death of the Reprobate: что не так на картине? Рецензия 3 ч.
Главный конкурент OpanAI получил $4 млрд на развитие ИИ без следов Хуанга 4 ч.
Valve раскрыла часть игр, которые получат скидку на осенней распродаже Steam — официальный трейлер акции 5 ч.
Threads получила «давно назревавшие улучшения» в поиске и тренды 5 ч.
Ubisoft рассказала о возможностях и инновациях стелс-механик в Assassin's Creed Shadows — новый геймплей 6 ч.
Создатели Black Myth: Wukong удивят игроков до конца года — тизер от главы Game Science 8 ч.
У Nvidia больше не самые прибыльные акции — ажиотаж вокруг биткоина победил ИИ-бум 8 ч.
Заждались: продажи S.T.A.L.K.E.R. 2: Heart of Chornobyl за два дня после релиза превысили миллион копий 9 ч.
YouTube добавил в Shorts функцию Dream Screen — ИИ-генератор фонов для роликов 11 ч.