Оригинал материала: https://3dnews.kz/1082149

Сотрудников Google попросили исправлять неправильные ответы чат-бота Bard

Не секрет, что Google приветствует тестирование сотрудниками компании недавно представленного чат-бота Bard, в том числе — по несколько часов в неделю. Как сообщает портал CNBC, появились материалы ещё одного письма для служебного пользования, раскрывающего специфику «внутренней кухни» работы сотрудников Google с чат-ботом компании. В частности, их попросили переписывать ложные ответы бота.

 Источник изображения: Storyset / freepik.com

Источник изображения: Storyset / freepik.com

По данным издания, речь идёт о рассылке Прабхакара Рагхавана (Prabhakar Raghavan), занимающего должность вице-президента Google по поисковому направлению (Search). В письме он попросил сотрудников использовать собственные знания для того, чтобы переписывать ответы Bard на некоторые вопросы. Как считает Рагхаван, лучше всего Bard учится на примерах, поэтому трата небольшого количества времени на вдумчивое переписывание ответа очень помогло бы улучшению ИИ-режима поиска.

Затронув тему корректировки ответов, Рагхаван уточнил, что сотрудники должны писать от первого лица в нейтральном стиле. Ответы также должны быть «вежливыми, неформальными и доступными». Ответы не должны позволить предполагать, что Bard является личностью, и также не должны содержать эмоциональных откликов. Сотрудников также попросили, чтобы те избегали предположений о расе, гендере, сексуальной ориентации и подобных тонких материях. Более того, полностью запрещены любые советы, касающиеся финансовых, юридических или медицинских вопросов.

Если сотрудник Google делает вклад в тестирование Bard, он получает специальную маркировку в корпоративном профиле. Сотрудники с лучшими ответами для чат-бота получат возможность лично встретиться с командой разработчиков Bard. Правда, пока неизвестно, когда Bard будет доступен для публичного тестирования.

Информация о вкладе людей в проект Google может неожиданно пролить свет на недавние скандальные новости о странном «поведении» бота ChatGPT, интегрированного в поисковую систему Microsoft Bing. Не исключено, что в Microsoft применялась схожая система, и чересчур эмоциональные ответы писались не искусственным интеллектом, а людьми с задатками интернет-троллей.



Оригинал материала: https://3dnews.kz/1082149