реклама
Теги → vertex 4

Google анонсировала ИИ для корпоративных клиентов — он менее склонен фантазировать

Входящая в Google Cloud платформа Vertex AI, которая позволяет корпоративным клиентам создавать собственные службы с использованием машинного обучения и больших языковых моделей Google, получила новые возможности, направленные на предотвращение распространения неверной информации.

 Источник изображения: cloud.google.com

Источник изображения: cloud.google.com

В мае для всех клиентов была развёрнута функция Vertex AI Grounding with Google Search — она предоставляет моделям ИИ доступ к информации из интернета в реальном времени. Теперь же клиенты облачной платформы смогут дополнительно улучшить результаты своих сервисов ИИ с помощью специализированных сторонних наборов данных. Сервис будет пользоваться информацией от таких поставщиков как Moody’s, MSCI, Thomson Reuters и ZoomInfo, сообщила Google, и воспользоваться этой услугой компании смогут «в III квартале этого года». Это лишь одна разрабатываемых Google функций, призванных побудить организации начать развёртывание собственных корпоративных ИИ моделей в её инфраструктуре — все они направлены на снижение частоты недостоверных данных в ответах систем.

Ещё одна функция — «режим высокой точности», позволяющий организациям подключать к моделям собственные наборы данных вместо обширной базы знаний Google Gemini. Этот режим работает на основе спецверсии модели Gemini 1.5 Flash, и его можно подключить через раздел экспериментальных функций Vertex AI. Корпоративные клиенты также смогут осуществлять гибридный поиск, используя в качестве запросов образцы изображений и текстовые пояснения к ним. А в Grounding with Google Search вскоре будет доступен динамический поиск — система сможет автоматически выбирать источники информации: установленные наборы данных Gemini или Google Search, если предполагается частое обновление ресурсов.

Возможность контролировать наборы данных для ИИ-моделей Google поможет компании улучшить репутацию, которая пострадала после внедрения ИИ в поисковую систему. Если потребители с юмором восприняли советы есть камни и добавлять клей в пиццу, то корпоративным клиентам такие ошибки могут обойтись дорого.

Cайты теперь могут запретить Google использовать свой контент для обучения нейросетей

Не секрет, что крупные технологические компании используют для обучения своих нейросетей интернет-контент. На этом фоне компания Google объявила о запуске нового элемента управления под названием Google-Extended. С его помощью администраторы веб-сайтов могут запретить поисковому гиганту использовать размещаемый на подконтрольных им ресурсах контент для обучения алгоритмов Bard и Vertex.

 Источник изображения: ElisaRiva / Pixabay

Источник изображения: ElisaRiva / Pixabay

«Сегодня мы анонсируем Google-Extended — новый элемент управления, с помощью которого веб-издатели могут управлять тем, помогают ли их веб-сайты улучшить работу генеративных API-интерфейсов Bard и Vertex <…> Используя Google-Extended для контроля доступа к контенту на сайте, администратор может решить, помогать ли этим моделям искусственного интеллекта со временем становиться более точными и функциональными», — говорится в сообщении Google.

Элемент управления Google-Extended работает как токен, который можно добавить в файл robot.txt веб-сайта. Этот файл используется для того, чтобы сообщить поисковым алгоритмам, какой контент на площадке не нужно индексировать. Владельцы сайтов уже могут добавить соответствующий токен, чтобы заблокировать сканер компании OpenAI, которая является создателем популярного ИИ-бота ChatGPT и других алгоритмов на основе нейросетей.

Однако в случае с Google ситуация иная, поскольку компания владеет крупнейшей поисковой системой. Преимущество нового токена заключается в том, что даже в случае ограничения использования контента сайта для обучения нейросетей индексация не будет остановлена, поэтому рейтинг сайта в поисковике не снизится. При этом владельцам сайтов не надо будет беспокоиться о том, что их контент используется для обучения ИИ-алгоритмов.

window-new
Soft
Hard
Тренды 🔥
WhatsApp научился расшифровывать голосовые сообщения в текст — русский язык поддерживается 42 мин.
Новая игра создателей The Invincible отправит в сердце ада выживать и спасать жизни — первый трейлер и подробности Dante’s Ring 2 ч.
Центр ФСБ по компьютерным инцидентам разорвал договор с Positive Technologies 3 ч.
Android упростит смену смартфона — авторизовываться в приложениях вручную больше не придётся 3 ч.
OpenAI обдумывает создание собственного интернет-браузера и поисковых систем для противостояния Google 4 ч.
Apple разрабатывает LLM Siri — она будет больше похожа на человека и выйдет с iOS 19 5 ч.
Новая статья: Верные спутники: 20+ полезных Telegram-ботов для путешественников 11 ч.
Итоги Golden Joystick Awards 2024 — Final Fantasy VII Rebirth и Helldivers 2 забрали больше всех наград, а Black Myth: Wukong стала игрой года 12 ч.
В программу сохранения классических игр от GOG вошли S.T.A.L.K.E.R. Shadow of Chernobyl и Call of Pripyat, а Clear Sky — на подходе 13 ч.
Star Wars Outlaws вышла в Steam с крупным обновлением и дополнением про Лэндо Калриссиана 14 ч.
Kioxia подала заявку на IPO — третьего крупнейшего производителя флеш-памяти оценили всего в $4,85 млрд 31 мин.
«Джеймс Уэбб» первым в истории нашёл «зигзаг Эйнштейна» — уникальное искривление пространства-времени 33 мин.
Второй электромобиль Xiaomi выйдет через год после первого и будет заметно от него отличаться 2 ч.
Oracle объявила о доступности облачного ИИ-суперкомпьютера на базе NVIDIA H200 2 ч.
Positive Technologies получила сертификат ФСТЭК на межсетевой экран PT NGFW 3 ч.
Google снова уходит с рынка планшетов, сворачивая разработку Pixel Tablet 2 4 ч.
Представлен внешний SSD SanDisk Extreme на 8 Тбайт за $800 и скоростной SanDisk Extreme PRO с USB4 12 ч.
Представлен безбуферный SSD WD_Black SN7100 со скоростью до 7250 Мбайт/с и внешний SSD WD_Black C50 для Xbox 12 ч.
Новая статья: Обзор ноутбука ASUS Zenbook S 16 (UM5606W): Ryzen AI в естественной среде 12 ч.
Redmi показала флагманский смартфон K80 Pro и объявила дату его премьеры 14 ч.