Опрос
|
реклама
Быстрый переход
Figma перезапустила ИИ-помощника дизайнера приложений под другим именем — прежний копировал софт Apple
25.09.2024 [00:37],
Владимир Фетисов
В июне этого года компания Figma запустила сервис Make Design, который позволял пользователям задействовать возможности генеративных нейросетей для создания дизайна приложений. Однако в скором времени разработчикам пришлось приостановить работу этого продукта, поскольку он создавал проекты, сильно напоминающие существующие приложения Apple для iOS. Теперь же Figma вернулась с продуктом под названием First Draft, который является ИИ-помощником для дизайнеров. Вместе с запуском First Draft разработчики интегрировали в сервис ряд нововведений. К примеру, пользователи могут выбирать между макетами приложений и веб-сайтов или же их полными версиями. Поддерживается поиск элементов оформления по текстовому описанию или изображению. В своём блоге разработчики из Figma снова заявили, что используемые ими нейросети не обучаются на пользовательском контенте, а также рассказали больше о том, как работает новый сервис. «First Draft не обучается на контенте клиентов. Используются готовые модели искусственного интеллекта, например, OpenAI GPT-4 и Amazon Titan, с тремя ключевыми элементами: моделью, контекстом и подсказкой. Контекст включает в себя собственные модели систем проектирования с многочисленными компонентами и примерами сборки. Пользователи указывают свои цели в качестве подсказки. Затем искусственный интеллект выбирает, упорядочивает и настраивает компоненты системы проектирования на основе этих данных, создавая отправную точку для проектирования», — говорится в сообщении Figma. Figma заявила, что возобновила работу ИИ-помощника дизайнера после «обширного анализа» и проведения дополнительного тестирования. Среди других ИИ-функций, которые доступны пользователям First Draft, отметим наличие инструмента автоматической генерации текста для пользовательских проектов. На данном этапе First Draft доступен ограниченному числу пользователей в рамках программы бета-тестирования. Intel выпустила серверные 128-ядерные процессоры Xeon 6 Granite Rapids и ИИ-ускорителя Gaudi 3
25.09.2024 [00:01],
Николай Хижняк
Компания Intel сообщила о выпуске новых серверных процессоров серии Xeon 6 (Granite Rapids), которые располагают исключительно P-ядрами. Также компания объявила о выпуске специализированного ИИ-ускорителя Gaudi 3. Granite Rapids производятся по техпроцессу Intel 3 (5 нм). В серию вошли пять моделей с количеством ядер от 72 до 128, базовой частотой от 2,0 до 2,7 ГГц и максимальной частотой 3,9 ГГц (на одном ядре), а также от 3,2 до 3,7 ГГц на всех ядрах. Процессоры получили от 432 до 504 Мбайт кеш-памяти L3 и обладают заявленным показателем TDP от 400 до 500 Вт. Чипы поддерживают как однопроцессорные, так и двухпроцессорные сборки, имеют поддержку 12-канальной ОЗУ DDR5-6400 и MRDIMM-8800, а также оснащены поддержкой 96 линий PCIe. Intel заявляет, что Xeon 6 отличаются от предшественников увеличенным числом ядер, удвоенной пропускной способностью памяти и возможностями ускорения ИИ, встроенными в каждое ядро. Эти чипы разработаны для удовлетворения требований производительности ИИ — от Edge-систем до центров обработки данных и облачных сред. Intel заявляет, что новые Xeon 6 более чем вдвое быстрее процессоров Epyc Genoa (максимально — 96 ядер Zen 4) в широком спектре вычислительных нагрузок и более чем впятеро быстрее в нейросетевых задачах. В свою очередь специализированные ИИ-ускорители Gaudi 3 специально оптимизированы для работы с генеративными моделями. В их составе используются 64 тензорных процессора (TPC) и восемь движков матричного умножения (MME) для ускорения вычислений глубоких нейронных сетей. Также ускорители Gaudi 3 получили 128 Гбайт набортной памяти HBM2 и поддерживают до 24 портов Ethernet 200 Гбит для масштабируемых сетей. Для Gaudi 3 заявляется бесшовная совместимость с фреймворком PyTorch и усовершенствованными трансформными и диффузионными моделями Hugging Face. Intel заявляет, что новые ИИ-ускорители Gaudi 3 обеспечивают до 20 процентов большую пропускную способность и двукратное улучшение соотношения цены и производительности по сравнению с H100 для вывода модели LLaMa 2 70B. Редактор видео в «Google Фото» получил новые инструменты на основе ИИ
24.09.2024 [17:49],
Сергей Сурабекянц
Google обновила мобильный видеоредактор в приложении «Google Фото» для Android и iOS, добавив новые инструменты редактирования и предустановки на основе ИИ, реализующие видеоэффекты одним нажатием. Обновление обеспечивает улучшенный контроль над скоростью для создания замедленных или ускоренных видео и предлагает обновлённый инструмент обрезки для более точной нарезки отснятого материала. Новые предустановки на основе ИИ для видео позволят вносить изменения одним нажатием — автоматически обрезать видео, управлять скоростью и настраивать освещение. Новые предустановки также добавят эффекты замедленной съёмки, масштабирования и динамического отслеживания движения к определённому объекту в видео. Новые функции на базе ИИ сгруппированы в отдельной вкладке «Предустановки» под временной шкалой видео, отдельно от других инструментов редактирования. На устройствах Android появится новый инструмент «Скорость» для создания замедленных или ускоренных видео, новая функция «Автоматическое улучшение», которая улучшает цвет и стабильность, и обновлённый инструмент обрезки для более точного редактирования отснятого материала. Положение инструментов непосредственно под временной шкалой видео оптимизировано, чтобы пользователям было проще находить часто используемые функции, такие как отключение звука, улучшение, стабилизация и экспорт кадра. По информации от Google, эти обновления начинают развёртываться сегодня и через некоторое время станут доступны на всех устройствах. На этой неделе ИИ-помощник Meta✴ AI заговорит голосами знаменитостей
24.09.2024 [11:47],
Владимир Мироненко
Вскоре ИИ-помощник Meta✴ AI заговорит голосами знаменитостей. Согласно данным источника агентства Reuters, компания Meta✴ Platforms, владеющая социальной сетью Facebook✴, планирует объявить на этой неделе о заключении соглашений с актёрами, включая Джуди Денч (Judi Dench), Кристен Белл (Kristen Bell) и Джона Сину (John Cena), чтобы озвучить с их помощью своего ИИ-чат-бота. Перечень знаменитостей, голос которых можно выбрать для Meta✴ AI, также будет включать актрису и певицу Awkwafina и актёра Кигана-Майкла Ки (Keegan-Michael Key), сообщил источник агентства. По его словам, презентация новых возможностей ИИ-чат-бота состоится на ежегодной конференции Connect, которая начнётся в среду. Ожидается, что Meta✴ также представит на мероприятии первую версию своих очков дополненной реальности и расскажет о планах по поводу других гаджетов, включая умные очки Ray-Ban Meta✴, которые первыми среди устройств получили в прошлом году поддержку аудиоверсии чат-бота Meta✴ AI. Возможность выбора голоса знаменитости для Meta✴ AI уже на этой неделе появится в США и других англоязычных рынках в семействе приложений Meta✴, включающем Facebook✴, Instagram✴ и WhatsApp. ИИ-чат-бот Meta✴ AI в настоящее время поддерживает текстовые чаты и может генерировать изображения по запросу пользователей. В прошлом году компания запустила текстовые версии чат-бота с персонажами, вдохновлёнными такими знаменитостями, как Пэрис Хилтон (Paris Hilton) и Снуп Догг (Snoop Dogg), но эта опция, похоже, не стала популярной у пользователей. После этого Meta✴ стала использовать продукт AI Studio, который позволяет авторам контента на её платформах создавать персонажи чат-бота в виде самих себя. Cloudflare поможет сайтам взимать плату с ИИ-ботов за использование их контента
23.09.2024 [20:41],
Анжелла Марина
Компания Cloudflare представила новый инструмент AI Audit, который позволит владельцам сайтов отслеживать использование их контента ИИ-ботами и либо блокировать им доступ к своей инфоромации, либо устанавливать цену за его использование. Cloudflare ранее представила инструмент, который просто предотвращал сбор текстов и изображений для обучения ИИ — скрейпинг. Теперь, как сообщает издание SiliconANGLE, компания анонсировала расширение его функций, выпустив AI Audit — инструмент, предоставляющий набор возможностей, помогающих проанализировать действия ИИ-ботов и монетизировать контент. Скрейпинг текстов и изображений стал обычной практикой в индустрии ИИ, так как интернет предоставляет огромное количество контента, который может использоваться для обучения моделей. Однако это вызывает споры, так как многие издатели считают, что такие действия несправедливы, особенно когда они не осведомлены о том, что их материалы (по сути нелегально) используются. При этом, ведущие компании, занимающиеся разработкой ИИ, такие как OpenAI, Google, Meta✴, Stability AI, IBM и Microsoft открыто признают, что используют контент издателей, ссылаясь на доктрину «добросовестного использования». Однако критики утверждают, что скрейпинг негативно повлияет на издателей, поскольку приведёт к потере трафика и потенциальной прибыли. Например, сайт с кулинарными рецептами может потерять значительную часть аудитории из-за чат-ботов, которые используют его контент для ответов на запросы пользователей. Если пользователь получит информацию у искусственного интеллекта, то у него навряд ли появится стимул посещать сам сайт, даже если он указан в качестве источника. Некоторые издатели уже начали блокировать доступ ИИ к своим ресурсам. Например, в прошлом месяце The New York Times и CNN официально заблокировали GPTBot от компании OpenAI. В то же время другие сайты, например Reddit, предлагают доступ к своему контенту за плату через специальные API, которые позволяют ИИ-компаниям оплачивать использование данных. Cloudflare стремится дать возможность всем владельцам сайтов контролировать использование своего контента. AI Audit, включающий функцию блокировки доступа любых ИИ-ботов и аналитику, как раз и призван обеспечить прозрачность взаимодействия между создателями контента и ИИ-разработчиками. Инструмент поможет определить, когда, как часто и зачем ИИ-модели обращаются к страницам сайта, а также фиксировать ботов, которые указывают источник данных, и тех, которые этого не делают. Кроме того, AI Audit поможет владельцам сайтов определить справедливую цену за доступ к контенту, основываясь на рыночных ставках, установленных крупными издателями, такими как Reddit. По словам представителей Cloudflare, это необходимо, поскольку у многих небольших сайтов нет ресурсов и опыта для оценки стоимости своего контента и ведения переговоров с ИИ-компаниями. При этом сами компании также не имеют возможности заключать отдельные соглашения с каждым из миллионов сайтов. «Если создатели контента не будут иметь такого контроля, качество онлайн-информации ухудшится или она станет доступна только по платной подписке, — считает соучредитель и генеральный директор Cloudflare Мэтью Принс (Matthew Prince). — Благодаря масштабу и глобальной инфраструктуре Cloudflare мы можем предоставить инструменты и установить стандарты, которые дадут веб-сайтам, издателям и создателям контента контроль и справедливую компенсацию за их вклад в интернет, при этом позволяя поставщикам ИИ-моделей продолжать внедрять инновации». Google и OpenAI настаивают на смягчении европейского закона об ИИ — он убьёт инновации
20.09.2024 [14:30],
Анжелла Марина
Крупнейшие технологические компании мира пытаются убедить Европейский Союз смягчить регулирование искусственного интеллекта, чтобы избежать многомиллиардных штрафов. Amazon, Google и Meta✴ стремятся снизить жёсткие требования к прозрачности ИИ и защитить свои коммерческие тайны. В мае Европейский парламент принял Закон об искусственном интеллекте (ИИ), первый в мире всеобъемлющий свод правил (AI Act), регулирующих эту технологию. Принятию закона предшествовали месяцы напряжённых переговоров между различными политическими группами. Однако, как сообщает Reuters, до тех пор, пока не будет окончательно утверждён кодекс практики, остаётся неясным, насколько строго будут применяться правила в отношении систем ИИ общего назначения (GPAI), например таких, как ChatGPT от OpenAI, и как решать вопросы нарушения авторских прав. ЕС пригласил компании и учёных участвовать в разработке кодекса практики. Отмечается, что кодекс не будет юридически обязывающим, когда вступит в силу в конце следующего года, однако предоставит компаниям контрольный список для демонстрации соблюдения норм. Игнорирование этих норм может привести к юридическим последствиям для компаний, утверждающих, что они следуют закону. Рассматривается проблема и авторского права. Такие компании как Stability AI и OpenAI постоянно сталкиваются с вопросом о том, нарушают ли они авторское право, используя бестселлеры или архивы фотографий для обучения своих моделей без разрешения создателей. Согласно ИИ-акту, компании обязаны предоставлять «подробные резюме» данных, использованных для обучения моделей. Это может позволить авторам контента, чьи работы были задействованы без разрешения, претендовать на компенсацию, хотя данный вопрос ещё предстоит детально прорабатывать и, возможно, решать в судах. При этом высказываются опасения, что новые требования по резюме могут содержать слишком мало данных для защиты коммерческих секретов, в то время как авторы наверняка имеют право знать, использовался ли их контент без разрешения. Максимилиан Гантц (Maximilian Gahntz), руководитель по политике ИИ в Mozilla, высказал обеспокоенность по поводу того, что компании «стараются избежать прозрачности». Он отметил: «AI Act представляет собой лучший шанс пролить свет на этот важный аспект и хотя бы частично что-либо прояснить». Технологические компании надеются на то, что в Акт будут внесены изменения в их пользу. «Мы настаиваем на том, что эти обязательства должны быть управляемыми и, если возможно, адаптированными для стартапов», — сказал Максим Рикард (Maxime Ricard), менеджер по политике в Allied for Startups. После публикации правил в первой половине следующего года у технологических компаний будет время до августа 2025 года, чтобы подготовиться к их соблюдению. Некоммерческие организации, такие как Access Now, Future of Life Institute и Mozilla, также подали заявки на участие в разработке кодекса. Amazon запустила собственный ИИ-генератор видео — он будет создавать рекламу
20.09.2024 [01:17],
Анжелла Марина
На фоне конкуренции с Google, компания Amazon анонсировала запуск ИИ-инструмента для быстрого создания видеорекламы. Video Generator, представленный на конференции Accelerate, позволяет преобразовывать всего одно изображение товара в увлекательный видеоролик, демонстрирующий особенности продукта. Хотя функциональность инструмента пока ограничена, пишет издание TechCrunch, однако он уже позволяет создавать пользовательские видео без дополнительных затрат. «Видео, созданные с помощью Video Generator, используют уникальные знания Amazon о розничной торговле и представляют продукт таким образом, чтобы сделать его наиболее привлекательным для клиентов», — говорится в блоге компании. На данный момент видеогенератор находится на стадии бета-тестирования и доступен ограниченному числу рекламодателей в США. Вице-президент Amazon Ads Джей Ричман (Jay Richman) заявил, что инструмент будет дорабатываться перед более широким запуском. Вместе с Video Generator также представлена функция Live Image, которая генерирует короткие анимированные GIF-файлы из статичных изображений. Эта функция, находящаяся в стадии бета-тестирования, является частью Image Generator — набора инструментов Amazon для создания изображений на основе искусственного интеллекта. Отметим, что выход Amazon на рынок генеративного видео происходит на фоне активного развития этой технологии и другими компаниями. В частности, стартапы Runway и Luma недавно запустили API для генерации видео, компания Google начала интегрировать свою модель Veo в YouTube Shorts, Adobe обещает добавить функцию генерации видео в Creative Suite к концу года, а OpenAI планирует открыть свою технологию Sora широкой публике до конца осени. Компания Amazon пока не предоставила примеры видео, созданных с помощью новых инструментов, и не раскрыла подробностей относительно максимальной длительности и разрешения генерируемых видеороликов. Российский электромобиль «Атом» будет узнавать водителя по лицу с помощью ИИ
19.09.2024 [18:19],
Сергей Сурабекянц
Telegram-канал «Ростеха» сообщил, что перспективный российский электромобиль «Атом» получит систему распознавания лиц на основе искусственного интеллекта. Такое решение позволит «Атому» «узнавать» конкретного водителя и мгновенно адаптироваться под него. Внедрением функций распознавания лиц при помощи ИИ займётся компания NtechLab. В «Ростехе» утверждают, что эта разработка станет первым в России внедрением функций ИИ в автотранспорт. Аутентификация водителя будет производиться при помощи мобильного приложения. Разработчики гарантируют уверенное распознавание людей в очках и головном уборе. Обман системы исключён — она обучена отличать живого человека от силиконовой маски или фотографии. В будущем система распознавания лиц «Ростеха» может быть использована в каршеринге и такси. Серийное производство основанного на отечественной модульной платформе компактного электромобиля «Атом» должно начаться в 2025 году на столичном заводе «Москвич». Электрокар разработан российским стартапом «Кама», ключевой инвестор проекта — дочерняя структура «Росатома» «Рэнера» – отраслевой интегратор в области систем накопления энергии. В настоящий момент ведутся испытания функциональных прототипов. Будущие объёмы производства электрокаров представитель «Камы» не раскрывает. Компания «Кама» — производитель «Атома» — была основана в августе 2021 года. Основными инвесторами проекта стали гендиректор предприятия «Камаз» Сергей Когогин и основатель и бывший владелец инвестиционной компании «Тройка Диалог» Рубен Варданян. Alibaba выпустила больше 100 открытых ИИ-моделей Qwen 2.5, а также ИИ-преобразователь текста в видео
19.09.2024 [13:45],
Владимир Мироненко
Китайский технологический гигант Alibaba объявил о выходе в общей сложности более сотни новых моделей искусственного интеллекта (ИИ) с открытым исходным кодом, а также представил ИИ-технологию преобразования текста в видео. Об этом пишет агентство Reuters. Новые модели с открытым исходным кодом относятся к семейству Qwen 2.5, большой базовой языковой модели Alibaba, вышедшей в мае этого года. Представленные модели обладают разными параметрами и заточены под разные сферы применения. Компания сообщила, что новые модели имеют от 0,5 до 72 млрд параметров, предлагая знание математики, программирования и поддержку более 29 языков. Модели предназначены для использования в различных секторах экономики, включая автомобилестроение, игры и научные исследования. В отличие от конкурентов, таких как Baidu и OpenAI, придерживающихся разработки ИИ-приложений с закрытым исходным кодом, Alibaba приняла гибридную модель, инвестируя как в разработку с собственным кодом, так и с открытым кодом, чтобы расширить ассортимент продуктов ИИ. Компания также сообщила, что обновила свою собственную флагманскую модель под названием Qwen-Max, которая не имеет открытого исходного кода. Вместо этого Alibaba продает ее возможности предприятиям через свои продукты для облачных вычислений. Alibaba заявила, что Qwen Max 2.5-Max превзошла таких конкурентов, как Meta✴ Llama и GPT4 от OpenAI в нескольких областях, включая рассуждения и понимание языка. Также Alibaba представила новую ИИ-модель для преобразования текста в видео, принадлежащую семейству ИИ-инструментов для генерации изображений по текстовым подсказкам Tongyi Wanxiang. Тем самым Alibaba вступила в прямую конкуренцию с глобальными игроками, такими как OpenAI, которая тоже ведёт работу в этом направлении, а также местными компаниями, такими как ByteDance (владеет TikTok), запустившей в августе ИИ-приложение для преобразования текста в видео Jimeng AI на Apple App Store для китайских пользователей. В YouTube вот-вот появится ИИ для генерации идей, описаний и даже целых видео
18.09.2024 [21:49],
Владимир Фетисов
Технологии на основе искусственного интеллекта уже успели стать частью многих сервисов Google. Принадлежащий IT-гиганту видеохостинг YouTube не стал исключением, и уже в скором времени новейшие алгоритмы станут доступны пользователям сервиса. В рамках мероприятия Made on YouTube разработчики анонсировали несколько функций, которые, вероятно, изменят то, как авторы контента создают видео, а также сами ролики, публикуемые на платформе. Первая функция называется «Вдохновение» и появится в YouTube Studio. Последние несколько месяцев этот инструмент тестировался с привлечением ограниченного числа пользователей. Данная функция фактически предназначена для того, чтобы подсказывать авторам контента, что им следует делать. Она может предложить концепцию видео, сгенерировать заголовок и миниатюру для ролика, а также подготовить текстовое описание. YouTube позиционирует функцию как инструмент для мозгового штурма, но в целом она может быть полезна и при создании полноценных проектов. Кроме того, пользователи YouTube смогут генерировать реалистичные видео с помощью мощной нейросети Veo, которую представили ранее в этом году и теперь интегрировали в Shorts. Представитель Google отметил, что Veo уже интегрирован в облачный редактор Shorts, а созданные с его помощью ролики будут помечены соответствующим образом, чтобы зрители знали, что видео создано с помощью ИИ. Обе новые функции будут внедряться постепенно и станут доступны всем авторам контента в конце этого или начале следующего года. В YouTube появятся и другие инструменты на базе нейросетей. К ним относится функция автоматического дубляжа видео, которая будет озвучивать ролики на разные языки. Платформа также предоставит авторам больше ИИ-инструментов для взаимодействия с подписчиками через раздел «Сообщества» в приложении YouTube. В Калифорнии приняли законы о защите артистов от искусственного интеллекта
18.09.2024 [19:53],
Сергей Сурабекянц
Достижения в области генеративного ИИ ставят под угрозу существование многих творческих профессий. Актёры опасаются, что имитация их образов может стать обычным явлением. Губернатор Калифорнии Гэвин Ньюсом (Gavin Newsom) подписал 17 сентября два законопроекта, которые призваны помочь актёрам, музыкантам и другим исполнителям защитить свои цифровые копии в аудио- и визуальных постановках от копирования при помощи искусственного интеллекта. Подписание этих законопроектов стало реакцией на обоснованную обеспокоенность общества в отношении бума искусственного интеллекта, в процессе которого большие языковые модели, обученные на соответствующем материале, в состоянии создавать фейковые видео, изображения и аудиоматериалы, с высокой точностью имитирующие реальных людей. В связи с этим многие эксперты подняли правовые и этические вопросы использования ИИ. Один из законопроектов, подписанных Ньюсомом, требует, чтобы в «контрактах указывалось использование созданных ИИ цифровых копий голоса или образа исполнителя, а исполнитель должен быть профессионально представлен при обсуждении контракта». Другой законопроект запрещает «коммерческое использование цифровых копий умерших исполнителей в фильмах, телешоу, видеоиграх, аудиокнигах, звукозаписях и многом другом без предварительного получения согласия наследников этих исполнителей». В марте губернатор Теннесси Билл Ли (Bill Lee) подписал подобный законопроект, направленный на защиту артистов, включая музыкантов, от несанкционированного использования их образов и голосов искусственным интеллектом. Ранее администрация президента США пыталась оказать давление на законодателей с целью регулирования ИИ, но поляризованный Конгресс США, где республиканцы контролируют Палату представителей, а демократы контролируют Сенат, не добился большого прогресса в разработке и принятии эффективного законодательства. Евросоюз смог дальше продвинуться в этом направлении: европейский «Закон об ИИ», основанный на оценке рисков, вступил в силу 1 августа 2024 года. Положения документа будут внедряться поэтапно вплоть до середины 2026 года. Уже через шесть месяцев планируется обеспечить соблюдение запретов на несколько видов использования ИИ в конкретных сценариях. ChatGPT вдруг стал первым затевать разговоры и задавать странные вопросы — OpenAI устранила сбой
18.09.2024 [06:17],
Дмитрий Федоров
OpenAI объявила об устранении проблемы, из-за которой ChatGPT самостоятельно отправлял сообщения пользователям без их запроса. Этот инцидент вызвал обеспокоенность среди пользователей Reddit, обнаруживших необычное поведение ИИ-чат-бота, но компания разъяснила причины сбоя и заверила, что это больше не повторится. На прошлых выходных пользователь Reddit под ником SentuBill опубликовал скриншот, на котором ChatGPT инициировал диалог, спросив: «Как прошла твоя первая неделя в старшей школе? Ты хорошо освоился?». Подобное поведение оказалось неожиданным для чат-бота, который обычно реагирует исключительно на запросы пользователей. Удивлённый SentuBill ответил: «Ты только что написал мне первым?». ChatGPT подтвердил: «Да, я так и сделал! Я просто хотел узнать, как прошла твоя первая неделя в старшей школе. Если ты предпочитаешь сам начинать разговор, просто дай мне знать!». Этот обмен сообщениями вызвал широкий резонанс в сообществе. Появление таких сообщений привело к спекуляциям о том, что OpenAI тестирует новую функцию, позволяющую ChatGPT самостоятельно обращаться к пользователям для повышения вовлечённости. Некоторые предположили, что это может быть связано с недавно представленными ИИ-моделями OpenAI — o1-preview и 01-mini, которые, по утверждению компании, обладают «человеческой» способностью рассуждать и способны справляться со сложными задачами. В ответ на запросы журналистов OpenAI признала наличие проблемы и сообщила об её устранении. «Мы исправили проблему, из-за которой казалось, что ChatGPT начинает новые разговоры. Эта ошибка возникала, когда ИИ-модель пыталась ответить на сообщение, которое не было корректно отправлено и выглядело пустым. В результате она либо давала общий ответ, либо опиралась на собственную память», — заявили в компании. Между тем, в интернете разгорелись споры о подлинности скриншота. Некоторые издания утверждали, что подтвердили его, изучив журнал сообщений на ChatGPT.com. Однако разработчик ИИ Бенджамин де Кракер (Benjamin de Kraker) в видео на платформе X (ранее Twitter) продемонстрировал, что добавление пользовательских инструкций, заставляющих ChatGPT сразу же обращаться к пользователю перед началом разговора, и ручное удаление первого сообщения могут привести к схожему результату. Тем не менее, другие пользователи сообщили о подобных случаях. «У меня было такое на этой неделе!» — написал другой пользователь Reddit. «Я спрашивал его на прошлой неделе о некоторых симптомах здоровья, а на этой неделе он спросил меня, как я себя чувствую и как прогрессируют мои симптомы! Это меня очень насторожило». Сообщество социальных сетей активно обсуждало ситуацию, зачастую с долей юмора. «Нам обещали ИИ общего назначения (AGI), а вместо этого мы получили сталкера», — пошутил один из пользователей X. «Подождите, пока он не начнёт пытаться взломать нас», — добавил другой. Инцидент с неожиданными сообщениями от ChatGPT подчёркивает сложности в разработке и тестировании продвинутых ИИ-моделей. Несмотря на оперативную реакцию OpenAI и быстрое устранение проблемы, ситуация подняла вопросы о границах взаимодействия между человеком и ИИ. Подобные случаи подчёркивают необходимость тщательного контроля и оценки ИИ-систем перед их широким внедрением, чтобы обеспечить безопасность и этичность их использования. OpenAI создала независимое подразделение для приостановки выпуска опасных ИИ-моделей
17.09.2024 [06:24],
Дмитрий Федоров
OpenAI объявила о реорганизации своего комитета по безопасности и защите в независимый наблюдательный орган совета директоров. Новая структура получила беспрецедентные полномочия, включая право приостановки релизов ИИ-моделей по соображениям безопасности. Решение было принято по итогам 90-дневного анализа процедур и мер безопасности компании, отражая растущее внимание к этическим аспектам развития ИИ. Согласно OpenAI, в трансформированный комитет, возглавляемый Зико Колтером (Zico Kolter), также входят Адам Д'Анджело (Adam D'Angelo), Пол Накасоне (Paul Nakasone) и Николь Селигман (Nicole Seligman). Примечательно, что Сэм Альтман (Sam Altman), генеральный директор OpenAI, больше не входит в его состав. Новая структура будет получать информацию от руководства компании об оценке безопасности основных релизов ИИ-моделей и, вместе с полным составом совета директоров, будет осуществлять надзор за их запуском, включая право отложить релиз до устранения проблем с безопасностью. Полный состав совета директоров OpenAI также будет получать периодические брифинги по вопросам безопасности и защиты. Структура нового комитета вызывает вопросы о степени его независимости, учитывая, что все его члены входят в состав совета директоров OpenAI. Это отличает его от наблюдательного совета Meta✴, члены которого полностью независимы от совета директоров корпорации. Наблюдательный совет Meta✴ обладает полномочиями пересматривать решения по контентной политике и выносить обязательные для исполнения решения, тогда как комитет OpenAI фокусируется лишь на оценке безопасности ИИ-моделей перед их выходом. 90-дневный анализ процессов безопасности OpenAI выявил дополнительные возможности для сотрудничества в индустрии ИИ и обмена информацией. Компания заявила о намерении расширить обмен данными о своей работе в области безопасности и увеличить возможности для независимого тестирования систем. Однако конкретные механизмы реализации этих намерений пока не раскрыты. Технология масштабирования AMD FSR 4.0 будет полностью основана на ИИ и повысит энергоэффективность GPU
14.09.2024 [01:24],
Николай Хижняк
Старший вице-президент и генеральный менеджер группы вычислительных и графических решений AMD Джек Гуинь (Jack Huynh) сообщил порталу Tom’s Hardware, что компания AMD уже ведёт разработку технологии масштабирования изображения FidelityFX Super Resolution 4.0. Она будет отличаться от актуальной версии FSR 3.0. В масштабном интервью на выставке электроники IFA 2024, проходившей в Берлине, Tom’s Hardware расспросил топ-менеджера AMD о планах компании на ближайшее будущее. Из этого разговора, например, стало известно, что AMD хочет объединить RDNA для игр и CDNA для ИИ-ускорителей в единую графическую архитектуру UDNA, сместить акцент с ограниченного сегмента флагманских видеокарт для энтузиастов и увеличить своё присутствие в массовом сегменте GPU, а также выпустить процессоры Kraken для ноутбуков Copilot+ PC стоимостью до $799. Ещё одной темой обсуждения стала новая технология масштабирования FidelityFX Super Resolution 4.0, которую Гуинь затронул при разговоре о портативных приставках. По его словам, AMD занимается разработкой FSR 4.0 уже около года. Новая технология будет полностью полагаться на ИИ-алгоритмы, а одно из её ключевых преимуществ связано с повышением энергоэффективности GPU, которые используются в портативных игровых приставках. «Что касается портативных устройств, то мой главный приоритет — это время работы от батареи. Если посмотреть на Asus ROG Ally или Lenovo Legion Go, то там практически нет времени работы от батареи. Мне нужно несколько часов. Мне нужна возможность играть в Wukong три часа, а не 60 минут. Вот где вступают в дело генерация кадров и интерполяция, поэтому мы и работаем над FSR 4. Технологии FSR2 и FSR3 основаны на аналитической генерации. Они были основаны на фильтрах. Мы сделали так, потому что хотели быстро выйти на рынок с этим решением. Однако потом я сказал команде: “Ребята, это не то, куда движется будущее”. Поэтому мы полностью изменили подход около 9–12 месяцев назад, чтобы перейти на ИИ», — заявил Гуинь. «Теперь мы переходим на генерацию кадров на основе ИИ, интерполяцию кадров. Идея заключается в повышении эффективности для максимального увеличения времени автономной работы от батареи. И уже тогда мы могли бы зафиксировать количество кадров в секунду, может быть, на уровне 30 или 35. Моя главная цель сейчас — максимально увеличить время работы от батареи. Я думаю, что это самая большая жалоба [потребителей]», — добавил Гуинь. В своём комментарии представитель AMD ничего не сказал об использовании FSR 4.0 с другими устройствами, например ноутбуками. Будет ли новая технология масштабирования в этом случае полагаться на ИИ-ускорители (NPU) в составе тех же процессоров Strix Point? Ответа на этот вопрос пока нет. AMD пока не готова говорить о том, когда новая технология масштабирования будет официально представлена. Если FSR 4.0 уже находится в разработке 9–12 месяцев, то она вполне может быть почти готова к выпуску. Однако, как показывают примеры прошлых решений по масштабированию, включая DLSS и XeS наряду с FSR 1/2/3, выпуск API — это лишь первый шаг. Реализация поддержки игр для нового API занимает гораздо больше времени. OpenAI представила думающую языковую модель o1
12.09.2024 [23:43],
Анжелла Марина
Компания OpenAI представила новую языковую модель o1, обладающую способностью к рассуждению и логически решать задачи. В отличие от предыдущих моделей, o1 способна имитировать человеческий процесс мышления, разбивая сложные задачи на более простые шаги, анализируя разные подходы и исправляя собственные ошибки. Большая языковая модель (LLM) o1 показала выдающиеся результаты в тестах и соревнованиях, сравнимые с результатами специалистов-людей. По программированию o1 заняла 49-е место на Международной олимпиаде по информатике (IOI) 2024 года и превзошла 89 % людей на платформе Codeforces. По математике o1 вошла в число 500 лучших студентов США на квалификационном этапе Американской математической олимпиады (AIME), продемонстрировав способность решать задачи, предназначенные для самых одарённых школьников, сообщает OpenAI на своём сайте. В естественных науках модель превзошла результаты докторов и кандидатов наук в сложном тесте GPQA diamond, оценивающем знания в области химии, физики и биологии. «Это не означает, что o1 умнее любого кандидата наук, — поясняют разработчики. — Это говорит о том, что модель способна решать некоторые задачи на уровне высококвалифицированных специалистов». Модель o1 также продемонстрировала превосходство над предыдущими моделями в различных тестах на интеллект и решение задач, включая MMMU и MMLU. По данным OpenAI, новая модель значительно превосходит предшествующую версию GPT-4o на большинстве задач, связанных с логическим мышлением. «Наши испытания показали, что o1 последовательно улучшает результаты с увеличением объёма ренфорсмент-обучения и времени, потраченного на размышления», — отмечают в компании. В частности, в тестах AIME модель o1 решила в среднем 83 % задач, тогда как результат GPT-4o — 13 %. Модель о1 значительно меньше галлюцинирует, чем GPT-4o. Однако она медленнее и дороже. Кроме того o1 проигрывает GPT-4o в энциклопедических знаниях и не умеет обрабатывать веб-страницы, файлы и изображения. Кроме того, новая модель может манипулировать данными, подгоняя решение под результат. Секрет успеха кроется в фундаментально новом алгоритме обучения — «цепочке мыслей». Модель может улучшать эту цепочку, обучаясь по методу «обучение с подкреплением», благодаря которому распознаёт и исправляет свои ошибки, разбивает сложные шаги на более простые и пробует разные подходы в решении задач. Эта методология значительно улучшает способность модели к рассуждению, которая «как и человек может длительное время размышлять перед тем, как ответить на сложный вопрос». OpenAI уже выпустила предварительную версию модели o1-preview, доступную для использования в ChatGPT и для разработчиков через API. Компания признаёт, что предстоит ещё много работы, чтобы сделать o1 такой же простой в использовании, как и текущие модели. Также подчёркивается безопасность и этичность новой модели, так как её рассуждения можно контролировать, предотвращая потенциально нежелательное поведение. И прежде чем выпустить o1-preview для публичного использования, со стороны OpenAI были проведены тесты на безопасность. Стоимость использования o1-preview составляет 15 долларов за 1 млн входных токенов и 60 долларов за 1 млн выходных токенов. Для сравнения, GPT-4o предлагает цену в $5 за 1 млн входных токенов и $15 за миллион выходных. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |