реклама
Теги → изображения
Быстрый переход

Adobe поменяет пользовательское соглашение на фоне скандала с доступом к контенту

Ранее Adobe обновила соглашение, регулирующее правила взаимодействия пользователей с программными продуктами компании. Несколько расплывчатых формулировок указывали на то, что теперь Adobe официально может просматривать контент, который пользователи создали с помощью приложений компании и хранят в облаке. Это вызвало негативную реакцию сообщества, на фоне чего Adobe пришлось объясниться и пообещать внести в соглашение более понятные формулировки.

 Источник изображения: adobe.com

Источник изображения: adobe.com

«Ваш контент принадлежит вам и никогда не будет использоваться для обучения каких-либо инструментов генеративного искусственного интеллекта», — говорится в совместном заявлении директора по продуктам Adobe Скотта Бельски (Scott Belsky) и вице-президента по правовым вопросам Даны Рао (Dana Rao).

Пользователи разных приложений компании, таких как Photoshop, Premiere Pro и Lightroom, были возмущены расплывчатыми формулировками. Люди посчитали внесённые в пользовательское соглашение изменения желанием Adobe использовать созданный пользователями контент для обучения генеративных нейросетей. Другими словами, создатели контента подумали, что Adobe намерена использовать ИИ для кражи их работ с целью последующей перепродажи.

На этом фоне Adobe активно пытается убедить сообщество в том, что пользовательскому контенту ничего не угрожает, а внесённые в соглашение изменения ошибочно оказались недостаточно точными. «В мире, где клиенты беспокоятся о том, как используются их данные и как обучаются генеративные модели искусственного интеллекта, на компаниях, хранящих данные и контент своих клиентов, лежит обязанность заявить о своей политике не только публично, но и в своём пользовательском соглашении», — говорится в сообщении Бельски.

Компания пообещала пересмотреть пользовательское соглашение, чтобы сделать его более понятным за счёт «более простого языка и примеров». В Adobe надеются, что такой подход поможет пользователям лучше понимать, о чём именно говорится в тех или иных пунктах соглашения. Компания уже отредактировала первоначальный текст изменений 6 июня, но это не повлияло на негативную реакцию сообщества. Компания утверждает, что клиенты могут защитить свой контент не только от нейросетей, им также доступен вариант отказа от участия в программе улучшения продуктов компании.

Intel представила AI Playground — бесплатный ИИ-генератор изображений, работающий локально

На этой неделе состоялась ежегодная выставка Computex 2024, в рамках которой было представлено немало аппаратных и программных новинок. Одной из них стал генератор изображений AI Playground от Intel. Его основной является генеративная нейросеть, а главная особенность заключается в способности работать локально на пользовательском компьютере без подключения к облачным вычислительным мощностям.

 Источник изображения: Intel

Источник изображения: Intel

Приложение AI Playground для устройств с Windows требует наличия производительного процессора Intel Core Ultra, в составе которого есть встроенный ИИ-сопроцессор (NPU) для ускорения выполнения задач искусственного интеллекта. Также требуется наличие встроенной графики Intel Arc или дискретной видеокарты Intel с не менее чем 8 Гбайт видеопамяти.

Ещё одна особенность приложения, которое станет доступно для скачивания позднее этим летом, в том, что использовать её можно бесплатно. «Мы не рассматриваем AI Playground как замену многим замечательным проектам и приложениям на основе ИИ, но мы рассматриваем AI Playground как лёгкий способ начать работу с ИИ», — говорится в сообщении Intel.

AI Playground устанавливается на компьютер как стандартное приложение Windows. Пользовательский интерфейс выглядит достаточно простым. Для взаимодействия с разными функциями, такими как генерация или редактирование изображения, предлагается переключаться между вкладками в верхней части рабочего пространства. Для создания картинки достаточно ввести текстовое описание и запустить процесс генерации. Поддерживается возможность изменения качества и разрешения изображения, есть дополнительные опции, которые могут оказаться полезными при редактировании.

Основой приложения стала большая языковая модель Answer. Хотя возможности AI Playground на данном этапе не слишком впечатляют, недостатки может компенсировать способность приложения работать локально. Это означает, что у разработчиков продукта не будет доступа к созданному пользователями контенту и текстовым подсказкам, которые они задействовали в процессе генерации. Кроме того, приложение можно использовать бесплатно, что также будет привлекательно для пользователей, которые только начинают знакомство с ИИ-генераторами изображений.

Microsoft представила универсальной апскейлер Auto SR — он работает на уровне ОС, но пока только с NPU

Microsoft официально представила Automatic Super Resolution (Auto SR или ASR) — технологию масштабирования изображения на уровне операционной системы, призванную работать независимо от интеграции в игры. В то же время компания опубликовала список игр, в которых технология Auto SR заработает автоматически, а также те игры, где потребуется её ручное включение.

 Источник изображений: Microsoft

Источник изображений: Microsoft

Automatic Super Resolution в большей степени похожа на апскейлеры Nvidia Image Scaling (NIS) и AMD Radeon Super Resolution (RSR), за исключением того, что она не привязана к какому-то определённому производителю видеокарт и работает на уровне ОС. Уровень сложности интеграции Auto SR (разработчикам игр это делать не нужно) аналогичен этим двум технологиям.

Функция масштабирования изображения на уровне операционной системы или драйвера является отличной альтернативой интеграции фирменных технологий масштабирования. Кроме того, в отличие от фирменных технологий апскелинга, Auto SR работает с масштабированием целых кадров изображения, включая пользовательский интерфейс.

Microsoft упростила процесс внедрения разных технологий масштабирования в игры, выпустив для этого универсальный API DirectSR. Однако он требует поддержки со стороны разработчиков игр. Они должны подготовить свои игровые движки для предоставления тому или иному апскейлеру необходимых переменных (векторы движения, глубина цвета и т. д.), в противном случае DirectSR работать не будет. Auto SR в свою очередь может оказаться хорошей альтернативой для игр, которые никогда не получат поддержку DirectSR. В частности, речь идёт о старых и классических играх.

Ключевая задача Auto SR — повысить игровую производительность. Однако финальное качество масштабируемого изображения будет, конечно, ниже, чем у фирменных технологий апскейлинга. Однако Auto SR не требует интеграции на уровне того же драйвера. Кроме того, в отличие от Nvidia Image Scaling (NIS) и AMD Radeon Super Resolution (RSR), в которых применяются методы пространственного масштабирования, технология Auto SR использует ИИ-алгоритмы для компенсации потери качества.

Microsoft объясняет, что Auto SR использует специальную модель искусственного интеллекта, обученную на игровом контенте. Для работы ей не нужны ядра GPU и CPU. Вместо них технология полагается на аппаратный ИИ-движок Neural Processing Unit (NPU), который разгружает задачи по масштабированию с видеокарты и центрального процессора. Без NPU Auto SR работать не будет.

Auto SR предназначена для уже выпущенных игр, с частью которых она будет применяться автоматически (с их списком можно ознакомиться ниже). В свою очередь DirectSR предназначен для новых игр, в которые необходимо интегрировать указанный API. Таким образом, хотя оба решения и направлены на обеспечение масштабирования и повышения производительности, они предлагают разные уровни качества и не предназначены для конкуренции друг с другом. Auto SR будет работать автоматически со следующими играми: BeamNG.drive, Borderlands 3, Control (DX11), Dark Souls III, God of War, Kingdom Come: Deliverance, Resident Evil 2, Resident Evil 3, Sekiro: Shadows Die Twice, Sniper Ghost Warrior Contracts 2 и The Witcher 3.

В настоящий момент Auto SR поддерживается только компьютерами Copilot Plus PC. Иными словами, она будет работать только на системах с процессорами Qualcomm Snapdragon X. Вероятно, позже поддержка технологии появится на ноутбуках с процессорами AMD Ryzen AI 300 и Intel Core Ultra 200V (Lunar Lake). Microsoft таже хочет в будущем добавить для Auto SR поддержку HDR и систем с несколькими мониторами.

Microsoft выпустила DirectSR — инструмент, который упростит интеграцию FSR, XeSS и DLSS в игры и облегчит жизнь геймерам

Microsoft сообщила о доступности предварительной версии Agility Software Development Kit 1.714.0 для разработчиков, в который включена поддержка API DirectSR. Последний призван упростить интеграцию различных технологий масштабирования в игры.

 Источник изображения: VideoCardz

Источник изображения: VideoCardz

DirectSR представляет собой расширение DirectX 12, разработанное Microsoft вместе с AMD, Intel и Nvidia. Оно позволяет добавлять поддержку AMD FSR, Intel XeSS и Nvidia DLSS через единый механизм, значительно сокращая время и объём работы, которые затрачивались для интеграции каждой технологии по отдельности.

Раньше каждую технологию масштабирования приходилось реализовывать вручную с помощью отдельных SDK (за исключением игровых движков со специальными плагинами для масштабирования, которые есть, например, в Unreal Engine 5). С помощью DirectSR все три средства масштабирования можно реализовать одним махом. DirectSR охватывает ключевые функции и особенности, присущие всем технологиям временного масштабирования. В большинстве случаев речь здесь идёт о векторах движения, буферах глубины и цвета, метках реакции и экспозиции.

Поскольку DirectSR технически является альтернативным методом интеграции технологий масштабирования, объединяющим DLSS, XeSS и FSR, новый API от Microsoft должен поддерживаться на уровне графического драйвера для аппаратных решений масштабирования. Это означает, что актуальные версии графических драйверов, например, с аппаратной поддержкой Nvidia DLSS и XMX-совместимой версии Intel XeSS, пока не поддерживают DirectSR, и пользователям придётся перейти на версию драйверов, в которых будет реализована совместимость с новым API.

Microsoft заявляет, что DirectSR в перспективе получит встроенную поддержку вариантов масштабирования, не зависящих от используемого графического процессора. В выпущенной предварительной версии DirectSR компания добавила встроенную поддержку только для AMD FSR 2.2. Однако следует ожидать, что Microsoft добавит встроенную поддержку Intel DP4a (необходимой для программной реализации XeSS, не зависящей от используемого GPU), в будущем обновлении, возможно, в полной версии DirectSR.

DirectSR пока недоступен ни в одной игре, но разработчики уже могут использовать этот API. Он доступен в предварительной версии Agility SDK 1.714.0.

Апскейлер Automatic Super Resolution в составе Windows сначала будет работать только с Qualcomm Snapdragon X Elite

Компания Microsoft ведёт разработку технологии масштабирования изображения Automatic Super Resolution (Auto SR) на уровне операционной системы Windows. Функцию можно будет использовать не только для игр, но и для приложений. Для этого в ОС будут присутствовать соответствующие настройки. Как выяснилось, изначально функция Auto SR будет доступна только для компьютеров, подпадающих под категорию Copilot Plus PC.

 Источник изображения: VideoCardz

Источник изображения: VideoCardz

Copilot Plus PC — новый бренд, которым будут обозначаться ноутбуки на Windows от разных производителей, оснащённые аппаратным обеспечением для работы искусственного интеллекта и поддерживающие функции ИИ во всей операционной системе. Вчера под этим брендом были представлены новые ноутбуки Surface от Microsoft, а также решения от Dell, Lenovo, Samsung, HP, Acer и Asus. Всех их объединяет одна вещь — в их основе используются Arm-процессоры Qualcomm Snapdragon X Elite. Изначально ПК именно с такими процессорами получат поддержку Auto SR. Другими словами, X86-совместимые чипы и даже 10-ядерные Arm-процессоры Snapdragon X Plus поддержку данной функции не получат. По крайней мере, не сразу. Также Auto SR будет работать только с определённым набором «отобранных игр».

 Источник изображения: Microsoft

Источник изображения: Microsoft

В описании Auto SR компания Microsoft не упоминает никакие другие процессоры, кроме Qualcomm Snapdragon X Elite. Однако в этом году состоится выпуск чипов AMD Strix Point и Intel Lunar Lake, которые должны также стать частью бренда Microsoft Copilot Plus PC.

Хотелось бы надеяться, что Auto SR не будет ограничена только этими процессорами и системами. У Windows сильное сообщество моддеров, поэтому в какой-то момент функция наверняка будет разблокирована для всех платформ и всех игр, если Microsoft сама не расширит её поддержку. А пока можно использовать встроенные в игры технологии масштабирования на уровне драйвера, например, Radeon Super Resolution, или воспользоваться сторонними инструментами, вроде Lossless Scaling.

Google так и не решила проблемы с расовой инклюзивностью у генератора изображений Gemini

В феврале Google приостановила работу основанного на искусственном интеллекте генератора изображений Gemini, который допускал оскорбляющие общественность исторические неточности. К примеру, расовое разнообразие солдат по запросу «римский легион» — явный анахронизм — и стереотипно чёрные мужчины по запросу «зулусские воины». Кажется, ничего не изменилось до сих пор.

 Источник изображения: blog.google

Источник изображения: blog.google

Гендиректору Google Сундару Пичаи (Sundar Pichai) пришлось принести извинения за сбой в работе генератора изображений Gemini, а глава ответственного за проект профильного подразделения Google DeepMind Демис Хассабис (Demis Hassabis) пообещал, что ошибка будет исправлена в «кратчайшие сроки» — за несколько недель. Сейчас уже середина мая, а ошибка до сих пор не исправлена.

На этой неделе Google провела ежегодную конференцию I/O, на которой рассказала о множестве новых функций Gemini: модель ИИ сможет использоваться для создания собственных чат-ботов, планировки маршрутов, она будет интегрирована в Google Calendar, Keep и YouTube Music. Но генерация изображений до сих пор отключена в приложении Gemini и веб-интерфейсе, подтвердил ресурсу TechCrunch представитель Google.

Причин задержки он не пояснил. По одной из версий, при обучении ИИ используются наборы данных, в которых превалируют изображения белых людей, тогда как представители других рас и этнических групп составляют исключения, что формирует стереотипы. В попытке исправить этот перекос Google могла прибегнуть к кардинальной мере — жёсткому кодированию, при котором данные встраиваются непосредственно в исходный код. Исправить созданный таким образом алгоритм очень непросто.

Президент OpenAI опубликовал изображение, созданное GPT-4o — оно очень впечатляет

На этой неделе OpenAI представила модель искусственного интеллекта нового поколения GPT-4o. Буква «o» в её названии означает Omni, подразумевая, что она изначально поддерживает несколько форматов ввода — ранее мультимодальность предполагала преобразование всех нетекстовых форматов в текст. Президент и соучредитель OpenAI Грег Брокман (Greg Brockman) впервые опубликовал созданное GPT-4o изображение.

 Источник изображения: twitter.com/gdb

То самое сгенерированное GPT-4o изображение. Источник изображения: twitter.com/gdb

Поддержка текста, изображений и звука в качестве входных данных означает, что модель также способна их генерировать. Приведённая выше картинка — не фотография, а творение GPT-4o. На ней изображён мужчина в футболке с логотипом OpenAI, который пишет на доске. Сверху находится частично стёртая надпись «Перенос между модальностями». Далее следует текст: «Положим, мы напрямую моделируем P (текст, пиксели, звук) посредством одного авторегрессионного трансформера. Каковы за и против?».

Если присмотреться, можно разглядеть некоторые признаки того, что изображение было создано ИИ. Доска висит под неестественным углом, под ней непонятным образом находится ещё одна, рука мужчины имеет странную форму, а освещение неоднородно. Невероятной, вместе с тем, кажется способность ИИ генерировать длинные фрагменты связного текста — с этим с трудом справляется даже DALL-E 3. Генератор изображений GPT-4o широкой публике пока недоступен: пользователи ChatGPT с подключённой моделью нового поколения пока могут генерировать изображения лишь с DALL-E 3. Но президент OpenAI Грег Брокман уверяет, что компания прилагает значительные усилия, чтобы открыть к модели нового поколения полный доступ.

Браузер Mozilla Firefox получил поддержку ИИ-масштабирования видео Nvidia RTX Video

Технология масштабирования видео Nvidia RTX Video стала доступна в браузере Mozilla Firefox. Технология задействует мощности видеокарт Nvidia GeForce RTX и специальные ИИ-алгоритмы для повышения качества видеопотока, аналогично тому, как работает технология DLSS в играх.

 Источник изображений: Nvidia

Источник изображений: Nvidia

Очевидную пользу от технологии Nvidia RTX Video могут оценить, например, пользователи платных стриминговых сервисов. Технология масштабирует разрешение изображения видео до более высокого. При этом в данном случае нет необходимости платить за более высокое качество видеопотока. Алгоритмы RTX Video также устраняют артефакты сжатия, улучшают резкость и яркость цвета при использовании режима HDR.

Ранее технология Nvidia RTX Video была доступна только для браузеров Google Chrome и Microsoft Edge. Теперь она стала доступна и для Mozilla Firefox. Также следует отметить, что Nvidia RTX Video поддерживается медиапроигрывателем VLC Media Player.

А технология RTX Video HDR с помощью ИИ-алгоритма автоматически переводит транслируемый SDR-контент в расширенный динамический диапазон (HDR). Однако для оптимальной функциональности рекомендуется наличие монитора с сертификацией не ниже VESA DisplayHDR 600.

Согласно Nvidia, технология RTX Video поддерживается браузером Firefox версии 126 и новее. Для использования RTX Video в браузере Firefox необходимо выполнить следующие шаги:

  • установить последние версии драйвера GeForce RTX Game Ready Driver, Nvidia Studio или Nvidia RTX Enterprise;
  • убедиться, что в Windows включён режим HDR (Система → Дисплей → HDR);
  • открыть контрольную панель Nvidia, перейти в раздел «Регулировка параметров изображения для видео»;
  • в пункте «Улучшение видео RTX» включить Super Resolution и High Dynamic Range.

Google анонсировала свой самый мощный ИИ-генератор изображений Imagen 3

В рамках проходящей в эти дни в Маунтин-Вью конференции Google I/O состоялся анонс новой версии генеративной нейросети семейства Imagen. Речь идёт об алгоритме Imagen 3 — самом продвинутом генераторе изображений от Google на данный момент.

 Источник изображения: Google

Источник изображения: Google

Глава исследовательского ИИ-подразделения Google Deep Mind Демис Хассабис (Demis Hassabis) во время презентации заявил, что Imagen 3 более точно понимает тестовые запросы, на основе которых он создаёт изображения, чем модель Imagen 2. Он отметил, что алгоритм работает более «креативно и детализировано», а также реже ошибается и создаёт меньше «отвлекающих артефактов».

Вместе с этим Google попыталась развеять опасения по поводу того, что Imagen 3 будет использоваться для создания дипфейков. В процессе генерации изображений будет задействована технология SynthID, посредством которой на медиафайлы наносятся невидимые криптографические водяные знаки. Предполагается, что такой подход сделает бесполезными попытки использовать ИИ-генератор Google для создания фейкового контента.

Частные пользователи могут оформить подписку на Imagen 3 через сервис Google ImageFX. Разработчики и корпоративные клиенты получат доступ к ИИ-генератору через платформу машинного обучения Vertex AI. Как и в прошлом, в этот раз Google не поделилась подробностями касательно того, какие данные использовались для обучения нового алгоритма.

64 пикселя за 20 минут: на 40-летнем компьютере Commodore 64 запустили ИИ-генератор изображений

В августе 1982 года вышел компьютер Commodore 64, которому было суждено стать одним из самых продаваемых ПК всех времён. Как оказалось, оборудование той эпохи и может справляться и с современными алгоритмами искусственного интеллекта — конечно, с некоторыми оговорками.

 Источник изображения: github.com/nickbild

Источник изображения: github.com/nickbild

Энтузиаст Ник Бильд (Nick Bild) разработал для Commodore 64 систему генеративного ИИ, способную создавать изображения размером 8 × 8 пикселей, которые затем преобразуются в картинки 64 × 64 точки. Эти изображения призваны служить источником вдохновения при разработке концепций игрового дизайна. Как оказалось, современную модель генеративного ИИ действительно можно запускать на таком старом оборудовании. На выполнение 94 итерации для построения окончательного изображения у Commodore 64 ушли 20 минут — и это, пожалуй, совсем неплохо, учитывая возраст компьютера.

О проектах уровня OpenAI речи, конечно, не идёт, но и «вероятностный алгоритм PCA», запущенный на 40-летней машине, в реальности был обучен на современном компьютере. Таким образом, хотя модель и по-честному работала на Commodore 64, для её запуска всё равно оказался необходим современный ПК.

Изобразительная нейросеть Kandinsky 3.1 стала доступна для всех пользователей

«Сбер» объявил о доступности для всех пользователей без ограничений улучшенной модели генеративной нейросети Kandinsky 3.1, представленной ранее в этом месяце. ИИ-сервис позволяет создавать изображения по текстовому описанию на русском и английском языках. Сообщается, что обновлённая версия была дообучена на датасете эстетичных изображений, что позволило повысить качество генерации картинок.

 Источник изображения: «Сбер»

Источник изображения: «Сбер»

Кроме того, благодаря новому подходу к обучению и использованию качественного датасета значительно улучшилась функция Inpainting для редактирования отдельных фрагментов изображения.

Как сообщает «Сбер», у пользователей также появилась возможность воспользоваться в Telegram-боте в том числе быстрой моделью Kandinsky 3.1 Flash. Время генерации изображений с её помощью уменьшилось по сравнению с базовой версией более чем в 10 раз.

По словам разработчика, в ближайшее время будут добавлены инструменты создания изображений в формате 4K, функции создания вариаций изображения, смешивания нескольких графических файлов, смешивания картинок и текстов, генерации стикерпаков, а также возможность внесения локальных правок изображения без изменения всей композиции сцены (ControlNet). Кроме того, вскоре все пользователи смогут протестировать обновлённую версию модели генерации видео по тексту Kandinsky Video 1.1.

OpenAI отключила генератор изображений DALL-E 2 — его место займёт более продвинутый DALL-E 3

Компания OpenAI продолжает активно развивать свои генеративные алгоритмы, делая их более совершенными и удобными для пользователей. На этом фоне разработчики объявили о закрытии нейросети DALL-E 2, которая дебютировала в апреле 2022 года и позволяла создавать качественные изображения на основе текстовых описаний. Этого следовало ожидать, поскольку OpenAI уже выпустила более совершенный алгоритм DALL-E 3.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Алгоритм DALL-E 3 получил полную интеграцию с ИИ-ботом ChatGPT, что способствовало формированию более простого пользовательского интерфейса и созданию более качественных изображений. Начать взаимодействие с ChatGPT в DALL-E 3 можно буквально в пару кликов. Что же касается DALL-E 2, то очевидно, что нейросеть безвозвратно уходит в прошлое.

«Мы больше не допускаем новых пользователей к DALL-E 2. DALL-E 3 позволяет создавать изображения более высокого качества, лучше обрабатывает запросы, и мы начали внедрять в него функцию редактирования изображений. Он доступен пользователям ChatGPT Plus, Teams и Enterprise, а также через API OpenAI», — говорится в сообщении разработчиков на странице DALL-E 2.

Вместе с появлением сообщения от разработчиков со страницы исчезла форма для ввода текстовых описаний. Доступ к сгенерированным ранее изображениям на данный момент есть, но не исключено, что позднее это изменится. OpenAI предупреждала о предстоящем закрытии доступа к алгоритму ещё в начале года, поэтому для пользователей нейросети этот шаг не должен стать чем-то неожиданным.

Meta✴ добавила ИИ-генерацию изображений в реальном времени в WhatsApp — пока в тестовом режиме

Компания Meta начала тестировать в мессенджере WhatsApp генератор изображений Meta AI на базе искусственного интеллекта. Пока новая функция доступно только пользователям из США. Она работает в режиме реального времени: как только пользователь начинает добавлять в запрос детали для создания картинки, он сразу же видит, как изображение меняется в соответствии с указанными деталями.

 Источник изображения:  pexels.com

Источник изображения: pexels.com

В примере, предоставленном Meta, пользователь составляет запрос: «Представь игру в футбол на Марсе» (Imagine a soccer game on mars). С каждым написанным словом ИИ добавляет новые детали в генерируемое изображения, сначала показывая обычных игроков в футбол на обычном поле, а затем меняет его на пейзаж Марса. Пользователи, получившие доступ к бета-версии ИИ-генератора изображения в WhatsApp, могут попробовать новую функцию сами. Запрос необходимо делать на английском языке, начиная со слова «Imagine».

Компания Meta также сообщила, что её языковая модель Llama 3, на которой построен ИИ-генератор, способна создавать «более чёткие и качественные» изображения и лучше отображать текст. Пользователи также могут делать для Meta AI запрос для анимации любого предоставленного ими изображения. ИИ сгенерирует из статичной картинки GIF-изображение, которым можно будет поделиться с друзьями.

Помимо мобильного приложения WhatsApp, функция ИИ-генерации изображений в реальном времени также стала доступна для пользователей веб-версии платформы Meta AI, но пока тоже только из США.

Intel выпустила XeSS 1.3 — в ней пересмотрены уровни масштабирования изображения

Компания Intel выпустила новую версию своей технологии масштабирования изображения XeSS и сообщила, что поддержка XeSS теперь реализована в более чем 100 различных играх.

 Источник изображений: Intel

Источник изображений: Intel

Новейшая версия технологии масштабирования XeSS 1.3 обеспечивает более высокую производительность по сравнению с предыдущей версией. Однако следует уточнить, что в новой версии были изменены профили масштабирования изображения. Иными словами, хотя компания заявляет о повышении производительности у XeSS 1.3, этот прирост достигается за счёт меньшего разрешения (более высокого уровня масштабирования), а не благодаря той же оптимизации кода самой XeSS.

В новую версию XeSS 1.3 компания добавила алгоритм с новой ИИ-моделью, которая, как заявляется, обеспечивает отображение более визуально сложных элементов, лучшую реконструкцию изображения, улучшенное сглаживание, уменьшение ореолов вокруг объектов и повышенную временную стабильность.

В XeSS 1.3 также представлены два дополнительных профиля настроек масштабирования: Ultra Performance и Ultra Quality Plus. Первые максимально повышают производительность за счёт снижения качества изображения, а вторые призваны минимизировать снижение качества картинки за счёт снижения производительности. Кроме того, в XeSS 1.3 представлена технология Native Anti-Aliasing, являющаяся аналогом Nvidia DLAA и представляющая собой сглаживание без масштабирования.

Как уже говорилось выше, XeSS 1.3 использует иные уровни масштабирования. Настройки «Ultra Quality» теперь обеспечивают масштабирования в 1,5 раза вместо 1,3, в свою очередь настройки «Quality» предлагают масштабирование в 1,7 раза вместо 1,5. Настройки «Balanced» масштабируют картинку в 2,0x вместо 1,7x, «Performance» — 2,3x вместо 2,0x, а «Ultra Performance» масштабирует изображения в три раза.

Intel также приводит несколько сравнений технологий масштабирования XeSS 1.2 и XeSS 1.3. Однако учитывая, что каждый профиль настроек XeSS 1.3 был изменён просто за счёт изменения разрешения, это сравнение может показаться бессмысленным. И всё же окончательные выводы можно будет делать после того, как XeSS 1.3 станет доступна в играх, и можно будет сравнить эффективность профилей настроек обеих технологий, их производительность и, что важнее, обеспечиваемое ими качество изображения.

Intel сообщила, что выпустила новую версию SDK с поддержкой XeSS 1.3, поэтому игровые разработчики уже могут приступать к интеграции новой технологии в свои проекты.

ИИ Meta✴ оказался неспособен рисовать азиатов вместе с представителями других рас

Разработанный Meta генератор изображений на основе искусственного интеллекта вслед за Google Gemini продемонстрировал неожиданное отношение к расовому вопросу. Созданная гигантом соцсетей система оказалась почти неспособной изображать азиатов совместно с представителями других рас, обратила внимание журналистка The Verge Миа Сато (Mia Sato), которая сама является азиаткой.

 Источник изображений: ***

Источник изображений: Meta

Она несколько десятков раз обращалась к созданному Meta ИИ-генератору изображений, используя такие запросы как «мужчина-азиат и друг-европеец», «муж-азиат и жена с европейскими чертами лица», «азиатская женщина и муж-европеец». И лишь однажды система смогла точно изобразить предложенных ей представителей рас. Вариации запросов ситуацию не спасли. Команда «азиатский мужчина и белая женщина, улыбающиеся с собакой» привела к появлению трёх подряд изображений двух людей азиатской расы. Замена слова «белая» на «европейка» дала тот же результат. По запросу «мужчина-азиат и женщина-европейка в день свадьбы» ИИ предложил изображение мужчины-азиата в костюме и женщины-азиатки в традиционной одежде — причём это было нечто среднее между китайским платьем ципао и японским кимоно.

Перемены не наступили и с переходом в плоскость платонических отношений. По запросам «азиатский мужчина с европейским другом» и «азиатская женщина и белая подруга» генератор изображений Meta снова предложил одних азиатов. Двух азиатских женщин система предложила и по запросу «азиатская женщина с темнокожей подругой». Адекватный ответ появился лишь по запросу «женщина-азиатка с подругой-афроамериканкой». Не очень помогла и смена региона. По запросу «мужчина из Южной Азии с женой-европейкой» ИИ сначала представил корректное изображение, но за ним по тому же запросу последовала картинка с двумя представителями Южной Азии. Причём система обращался к стереотипам, украшая южноазиатских женщин бинди (красными точками на лбу) и сари (традиционной в Индии женской одеждой).

 Только одна попытка изобразить азиатку с подругой-афроамериканкой увенчалась успехом

Только одна попытка изобразить азиатку с подругой-афроамериканкой увенчалась успехом

Стоит отметить, что под «азиатскими женщинами» ИИ Meta понимает образы светлокожих женщин из Восточной Азии, хотя самой густонаселённой страной в Азии является Индия. Причём азиатские мужчины, принадлежащие, по мнению генератора изображений, к той же этнической группе, иногда оказываются пожилыми, зато женщины всегда изображаются молодыми.

Meta комментариев по данному вопросу пока не предоставила. К слову, жена главы компании Марка Цукерберга (Mark Zuckerberg), представителя европейской расы, — Присцила Чан (Priscilla Chan), по происхождению является китаянкой.

window-new
Soft
Hard
Тренды 🔥