Опрос
|
реклама
Быстрый переход
OpenAI сможет ещё шесть лет обучать ИИ на библиотеке изображений Shutterstock
12.07.2023 [11:46],
Павел Котов
Фотобанк Shutterstock на шесть лет продлил партнёрство с OpenAI, в рамках которого разработчик искусственного интеллекта сохранит право обучать свои модели на изображениях, видео, музыке и метаданных в библиотеке Shutterstock. ![]() Источник изображения: prnewswire.com Две компании начали сотрудничать в 2021 году — материалы Shutterstock помогли OpenAI обучить генератор изображений DALL-E. Глава OpenAI Сэм Альтман (Sam Altman) назвал это соглашение критически важным для разработки модели. В прошлом году Shutterstock учредила специальный фонд, из которого авторам материалов выплачиваются вознаграждения, когда их работа используется в обучении ИИ. Тогда же Shutterstock запустила на своём сайте генератор изображений и запретила продавать на площадке изображения, созданные ИИ, отличными от DALL-E. Впоследствии работа функции была расширена — с помощью ИИ теперь можно редактировать любые материалы на платформе. Функции ИИ также вскоре появятся на ресурсе Giphy, который Shutterstock недавно приобрела у Meta✴. В отличие от некоторых других платформ обмена изображениями, включая Getty Images, Shutterstock поддерживает технологии ИИ. Недовольство их распространением часто выражают авторы материалов: в Getty Images решили идти до конца, запретив на платформе размещение изображений, созданных генераторами, и подав в суд на ответственную за модель Stable Diffusion компанию Stability AI, которая якобы незаконно использовала защищённые авторским правом материалы для обучения ИИ. В Shutterstock правовые вопросы пока активно не поднимались, а интеграция с DALL-E помогает фотобанку активно расширять библиотеку. OpenAI открыла доступ к API языковой модели GPT-4 — самой продвинутой в своём арсенале
07.07.2023 [14:18],
Дмитрий Федоров
OpenAI открыла доступ к GPT-4, своей наиболее продвинутой языковой модели ИИ, через облачный API. Вместе с этим компания предоставила сторонним разработчикам доступ к API трёх других своих моделей ИИ. Кроме того, OpenAI объявила о своих планах постепенно отказаться от ряда более ранних нейронных сетей. ![]() Источник изображения: OpenAI OpenAI представила GPT-4 в марте как преемника GPT-3, ИИ-модели, которая за три года до этого привлекла к компании внимание всей отрасли. GPT-4 более эффективно интерпретирует инструкции пользователя, может принимать изображения в качестве входных данных и обладает расширенными возможностями обработки поставленных задач. Последние усовершенствования позволяют модели легче выполнять сложные запросы пользователей, например, решать математические задачи. API GPT-4 позволяет разработчикам интегрировать модель в свои приложения. Сервис теперь доступен для всех клиентов, которые ранее приобрели доступ к API. Компания откроет доступ для новых разработчиков позднее в этом месяце. В дальнейшем OpenAI намерена увеличить лимиты использования API. В долгосрочные планы компании входит запуск так называемой возможности тонкой настройки, которая позволит разработчикам повысить точность GPT-4 путём обучения на пользовательских наборах данных. Вместе с API GPT-4 был открыт доступ к программному интерфейсу трёх других моделей. Первая из них — GPT-3.5 Turbo, предшественница GPT-4, которая предлагает более ограниченные возможности за значительно меньшую стоимость. OpenAI также открыла доступ к API своих моделей DALL-E и Whisper. Последние две нейронные сети оптимизированы для генерации изображений и транскрибирования речи соответственно. В связи с этим событием OpenAI также объявила о планах прекратить работу ряда ранних языковых моделей, доступных через API. Они будут отключены 4 января 2024 года. Некоторые из затронутых моделей будут автоматически обновлены до более новых продуктов OpenAI, в то время как другие потребуют от разработчиков ручного перехода. Изменения частично связаны с обновлением API. Многие из моделей, которые будут постепенно отменены, используют прикладной интерфейс программирования, который OpenAI называет Completions API. Первоначально он стал доступен в 2020 году. Например, энтузиасту, чтобы подключиться к Chat Completion API и запустить ChatGPT на 39-летнем компьютере IBM , пришлось вручную написать весь запрос POST на языке C. В марте этого года OpenAI представила новый интерфейс под названием Chat Completions API, который станет основным направлением дальнейшей разработки. «Первоначально Completions API был представлен в июне 2020 года, чтобы обеспечить текстовую подсказку свободной формы для взаимодействия с нашими языковыми моделями. С тех пор мы поняли, что часто можем обеспечить лучшие результаты с помощью более структурированного интерфейса подсказок», — сообщает OpenAI в своём блоге. Новый API Chat Completions вносит несколько улучшений. В первую очередь, он обеспечивает защиту от атак с внедрением подсказок, которые представляют собой попытки хакеров изменить вывод модели ИИ с помощью вредоносных инструкций. Это усовершенствование должно помочь разработчикам повысить безопасность своих приложений на базе OpenAI. Продвинутые инструменты OpenAI и их растущая доступность открывают новые возможности для разработчиков и исследователей по всему миру. Однако как и с любыми новыми технологиями, важно использовать их ответственно и с учётом возможных рисков. OpenAI продолжает работать над улучшением своих моделей и сервисов, стремясь обеспечить безопасность и эффективность их использования. Посещаемость ChatGPT снизилась впервые с момента запуска
06.07.2023 [14:02],
Павел Котов
По итогам июня месячный трафик на сайте ChatGPT снизился впервые с момента запуска сервиса в ноябре прошлого года, уменьшилось и число уникальных посетителей, пишет Reuters со ссылкой на данные аналитической компании Similarweb. ![]() Источник изображения: Viralyft / unsplash.com Глобальный трафик ChatGPT с настольных ПК и мобильных устройств по итогам июня 2023 года снизился на 9,7 % по сравнению с маем; количество уникальных посетителей уменьшилось на 5,7 %. Кроме того, на 8,5 % сократилось среднее время, проводимое пользователями на сайте. Эту динамику аналитики объяснили, во-первых, исчезновением эффекта новизны чат-бота, во-вторых — востребованностью генеративного ИИ с данными, поступающими в реальном времени. Поначалу популярность ChatGPT росла рекордными темпами: всего за два месяца число пользователей сервиса перевалило за 100 млн. Сегодня сайт проекта посещают 1,5 млрд человек в месяц, что делает его одним из 20 ведущих ресурсов в мире. ChatGPT оказался даже популярнее поисковой службы Microsoft Bing, частью которой он сам и стал. И даже Google была вынуждена выпустить собственный чат-бот Bard на основе генеративного ИИ. В мае было запущено приложение ChatGPT для iPhone, что также могло оказаться фактором снижения посещаемости сайта наряду со школьными каникулами — учащиеся активно используют ИИ при подготовке заданий. Пик загрузок приложения пришёлся на 31 мая; по состоянию на 4 июля его скачали 17 млн раз. В этом году разработавшая платформу компания OpenAI рассчитывает на доход в размере $200 млн — помимо ChatGPT, она зарабатывает на доступе к API своих ИИ-моделей. Кроме того, одна только Microsoft вложила в неё около $10 млрд. OpenAI формирует команду для контроля над созданием «сверхразумных» систем ИИ
06.07.2023 [08:41],
Руслан Авдеев
По последним данным, компания OpenAI, положившая начало гонке ИИ, представив чрезвычайно эффективного чат-бота ChatGPT, сформировала специальную команду для управления и контроля «сверхразумными» ИИ-системами. Её главой стал один из основателей компании и её главный научный сотрудник Илья Суцкевер. ![]() Источник изображения: D5000/pixabay.com Согласно публикации в блоге OpenAI, ИИ, превосходящий по возможностям человеческий разум, может появиться в течение десятилетия. При этом вовсе не обязательно, что этот «сверхразум» будет благожелательно настроен к человечеству — поэтому необходимо искать пути контроля и ограничений возможностей подобных систем. Как заявляют в OpenAI, сегодня отсутствуют решения для эффективного контроля и управления сверхразумными ИИ и предотвращения «агрессии» с его стороны. Существующие технологии настройки искусственного интеллекта основаны на обучении с подкреплением на основе обратной связи от человека. При этом такие методики рассчитывают на то, что люди в принципе могут контролировать ИИ, что маловероятно с системами, потенциально более разумными, чем люди. Для изучения данного вопроса специальная команда получит доступ к 20 % вычислительных мощностей компании. К ним присоединятся учёные и программисты из отдела, занятого настройкой ИИ в компании, а также других подразделений — в ближайшие четыре года команда намерена справиться с ключевыми техническими вызовами, связанными с контролем сверхразумного ИИ. Фактически речь идёт о тренировке ИИ с использованием обратной связи. При этом будет использоваться специальный искусственный интеллект, предназначенный для оценки других ИИ-систем и обеспечения желаемых результатов, а также обеспечения безопасности их эксплуатации. В OpenAI полагают, что искусственный интеллект справится с этим лучше и быстрее, чем люди. По мере развития ИИ-системы компании предположительно будут брать на себя всё больше задач и в результате станут создавать и внедрять лучшие технологии настройки, чем имеются сейчас. Они будут работать вместе с людьми для того, чтобы их собственные преемники больше соответствовали потребностями людей, а те будут осуществлять только надзор, не принимая в исследованиях непосредственного участия. Конечно, ни один метод не имеет абсолютной защиты от ошибок, о чём и заявили в OpenAI. Использование одного ИИ для оценки других может привести к росту числа ошибок и уязвимостей в создаваемых ИИ, и вообще может выявить, что сложнейшая часть настройки может быть связана с самыми неожиданными аспектами работы ИИ. Впрочем, в компании убеждены, что настройка сверхразума в основе своей является задачей машинного обучения, и критически важную роль будут играть специалисты в данной отрасли. В компании рассчитывают в будущем поделиться плодами своих изысканий для настройки и обеспечения безопасности проектов, даже не связанных с OpenAI. По данным Reuters, противники инициативы считают, что ИИ с мышлением на уровне человеческого сможет выйти из-под контроля ещё до того, как займётся обеспечением безопасной работы других ИИ-систем. В апреле представители экспертного и бизнес-сообщества опубликовали открытое письмо, в котором предостерегали от создания ИИ, более совершенного, чем GPT-4. OpenAI отключила в ChatGPT Plus поиск в интернете через Bing — он давал свободный доступ к платному контенту
05.07.2023 [15:19],
Руслан Авдеев
Компания OpenAI, разработавшая чат-бот ChatGPT, отключила возможность веб-поиска для своего творения. Оказалось, что ИИ-сервис позволял обходить защиту систем доступа к платному контенту и получать свободный доступ к публикациям новостных агентств и блогеров, для просмотра которых необходима соответствующая подписка. ![]() Источник изображения: Mariia Shalabaieva/unsplash.com Функция Browse with Bing, доступная для подписчиков ChatGPT Plus с марта текущего года, позволяла получать актуальную информацию в Сети в отличие от данных, с которыми приходилось иметь дело пользователям бесплатного ChatGPT. Как известно, бесплатная версия тренировалась на данных из интернета, опубликованных до конца 2021 года. OpenAI пришла к выводу, что обход функционирующих по подписочной модели информационных сервисов недопустим, и ChatGPT Plus действительно может демонстрировать закрытый контент вопреки представлениям разработчиков об идеальных механизмах работы подключённой к Сети системы. Например, если пользователь просил предоставить полный текст, соответствующий тому или иному URL, бот выполнял его пожелание. Компания отключила функцию Browse with Bing до тех пор, пока проблема не будет устранена для того, чтобы защитить права владельцев контента. OpenAI решилась пойти на такой шаг, безусловно, наносящий вред бизнесу. Вряд ли кому-либо из оплачивающих дополнительную функциональность ИИ-сервиса пользователей понравится новость о том, что их ограничивают в возможностях, предлагаемых альтернативными решениями на безвозмездной основе. Более того, поиск по сети может осуществлять даже «родственный» ChatGPT бот Bing Chat компании Microsoft, который тоже работает совершенно бесплатно. На OpenAI подали в суд за незаконное использование литературных произведений для обучения нейросетей
30.06.2023 [15:35],
Дмитрий Федоров
На OpenAI снова подали в суд за использование произведений для обучения ИИ. Два известных писателя подали иск против компании, которая стоит за ChatGPT и Bing Chat, в нарушении авторских прав. По их мнению, OpenAI использовала их произведения в качестве обучающих данных. Это, по всей видимости, первый поданный иск об использовании текста (в отличие от изображений или кода) в качестве обучающих данных. ![]() В поданном в окружной суд Северного округа Калифорнии иске истцы Пол Тремблей (Paul Tremblay) и Мона Авад (Mona Awad) утверждают, что OpenAI и её дочерние компании нарушили авторские права, нарушили Закон об авторском праве в цифровую эпоху (DMCA), а также нарушили калифорнийские и общие законодательные ограничения на недобросовестную конкуренцию. Писатели представлены юридической фирмой Джозефа Савери (Joseph Saveri) и Мэттью Баттерика (Matthew Butterick), той же командой, которая стоит за недавними исками, поданными против Stable Diffusion AI и GitHub. В жалобе утверждается, что роман Тремблея «Хижина на краю света» и два романа Авад: «13 способов посмотреть на толстую девушку» и «Зайка» использовались в качестве обучающих данных для GPT-3.5 и GPT-4. Хотя OpenAI не раскрывала, что эти романы находятся в её обучающих данных (которые держатся в секрете), истцы делают вывод, что они должны быть там, поскольку ChatGPT смог предоставить подробные резюме сюжетов и ответить на вопросы о книгах, что потребовало бы доступа к их текстам. «Поскольку языковые модели OpenAI не могут функционировать без выразительной информации, извлечённой из произведений истцов (и других лиц) и сохранённой в них, языковые модели OpenAI сами являются нарушающими авторские права производными произведениями, созданными без разрешения истцов и в нарушение их исключительных прав по Закону об авторском праве», — говорится в жалобе. Все три книги содержат информацию о защите авторских прав (CMI), такую как ISBN и номера регистрации авторских прав. Закон об авторском праве в цифровую эпоху (DMCA) утверждает, что удаление или фальсификация CMI является незаконной, и поскольку ответы ChatGPT не содержат этой информации, истцы утверждают, что OpenAI виновна в нарушении этого закона, помимо факта нарушения авторских прав. Хотя в настоящее время в иске участвуют только два истца, адвокаты намерены сделать иск коллективным, что позволило бы другим авторам, чьи авторские произведения использовались OpenAI, также получить компенсацию. Адвокаты требуют денежных возмещений, судебных издержек и судебного запрета, принуждающего OpenAI изменить своё программное обеспечение и деловые практики в отношении авторских материалов. На сайте юридической фирмы LLM Litigation подробно изложена позиция истцов и причины подачи иска. «Мы подали коллективный иск против OpenAI, обвиняя ChatGPT и его базовые большие языковые модели, GPT-3.5 и GPT-4, в том, что они перерабатывают авторские произведения тысяч писателей — и многих других — без согласия, компенсации или признания», — сообщают адвокаты. Они также критикуют концепцию генеративного ИИ, утверждая: «Генеративный искусственный интеллект — это просто человеческий интеллект, переупакованный и проданный как новый продукт. Это не новый вид интеллекта. Это просто новый способ использования чужого интеллекта без разрешения или компенсации». Они отмечают, что, хотя OpenAI заявляет, что не знает, какие именно книги использовались для обучения ИИ, это не имеет значения, поскольку: «OpenAI знает, что она использовала множество книг, и она знает, что она не получила разрешения от их авторов». Это не первый случай, когда OpenAI сталкивается с подобными обвинениями. Однако новый иск, станет первым, затрагивающим использование текстовых данных, и он может создать прецедент для будущих судебных дел о нарушении авторских прав в области ИИ. На создателей ChatGPT подали в суд за незаконное использование данных миллионов интернет-пользователей
29.06.2023 [17:31],
Владимир Фетисов
Юридическая компания Clarkson обратилась в федеральный суд северного округа Калифорнии с коллективным иском против OpenAI, разработчика популярного ИИ-бота ChatGPT. Заявитель считает, что разработчик нарушил права миллионов интернет-пользователей, используя их публично доступные данные для обучения больших языковых моделей, которые являются основой ИИ-алгоритмов. ![]() Источник изображения: Pixabay По словам управляющего партнёра Clarkson Райана Кларксона (Ryan Clarkson), компания хочет представлять в суде интересы «реальных людей, чьи данные были украдены и незаконно присвоены для создания этой очень мощной технологии». Согласно имеющимся сведениям, речь идёт об общедоступных данных пользователей, таких как комментарии в социальных сетях, сообщения в блогах, статьи в «Википедии» и др. Официальные представители OpenAI пока воздерживаются от комментариев по данному вопросу. Судебный иск Clarkson затрагивает главную нерешённую проблему в сфере генеративных нейросетей, таких как ИИ-боты и генераторы изображений. Такие инструменты обучаются на огромном количестве данных, доступных в интернете. После завершения обучения большие языковые модели могут формировать ответы при общении с человеком, сочинять стихи или рассказы, вести сложные беседы и др. Однако люди, чьи данные используются при обучении нейросетей, не давали согласия на использование этой информации кем-то вроде OpenAI. «Вся эта информация используется масштабно, хотя она никогда не предназначалась для обучения больших языковых моделей», — заявил Кларксон. Он также рассчитывает, что суд установит определённые ограничения в плане того, как могут обучаться ИИ-алгоритмы, и как люди могут получить компенсацию за использование их данных. По данным источника, у компании уже есть группа истцов, и она активно ищет новых клиентов. Иск Clarkson к OpenAI является не первым случаем, когда разработчиков ИИ-алгоритмов обвиняют в незаконном использовании данных. В ноябре прошлого года был подан иск против OpenAI и Microsoft в связи с тем, что компании использовали программный код на платформе GitHub для обучения ИИ-инструментов. В феврале платформа Getty Images подала в суд на Stability AI, обвинив компанию в незаконном использовании изображений сервиса для обучения своей генеративной нейросети. Цукерберг и Альтман согласились с предложенными в Европе мерами госрегулирования ИИ
24.06.2023 [13:42],
Павел Котов
Глава Meta✴ Марк Цукерберг (Mark Zuckerberg) и гендиректор OpenAI Сэм Альтман (Sam Altman) выразили поддержку мер государственного надзора над технологиями искусственного интеллекта, которые продвигает Еврокомиссар по вопросам внутреннего рынка Тьерри Бретон (Thierry Breton). ![]() Источник изображения: ALEXANDRE LALLEMAND / unsplash.com Накануне Цукерберг и Бретон провели встречу, на которой согласовали меры госрегулирования технологий ИИ в части оценки рисков. Поддержку курсу ЕС выразил и Сэм Альтман, глава выпустившего ChatGPT стартапа OpenAI. «Мы рассчитываем на сотрудничество с вами — оно поможет предлагать в Европе услуги в соответствии с требованиями европейского рынка», — заверил Альтман Бретона. На этой неделе Бретон нанёс визиты в штаб-квартиры технологических компаний. По итогам посещения офиса Meta✴ чиновник заявил, что владелец Facebook✴ и Instagram✴ достаточно подготовился к соблюдению строгих правил модерации контента в Европе, и в июле будет проведён стресс-тест систем компании. Согласие на эту меру дал лично Марк Цукерберг — он считает необходимым провести оценку того, как Meta✴ справится с соблюдением норм модерации контента. Сейчас над внедрением DSA в Meta✴ работают около тысячи человек. Бретон также обсудил технологии ИИ с главой NVIDIA Дженсеном Хуангом (Jensen Huang) — эта компания лидирует на рынке ИИ-ускорителей. Хуанг заявил, что NVIDIA с большой вероятностью будет инвестировать в Европу. Наконец, европейский чиновник провёл встречу с владельцем Twitter Илоном Маском (Elon Musk) и новой главой соцсети Линдой Яккарино (Linda Yaccarino), после чего заявил журналистам, что платформе потребуется выделить дополнительные ресурсы для работы с контентом, если она хочет обеспечить соблюдение европейских нормативов до августа, когда они вступят в силу. OpenAI успешно пролоббировала в Евросоюзе более мягкий подход к регулированию ИИ
21.06.2023 [10:14],
Владимир Мироненко
OpenAI, создатель ИИ-чат-бота ChatGPT, лоббировала в Евросоюзе использование более мягких подходов при разработке законодательства, регулирующего применение генеративного ИИ, пишет Time со ссылкой на полученные копии документов Еврокомиссии. ![]() Источник изображения: Pixabay По данным источника, OpenAI обратилась к европейским законодателям с просьбой внести несколько поправок в проект «Закона об искусственном интеллекте». В частности, она предложила не относить системы ИИ общего назначения (GPAI), такие, как OpenAI ChatGPT и DALL-E, к «высокорисковым», что налагало бы на них самые строгие обязательства по обеспечению безопасности и прозрачности. OpenAI утверждает, что только компании, явно применяющие ИИ в областях и задачах с высоким риском, должны соблюдать правила для этой категории. «Сама по себе GPT-3 не является системой высокого риска, но обладает возможностями, которые потенциально могут быть использованы в случаях использования с высоким риском», — указала OpenAI в официальном документе, направленном должностным лицам Еврокомиссии и Совета ЕС в сентябре 2022 года. В июне 2022 года состоялась встреча представителей OpenAI и Европейской комиссии с целью уточнения категорий рисков, предложенных в проекте Закона об ИИ. «Они были обеспокоены тем, что системы ИИ общего назначения будут включены в список систем с высоким риском, а также тем, что большее количество систем по умолчанию будет отнесено к категории с высоким риском», — указано в официальном протоколе встречи. По словам источника Time в Еврокомиссии, на этой встрече представители OpenAI выразили обеспокоенность тем, что предполагаемое чрезмерное регулирование может повлиять на инновации в области ИИ. Похоже, что лоббирование OpenAI было большей частью успешным — GPAI не относится к категории высокорисковых в окончательном проекте закона ЕС об ИИ, одобренном 14 июня. Однако в нём предъявляются более высокие требования к прозрачности «базовых моделей» — мощных систем ИИ, таких как GPT-3, которые можно использовать для разных задач. Это потребует от компаний проводить оценку рисков и раскрывать, использовались ли материалы, защищённые авторским правом, для обучения их моделей ИИ. Представитель OpenAI сообщил Time, что OpenAI поддерживает включение в закон об ИИ «базовых моделей» в качестве отдельной категории несмотря на то, что компания предпочитает не разглашать источники данных для обучения своих моделей ИИ, опасаясь судебных исков о нарушении авторских прав. До вступления «Закона ЕС об ИИ» в силу пройдёт ещё немало времени. Как ожидается, он будет одобрен в конце этого года, а на его вступление в силу может уйти до двух лет. Обычного разговора с ChatGPT оказалось достаточно, чтобы спроектировать часть процессора
19.06.2023 [11:40],
Матвей Филькин
Группа исследователей из Нью-Йоркского государственного университета (NYU) успешно разработала полупроводниковый чип, не используя при этом язык описания аппаратуры (HDL). С помощью обычного английского языка и содержащихся в нём терминов и примеров команда смогла определить и описать часть полупроводникового процессора — обычно для этого служит специальный HDL-язык вроде Verilog. ![]() Источник изображения: freepik Чип, разработанный исследовательской группой с помощью ChatGPT, не был полноценным процессором — ничего общего с процессором Intel или AMD. Созданный полупроводник — это элемент процессора: логика, отвечающая за создание новой 8-битной микропроцессорной архитектуры на основе аккумуляторов — регистров (память), в которых результаты промежуточных вычислений хранятся до завершения основного вычисления. Обычно команды работают в несколько этапов, чтобы довести чип до проектирования и производства. Один из таких этапов связан с переводом английского языка, описывающего чип и его возможности, на выбранный HDL, который представляет фактическую геометрию, плотность и общее расположение различных элементов внутри чипа, что необходимо для самого травления процессора. В данном случае ChatGPT позволил инженерам пропустить стадию HDL. По словам исследователей, они ожидают, что в процессе перевода HDL будет меньше ошибок, вызванных человеческим фактором, что будет способствовать повышению производительности, сокращению времени проектирования и времени выхода чипов на рынок, а также позволит создавать более креативные проекты. ![]() Источник изображения: NYU Tandon Исследователи использовали коммерческие и общедоступные большие языковые модели (LLM) для работы над восемью примерами проектирования аппаратного обеспечения, прорабатывая текст на обычном английском языке до его эквивалента на языке Verilog (HDL) в режиме реального взаимодействия между инженерами и LLM. «Результатом этого исследования стало то, что мы считаем первым HDL, полностью сгенерированным ИИ, для изготовления физического чипа», — сказал доктор Хэммонд Пирс, доцент NYU Tandon и член исследовательской группы. «Некоторые модели ИИ, такие как ChatGPT от OpenAI и Bard от Google, могут генерировать программный код на различных языках программирования, но их применение в проектировании аппаратного обеспечения ещё не было широко изучено. Это исследование показывает, что ИИ может принести пользу и в производстве оборудования, особенно если он используется в разговорном режиме для совершенствования конструкций» — дополнил Пирс. Одна вещь, которая вызывает больше опасений — это желание устранить необходимость свободного владения HDL среди разработчиков микросхем. Будучи чрезвычайно специализированной и сложной областью, это относительно редкий навык, которым очень трудно овладеть. Конечно, автоматизация части этого процесса будет несомненным благом, так как она ускорит работу существующих специалистов, в то время как новые специалисты подтягиваются и обучаются. Однако есть риск поставить этот навык в полную зависимость от программного обеспечения, работа которого зависит от электричества и, в случае с ChatGPT, подключения к серверу. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |