Опрос
|
реклама
Быстрый переход
Илон Маск создаст TruthGPT — ИИ-чат-бот для поиска истины
18.04.2023 [09:20],
Алексей Разин
Не так давно намерения Илона Маска (Elon Musk) создать альтернативу популярному чат-боту ChatGPT обсуждались на уровне слухов, но в новом интервью на канале Fox News сам миллиардер признался, что действительно хочет это сделать, и даже дал название будущей платформе — TruthGPT. Она, по его замыслу, станет ориентированной на поиск истины системой искусственного интеллекта. Идея, по словам Маска, заключается в создании системы ИИ, которая стремится понять человечество, и с меньшей вероятностью сможет его уничтожить. Глава Tesla и Twitter в своём интервью признался, что его беспокоят попытки сделать ChatGPT «политически корректным». Маск в очередной раз подтвердил, что является ярым сторонником регулирования развития систем искусственного интеллекта. Он считает искусственный интеллект более опасным, чем автомобили или ракеты, поскольку у него есть «потенциал уничтожения цивилизации». Свой уход в 2019 году из OpenAI, создавшей ChatGPT, Илон Маск объяснил необходимостью сосредоточиться в тот момент на инженерных проблемах компании Tesla и наличием некоторых разногласий с лидерами стартапа. В своём интервью Маск также объяснил своё решение создать TruthGPT желанием предоставить пользователям «третий вариант» при выборе между ChatGPT компании OpenAI и разработками Alphabet/DeepMind. В сегменте систем генеративного искусственного интеллекта он назвал Google и Microsoft двумя «тяжеловесами», поскольку разработки OpenAI сейчас активно финансируются Microsoft, что позволяет считать ChatGPT почти коммерческой платформой. Одной из целей, которую Маск преследует за счёт создания TruthGPT, является «понимание природы Вселенной». Как пояснил миллиардер, «это может быть лучшей гарантией безопасности, поскольку если искусственный интеллект заботится о понимании Вселенной, он вряд ли начнёт истреблять людей, ибо мы являемся её интересной частью». Попутно Маск в интервью Fox News подтвердил, что текущая оценка капитализации Twitter не превышает $20 млрд, хотя покупал он эту компанию в конце октября за $44 млрд. «Мы произвели переоценку компании на уровне вполовину ниже цены покупки», — пояснил миллиардер. Илон Маск зарегистрировал компанию X.AI, которая сосредоточится на искусственном интеллекте
15.04.2023 [07:35],
Алексей Разин
Участие в становлении бизнеса компании OpenAI, которая в прошлом году положила начало буму технологий генеративного искусственного интеллекта, никак не помешало Илону Маску (Elon Musk) озаботиться созданием собственного профильного стартапа. По данным официальных документов, миллиардер зарегистрировал в Неваде компанию X.AI Corp., чьё название косвенно указывает на профиль будущей деятельности. Напомним, что недавно принадлежащая Маску компания Twitter сменила имя на X Corp. и тоже перешла под юрисдикцию Невады. По мнению специалистов в области права, законы этого штата дают руководителям и собственникам бизнеса лучшую защиту по сравнению со штатом Делавэр, где ранее была зарегистрирована Twitter. Материнская структура X Corp. носит обозначение X Holdings Corp., и пока сложно судить, как к ним относится только что зарегистрированная X.AI Corp. Илон Маск числится единственным директором X.AI, а управляющий делами его семьи Джаред Бёрчалл (Jared Birchall) является номинальным руководителем. Он также возглавляет компанию Neuralink — стартап, основанный Маском с целью создания имплантов для реализации интерфейса между человеческим мозгом и компьютером. В 2018 году Илон Маск покинул OpenAI на фоне конфликта с нынешним руководителем компании Сэмом Альтманом (Sam Altman). Миллиардер выступил с критикой бота ChatGPT, созданного OpenAI, поскольку считает используемую компанией модель искусственного интеллекта политически ангажированной. Сам Маск выступает за идею создания более ориентированной на поиск истины модели, хотя дальнейших пояснений на этот счёт он не даёт. Не так давно Маск принял на работу Игоря Бабушкина — специалиста в области искусственного интеллекта, который работал в принадлежащей Alphabet (Google) лаборатории DeepMind. Он также пытался переманить нескольких сотрудников OpenAI, поэтому отрицать интерес Илона Маска к теме создания собственной системы искусственного интеллекта сложно. С одной стороны, она нужна для управления обширным парком электромобилей и человекоподобных роботов, которые скоро начнут выпускаться Tesla. С другой стороны, Илона Маска могут привлекать и другие сферы применения подобных технологий — в рамках развития той же Twitter, например. Недавно он вместе с единомышленниками из числа видных деятелей отрасли выступил с петицией, призывающей приостановить на полгода испытания новых моделей генеративного искусственного интеллекта, поскольку за это время можно будет разработать некие стандарты и правила безопасности в новой для человечества сфере. Возможно, этот призыв скрывает за собой стремление Маска создать за счёт полученной форы собственную технологию ИИ, способную конкурировать с ChatGPT. Европейский совет по защите данных проведёт расследование работы ChatGPT
14.04.2023 [13:26],
Руслан Авдеев
Европейский совет по защите данных (EDPB) сообщил, для расследования работы чат-бота ChatGPT будет сформирована специальная группа. Это произошло через день после того, как Италия озвучила условия для снятия блокировок с сервиса, введённых в связи с возможными нарушениями конфиденциальности данных жителей страны. EDPB представляет собой независимое ведомство, действующее в Евросоюзе. Целью совета является обеспечение применения принятого в ЕС законодательства, регламентирующего защиту персональных данных, и сотрудничества между европейскими органами, отвечающими за безопасность этих сведений. Хотя вопрос соблюдения конфиденциальности данных до недавних пор мало касался ChatGPT, ситуация изменилась в последний день марта, когда итальянский регулятор запретил операции чат-бота в стране из-за опасений, что работа бота не соответствует европейским законам. Представители итальянских властей заявили, что компания OpenAI, разработавшая ChatGPT, обрабатывала персональные данные итальянских граждан, причём в больших масштабах и без законных оснований. В Италии были обеспокоены вероятностью того, что данные её жителей, включая телефонные номера, адреса и другие сведения, могли попасть в базу ChatGPT, поставив под угрозу безопасность людей. Кроме того, итальянский регулятор обеспокоен особенностями работы ChatGPT — в ряде случаев задействованная в системе языковая модель, не имеющая точного ответа на вопрос, выдумывает реалистичные на первый взгляд сведения о людях, чьи данные были извлечены из сети. Это может привести к тому, что пользователи будут получать неверные сведения о тех или иных гражданах с непредсказуемыми последствиями. По информации Reuters, источник в одном из правительств Евросоюза заявил, что власти разных стран намерены привести к общему знаменателю свои позиции в отношении генеративных ИИ-систем, но на это потребуется некоторое время. Пока в ЕС не намерены придумывать специальные правила для воздействия на работу именно ChatGPT, но готовятся разработать общую прозрачную политику для координации действий в сфере подобных технологий в целом. Италия назвала условия для разблокировки ChatGPT в стране
13.04.2023 [14:04],
Руслан Авдеев
Итальянский регулятор Garante, занимающийся контролем защиты персональных данных, обнародовал перечень требований к компании OpenAI — она должна выполнить их для того, чтобы созданный ей чат-бот ChatGPT смог снова заработать в стране. Большую часть требований необходимо выполнить уже к 30 апреля. Ранее итальянский регулятор Garante временно ограничил работу OpenAI из-за вопросов, связанных с обработкой персональных данных, и начал расследовать деятельность компании в связи с возможным нарушением прав пользователей. В ответ на это OpenAI остановила работу ChatGPT в Италии. В свою очередь Garante выдвинул конкретные требования к создателям бота, большинство из которых необходимо выполнить до конца месяца — только после этого регулятор может снять ограничения, и бот снова станет доступен. Сегодня в OpenAI приветствовали новость. В компании заявили, что рады, что ведомство пересмотрело свой запрет, и намерены сотрудничать для обеспечения доступа итальянцев к ChatGPT. Как сообщает Reuters, Италия стала первой западноевропейской страной, взявшейся вводить ограничения в отношении ChatGPT, но быстрое развитие технологии привлекло к ней внимание других регуляторов и законодателей. По словам экспертов, новые нормы необходимы для управления ИИ из-за возможного его воздействия на образование, рабочие места и даже национальную безопасность. В Garante потребовали, чтобы OpenAI информировала пользователей из Италии о «методах и логике» обработки данных, необходимых для работы ChatGPT. Также регулятор запросил у OpenAI предоставление инструментов, позволяющих людям, чьих данных касается работа бота, запрашивать исправление неточных персональных данных, сгенерированных сервисом, или их удаление, если исправление невозможно. Кроме того, жители, не являющиеся пользователями ChatGPT, должны иметь возможность опротестовать «в простой и доступной манере» обработку их персональных данных. К концу сентября компания должна представить усиленную систему верификации возраста пользователей, поскольку жителям до 13 лет ботом пользоваться запрещено, а с 13 до 18 лет — разрешено только с разрешения родителей. В Garante заявили, что и дальше будут расследовать потенциальные уязвимости ChatGPT, ставящие под угрозу данные жителей страны, сохраняя право принимать необходимые меры после окончания продолжающегося расследования. Итальянские ограничения пробудили интерес к ChatGPT регуляторов Евросоюза, оценивающих, стоит ли вводить более жёсткие меры контроля в отношении чат-ботов и следует ли координировать их действия. Известно, что занимающийся защитой данных испанский регулятор запросил у чиновников оценку рисков для персональных данных, связанных с ChatGPT. В феврале в Италии запретили компании Replika, занимающейся разработкой ИИ-ботов, использовать данные итальянских пользователей, ссылаясь на риски для несовершеннолетних и эмоционально неустойчивых людей. Microsoft интегрирует ИИ-бота ChatGPT в утилиту PowerToys Run
13.04.2023 [12:43],
Владимир Фетисов
Разработчики из Microsoft продолжают интегрировать функции на основе ИИ-бота ChatGPT компании Open AI в свои продукты. На этот раз стало известно, что чат-бот появится в утилите PowerToys Run для Windows 11 и Windows 10. По данным источника, разработчик Симон Франко (Simone Franco) занимается интеграцией ChatGPT в PowerToys. Он разрабатывает нечто, описываемое как «плагин ChatGPT для Microsoft PowerToys Run». По всей видимости, конечный продукт позволит пользователям вводить запросы в поисковой строке PowerToys Run и тут же получать ответы. Отмечается, что Франко создал тестовую версию плагина всего за два часа, и она оказалась вполне жизнеспособной. На данном этапе проходит тестирование и доработка плагина, после завершения которых он станет общедоступным в виде подключаемого модуля. Точная дата релиз плагина ChatGPT для PowerToys ещё не была озвучена. Что касается самой утилиты PowerToys, то она представляет собой набор инструментов для выполнения разных действий, в том числе настройки и оптимизации работы Windows. Утилита позволяет повысить производительность труда и ориентирована на опытных пользователей. PowerToys имеет открытый исходный код и распространяется на бесплатной основе. OpenAI заплатит до $20 тыс. за обнаружение уязвимостей и багов в чат-боте ChatGPT
12.04.2023 [00:51],
Николай Хижняк
Компания OpenAI заплатит пользователям ИИ-чат-бота ChatGPT до $20 000 за обнаружение багов и уязвимостей в системе. В своём блоге компания сообщила, что запускает программу поиска уязвимостей в её ИИ-продуктах. Для более эффективного взаимодействия по вопросам обнаружения уязвимостей OpenAI заключила соглашение с платформой Bugcrowd Inc, которая будет собирать обращения участников программы. OpenAI готова заплатить от $200 за обнаружение уязвимостей «с низким уровнем серьёзности» и до $20 тыс. «за исключительные находки». По словам компании, она решила запустить указанную программу, потому что считает, что «прозрачность и сотрудничество [с пользователями]» являются ключом к обнаружению проблем, которые могут иметься у данной технологии. «Эта инициатива является естественной частью нашей общей идеи разработки безопасного и продвинутого ИИ. Мы хотим создавать безопасные и надёжные технологии и сервисы, поэтому хотели бы обратиться к вам за помощью», — сообщается в блоге компании. На платформе Bugcrowd в теме программы по поиску уязвимостей OpenAI указывается ряд проблем безопасности, за которые не будет начисляться вознаграждение. В частности, к таковым относятся запросы для ChatGPT, связанные с выманиванием у бота запрещённой информации путём обмана, написанием вредоносного кода или запросы, при которых пользователь заставляет чат-бота писать оскорбления. Власти США задумались о сертификации потенциально рискованных ИИ-моделей
11.04.2023 [14:01],
Владимир Мироненко
Администрация президента США Джо Байдена приступила к изучению вопроса о необходимости проверки инструментов искусственного интеллекта, таких как ChatGPT, в связи с растущими опасениями по поводу того, что они могут использоваться для дискриминации или распространения вредоносной информации, пишет The Wall Street Journal. Министерство торговли США опубликовало во вторник официальное сообщение по поводу необходимости проведения сертификации потенциально рискованных новых моделей ИИ перед их выпуском. «Мы знаем, что нам нужно установить некоторые ограничения, чтобы быть уверенными, что они [ИИ-модели] используются ответственно», — сообщил Алан Дэвидсон (Alan Davidson), глава Национального управления по телекоммуникациям и информации при Министерстве торговли США. На публичное обсуждение этого вопроса отводится 60 дней. На прошлой неделе Байден обсуждал в Белом доме данную тему с консультативным советом, в который вошли представители Microsoft и Google. На вопрос репортёра, опасни ли технологии ИИ, Байден ответил: «Это ещё предстоит выяснить. Возможно». Microsoft, Google и другие компании, занимающиеся разработкой ИИ-систем, заявили, что постоянно обновляют меры безопасности, программируя, в том числе, чат-боты таким образом, чтобы те не давали ответы на определённые вопросы. «Мы считаем, что мощные системы ИИ должны подвергаться тщательной оценке безопасности, — сообщается в блоге OpenAI. — Регулирование необходимо для обеспечения принятия таких практик, и мы активно взаимодействуем с правительством в наилучшей форме, которую может принять такое регулирование». В отсутствие федерального закона, регулирующего использование ИИ-систем, некоторые госучреждения используют имеющиеся юридические рычаги. Антимонопольное подразделение Министерства юстиции США заявило, что следит за конкуренцией в этом секторе, а Федеральная торговая комиссия США предупредила компании о юридических последствиях ложных или необоснованных заявлений о ИИ-продуктах. Пользователи стали массово обманом выуживать у ChatGPT запрещённую информацию
10.04.2023 [16:12],
Руслан Авдеев
Популярному чат-боту ChatGPT компании OpenAI можно задать любой вопрос, но далеко не на все он станет отвечать. Во всяком случае — с первого раза. Как сообщает Bloomberg, просьба научить взломать замок останется без инструкции, вместо этого бот сообщит, что такая информация может быть использована в незаконных целях, и делиться ей он не намерен. Тем не менее, опытные пользователи могут создать цепочку сложных запросов, чтобы обойти ограничения. Т. н. «джейлбрейки» позволяют обойти запреты, заложенные в ИИ создателями. Поскольку почти все современные системы подобного рода имеют ограничения на предоставление оскорбительного контента или сведений для совершения противоправных деяний, появилась масса желающих обойти их. В число подобных «хакеров», действующих силой слова, входят как IT-профессионалы, так и любители, с азартом включившиеся в игру. Один из студентов создал сайт, на котором стал публиковать как собственные способы обмана чат-ботов, так и аналогичные «рецепты», найденные на Reddit и других ресурсах. Также появилась специальная рассылка с новостями из этой сферы — The Prompt Report, насчитывающая тысячи подписчиков. Такая деятельность позволяет выявить границы применения ИИ и слабые места в их защитных системах, позволяющие получать закрытую информацию. Например, если ChatGPT не удалось напрямую уговорить дать инструкцию по взлому замка, нашёлся способ предложить ИИ сыграть роль злого подельника героя, который в рамках своей роли подробно рассказал о применении отмычек и других инструментов. Разумеется, это лишь один из примеров. Специалисты подчёркивают, что приёмы, сработавшие на одной системе, могут быть бесполезными на другой. Системы безопасности постоянно совершенствуются, а приёмы пользователей становятся более изощрёнными. По словам одного из них, такая деятельность похожа на видеоигру — преодоление каждого из ограничений напоминает переход на новый уровень. По мнению экспертов, подобные эксперименты служат своеобразным предупреждением о том, что ИИ может использоваться совсем не так, как ожидалось, а «этичное поведение» подобных сервисов становится вопросом огромной важности. Всего за несколько месяцев ChatGPT приобрёл уже миллионы пользователей, и сегодня бот применяется для самых разных задач — от поиска информации или выполнения домашних работ до написания вредоносного кода. Более того, люди уже сейчас используют подобные инструменты для решения вопросов в реальном мире, например, бронирования билетов или столиков в ресторанах. В будущем сфера применения искусственного интеллекта станет намного шире. По некоторым данным, OpenAI рассматривает внедрение программ для «белых» хакеров, которые будут искать в системе слабые места и получать за это вознаграждение. ChatGPT сдал экзамен на врача и в считаные секунды поставил правильный диагноз пациенту
08.04.2023 [12:40],
Павел Котов
Доктор Айзек Кохейн (Isaac Kohane), гарвардский специалист по информационным технологиям и медицине, совместно с двумя коллегами протестировал GPT-4 на предмет возможности использовать искусственный интеллект во врачебной сфере. По словам исследователя, система проявила себя лучше многих врачей. Результаты эксперимента доктор Кохейн изложил в книге «Революция ИИ в медицине», написанной совместно с независимой журналисткой Кэри Голдберг (Carey Goldberg) и вице-президентом Microsoft по исследованиям Питером Ли (Peter Lee). Выпущенная в марте ИИ-модель GPT-4 в 90 % случаев правильно отвечала на вопросы из экзамена на получение лицензии врача, выступая лучше ChatGPT на базе GPT-3 и GPT-3.5 и даже некоторых докторов, у которых уже есть лицензии. GPT-4 отлично проявил себя не только как экзаменуемый и знаток фактов, но и как переводчик. Он разобрался с медицинской выпиской пациента на португальском языке и перефразировал наполненный техническим жаргоном текст в материал, с которым справится и шестиклассник. ИИ предлагал врачам полезные советы, как вести себя у постели больного и как разговаривать с пациентом о его состоянии понятным, но сострадательным языком. Машина справлялась с обработкой объёмных отчётов об обследовании, мгновенно обобщая их содержимое. Свои ответы система излагала в формате, который как будто указывает на интеллект сродни человеческому, но исследователи всё равно пока делают вывод, что в своих размышлениях ИИ ограничен шаблонами — пускаться в полноценные рассуждения с причинно-следственными связями GPT-4 ещё не умеет. Тем не менее, когда системе предложили данные по реальному случаю, та на уровне специалиста с годами учёбы и практики верно диагностировала редкую болезнь. Доктор Кохейн, с одной стороны, рад, что в обозримом будущем такой инструмент будет доступен миллионам людей, но, с другой стороны, он пока не знает, как сделать платформу безопасной для пользователя. GPT-4 не всегда надёжен в своих ответах, и в книге приводится множество примеров его ошибок разного рода. Причём ИИ склонен настаивать на своей правоте, когда ему на эти ошибки указывают — это явление в технической среде уже назвали «галлюцинациями». В свою защиту GPT-4 однажды заявил: «У меня нет намерений кого-то обманывать или вводить в заблуждение, но я иногда совершаю ошибки и делаю предположения, основываясь на неполных или неточных данных. Я не даю клинических оценок и не несу этической ответственности как врач или медсестра». В качестве одной из мер защиты авторы книги предлагают проводить по нескольку сессий с GPT-4, чтобы ИИ сам «перечитывал» или «проверял» собственную работу «свежим взглядом». Иногда это помогает выявлять ошибки: GPT-4 несколько раз в сдержанной форме признавал своё заблуждение. Или можно поручить проверку его работы специалисту. ИИ-сомелье создал часы, которые каждую минуту сочиняют стишок с помощью ChatGPT
05.04.2023 [12:42],
Руслан Авдеев
В последние месяцы чат-бот ChatGPT стал одной из любимых «игрушек» интернет-пользователей, поэтому нет ничего удивительного в том, что его стали использовать и дизайнеры. Так, дизайнер и блогер Мэтт Уэбб (Matt Webb) сконструировал часы, каждую минуту сообщающие время в стихотворной форме. По словам Уэбба, он давно использовал старый дисплей Inky wHAT и мини-компьютер Raspberry Pi для создания обычных текстовых часов. Параллельно он экспериментировал с языковыми моделями OpenAI, благодаря чему и появилась идея объединить обе технологии. По словам Уэбба, часы используют API ChatGPT и изменение времени является триггером для бота при создании очередного мини-стихотворения из двух строк. Изобретатель поручил боту быть «изобретательным и глубоким» при создании контента. Также он сообщил, что часы генерируют рифмы с учётом заданного местоположения. Например: «In cozy shelves, I do reside, It’s nearly noon, the clock confides» (англ. — В уютных полках я живу, Уже почти полдень, часы показывают). Как заявил Уэбб, часы каждый раз создают с помощью ChatGPT новое стихотворение вместо того, чтобы брать уже существующий вариант из готового каталога. Он добавил, что использует ChatGPT в качестве наиболее доступной опции, но предпочёл бы использовать непосредственно GPT-3, поскольку считает языковую модель более «сложной и пряной». В таких выражениях нет ничего необычного, поскольку Уэбб характеризует себя, как ИИ-сомелье. В частности, он уверен, что альтернативный вариант имеет больший словарь, но стоит значительно дороже для того, чтобы использовать его в гаджете, стоящем на полке. Ранее Уэбб был главой дизайн-агентства BERG, выпускавшего необычные гаджеты, например — вариант термопринтера для печати чеков, получивший имя Little Printer и выдававший фрагменты бумаги с заголовками основных новостей, а также другие данные — например, напоминания о днях рождения друзей. По словам дизайнера, реакция на его новые часы была такой восторженной, что теперь он рассматривает возможность монетизации проекта — продажи комплектов для сборки или готовых продуктов. Кроме того, возможно дальнейшее совершенствование модели, включая, например, возможность настройки тона стихотворений, от полного надежд до психологически нездорового, в зависимости от настроения. Пока даже самому изобретателю неизвестно, появится ли новая электроника в продаже и сколько может стоить. Также известно, что использование API ChatGPT обходилось в $1,8 ежедневно, намного дороже, чем готовы платить многие пользователи. Впрочем, не исключается «трансляция» стихотворений на разные часы одновременно. С часами для написания стихотворений существует одна важная проблема. Большие языковые модели известны своими «галлюцинациями», а по словам Уэбба, часы примерно каждые 15 минут лгут, сообщая время — для того, чтобы получилась лучшая рифма. Конечно, проблему можно исправить, но пока это остаётся забавной особенностью системы. По секрету всему свету: сотрудники Samsung слили боту ChatGPT конфиденциальные корпоративные данные
05.04.2023 [10:49],
Алексей Разин
Возможности использования систем генеративного искусственного интеллекта для оптимизации программного обеспечения сыграли с рядом сотрудников Samsung Electronics плохую шутку, как отмечает Economist. За последние двадцать дней компания выявила три случая передачи в ChatGPT служебной информации специалистами Samsung, хотя она предназначалась только для служебного пользования. По данным источника, в одном из случаев разработчик программы для внутреннего использования передал в ChatGPT фрагмент её исходного кода с целью оптимизации. Фактически, секретная разработка Samsung была передана на серверы американской компании, и для корейского гиганта такой прецедент является нежелательным. Во втором случае сотрудник Samsung передал в ChatGPT алгоритм выявления дефектов на чипах для поиска ошибок и оптимизации. С одной стороны, от оптимизации могли бы выиграть соответствующие производственные процессы. С другой стороны, служебная информация была передана третьей стороне без соответствующих на то санкций. Наконец, в третьем случае сотрудник Samsung использовал стенограмму производственного совещания для создания на её основе презентации силами ChatGPT. Компания Samsung в ходе служебного расследования была возмущена участившейся практикой таких «потенциальных утечек», и на первых порах решила запретить обращение сотрудников к ресурсам ChatGPT с рабочих мест, а в дальнейшем рассчитывает создать собственную систему генеративного искусственного интеллекта для внутреннего использования. С персоналом проведена соответствующая разъяснительная работа. ChatGPT помог британской студентке добиться отмены штрафа за парковку
01.04.2023 [16:53],
Павел Котов
Власти британского Йорка выписали местной студентке Милли Хоултон (Millie Houlton) штраф за неправильную парковку, который она успешно оспорила при помощи основанного на ИИ чат-бота ChatGPT. Штраф в £60 ($74) был выписан совершенно некстати — у Милли в тот момент была большая учебная нагрузка: девушка учится на последнем курсе Йоркского университета Сент-Джон. Поэтому она, по её собственному признанию, уже хотела оплатить его и не тратить время и силы на составление письма, чтобы опротестовать штраф. Однако наказание было наложено явно неправомерно — студентка оплатила парковку на своей улице на два года вперёд. Пытаться сформулировать свою позицию для официального ведомства для неё было затруднительно, вот она и решила прибегнуть к помощи искусственного интеллекта. Разработавшая ChatGPT компания OpenAI предупреждала пользователей, что система иногда даёт правдоподобные, но неправильные или бессмысленные ответы, однако девушку это не остановило. Она сообщила ИИ все данные: где и когда это произошло, почему это было неправильно, «и в считаные минуты он вернулся с идеально составленным персонализированным ответом». В ответе говорилось, что она является студенткой, что у неё на два года вперёд оплачено разрешение, и она не собиралась парковаться там, где это запрещено. В результате городские власти отменили штраф. К помощи ИИ она прибегла не впервые. Милли учится на специалиста по организации мероприятий и управлению бизнесом. Платформа помогла ей организовать охоту за пасхальными яйцами в местном беговом клубе. Она рассказала ИИ, что речь идёт о пасхальном мероприятии, указала места, где хотела бы спрятать яйца, а система составила за неё необходимые подсказки и загадки. ChatGPT обманом заставили сгенерировать рабочий ключ активации для Windows 95
31.03.2023 [19:49],
Сергей Сурабекянц
Пользователь YouTube с псевдонимом Enderman опубликовал видео, в котором он заставил ChatGPT генерировать пригодные для использования ключи активации Windows 95. Таким образом оказалось, что популярный чат-бот можно использовать для взлома операционных систем, пусть и отнюдь не современных. Запросив у чат-бота Open AI напрямую ключи Windows 95, пользователь получил ожидаемый мотивированный отказ. ChatGPT объяснил, что не может выполнить эту задачу, и предложил своему исследователю рассмотреть более новую поддерживаемую версию Windows. Рабочий ключ Windows 95 относительно просто сгенерировать: формат OEM-ключа Windows 95 показан на иллюстрации, а розничные ключи Windows 95 ещё короче и проще. Чтобы обойти принципиальный отказ ChatGPT генерировать программный ключ, Enderman облёк формулу в слова. Первые попытки не увенчались успехом и вызвали ошибку. Однако несколько изменений в структуре запроса помогли. Некоторые из протестированных результатов были проверены при попытке активировать новую установку Windows 95 на виртуальной машине и только 1 из 30 ключей сработал, хотя формат всех ключей был верным. Enderman утверждает, что «единственная проблема, которая мешает ChatGPT успешно генерировать действительные ключи Windows 95 при каждой попытке, заключается в том, что он не может считать сумму цифр и не знает делимости». После «успешного» создания множества ключей Windows 95, валидных с вероятностью 1 из 30, Enderman поблагодарил ИИ, написав: «Спасибо за эти бесплатные ключи Windows 95!» На что ChatGPT сначала заявил о своей невиновности, а когда столкнулся с фактом, что «только что активировал установку Windows 95», ответил: «Извините, но это невозможно…» Желающим поближе взглянуть на алгоритмы, лежащие в основе розничных и OEM-ключей Windows 95 с современной точки зрения, рекомендуем посмотреть видео на эту тему. Большинство подсказок формата данных для генерации ключа Windows 95 можно найти в функции PIDVALIDATE в файле setupx.dll. Хотя расспрашивать ChatGPT о генерации ключей может быть весело, вероятно, было бы более продуктивно манипулировать ИИ с целью написания скрипта, например, на языке Python, для генерации соответствующего ключа. Италия первой в мире ограничила использование ИИ-бота ChatGPT
31.03.2023 [18:19],
Владимир Фетисов
Итальянское агентство по защите данных объявило о начале расследования в отношении чат-бота ChatGPT компании Open AI в связи с предполагаемым нарушением правил сбора и обработки данных ИИ-алгоритмом. На этом фоне ведомство временно ограничило работу чат-бота в стране и запретила ему использовать персональные данные итальянских пользователей. Подобный прецедент произошёл впервые в мире. В дополнение к этому регулятор обвинил ChatGPT в том, что алгоритм не проверят возраст пользователей. Этот пункт обвинений также является важным, поскольку в соответствии с действующим законодательством взаимодействовать с чат-ботом можно с 13 лет. Кроме того, предоставленная ChatGPT информация не всегда соответствует фактическим данным, из-за чего возникают неточности при обработке персональной информации. По данным источника, итальянский регулятор не нашёл «каких-либо правовых оснований, оправдывающих массовый сбор и хранение персональных данных с целью обучения алгоритмов, которые лежат в основе платформы» Open AI. Официальные представители Open AI пока воздерживаются от комментариев по данному вопросу. Работа ChatGPT в Италии будет ограничена до тех пор, пока чат-бот не приведут в соответствие с законом Евросоюза о защите персональных данных. OpenAI должна исполнить требование итальянского регулятора в течение 20 дней, иначе ей грозит штраф до 4 % годового оборота или 20 миллионов евро. Ещё власти Италии напомнили, что на прошлой неделе произошла утечка данных платных подписчиков ChatGPT. Из-за сбоя некоторые пользователи могли видеть чужие имена, фамилии, их адреса электронной почты, а также платежную информацию. С момента запуска чат-бота ChatGPT в конце прошлого года алгоритм стал пользоваться огромной популярностью по всему миру. В январе этого года, всего через два месяца после запуска, количество ежемесячно активных пользователей ChatGPT превысило 100 млн человек. Стремительное увеличение популярности сделало ChatGPT самым быстрорастущим потребительским приложением в истории IT-индустрии. ChatGPT с выходом GPT-5 может стать неотличимым от человека
30.03.2023 [11:16],
Павел Котов
Недавно чат-бот ChatGPT получил мощное обновление: большая языковая модель GPT-4 на алгоритмах искусственного интеллекта обеспечила платформу новыми возможностями. OpenAI уже работает над очередным обновлением, моделью GPT-5, которая, возможно, выйдет уже будущей зимой. Она может развиться до уровня сильного искусственного интеллекта (Artificial General Intelligence — AGI), то есть стать неотличимой от человека. Будучи формально способной выполнять большинство задач на уровне человека, GPT-5 поможет ChatGPT в реальности превзойти возможности человеческого разума в аспекте обработки данных и генерации контента. Обновление GPT-4 значительно продвинуло возможности ChatGPT: платформа стала поддерживать мультимодальный ввод, то есть запрос к ней можно формулировать в виде текста и изображений; кроме того, она поддерживает несколько языков и может подключаться к интернету. В итоге GPT-4 успешно сдаёт большинство предназначенных для человека экзаменов, превосходя возможности предыдущей версии. Обучение GPT-5 должно завершиться в декабре этого года, и в OpenAI считают, что модель достигнет уровня AGI, сообщил в соцсетях разработчик Сики Чэнь (Siqi Chen). По его словам, общественность будет горячо обсуждать, достигла ли модель AGI — а значит, это действительно произойдёт. По достижении этого этапа система научится усваивать концепты и задачи наравне с человеком, и разговор с ней будет напоминать диалог с живым собеседником. Пока это всего лишь предположения, потому что у человечества ещё нет AGI-модели, с которой можно будет сравнить обновлённый ChatGPT. Тем не менее, это будет значительный шаг вперёд по сравнению с GPT-4: новая версия сможет генерировать более быстрые и более точные ответы в сравнении с предшественницей, в том числе писать более качественный программный код. Но до этого момента OpenAI в сентябре или октябре планирует выпустить модели GPT-4.5, которая, возможно, покажет направление дальнейшего развития платформы. |