реклама
Новости Software

Microsoft привлекла нейросеть GPT-4 к борьбе с хакерскими атаками в новой системе Security Copilot

Системы искусственного интеллекта уже применяются для создания графики, чат-ботов и даже управления умными домами. Компания Microsoft доверила ИИ одну из важнейших сфер современной жизни — защиту от киберугроз. Инструмент Security Copilot позволяет распознать кибератаку, даже когда явные признаки ещё отсутствуют и помогает в её устранении.

 Источник изображения:  Sigmund Avatar/unsplash.com

Источник изображения: Sigmund Avatar/unsplash.com

В ситуациях, когда безопасность компьютера по какой-то причине оказалась под угрозой, Security Copilot поможет определить, что случилось, что делать, и как предотвратить повторение аналогичных инцидентов у других. Компания представила новое решение на базе модели GPT-4 — Security Copilot помогает справиться с угрозами корпоративным клиентам.

Пока инструмент доступен именно корпоративным клиентам. Та же большая языковая модель, что отвечает за работу приложений вроде Bing Chat, стоит и за Security Copilot. Тем не менее, в данном случае речь идёт о варианте, специально обученном на материалах и терминологии, используемых IT-профессионалами. Кроме того, Microsoft уже подключила Copilot к другим своим инструментам, отвечающим за обеспечение безопасности. В компании обещают, что со временем он сможет использовать и сторонние программные решения.

Если большинство пользовательских приложений на основе GPT-4 обучались на уже несколько устаревших массивах данных, то Security Copilot получает новую информацию в режиме реального времени, изучая буквально триллионы сигналов об угрозах, которые Microsoft получает ежедневно. В этом преимущество модели — Security Copilot может распознавать скрытые сигналы ещё до того, как факт атаки стал очевиден. Благодаря этому, инструмент может использоваться для распознавания и своевременного устранения угроз.

При этом довольно давно выяснилось, что у ИИ вроде ChatGPT, Bing Chat или Google Bard могут случаться «галлюцинации», в ходе которых за основу «рассуждений» принимаются совершенно недостоверные факты. В сфере безопасности это может стать очень опасным явлением. В Microsoft уже подтвердили, что Security Copilot «не всегда понимает всё правильно». К счастью, в случае с продуктом Microsoft предусмотрен механизм обратной связи с пользователями, позволяющий предоставлять всё более релевантные ответы.

Пока Microsoft не сообщала, что может произойти в случае столкновения защитного ИИ с ИИ, работающем на злоумышленников, например — созданным для атаки на пользователей и бизнесы. В любом случае компания сообщила, что корпоративные клиенты уже могут протестировать Security Copilot на небольшом сегменте своих пользователей. Если эксперимент увенчается успехом, в будущем, вероятно, он сможет помочь и обычным пользователям.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме
window-new
Soft
Hard
Тренды 🔥
Между Microsoft и NVIDIA возникли разногласия по поводу использования ускорителей B200 10 ч.
Япония намерена снизить зависимость от зарубежных цифровых сервисов 12 ч.
Бренд Nvidia остаётся малоизвестным, несмотря на то, что компания стала одной из самых дорогих в мире 15 ч.
Илон Маск намерен построить сразу два крупнейших в мире ИИ-кластера 24 ч.
Biwin показала SSD с памятью YMTC и контроллером Maxio для PCIe 5.0 — он обещает быть быстрее SSD на Phison 22-06 16:10
SpaceX выпустила антенны Starlink Mini в Южной Америке втрое дешевле, чем в США — ещё и с дешёвым тарифом 22-06 15:58
Samsung случайно упомянула о разработке RISC-V чипа для ИИ-задач 22-06 15:01
Галлюцинации от радиации: аппаратные сбои могут провоцировать ошибки в работе ИИ-систем 22-06 14:34
В космос запущена мощная китайско-французская обсерватория слежения за гамма-всплесками 22-06 14:06
Tesla уволила 14 % работников по всему миру в этом году 22-06 13:52