Microsoft привлекла нейросеть GPT-4 к борьбе с хакерскими атаками в новой системе Security Copilot
Читать в полной версииСистемы искусственного интеллекта уже применяются для создания графики, чат-ботов и даже управления умными домами. Компания Microsoft доверила ИИ одну из важнейших сфер современной жизни — защиту от киберугроз. Инструмент Security Copilot позволяет распознать кибератаку, даже когда явные признаки ещё отсутствуют и помогает в её устранении.
В ситуациях, когда безопасность компьютера по какой-то причине оказалась под угрозой, Security Copilot поможет определить, что случилось, что делать, и как предотвратить повторение аналогичных инцидентов у других. Компания представила новое решение на базе модели GPT-4 — Security Copilot помогает справиться с угрозами корпоративным клиентам.
Пока инструмент доступен именно корпоративным клиентам. Та же большая языковая модель, что отвечает за работу приложений вроде Bing Chat, стоит и за Security Copilot. Тем не менее, в данном случае речь идёт о варианте, специально обученном на материалах и терминологии, используемых IT-профессионалами. Кроме того, Microsoft уже подключила Copilot к другим своим инструментам, отвечающим за обеспечение безопасности. В компании обещают, что со временем он сможет использовать и сторонние программные решения.
Если большинство пользовательских приложений на основе GPT-4 обучались на уже несколько устаревших массивах данных, то Security Copilot получает новую информацию в режиме реального времени, изучая буквально триллионы сигналов об угрозах, которые Microsoft получает ежедневно. В этом преимущество модели — Security Copilot может распознавать скрытые сигналы ещё до того, как факт атаки стал очевиден. Благодаря этому, инструмент может использоваться для распознавания и своевременного устранения угроз.
При этом довольно давно выяснилось, что у ИИ вроде ChatGPT, Bing Chat или Google Bard могут случаться «галлюцинации», в ходе которых за основу «рассуждений» принимаются совершенно недостоверные факты. В сфере безопасности это может стать очень опасным явлением. В Microsoft уже подтвердили, что Security Copilot «не всегда понимает всё правильно». К счастью, в случае с продуктом Microsoft предусмотрен механизм обратной связи с пользователями, позволяющий предоставлять всё более релевантные ответы.
Пока Microsoft не сообщала, что может произойти в случае столкновения защитного ИИ с ИИ, работающем на злоумышленников, например — созданным для атаки на пользователей и бизнесы. В любом случае компания сообщила, что корпоративные клиенты уже могут протестировать Security Copilot на небольшом сегменте своих пользователей. Если эксперимент увенчается успехом, в будущем, вероятно, он сможет помочь и обычным пользователям.