Стремление Microsoft внедрить генеративный ИИ во все части своего обширного портфолио достигает сферы кибербезопасности, представив сегодня Security Copilot, сервис на основе GPT-4, который может помочь командам по безопасности противостоять современным угрозам.
Предполагается, что Security Copilot поможет специалистам по безопасности выявлять текущие атаки и предвидеть будущие угрозы, быстрее реагировать, выяснять, кто является злоумышленниками, и обнаруживать угрозы, которые обычно упускаются из виду путем соединения точек с помощью анализа данных безопасности, по словам руководителей Microsoft, которые представили новый инструмент во время первого виртуального мероприятия Microsoft Security компании.
В некотором роде это похоже на инициативы Copilot на основе ИИ для конкретных доменов, которые Редмонд уже реализовал в Microsoft 365, Dynamics 365, GitHub, Bing и Edge, но с упором на кибербезопасность.
Security Copilot предназначен для приема и обработки огромных объемов данных, включая 65 триллионов различных сигналов безопасности, которые Microsoft получает каждый день, и, по существу, масштабирования возможностей безопасности предприятия для борьбы с быстро растущими и изощренными угрозами.
По словам Васу Джаккала, корпоративного вице-президента Microsoft по безопасности, соответствию и идентификации, с сентября 2021 года количество атак на пароли в секунду выросло с 579 до 1287. Среднее время доступа злоумышленника к данным при фишинговой атаке, по-видимому, составляет час и 12 минут.
В то время как кибербезопасность — это планирование средств защиты для снижения сложности и рисков, «для нас это также интеллектуальная игра в реальном времени», — сказал Джаккал во время мероприятия. «Речь идет о том, как мы переводим наши продукты и триллионы сигналов об угрозах, которые мы видим каждый день, в один цикл обратной связи, чтобы улучшить состояние операционной безопасности».
Мы не можем не отметить, что GPT-4, неразумный мозг, стоящий за этой службой безопасности, был описан две недели назад как «несовершенный» и «все еще ограниченный» генеральным директором OpenAI, компании, которая построила модель. с гигантом Windows.
Изменение в том, как используется ИИ
Microsoft Copilot, который работает на Azure, также знаменует собой изменение в способах использования систем искусственного интеллекта и машинного обучения, сказал Джон Ламберт, выдающийся инженер и корпоративный вице-президент Microsoft по безопасности.
«Машинное обучение — обычное дело, но оно часто глубоко внутри технологии», — сказал Ламберт. «Клиенты извлекают из этого пользу, но они не могут взаимодействовать с ним напрямую. Мы переходим от мира машинного обучения, основанного на задачах, который хорошо справляется с фишингом или программами-вымогателями, к генеративному ИИ, основанному на базовых моделях. Мир с вторыми пилотами, которые могут упростить сложную задачу, выявить то, что упускают другие, и решить проблему нехватки кадров в области кибербезопасности, восполнив критические пробелы в знаниях. Вторые пилоты будут повышать квалификацию защитников во всем мире».
Microsoft инвестирует миллиарды долларов в OpenAI и активно интегрирует технологию выскочки в свои продукты. Эта стратегия — и ажиотаж Microsoft вокруг нее — получила как похвалу за возможности, так и критику за неправильные ответы, странную производительность, что подлило масла в огонь продолжающихся дебатов об этике ИИ.
Старший аналитик Forrester Элли Меллен склоняется на сторону «за» Security Copilot, рассказывая Регистр «Это первый раз, когда продукт способен реально улучшить расследование и реагирование с помощью ИИ».
«Этим объявлением мы оставляем позади эпоху, когда ИИ сводился к обнаружению, и вступаем в эпоху, когда ИИ может улучшить одну из самых важных проблем в операциях по обеспечению безопасности: опыт аналитиков», — добавил Меллен.
Принимает внутренние и внешние данные
Нам сказали, что Microsoft Copilot, который находится в частной предварительной версии и, следовательно, в настоящее время недоступен для World Plus-Dog, сочетает в себе технологию чат-ботов OpenAI с внутренней моделью навыков и сигналов Microsoft, ориентированной на безопасность, и будет ссылаться на такие продукты безопасности, такие как Microsoft Defender, Sentinel, Purview и Intune. Идея состоит в том, что вы можете запросить эту систему так же, как вы бы задали вопрос ChatGPT и аналогичным службам, и она ответит на него, используя специальную модель безопасности Redmond.
Эти запросы могут быть общими — например, объясните мне эту уязвимость — или специфическими для вашей среды, например: есть ли в моих журналах доказательства использования конкретной уязвимости в Exchange. Система углубится в то, что ей известно, и что она может узнать из вашей ИТ-телеметрии.
Джаккал сказал, что фокус на генеративном ИИ важен. По ее словам, как и в других случаях интеграции GPT или ChatGPT с продуктами Microsoft, Security Copilot не всегда все делает правильно, отметив, что однажды в ответе упоминается Microsoft 9, никогда не существовавшая операционная система. Но он будет учиться на отзывах о таких ошибках и со временем улучшаться.
По словам американского гиганта, журналы безопасности и другие данные, которые организации передают в него для анализа, будут защищены, если они будут храниться в их стенах. Инструмент только для обеспечения безопасности работает в системе обучения с обратной связью, поэтому мы уверены, что данные не будут использоваться для обучения базовых моделей ИИ.
Подсказки и доски
Как мы уже говорили, информация, которую предприятия могут извлечь из этого инструмента, широка. Он будет отвечать на вопросы на естественном языке, чтобы подробно рассказать об угрозах безопасности за предыдущий месяц, составить список инцидентов на предприятии, обобщить уязвимость или показать информацию о предупреждениях от других инструментов безопасности.
Security Copilot включает развивающийся список подсказок, которые могут использовать специалисты по безопасности, и возможности совместной работы, такие как раздел доски для групповой работы. Утверждается, что инструмент AI может создавать графики и слайд-шоу на основе данных, которые он получает, и может реконструировать угрозу или уязвимость.
Использование генеративного ИИ в кибербезопасности позволит специалистам по безопасности не отставать от групп угроз, которые используют ChatGPT и аналогичные инструменты в своих вредоносных операциях. ®