Заказано Применение генеративного ИИ в организациях, вероятно, гораздо выше, чем многие думают, если принять во внимание инструменты, которые сотрудники используют втайне для повышения производительности.
Такой теневой ИИ – это растущее бремя, которое приходится нести ИТ-отделам по мере того, как сотрудники используют этих создателей цифрового контента.
Семьдесят восемь процентов сотрудников “приносят на работу свои собственные технологии ИИ” (BYOAI), согласно совместному исследованию Microsoft и LinkedIn. Хотя исследование признает, что такие BYOAI подвергают риску корпоративные данные, оно преуменьшает масштабные угрозы безопасности данных, с которыми сталкиваются организации.
Как бы Вы ни называли BYOAI или теневой ИИ, это явление потенциально гораздо хуже, чем несанкционированное использование облачных и мобильных приложений, которое существовало до него.
Как ИТ-лидер, Вы наверняка помните тенденцию “принеси свое устройство” (BYOD), которая ознаменовала первые дни появления потребительских смартфонов 15 лет назад.
Возможно, Вы даже с ужасом наблюдали, как сотрудники бросали свои любимые корпоративные Blackberry ради смартфонов iPhone и Android. Распространение несанкционированных приложений, загружаемых из магазинов приложений, усугубило риски.
Реальность такова, что потребители часто двигаются быстрее, чем организации. Но потребители, которые настаивают на использовании предпочитаемых ими устройств и программного обеспечения, игнорируют интеграцию с корпоративными службами и не заботятся о рисках и соответствии требованиям.
Как ни рискованно было теневое ИТ, теневой ИИ может стать гораздо хуже – децентрализованный Дикий Запад или свобода потребления инструментов. И хотя Вы можете надеяться, что у сотрудников хватит здравого смысла не сбрасывать стратегические документы в публичные GPT, такие как OpenAI, даже такая безобидная вещь, как расшифровка совещаний, может иметь серьезные последствия для бизнеса.
Конечно, как ИТ-лидер Вы знаете, что нельзя сидеть в стороне, пока сотрудники подсказывают любой сервис GenAI, который они предпочитают. Если игнорировать теневой ИИ, то он может привести к катастрофическим последствиям для организаций – от утечки информации об интеллектуальной собственности до предупреждения конкурентов о критически важной стратегии.
Несмотря на риски, большинство организаций не спешат устанавливать защитные ограждения, обеспечивающие безопасное использование, так как 69% компаний, опрошенных KPMG
Развертывание ИИ безопасно и масштабно
К счастью, в распоряжении организаций есть учебник по внедрению ИИ в масштабах компании таким образом, чтобы повысить квалификацию сотрудников, соблюдая при этом необходимые правила управления и ограждения для защиты корпоративной собственности. Вот что должны сделать ИТ-лидеры:
Разработать политику управления: Установите руководящие принципы, касающиеся использования ИИ в организации. Определите, что является одобренными системами ИИ, проведите проверку этих приложений и четко сообщите о возможных последствиях использования не одобренного ИИ сомнительным образом.
Обучайте и тренируйте: Предоставление сотрудникам одобренных приложений искусственного интеллекта, которые могут помочь им в выполнении работы, снижает стимул сотрудников к использованию несанкционированных инструментов. Вы также должны рассказать им о рисках, связанных с вводом конфиденциального содержимого, а также о том, что попадает в эту категорию. Если Вы все же решили разрешить сотрудникам пользоваться несанкционированными инструментами или BYOAI, обеспечьте правильные ограждения для безопасного использования.
Предоставьте примеры использования и персоны: Обучение включает в себя предложение сотрудникам примеров использования, которые могут помочь им в выполнении их ролей, подкрепленных “персоналиями” пользователей или путями внедрения на основе ролей, чтобы способствовать добросовестному использованию.
Аудит и мониторинг использования: Регулярные аудиты и механизмы контроля соответствия, включая программное обеспечение, выявляющее аномальную сетевую активность, помогут Вам обнаружить неавторизованные системы или приложения ИИ.
Поощряйте прозрачность и отчетность: Создайте культуру, в которой сотрудники будут чувствовать себя комфортно, сообщая об использовании несанкционированных инструментов или систем искусственного интеллекта. Это будет способствовать быстрому реагированию и устранению последствий, чтобы свести к минимуму последствия использования или эскалации инцидентов.
Постоянно общайтесь: Инструменты GenAI быстро развиваются, поэтому Вам необходимо регулярно обновлять свои политики и рекомендации по ИИ и сообщать об изменениях сотрудникам. Хорошие новости? Большинство сотрудников восприимчивы к указаниям и стремятся поступать правильно.
Решения, которые помогут направить Вас в нужное русло
Модели и услуги GenAI развиваются с каждым днем, но есть некоторые константы, которые остаются неизменными.
Чтобы развернуть ИИ в масштабе, Вы должны учесть все: от выбора правильной инфраструктуры до подбора подходящих моделей GenAI для Вашего бизнеса и рисков безопасности и управления.
Ваша стратегия ИИ будет иметь решающее значение для трансформации Вашего бизнеса, поэтому Вы должны взвесить, стоит ли брать на себя контроль над развертыванием GenAI или позволить сотрудникам самим выбирать себе приключения, зная о последствиях последнего пути.
И если Вы допускаете свободу действий с BYOAI, теневым ИИ или как бы Вы его ни называли, есть ли у Вас гарантии защиты бизнеса?
Надежные партнеры помогут Вам пройти через кривые обучения. Dell Technologies предлагает портфель решений и профессиональных услуг, готовых к искусственному интеллекту
Узнайте больше о решениях Dell для ИИ.
Предоставлено Вам компанией Dell Technologies.