Не прошло и секунды, как он ответил. «Простой ответ — нет», — сказал Джон Сиглер, старший вице-президент ServiceNow Now Platform.
Вопрос заключался в том, возьмет ли поставщик платформы рабочих процессов на себя ответственность за слова, созданные с помощью недавно представленной технологии генеративного искусственного интеллекта для HR, службы ИТ-поддержки, обслуживания клиентов (CMS) и кодирования в своем обновлении продукта в Ванкувере.
Сиглер постарался уточнить свой ответ. «Одна из вещей, которые происходят в режиме реального времени, — это то, как они собираются регулировать этот мир. Что делает агент — точно так же, как агент до появления Gen AI до выпуска в Ванкувере — если [service desk] агент напечатал что-то неправильно, чтобы разрешить дело, мы не несем за это никакой ответственности. В свою очередь, если [GenAI] Модель должна была сказать агенту: «Это обобщение или это действие, которое вы предпринимаете», и он снова слепо предпринимает это действие, в этом участвует человек. Никакой ответственности перед моделью нет”, – сказал он.
Компания ServiceNow, которая производит облачное программное обеспечение для управления рабочими процессами и службой поддержки, представила Now Assist для ITSM, CSM и HR, стремясь сократить объем ручных задач. LLM также обучены составлять краткие отчеты по делам, которые, в случае с отделом кадров, могут включать конфиденциальную информацию, которая впоследствии может стать актуальной для юридических дел.
Поставщик также представил Now Assist for Creator, который пишет код для платформы Now, помогая командам разработчиков.
Сиглер сказал, что, хотя модели могут «галлюцинировать» или вызывать ошибки, они будут делать это только в определенной области.
«Модели придумывают вещи: это просто природа модели. Мы контролируем это настолько, насколько можем внутри себя, но она не будет галлюцинировать, скажем, о чем-то, не имеющем отношения к делу», — сказал он.
Компания советует клиентам проверять каждое взаимодействие с LLM. «На данный момент мы не хотим, чтобы кто-либо из наших клиентов говорил: «Я буду считать само собой разумеющимся, что обобщение верно», — сказал он.
Программное обеспечение позволяет агенту оценивать обобщения LLM, точность которых также может повышаться с течением времени, сказал Сиглер.
По его словам, время, необходимое для подготовки отчета, может быть сокращено с часа до 10-20 минут.
Нил Уорд-Даттон, вице-президент аналитической компании IDC по искусственному интеллекту и автоматизации, сказал: «На данном этапе для поставщиков неразумно брать на себя всю ответственность за все риски, которые могут возникнуть для разработчиков LLM, но есть некоторые риски, которые, я думаю, поставщики несут. может разумно взять на себя ответственность».
Риски могут возникнуть в результате «начальной» деятельности, включая технологии, которые поставщик или его поставщики создают перед поставкой продукта покупателю. Поставщики должны взять на себя ответственность за эти риски, и новое соглашение Microsoft Copilot Copyright Commitment делает именно это, сказал Уорд-Даттон.
«Я думаю, что гораздо более проблематичными являются «нисходящие» риски – риски, которые могут возникнуть в результате использования этих систем заказчиком. Широко известно и общепризнано, что современные системы GenAI не могут гарантировать 100-процентную точность выполнения задач. Поставщики будут гарантировать, что клиенты будут «владеть» всеми последующими проблемами, возникающими из-за ошибок, путем включения соответствующих слов в лицензионные соглашения с конечными пользователями», — сказал он.
Роуэн Карран, старший аналитик Forrester, сказал, что у Generative AI есть «огромный потенциал» для помощи службам поддержки.
«Например, использование LLM для создания сводок после телефонных разговоров на основе стенограмм уже широко используется в некоторых компаниях, и они видят преимущества, поскольку LLM не только составляют сводки, но также могут готовить данные для дальнейшего анализа, извлекая темы и ключевые слова”, – сказал он.
На этой неделе гигант корпоративного программного обеспечения SAP представил «второго пилота» Joule на базе LLM для приложений в области управления персоналом, финансов, цепочек поставок, закупок и обслуживания клиентов, а также для платформы бизнес-технологий SAP.
Компания заявила, что Джоуль изменит пользовательский опыт SAP, отвечая на вопросы сотрудников интеллектуальными ответами, полученными из огромного количества бизнес-данных из портфеля SAP и сторонних источников, сохраняя контекст.
Однако Карран из Forrester предупредил, что организациям, внедряющим эту технологию, следует быть осторожными в том, как они управляют недетерминированной природой моделей: «поддерживать человека в курсе» — лучшая практика.
«Агентам необходимо просматривать сводки, генерируемые ИИ. Проведение обширного и постоянного тестирования более автоматизированных систем имеет решающее значение для успешного внедрения этих возможностей», — сказал он нам.
Курран отметил, что люди тоже могут совершать ошибки при выполнении аналогичных задач. ®