Google по сообщениям, разрабатывает генеративные инструменты искусственного интеллекта для запуска чат-ботов, способных выполнять 21 различную задачу, включая написание планов, обучение пользователей новым навыкам и раздачу жизненных советов.
Как впервые сообщил Нью-Йорк Таймсчат-боты являются результатом Googleусилия по ускорению своих исследований в ответ на бум генеративного ИИ.
Среди ролей Google как сообщается, думает, что бот может заполнить, это «личный тренер по жизни».
Представление о том, что ИИ может давать такого рода советы, является большим сдвигом для Big G, поскольку текущий совет рекламного и поискового гиганта для пользователей его чат-бота Bard таков. нет использовать программное обеспечение для этой цели.
«Не полагайтесь на ответы Барда как на медицинский, юридический, финансовый или другой профессиональный совет», — говорится в Уведомлении о конфиденциальности для Барда. Этот документ также говорит пользователям: «Не включайте конфиденциальную или конфиденциальную информацию в свои разговоры с Бардом» — вы знаете, такие вещи должен знать хороший лайф-коуч.
Но раз отчеты Google протестировал своего тренер-бота, используя подсказки, содержащие очень личную информацию.
Вот один пример запроса:
GoogleBot включает как минимум три компонента, которые могут ответить на такой запрос. Его создатель идеи может дать предложения или рекомендации, функция обучения может научить новым навыкам, а его способность планирования может предложить создать финансовый бюджет. Будет ли что-либо из этого полезным или полезным — или даже актуальным — это другой вопрос.
Чтобы оценить ситуацию, ответы Googleлайф-коуч генерирует ответы на запросы, подобные приведенному выше, как сообщается, анализируются работниками, нанятыми Scale AI — стартапом по маркировке данных, с которым заключен контракт. GoogleDeepMind, а также более 100 экспертов, имеющих соответствующие докторские степени.
Регистр спросил Google и Scale AI для комментариев.
Чат-боты с искусственным интеллектом часто выдают ложную информацию. Google знает это: уведомление о конфиденциальности Bard также предупреждает, что это «экспериментальная технология, которая иногда может давать неточную или неуместную информацию, которая не представляет Googleвзгляды».
Результаты, производимые генеративным ИИ, варьируются от нелепых до очень опасных.
Savey Meal-bot, бот-генератор рецептов, управляемый новозеландским супермаркетом, предлагал широкий спектр рекомендаций, включая грязные смузи, коктейли с газообразным хлором, рис с отбеливателем и даже тушеное мясо, приготовленное из человеческого мяса, — пока его не обуздали.
Исследователи также предупреждают, что в некоторых средствах защиты генеративного ИИ есть пробелы. Например, недавний отчет некоммерческой организации Center for Countering Digital Hate, занимающейся защитой людей в Интернете, показал, что генеративные инструменты искусственного интеллекта могут создавать проблемный контент, связанный с расстройствами пищевого поведения. Что еще более тревожно, выяснилось, что некоторые пользователи сети приветствуют такие материалы и с нетерпением ждут, когда ИИ позволит создавать персонализированный контент.
В мае Национальная ассоциация расстройств пищевого поведения удалила своего чат-бота Tessa, который давал контрпродуктивные советы людям с анорексией или булимией. Тесса порекомендовала одному пользователю, который искал совет по безопасному выздоровлению от расстройства пищевого поведения, подсчитывать калории, еженедельно взвешиваться и покупать штангенциркуль для измерения жира.
Конечно, тот факт, что Google экспериментирует с такими чат-ботами, не означает, что намерена их развернуть. Шоколадная фабрика часто пробует идеи просто для того, чтобы посмотреть, куда они могут пойти. В случае, когда ИИ дает советы, он наверняка понимает, что любые ошибки будут иметь негативные последствия. На самом деле, когда Бард дебютировал и испортил несколько ответов, цена акций GoogleАкции материнской компании Alphabet упали примерно на десять процентов, так как инвесторы выразили обеспокоенность тем, что компания может упустить рынок ИИ. ®