Оказывается, людям не нравится, когда с ними разговаривают машины

    0
    0


    Возможно, вам будет полезно использовать технологию искусственного интеллекта при общении с другими людьми, но это последнее исследование показывает, что люди будут меньше думать о ком-то, использующем такие инструменты.

    Вот как закончилось исследование, проведенное людьми из американского Корнельского университета. Команда набрала участников и разделила их на 219 пар. Затем этих испытуемых попросили обсудить вопросы политики посредством обмена текстовыми сообщениями. В некоторых парах обоим участникам в каждой паре было сказано использовать предложения только от GoogleSmart Reply, который следит за темой разговора и рекомендует, что сказать. Некоторым парам было сказано вообще не использовать этот инструмент, а другим парам одному участнику в каждой паре было предложено использовать Smart Reply.

    Таким образом, каждое седьмое сообщение было отправлено с использованием автоматически сгенерированного текста в эксперименте, и это сделало общение более эффективным и позитивным. Но если участник полагал, что человек, с которым он разговаривал, отвечал стандартными ответами, он думал, что был менее склонен к сотрудничеству и относился к нему менее тепло.

    Люди могут проецировать свое негативное отношение к ИИ на человека, которого они подозревают в его использовании.

    Мальте Юнг, соавтор исследования, опубликованного в Scientific Reports, и адъюнкт-профессор информатики в Корнеллском университете, сказал, что это может быть связано с тем, что люди склонны меньше доверять технологиям, чем другие люди, или воспринимать их использование в разговорах как недостоверное.

    «Одно из объяснений заключается в том, что люди могут проецировать свое негативное отношение к ИИ на человека, которого они подозревают в его использовании», — сказал он. Регистр.

    «Другое объяснение может заключаться в том, что подозрение в том, что кто-то использует ИИ для генерации своих ответов, может привести к восприятию этого человека как менее заботливого, искреннего или аутентичного. Например, стихотворение от любовника, вероятно, будет воспринято менее тепло, если это стихотворение было создано ЧатGPT.”

    Во втором эксперименте 291 пару людей попросили снова обсудить политический вопрос. На этот раз, однако, они были разделены на группы, которые должны были вручную печатать свои ответы, или они могли использовать Googleумный ответ по умолчанию или имел доступ к инструменту, который генерировал текст с позитивным или негативным тоном.

    Разговоры, которые велись с Google умный ответ или инструмент, который генерировал положительный текст, воспринимались как более оптимистичные, чем те, которые не использовали инструменты ИИ или отвечали автоматически сгенерированными отрицательными ответами. Исследователи считают, что это показывает, что есть некоторые преимущества в общении с использованием ИИ в определенных ситуациях, таких как более транзакционные или профессиональные сценарии.

    «Мы попросили краудворкеров обсудить политику несправедливого отказа в работе. В таком контексте, связанном с работой, более дружелюбный позитивный тон имеет в основном положительные последствия, поскольку позитивный язык сближает людей», — сказал нам Юнг.

    «Однако в другом контексте один и тот же язык может иметь другое и даже негативное влияние. Например, человек, сообщающий печальную новость о смерти в семье, может не оценить радостный и радостный ответ и, скорее всего, оттолкнется от этого. Другими словами, то, что означает «положительное» и «отрицательное», сильно зависит от контекста».

    Искусственный интеллект будет формировать человеческое общение, поскольку технология становится все более доступной. Майкрософт и Googleнапример, оба объявили инструменты, помогающие пользователям автоматически писать электронные письма или документы.

    «Хотя ИИ может помочь вам писать, он изменяет ваш язык так, как вы, возможно, не ожидаете, особенно заставляя вас звучать более позитивно. Это говорит о том, что, используя генерирующий текст ИИ, вы жертвуете частью своего личного голоса. , — предупредила в этом месяце Джесс Хохенштейн, ведущий автор исследования и научный сотрудник Корнельского университета.

    Хоэнштайн сказала нам, что ей «хотела бы видеть больше прозрачности в отношении этих инструментов», которая включала бы какой-то способ раскрывать, когда люди их используют. «Шаги к большей открытости и прозрачности в отношении LLM потенциально могут помочь смягчить некоторые из тех общих подозрений, которые мы наблюдали в отношении ИИ». ®

    Предыдущая статьяВ ближайшем будущем фокус развития Cardano может сместиться в область искусственного интеллекта
    Следующая статьяКак просматривать веб-страницы прямо на Wear OS Galaxy умные часы
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.