Обучение рабочих Google Бард говорит, что им не хватает времени

    0
    0


    Рабочие, которым поручено улучшить выпуск GoogleЧат-бот Bard говорит, что им сказали сосредоточиться на быстрой работе в ущерб качеству. Bard иногда генерирует неточную информацию просто потому, что у этих специалистов по проверке фактов недостаточно времени, чтобы проверить вывод программного обеспечения, сказал один из этих работников. Регистр.

    Большие языковые модели, такие как Bard, узнают, какие слова генерировать дальше, исходя из заданной подсказки, поглощая горы текста из различных источников, таких как Интернет, книги и документы. Но эта информация сложна, и чат-боты с искусственным интеллектом, предсказывающие предложения, не могут отличить факты от вымысла. Они просто изо всех сил стараются подражать нам, людям, из нашей собственной работы.

    В надежде сделать большие языковые модели, такие как Bard, более точными, нанимают работников краудсорсинга для оценки точности ответов бота; эта обратная связь затем передается обратно в конвейер, чтобы будущие ответы от бота были более качественными. Google а другие вводят людей в курс дела, чтобы повысить очевидные способности обученных моделей.

    Эд Стакхаус — давний подрядчик, нанятый поставщиком услуг передачи данных Appen, работающий от имени Google для улучшения Bard – утверждает, что работникам не дается достаточно времени для анализа точности выходных данных Bard.

    Они должны прочитать подсказку ввода и ответы Барда, найти в Интернете соответствующую информацию и написать заметки, комментируя качество текста. «Вам может быть предоставлено всего две минуты на то, на что на самом деле потребуется 15 минут для проверки», — сказал он нам. Это не сулит ничего хорошего для улучшения чат-бота.

    Примером может служить аннотация, созданная Бардом и описывающая конкретную компанию. «Вы должны были бы проверить, что бизнес был начат в такую-то дату, что он произвел такой-то и такой-то проект, что генеральный директор такой-то и такой-то», — сказал он. Необходимо проверить множество фактов, и часто не хватает времени, чтобы проверить их полностью.

    Стэкхаус входит в группу контрактных рабочих, которые бьют тревогу по поводу того, что условия их работы могут сделать Барда неаккуратным и потенциально опасным. «Барда можно было спросить: «Можете ли вы рассказать мне о побочных эффектах определенного рецепта?» и я должен был бы пройти и проверить каждый [Bard listed]. Что, если я ошибусь? — спросил он. — Каждая подсказка и ответ, которые мы видим в нашей среде, могут быть адресованы клиентам — конечным пользователям».

    Это не только медицинские вопросы — другие темы тоже могут быть рискованными. Например, извержение Бардом неверной информации о политиках может повлиять на мнение людей о выборах и подорвать демократию.

    Беспокойство Стэкхауса не надуманно. ChatGPT OpenAI ошибочно обвинил мэра Австралии в том, что он был признан виновным в деле о финансовом взяточничестве в начале 2000-х годов.

    Если такие работники, как Стакхаус, не смогут обнаружить эти ошибки и исправить их, ИИ продолжит распространять ложь. Он утверждал, что чат-боты, такие как Бард, могут вызвать сдвиг в повествовательных нитях истории или человеческой культуры — важные истины могут быть стерты со временем. «Самая большая опасность заключается в том, что они могут ввести в заблуждение и звучать так хорошо, что люди будут убеждены в правильности ИИ».

    Подрядчики Appen наказываются, если они не выполняют задачи в отведенное время, и попытки убедить менеджеров дать им больше времени для оценки ответов Барда не увенчались успехом. Стэкхаус является одним из шести рабочих, которые заявили, что были уволены за высказывания, и подали жалобу на несправедливую трудовую практику в американскую службу по надзору за трудовыми отношениями — Национальный совет по трудовым отношениям, о чем впервые сообщила Washington Post.

    Рабочие обвиняют Аппена и Google незаконного увольнения и вмешательства в их усилия по объединению в профсоюзы. Сообщается, что им сказали, что они были уволены из-за деловых условий. Стэкхаус сказал, что ему трудно в это поверить, поскольку Аппен ранее разослал работникам электронные письма, в которых говорилось о «значительном всплеске доступных вакансий» для Project Yukon — программы, направленной на оценку текста для поисковых систем, в которую входит Bard.

    Аппен предлагал подрядчикам дополнительные 81 доллар сверх базовой оплаты за работу 27 часов в неделю. Сообщается, что рабочие обычно ограничены работой 26 часов в неделю за плату до 14,50 долларов в час. В компании есть активные объявления о вакансиях, которые ищут специалистов по оценке в поисковых системах специально для работы над проектом Юкон. Аппен не ответил Регистрвопросы.

    Группа также пыталась связаться с Googleи связались со старшим вице-президентом Прабахкаром Рагхаваном, который возглавляет поисковый бизнес технологического гиганта, но были проигнорированы.

    Куртенэ Менчини, представитель Google, не ответил на опасения рабочих, что Бард может быть вредным. «Как мы уже говорили, Appen несет ответственность за условия труда своих сотрудников, включая оплату, льготы, изменения в занятости и порученные им задачи. Мы, конечно, уважаем право этих работников на вступление в профсоюз или участвовать в организационной деятельности, но это вопрос между рабочими и их работодателем Аппеном», — сказала она нам в заявлении.

    Стэкхаус, однако, сказал: «Это их продукт. Если им нужен бракованный продукт, это их дело». ®

    Предыдущая статьяЛучшие телефоны Sony в 2023 году
    Следующая статьяiOS 17 может диагностировать проблемы автомобиля за Вас – вот как По Ричард Придей
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.