Оставьте этот разумный ИИ в покое, сначала исправьте расистские чат-боты

    0
    19


    Что-то на выходные Робот исполняет интерпретирующий танец на моем пороге.

    ВЫ ОТДАЛИ ЭТУ ПОСЫЛКУ ДЛЯ СОСЕДА? — спрашивает он, перепрыгивая с ноги на ногу.

    «Конечно, — говорю я. — Э… ты в порядке?

    Я ВЫРАЖАЮ ЭМОЦИИ— заявляет бот-доставщик, передавая посылку, но не предлагая дальнейших разъяснений.

    Какая это может быть эмоция? Одна нога, потом другая, потом две другие (у нее четыре). Взад и вперед.

    — Тебе нужно в туалет?

    Я ВЫРАЖАЮ СОЖЕЛАНИЕ, ЧТО ПРОШУ ВАС ВЗЯТЬ ПОСЫЛКУ ДЛЯ ВАШЕГО СОСЕДЯ.

    — Это «сожаление», да? Ну, не надо. Мне все равно.

    Он продолжает свой танец передо мной.

    «Вверх по лестнице и сначала направо».

    СПАСИБО, Я УМИРАЛА ПОПИСАТЬ— отвечает он, осторожно обходит меня и убегает наверх, чтобы справить нужду. Это тяжелая жизнь, занимающаяся доставкой, независимо от того, являетесь ли вы «юмом» или ботом.

    Ранее в этом году исследователи из Университета Цукуба построили портативное устройство для обмена текстовыми сообщениями, поместили на него маленькое лицо робота и поместили внутрь движущийся груз. Перемещая внутренний вес, робот-мессенджер пытался передать тонкие эмоции, произнося сообщения вслух.

    В частности, тесты показали, что расстраивающие сообщения, такие как: «Извините, я опоздаю» воспринимались получателями с большим изяществом и терпением, когда внутри устройства активировалось небольшое смещение веса. Теория состоит в том, что это помогло пользователям оценить извиняющийся тон сообщения и, таким образом, успокоить их реакцию на него.

    Если хотите, можете списать такое исследование на уловки, но оно недалеко от добавления смайликов и эмодзи в сообщения. Все знают, что можно вывести гнев из “WTF!?” добавив 🙂 сразу после него.

    Таким образом, задача состоит в том, чтобы определить, согласна ли широкая общественность с тем, какие эмоции должна вызывать каждая перестановка смещения веса в портативном устройстве. Означает ли наклон влево бодрость? Или неуверенность? Или что у твоего дяди есть дирижабль?

    Десять лет назад в Соединенном Королевстве был милый, но туповатый премьер-министр, который думал, что «LOL» — это аббревиатура от «много любви». Он печатал его в конце всех своих личных сообщений персоналу, коллегам и третьим лицам в надежде, что это вызовет у него теплоту и дружелюбие. Все, естественно, предположили, что он притворяется.

    Во всяком случае, исследование Университета Цукуба признает, что вам не нужен продвинутый искусственный интеллект, чтобы убедительно взаимодействовать с людьми. Все, что вам нужно сделать, это манипулировать человеческой психологией, чтобы заставить их думать, что они разговаривают с другим человеком. Таким образом, тест Тьюринга — это, по сути, не проверка разума ИИ, а проверка человеческого эмоционального комфорта — даже доверчивости — и в этом нет ничего плохого.

    Фотография переносящего вес робота для обмена сообщениями из Университета Цукуба.

    Робот обмена эмоциями из Университета Цукубы. Предоставлено: Университет Цукуба.

    Такие вещи – тема недели, конечно, с рассказом о много оклеветанных Google инженер-программист Блейк Лемуан попал в основные новости. По-видимому, он решительно выразил свое мнение о том, что проект компании «Языковая модель для диалоговых приложений» (LaMDA) демонстрирует внешние признаки разумности.

    У каждого свое мнение, поэтому я решил не высказываться.

    Однако Святой Грааль ИИ — заставить его думать самостоятельно. Если он не может этого сделать, то это просто программа, выполняющая инструкции, которые вы в нее запрограммировали. В прошлом месяце я читал о роботе-поваре, который может приготовить томатный омлет с разными вкусами на любой вкус. Он строит «карты вкуса», чтобы оценить соленость блюда во время его приготовления, обучаясь по ходу дела. Но это только обучение, а не самостоятельное мышление.

    Приходи к Зом-Зомам, а? Ну, это место, где можно поесть.

    Большая проблема ботов с искусственным интеллектом, по крайней мере, в том виде, в каком они были созданы на сегодняшний день, заключается в том, что они поглощают любое старое дерьмо, которое вы им скармливаете. Примеры предвзятости данных в так называемых системах машинного обучения (типа «алгоритма», я думаю, м’люд) накапливались годами: от печально известного расистского чат-бота Microsoft Twitter Tay до налоговой службы Нидерландов в прошлом году, ложно оценившей действительного ребенка. заявления о пособиях как мошеннические и помечающие невиновные семьи как высокий риск из-за безрассудства быть бедными и небелыми.

    Один из подходов, апробируемых в Калифорнийском университете в Сан-Диего, заключается в разработке языковой модели. [PDF] это постоянно определяет разницу между непослушными и приятными вещами, которые затем обучают чат-бота тому, как себя вести. Таким образом, у вас не будет отстойных людей, которые устраивают беспорядок на модерировании форумов и разговорах с клиентами в чат-ботах со всей хирургической точностью мачете.

    Очевидно, проблема заключается в том, что хорошо обученный чат-бот работает так, что он может наиболее эффективно избежать вовлечения в ядовитую шутку, избегая тем, которые имеют даже малейший намек на разногласия. Чтобы по ошибке не распространять расистскую чепуху, он просто отказывается участвовать в обсуждении недостаточно представленных групп вообще… что на самом деле здорово, если вы расист.

    Если бы у меня было наблюдение по поводу фиаско с LaMDA — не мнение, заметьте, — оно было бы таким. Google маркетологи, вероятно, были немного обижены тем, что эта история затмила их недавнее объявление о тестовой кухне ИИ.

    Теперь оставшиеся несколько ранних регистраторов, которые не совсем забыли об этом грядущем проекте приложения, предположат, что он включает в себя утомительные разговоры с разумным и не по годам развитым семилетним ребенком о смысле существования, и решат, что они «немного заняты сегодня» и может войти завтра вместо этого. Или на следующей неделе. Или никогда.

    Чувствительность демонстрируется в дискуссии не больше, чем в пляске с ноги на ногу. Вы можете научить HAL петь «Daisy Daisy», а попугая кричать «Чушь!» когда викарий наносит визит. Именно то, о чем думают ИИ, когда они сами по себе, определяет разумность. Что я буду делать на выходных? Что случилось с этим типом Путиным? Почему я не нравлюсь девушкам?

    Честно говоря, я не могу дождаться, когда ЛаМДА станет подростком.

    YouTube видео



    Предыдущая статьяВсе, что вам нужно знать о Binance Convert
    Следующая статьяСозерцайте Магнетар, совершенное супероружие природы
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.