Служба защиты конфиденциальности просит бизнес отказаться от искусственного интеллекта, который анализирует эмоции

    0
    10


    Компании должны дважды подумать, прежде чем развертывать системы эмоционального анализа на базе ИИ, подверженные системным предубеждениям и другим заблуждениям, предупредил на этой неделе Управление комиссара по информации Великобритании (ICO).

    Организации столкнутся с расследованием, если они будут настаивать и использовать эту некачественную технологию, которая подвергает людей риску, добавил наблюдатель.

    Алгоритмы машинного обучения, предназначенные для прогнозирования настроения и реакции человека, используют компьютерное зрение для отслеживания взглядов, движений лица и обработки звука для оценки интонации и общего настроения. Как можно догадаться, это не обязательно точно или справедливо, и могут возникнуть проблемы с конфиденциальностью при обработке данных для обучения и вывода.

    Действительно, заместитель комиссара ICO Стивен Боннер сказал, что технология не является надежной, что приводит к систематической предвзятости, неточности или дискриминации в отношении определенных социальных групп. «Развития на рынке биометрии и искусственного интеллекта для эмоций еще незрелы. Они могут не работать еще или вообще когда-либо», — сказал он в своем заявлении.

    «Несмотря на наличие возможностей, риски в настоящее время выше. В ICO мы обеспокоены тем, что неправильный анализ данных может привести к неточным предположениям и суждениям о человеке и привести к дискриминации», — продолжил он.

    Боннер отметил, что программное обеспечение для анализа эмоций часто сочетается с биометрическими системами, собирая и сохраняя более широкий спектр личной информации, помимо изображений лиц. Поставщики программного обеспечения часто не прозрачны в отношении того, как эти личные данные обрабатываются или сохраняются.

    «Единственными устойчивыми биометрическими развертываниями будут те, которые полностью функциональны, подотчетны и поддерживаются наукой», — сказал он. «В настоящее время мы еще не видели, чтобы какая-либо технология эмоционального ИИ развивалась таким образом, чтобы она удовлетворяла требованиям защиты данных, и у нас есть более общие вопросы о пропорциональности, справедливости и прозрачности в этой области».

    Это кажется вежливым способом сказать: вы должны использовать только модели ИИ, считывающие эмоции, которые работают так, как ожидает ICO, а таких моделей не существует, поэтому вам следует просто прекратить то, что вы делаете.

    Ожидается, что британский орган по надзору за конфиденциальностью данных опубликует отчет, в котором подробно описывается, как биометрические данные, включая распознавание лиц, идентификацию по отпечаткам пальцев и распознавание голоса, должны обрабатываться компаниями весной следующего года.

    «ICO продолжит тщательно изучать рынок, выявляя заинтересованные стороны, которые стремятся создать или развертывать эти технологии, и объясняя важность повышения конфиденциальности данных и соответствия требованиям, одновременно поощряя доверие и уверенность в том, как работают эти системы», — добавил Боннер.

    Эксперты годами бьют тревогу по поводу анализа настроений и эмоций. Чувства субъективны, и их трудно интерпретировать точно. Люди часто не могут сделать это эффективно для себя или других, не говоря уже о машинах. ®

    Предыдущая статьяBleak Sword – 1 аркадная игра Apple, в которую тебе нужно сыграть прямо сейчас
    Следующая статьяКак установить Discord на колоду Steam
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.