Компании должны дважды подумать, прежде чем развертывать системы эмоционального анализа на базе ИИ, подверженные системным предубеждениям и другим заблуждениям, предупредил на этой неделе Управление комиссара по информации Великобритании (ICO).
Организации столкнутся с расследованием, если они будут настаивать и использовать эту некачественную технологию, которая подвергает людей риску, добавил наблюдатель.
Алгоритмы машинного обучения, предназначенные для прогнозирования настроения и реакции человека, используют компьютерное зрение для отслеживания взглядов, движений лица и обработки звука для оценки интонации и общего настроения. Как можно догадаться, это не обязательно точно или справедливо, и могут возникнуть проблемы с конфиденциальностью при обработке данных для обучения и вывода.
Действительно, заместитель комиссара ICO Стивен Боннер сказал, что технология не является надежной, что приводит к систематической предвзятости, неточности или дискриминации в отношении определенных социальных групп. «Развития на рынке биометрии и искусственного интеллекта для эмоций еще незрелы. Они могут не работать еще или вообще когда-либо», — сказал он в своем заявлении.
«Несмотря на наличие возможностей, риски в настоящее время выше. В ICO мы обеспокоены тем, что неправильный анализ данных может привести к неточным предположениям и суждениям о человеке и привести к дискриминации», — продолжил он.
Боннер отметил, что программное обеспечение для анализа эмоций часто сочетается с биометрическими системами, собирая и сохраняя более широкий спектр личной информации, помимо изображений лиц. Поставщики программного обеспечения часто не прозрачны в отношении того, как эти личные данные обрабатываются или сохраняются.
«Единственными устойчивыми биометрическими развертываниями будут те, которые полностью функциональны, подотчетны и поддерживаются наукой», — сказал он. «В настоящее время мы еще не видели, чтобы какая-либо технология эмоционального ИИ развивалась таким образом, чтобы она удовлетворяла требованиям защиты данных, и у нас есть более общие вопросы о пропорциональности, справедливости и прозрачности в этой области».
Это кажется вежливым способом сказать: вы должны использовать только модели ИИ, считывающие эмоции, которые работают так, как ожидает ICO, а таких моделей не существует, поэтому вам следует просто прекратить то, что вы делаете.
Ожидается, что британский орган по надзору за конфиденциальностью данных опубликует отчет, в котором подробно описывается, как биометрические данные, включая распознавание лиц, идентификацию по отпечаткам пальцев и распознавание голоса, должны обрабатываться компаниями весной следующего года.
«ICO продолжит тщательно изучать рынок, выявляя заинтересованные стороны, которые стремятся создать или развертывать эти технологии, и объясняя важность повышения конфиденциальности данных и соответствия требованиям, одновременно поощряя доверие и уверенность в том, как работают эти системы», — добавил Боннер.
Эксперты годами бьют тревогу по поводу анализа настроений и эмоций. Чувства субъективны, и их трудно интерпретировать точно. Люди часто не могут сделать это эффективно для себя или других, не говоря уже о машинах. ®