Программное обеспечение для найма ИИ — это «автоматизированная лженаука»

    0
    10


    Утверждения о том, что программное обеспечение для подбора персонала на основе ИИ может повысить разнообразие новых сотрудников на рабочем месте, были опровергнуты в исследовании, опубликованном на этой неделе.

    Сторонники алгоритмов машинного обучения, обученных анализировать язык тела и прогнозировать эмоциональный интеллект кандидатов, считают, что программное обеспечение обеспечивает более справедливый способ оценки работников, если оно не учитывает пол и расу. Они утверждают, что новые инструменты могут устранить человеческие предубеждения и помочь компаниям достичь своих целей в области разнообразия, справедливости и инклюзивности, наняв больше людей из недостаточно представленных групп.

    Но статья, опубликованная в журнале Философия и технологии Однако пара исследователей из Кембриджского университета демонстрирует, что программное обеспечение представляет собой не более чем «автоматизированную лженауку». Шесть студентов, изучающих информатику, воспроизвели коммерческую модель, используемую в промышленности, чтобы изучить, как программное обеспечение для найма ИИ предсказывает личности людей, используя изображения их лиц.

    Система, получившая название «Машина личности», ищет тропы «большой пятерки» личности: экстраверсия, покладистость, открытость, добросовестность и невротизм. Они обнаружили, что на прогнозы программного обеспечения повлияли изменения выражения лица людей, освещения и фона, а также их выбор одежды. Эти особенности не имеют ничего общего со способностями соискателя, поэтому использование ИИ для целей найма ошибочно, утверждают исследователи.

    «Тот факт, что изменения в освещении, насыщенности и контрасте влияют на вашу личностную оценку, является доказательством этого», — сказал Керри Маккерет, научный сотрудник Центра гендерных исследований Кембриджского университета. Регистр. Результаты исследования подтверждаются предыдущими исследованиями, которые показали, как ношение очков и платка во время видеоинтервью или добавление книжной полки на заднем плане может снизить баллы кандидата за добросовестность и невротизм, отметила она.

    Маккерет также объяснил, что эти инструменты, вероятно, обучены искать атрибуты, связанные с предыдущими успешными кандидатами, и, следовательно, с большей вероятностью будут набирать похожих людей, а не способствовать разнообразию.

    «Модели машинного обучения считаются прогнозирующими, однако, поскольку они обучаются на прошлых данных, они повторяют решения, принятые в прошлом, а не в будущем. По мере того, как инструменты учатся на этом ранее существовавшем наборе данных, создается петля обратной связи. между тем, что компании считают идеальным сотрудником, и критериями, используемыми автоматизированными инструментами подбора персонала для отбора кандидатов», — сказала она.

    Исследователи считают, что технология должна регулироваться более строго. «Мы обеспокоены тем, что некоторые продавцы заворачивают продукты «змеиного жира» в блестящую упаковку и продают их ничего не подозревающим покупателям», — сказала соавтор исследования Элеонора Дрэдж, научный сотрудник Центра гендерных исследований.

    «Хотя компании не могут действовать недобросовестно, ответственность за то, как эти продукты создаются или тестируются, практически не подотчетны. Таким образом, эта технология и то, как она продается, могут стать опасными источниками дезинформации о том, как можно нанимать сотрудников. “обесстрачены” и сделаны более справедливыми”, – добавила она.

    Маккерет сказал, что, хотя Закон Европейского Союза об искусственном интеллекте классифицирует такое программное обеспечение для найма как «высокий риск», неясно, какие правила применяются для снижения этих рисков. «Мы считаем, что необходимо более серьезно изучить эти инструменты и маркетинговые заявления, сделанные в отношении этих продуктов, и что регулирование HR-инструментов на базе ИИ должно играть гораздо более заметную роль в повестке дня политики ИИ».

    «Хотя вред инструментов найма на базе ИИ кажется гораздо более скрытым и коварным, чем более громкие случаи алгоритмической дискриминации, они могут иметь долгосрочные последствия для занятости и социально-экономической мобильности», — заключила она. ®

    Предыдущая статьяКак захватывающий опыт Шекспира в Нью-Йорке закончился
    Следующая статьяЗвезда «Пингвина» Колин Фаррелл раскрывает сцену открытия спин-оффа шоу «Бэтмен»
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.