Странно, что мы находимся на этапе, когда отчеты пишутся о том, как права человека

    0
    46


    Защита прав человека должна быть в центре внимания любого решения о внедрении систем на основе ИИ, независимо от того, используются ли они в качестве корпоративных инструментов, таких как вербовка, или в таких областях, как правоохранительные органы.

    И если не будут приняты достаточные гарантии для защиты прав человека, должен быть мораторий на продажу систем искусственного интеллекта, а те, которые не соответствуют международным законам о правах человека, должны быть запрещены.

    Это лишь некоторые из выводов базирующегося в Женеве Совета по правам человека (СПЧ) в отчете для Верховного комиссара Организации Объединенных Наций по правам человека Мишель Бачелет.

    «Право на неприкосновенность частной жизни в цифровую эпоху» [download] внимательно изучает, как ИИ, включая профилирование, автоматизированное принятие решений и другие технологии машинного обучения, влияет на права людей.

    Хотя в отчете признается, что ИИ «может быть силой добра», он также подчеркивает серьезные опасения по поводу того, как данные хранятся, для чего они используются и как они могут быть использованы не по назначению.

    «Технологии искусственного интеллекта могут иметь негативные, даже катастрофические последствия, если они используются без достаточного учета того, как они влияют на права человека», – говорится в заявлении Бачелет.

    «Учитывая быстрый и непрерывный рост ИИ, заполнение огромного пробела в подотчетности в том, как данные собираются, хранятся, передаются и используются, – один из самых неотложных вопросов прав человека, с которыми мы сталкиваемся».

    В отчете содержится критика того, как правительства и компании «часто спешат внедрять приложения ИИ, не проявляя должной осмотрительности», ссылаясь на «многочисленные случаи несправедливого обращения с людьми из-за ИИ», включая аресты из-за «неправильного распознавания лиц». “

    В июле Комитет по судебной системе Палаты представителей США услышал, как правоохранительные органы Америки используют технологию распознавания лиц (FRT). Слушание потребовало свидетельских показаний от всех сторон дебатов, поскольку законодатели стремятся уравновесить преимущества FRT с такими проблемами, как право на неприкосновенность частной жизни и неправомерное удостоверение личности.

    Но именно личные показания Роберта Уильямса, которого ошибочно опознали, арестовали и задержали из-за «нечеткого, нечеткого изображения», привлекли внимание к дискуссии.

    Действительно, вопрос о том, как ИИ используется в правоохранительных органах и в системе уголовного правосудия, также не давал покоя Комитету по юстиции и внутренним делам Палаты лордов Великобритании в течение лета.

    Совсем недавно профессор Элизабет Э. Джо из юридической школы Калифорнийского университета в Дэвисе заявила комитету, что существуют опасения по поводу некоторых инструментов прогнозирования полицейской деятельности.

    В некоторых случаях, пояснил Джо, звучали призывы к запрету таких технологий, как распознавание лиц, но эти попытки были «частичными», а не в национальном масштабе. Что касается некоторых инструментов прогнозирования полицейской деятельности, она предположила, что они «могут быть не такими надежными или эффективными, как обещали».

    Этот момент был поднят в отчете СПЧ, в котором отмечалось, что некоторые инструменты прогнозирования “несут в себе неотъемлемый риск сохранения или даже усиления дискриминации, что отражает укоренившуюся историческую расовую и этническую предвзятость в используемых наборах данных, например, непропорциональное внимание полиции к определенным группам данных. меньшинства “.

    В докладе рекомендуется, чтобы права человека занимали центральное место в «разработке, использовании и управлении ИИ в качестве центральной цели».

    Он также призывает к запрету “приложений ИИ, которые не могут использоваться в соответствии с международным правом прав человека, и наложить мораторий на продажу и использование систем ИИ, которые сопряжены с высоким риском для осуществления прав человека, если и до тех пор, пока не будут приняты надлежащие гарантии для защищать права человека ».

    Бачелет сказала: «Мы не можем позволить себе продолжать догонять ИИ, разрешая его использование с ограниченными или без границ или надзора, и имея дело с почти неизбежными последствиями для прав человека постфактум. Сейчас необходимо принять меры, чтобы поставить ограждение на защиту прав человека. использование ИИ на благо всех нас “.

    На просьбу прокомментировать отчет HRC Министерство внутренних дел Великобритании отказалось от подробностей, но вместо этого настаивало на том, что, когда дело доходит до таких вопросов, как распознавание лиц, политика может быть изменена, и что оно стремится обеспечить “последовательный подход”. принимается по всей стране “.

    Он указал на прошлогоднее постановление Апелляционного суда, который установил, что полиция Южного Уэльса нарушила закон, неизбирательно развернув свою автоматизированную технологию распознавания лиц в центре Кардиффа в период с декабря 2017 года по март 2018 года.

    В результате Министерство внутренних дел обновляет свой код камеры наблюдения, чтобы отразить приговор, прежде чем предстать перед парламентом.

    Представитель Министерства внутренних дел сказал нам: «Это правительство выполняет манифестное обязательство дать полиции возможность использовать новые технологии, такие как распознавание лиц, чтобы помочь идентифицировать и найти подозреваемых, чтобы защитить общественность.

    «Существует прочная правовая база для использования такой технологии в соответствии с прошлогодним постановлением Апелляционного суда. Независимый полицейский колледж проводил обширные консультации по национальным рекомендациям, чтобы обеспечить применение последовательного подхода в масштабах всей страны».

    На момент написания статьи никто из Комитета по вопросам юстиции и внутренних дел Палаты лордов не мог прокомментировать ситуацию. ®

    Предыдущая статьяРазработчик создал чат-бота с искусственным интеллектом, используя GPT-3, который помог мужчине снова поговорить с его покойной невестой. OpenAI выключил его °
    Следующая статьяDeathloop: Super Shifty Guide – Где найти дары, чтобы забрать дробовик Heritage
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.