Полиции нужны счастливые детские фотографии для обучения CSAM AI

    0
    15


    Федеральная полиция Австралии и Университет Монаша просят пользователей сети присылать снимки своих младших «я», чтобы обучить алгоритм машинного обучения выявлять жестокое обращение с детьми на фотографиях.

    Исследователи хотят собирать изображения людей в возрасте 17 лет и младше в безопасных сценариях; они не хотят никакой наготы, даже если это относительно безобидная картина, например, ребенок, принимающий ванну. Краудсорсинговая кампания, получившая название My Pictures Matter, открыта для лиц в возрасте 18 лет и старше, которые могут дать согласие на использование своих фотографий в исследовательских целях.

    Все изображения будут собраны в набор данных в попытке обучить модель ИИ различать несовершеннолетнего в нормальной среде и эксплуатируемой, небезопасной ситуации. Программное обеспечение теоретически может помочь правоохранительным органам лучше автоматически и быстро выявлять материалы о сексуальном насилии над детьми (также известные как CSAM) среди тысяч и тысяч расследуемых фотографий, избегая того, чтобы аналитики-люди проверяли каждый снимок.

    Просмотр этого ужасного материала может быть медленным процессом

    Ведущий старший констебль австралийской федеральной полиции Дженис Далинс заявила, что искусственный интеллект потенциально может помочь в выявлении жертв и обнаружении незаконных материалов, ранее неизвестных офицерам.

    «В 2021 году Австралийский центр по борьбе с эксплуатацией детей, возглавляемый AFP, получил более 33 000 сообщений об эксплуатации детей в Интернете, и каждое сообщение может содержать большие объемы изображений и видео детей, подвергшихся сексуальному насилию или эксплуатации для удовлетворения правонарушителей», — сказал он. На этой неделе.

    Далинс также является содиректором лаборатории AiLECS, исследовательского сотрудничества между учеными факультета информационных технологий Монаша и полицейскими AFP.

    «Просмотр этого ужасающего материала может быть медленным процессом, а постоянное разоблачение может причинить следователям значительный психологический стресс», — добавил он. «Инициативы AiLECS Lab будут поддерживать полицейских и детей, которых мы пытаемся защитить, и исследователи придумали инновационный способ этического развития технологий, стоящих за такими инициативами».

    Самый простой способ собрать большой набор данных изображений — это очистить открытый Интернет. Но, поскольку некоторые из последних моделей ИИ, такие как DALL·E 2 от OpenAI и GoogleImagen – показали, что качество этих данных сложно контролировать. Предвзятые или неподходящие изображения могут проникнуть в набор данных, что сделает модели проблематичными и потенциально менее эффективными.

    Вместо этого команда AiLECS считает, что их краудсорсинговая кампания обеспечивает более простой и этичный способ сбора фотографий детей. «Для разработки ИИ, способного идентифицировать эксплуататорские изображения, нам нужно очень большое количество детских фотографий в повседневных «безопасных» контекстах, которые могут обучать и оценивать модели ИИ, предназначенные для борьбы с эксплуатацией детей», — Кэмпбелл Уилсон, содиректор AiLECS и исследователь. доцент Университета Монаш.

    Получая фотографии от взрослых с информированного согласия, мы пытаемся создать этически ответственные и прозрачные технологии.

    «Но получение этих изображений из Интернета проблематично, поскольку нет возможности узнать, действительно ли дети на этих фотографиях дали согласие на загрузку своих фотографий или использование их для исследования. Получая фотографии от взрослых с информированного согласия, мы пытаемся создавать технологии, которые являются этически ответственными и прозрачными».

    Людям нужно только отправить свои личные фотографии и адрес электронной почты в рамках кампании. Нина Льюис, руководитель проекта и научный сотрудник лаборатории, подтвердила, что она не собиралась регистрировать какие-либо другие типы личной информации. Нам сказали, что адреса электронной почты будут храниться в отдельной базе данных.

    «Изображения и связанные с ними данные не будут содержать никакой идентифицирующей информации, гарантируя, что изображения, используемые исследователями, не могут раскрывать какую-либо личную информацию о людях, которые изображены», — сказала она. Участникам будут предоставляться обновления на каждом этапе проекта, и они могут попросить удалить свои изображения из набора данных, если захотят.

    Благородные цели проекта не являются технически невозможными и очень амбициозными, поэтому нам не терпится увидеть результаты, учитывая проблемы, стоящие перед системами распознавания изображений, такие как предвзятость и состязательные атаки среди других ограничений.

    Регистр обратился в Университет Монаша за дополнительной информацией. ®

    Предыдущая статьяРоссия запрещает экспорт инертных газов, таких как неон и гелий
    Следующая статьяНовый многопользовательский экшен/приключение находится на пути от разрушительных игр и
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.