OpenAI призывает к регулированию, втайне желая меньше его

    0
    0


    OpenAI — создатель GPT-4 и других генеративных моделей ИИ — публично призывает к большему регулированию ИИ, в то время как в частном порядке добивается меньшего его.

    В документе для лоббирования, направленном законодателям ЕС под названием «Белая книга OpenAI о Законе Европейского Союза об искусственном интеллекте», утверждается, что большие базовые модели OpenAI не следует считать высокорисковыми.

    Белая книга, датированная сентябрем 2022 года и полученная Время, предлагает несколько поправок, которые, как сообщается, были включены в проект текста Закона ЕС об искусственном интеллекте, который был одобрен неделю назад. Нормативная формулировка станет предметом дальнейших переговоров и возможных изменений до окончательного утверждения, которое может произойти в течение шести месяцев.

    OpenAI, похоже, больше всего обеспокоен разделами законодательства ЕС, касающимися того, когда ИИ классифицируются как высокорисковые.

    В лоббистском документе говорится: «Новая формулировка в Приложении III 1.8.a может непреднамеренно потребовать от нас рассматривать как GPT-3, так и DALL-E как системы с высоким уровнем риска, поскольку они теоретически способны генерировать контент в рамках пункта. .”

    В нем утверждается, что вместо добавления этих ограничительных положений другой части закона, статьи 52, было бы достаточно, чтобы гарантировать, что поставщики ИИ предпримут разумные шаги для смягчения дезинформации и дипфейков без применения классификации «высокого риска».

    Согласно проекту правил, системы ИИ считаются «неприемлемым риском», если они: используют вредные манипулятивные «подсознательные методы»; эксплуатировать конкретные уязвимые группы (физическая или умственная инвалидность); используются государственными органами или от их имени для целей социальной оценки; и предоставлять системы удаленной биометрической идентификации в режиме реального времени в общедоступных местах для правоохранительных органов, за исключением особых обстоятельств.

    Раздел III (статья 6) предлагаемого закона об ИИ распространяется на системы ИИ «высокого риска», которые могут негативно сказаться на безопасности людей или основных правах.

    К таким системам, на которые распространяются требования прозрачности и соответствия, относятся системы, облегчающие: биометрические системы и системы категоризации человека; управление и эксплуатация критической инфраструктуры; образовательное и профессиональное обучение; занятость, управление работниками и доступ к самозанятости; доступ к основным частным и государственным услугам и льготам; правоохранительные органы; управление миграцией, убежищем и пограничным контролем; и отправление правосудия и демократические процессы.

    По сути, в лоббистском документе утверждается, что обозначение «высокого риска» должно применяться к меньшему количеству применений моделей ИИ. И это сообщение отличается от призывов официальных лиц OpenAI и других лиц к государственному надзору, что, как опасаются более мелкие конкуренты, будет несправедливым.

    По сути, такие компании, как OpenAI, хотят государственного регулирования, но хотят управлять этим регулированием так, чтобы их технологии машинного обучения не попадали в категорию, которая привлечет более жесткие правила и больше бюрократии. На публике они призывают к большему количеству правил и гарантий для всех, в то время как наедине они выступают за более легкое прикосновение.

    Генеральный директор OpenAI Сэм Альтман и соучредители Грег Брокман и Илья Суцкевер опубликовали сообщение в блоге ранее в этом году, предупреждая, что сверхинтеллектуальный ИИ может быть реализован в течение десятилетия.

    В тот же день Альтман предупредил, что OpenAI может покинуть ЕС, если правила блока в отношении искусственного интеллекта станут слишком жесткими. Затем, два дня спустя, он отрицал какие-либо планы покинуть ЕС.

    AI Now Institute — группа по защите политики — отреагировал на публикацию документа OpenAI, призвав более внимательно изучить отраслевое лоббирование.

    «Нам необходимо тщательно изучить позицию отрасли по регулированию ИИ, поскольку фирмы лоббируют смягчение правил», — заявили в группе. написалдобавив, что ИИ общего назначения несет в себе неотъемлемые риски и уже причинил вред.

    Регуляторный захват крупными игроками отрасли является известной проблемой во многих секторах. До сих пор невиданное лоббирование OpenAI показывает, что он также пытается написать свои собственные правила. Его заявленный интерес к регулированию вызывает больше вопросов, чем вопрос о том, вытесняет ли компания более мелких конкурентов и заслуживают ли создатели контента компенсацию за массовый неоплачиваемый сбор онлайн-контента, необходимый для обучения ее моделей.

    Неудивительно, что разработчик открыто призывает законодателей принять закон, запрещающий системы машинного обучения, только для того, чтобы мелкий шрифт этих правил включал тщательно продуманные пункты, позволяющие OpenAI работать без ограничений.

    OpenAI отказался от комментариев. ®



    Предыдущая статьяNvidia’s ultra expensive H100 Hopper GPU gets tested in games
    Следующая статьяЛучшие телефоны Sony в 2023 году
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.