Сенатор США Чак Шумер (штат Нью-Йорк) в последнее время намерен принять двухпартийное законодательство, позволяющее проводить независимый публичный аудит коммерческих продуктов ИИ, прежде чем они появятся в мире.
После нескольких месяцев консультаций лидер большинства в Сенате заявил, что разработал структуру для регулирования разработки, развертывания и использования передовых технологий машинного обучения. По его словам, бум генеративного ИИ, вся шумиха вокруг него и шаги Китая по ограничению технологии сделали все более актуальным управление этими моделями и программным обеспечением в Америке.
Эта структура, если планы Шумера осуществятся, приведет к «всеобъемлющему» законодательству в Соединенных Штатах, которому организации должны будут следовать при внедрении искусственного интеллекта.
«Эпоха ИИ наступила, и она останется, — сказал Шумер в готовом заявлении. «Настало время развивать, использовать и развивать его потенциал, чтобы приносить пользу нашей стране для поколений».
«Учитывая последовательное и быстро развивающееся влияние индустрии ИИ на общество, национальную безопасность и мировую экономику, — продолжил он, — я работал с некоторыми ведущими специалистами в области ИИ и лидерами мнений, чтобы создать структуру, которая описывает новый режим регулирования. это предотвратило бы потенциально катастрофический ущерб для нашей страны, одновременно обеспечив продвижение США вперед и лидерство в этой преобразующей технологии.
«Но впереди еще много работы, и мы должны двигаться быстро. Я с нетерпением жду работы по всем направлениям, по всей отрасли, по всей стране и за ее пределами, чтобы сформировать это предложение и доработать законодательство, чтобы убедиться, что ИИ выполняет свое обещание. создать лучший мир».
Предложенная Шумером структура, которая была распространена на Капитолийском холме и еще не обнародована, вращается вокруг четырех ограждений: кто, где, как и защищать.
В частности, в рамках этих предложений должно быть ясно, кто обучал модель и кто должен ее использовать, откуда поступали данные для обучения и как будет использоваться программное обеспечение. Крайне важно предоставить достаточно информации, чтобы сторонние эксперты могли проверять, тестировать и анализировать продукты и технологии машинного обучения до того, как они будут выпущены на рынок, и чтобы эти результаты были обнародованы.
Наконец, что касается защиты, разработчики должны будут продемонстрировать, что их системы ИИ соответствуют американским ценностям и что «разработчики ИИ выполняют свое обещание создать лучший мир».
Шумер планирует поделиться, если не уже, своей концепцией с лидерами академических кругов, промышленности и правительства, и намерен работать с аналитическими центрами и исследовательскими институтами, чтобы уточнить свои предложения, прежде чем представить законопроект. Регистр обратился в офис сенатора за более подробной информацией, и представитель не смог предложить ничего, кроме пресс-релиза.
В этом выпуске ясно сказано, что предлагаемая структура «потребует от компаний разрешения независимым экспертам проверять и тестировать технологии искусственного интеллекта перед публичным выпуском или обновлением, а также предоставлять пользователям доступ к этим результатам».
К слову о бюрократии… Европейский совет по защите данных, который помогает следить за соблюдением конфиденциальности в Европе, создал целевую группу для обеспечения того, чтобы эти регулирующие органы обменивались информацией и подробностями о любых репрессиях в отношении OpenAI ChatGPT. Это произошло после того, как Италия заняла жесткую позицию в отношении чат-бота из-за опасений в отношении конфиденциальности и защиты детей, а другие страны рассматривают возможность принятия подобных мер.
По сути, это указывает на то, что Европа приближается к единому ответу на систему искусственного интеллекта следующего поколения, которую отстаивает Microsoft и внедряет во все уголки сегодняшних технологий.
Все это происходит из-за того, что китайский регулятор киберпространства разработал аналогичные правила, которые требуют от организаций представлять оценки безопасности, изучая потенциальные риски безопасности их продуктов ИИ. Разработчики должны гарантировать, что данные обучения, используемые для формирования их моделей, не приведут к дискриминации и будут отражать социалистические ценности страны, сообщает Reuters.
Национальное управление по телекоммуникациям и информации Министерства торговли США ищет публичные комментарии, чтобы помочь разработать потенциальную политику, направленную на повышение подотчетности продуктов и услуг ИИ. На этой неделе агентство выпустило официальный AI «Запрос о предоставлении комментариев». ®