По словам топ-менеджеров OpenAI, производителя GPT-4, международное агентство должно отвечать за инспектирование и аудит искусственного общего интеллекта, чтобы гарантировать безопасность технологии для человечества.
Генеральный директор Сэм Альтман и соучредители Грег Брокман и Илья Суцкевер заявили, что «вероятно» то, что ИИ обретет экстраординарные способности, превосходящие человеческие, в течение следующего десятилетия.
«С точки зрения как потенциальных преимуществ, так и недостатков, сверхразум будет более мощным, чем другие технологии, с которыми человечеству приходилось бороться в прошлом. У нас может быть значительно более процветающее будущее, но мы должны управлять рисками, чтобы добраться туда», — трио. говорится в сообщении в блоге во вторник.
Они утверждают, что затраты на создание такой мощной технологии только уменьшаются, поскольку все больше людей работают над ее продвижением. Чтобы контролировать прогресс, разработка должна контролироваться международной организацией, такой как Международное агентство по атомной энергии (МАГАТЭ).
МАГАТЭ было создано в 1957 году, когда правительства опасались разработки ядерного оружия во время холодной войны. Агентство помогает регулировать ядерную энергетику и устанавливает меры безопасности, чтобы ядерная энергия не использовалась в военных целях.
«Нам, вероятно, в конечном итоге понадобится что-то вроде МАГАТЭ для усилий по сверхразведке; любые усилия, превышающие определенный порог возможностей (или ресурсов, таких как вычисления), должны быть подчинены международному органу, который может инспектировать системы, требовать аудита, проверять на соответствие требованиям безопасности. стандарты, накладывают ограничения на степени развертывания и уровни безопасности и т. д.», — сказали они.
Такая группа будет отвечать за отслеживание использования вычислений и энергии, жизненно важных ресурсов, необходимых для обучения и запуска больших и мощных моделей.
«Мы могли бы коллективно согласиться с тем, что скорость роста возможностей ИИ на передовых рубежах ограничена определенной скоростью в год», — предложило высшее руководство OpenAI. Компании должны будут добровольно согласиться на проверки, и агентство должно сосредоточиться на «снижении экзистенциального риска», а не на вопросах регулирования, которые определяются и устанавливаются отдельными законами страны.
На прошлой неделе Альтман выдвинул идею о том, что компании должны получить лицензию на создание моделей с расширенными возможностями выше определенного порога на слушаниях в Сенате. Позже его предложение подверглось критике, поскольку оно могло несправедливо повлиять на системы искусственного интеллекта, созданные небольшими компаниями или сообществом открытого исходного кода, которые с меньшей вероятностью будут располагать ресурсами для выполнения требований законодательства.
«Мы считаем важным разрешить компаниям и проектам с открытым исходным кодом разрабатывать модели ниже значительного порога возможностей, без того регулирования, которое мы здесь описываем (включая обременительные механизмы, такие как лицензии или аудиты)», — сказали они.
Илон Маск в конце марта был одним из 1000 человек, подписавших открытое письмо, в котором содержится призыв к шестимесячной паузе в разработке и обучении ИИ, более мощному, чем GPT4, из-за потенциальных рисков для человечества, что Альтман подтвердил в середине апреля. .
«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а связанные с ними риски будут управляемыми», — говорится в письме.
Алфавит и Google Генеральный директор Сундар Пичаи написал статью в Financial Times на выходных, в которой говорится: «Я по-прежнему считаю, что ИИ слишком важен, чтобы его не регулировать, и слишком важен, чтобы не регулировать должным образом». ®