Google DeepMind выпускает свой план, чтобы AGI не работал в дикой природе

    0
    0


    Поскольку AI Hype проникает в Интернет, лидеры технологий и бизнеса уже ищут следующий шаг. AGI, или искусственный общий интеллект, относится к машине с человеческим интеллектом и возможностями. Если сегодняшние системы ИИ находятся на пути к AGI, нам понадобятся новые подходы, чтобы такая машина не работала против человеческих интересов.

    К сожалению, у нас нет ничего такого элегантного, как три закона робототехники Исаака Асимова. Исследователи в DeepMind работали над этой проблемой и выпустили новую техническую статью (PDF), которую вы можете скачать по своему усмотрению.

    Он содержит огромное количество деталей, включая 108 страниц до ссылки. В то время как некоторые в области искусственного интеллекта считают, что AGI-это мечта о трубе, авторы DeepMind Paper Project, который может произойти к 2030 году. Имея это в виду, они стремились понять риски синтетического интеллекта, похожий на человека, который, как они признают, могут привести к «серьезным вредам».

    Все способы, которыми Аги может высосать для человечества

    Эта работа выявила четыре возможных типа риска AGI, а также предложения о том, как мы могли бы улучшить указанные риски. Команда DeepMind, возглавляемая соучредителем компании Шейном Леггом, классифицировала негативные результаты AGI как неправильное использование, смещение, ошибки и структурные риски.

    Таблица рисков Agi

    Четыре категории риска AGI, как определено DeepMind.

    Кредит:
    Google Глубокий

    Четыре категории риска AGI, как определено DeepMind.


    Кредит:

    Google Глубокий

    Первая возможная проблема, неправильное использование, в основном похожа на текущие риски ИИ. Однако, поскольку AGI будет более мощным по определению, ущерб, который он может нанести, гораздо больше. Недостатке с доступом к AGI может злоупотреблять системой для причинения вреда, например, попросив систему идентифицировать и использовать уязвимости нулевого дня или создать дизайнерский вирус, который может использоваться в качестве биоапона.

    DeepMind говорит, что компании, развивающиеся AGI, должны будут проводить обширные испытания и создавать надежные протоколы безопасности после тренировки. По сути, наши нынешние ограждения ИИ на стероидах. Они также предлагают разработать метод полностью подавления опасных возможностей, иногда называемых «отуходом», но неясно, возможно ли это без существенного ограничения моделей.

    Предыдущая статьяПосле нескольких месяцев молчания компания Bungie запускает социальные сети Марафона
    Следующая статьяiOS 18.4 ломает подключение CarPlay для некоторых iPhone пользователи
    Петр Григорин
    Интересуется софтом, разработкой и использование новых приложений, технология искусственного интеллекта. Этот писатель - человек с техническими знаниями, который увлечен разработкой программного обеспечения и использованием новых приложений. Его особенно интересуют технологии искусственного интеллекта и то, как они могут быть использованы для улучшения различных отраслей промышленности и повседневной жизни. Обладая прочной основой в области информатики и острым взглядом на инновации, этот писатель обязательно привнесет ценные идеи и соображения в любую дискуссию на эти темы. Пишет ли он о последних открытиях в области ИИ или исследует потенциал новых программных инструментов, его работа обязательно будет увлекательной и заставляющей задуматься.