DARPA хочет переосмыслить ИИ и сделать доверие фундаментом

    0
    3


    Комментарий Вы бы доверили свою жизнь искусственному интеллекту?

    Текущее состояние ИИ впечатляет, но считать его граничащим с интеллектом в целом — преувеличение. Если вы хотите понять, насколько хорошо продвигается бум ИИ, просто ответьте на вопрос: доверяете ли вы ИИ?

    GoogleБард из Bard и большие языковые модели Bing на основе ChatGPT от Microsoft допустили глупые ошибки во время своих презентаций, которых можно было бы избежать с помощью быстрого веб-поиска. Также было замечено, что LLM неверно указывают факты и выдвигают неверные цитаты.

    Одно дело, когда эти ИИ отвечают, скажем, только за то, чтобы развлекать пользователей Bing или Bard, — говорит нам Мэтт Турек из DARPA, заместитель директора Управления информационных инноваций. Совсем другое дело, когда на карту поставлены жизни, поэтому агентство Турека запустило инициативу под названием AI Forward, чтобы попытаться ответить на вопрос, что именно означает создание системы искусственного интеллекта, которой мы можем доверять.

    Доверие – это…?

    В интервью с Регистр, Турек сказал, что ему нравится думать о создании надежного ИИ с помощью метафоры гражданского строительства, которая также предполагает большое доверие к технологиям: строительство мостов.

    «Мы больше не строим мосты методом проб и ошибок, — говорит Турек. «Мы понимаем фундаментальную физику, фундаментальную науку о материалах, системную инженерию, чтобы сказать, что мне нужно иметь возможность преодолевать это расстояние и нести такой вес», — добавляет он.

    По словам Турека, вооружившись этими знаниями, инженерный сектор смог разработать стандарты, делающие строительство мостов простым и предсказуемым, но с ИИ у нас сейчас этого нет. На самом деле мы находимся в еще худшем положении, чем простое отсутствие стандартов: модели ИИ, которые мы создаем, иногда нас удивляют, и это плохо, говорит Турек.

    «Мы не до конца понимаем модели. Мы не понимаем, что они делают хорошо, мы не понимаем краеугольные случаи, виды отказов… к чему это может привести, так это к тому, что что-то пойдет не так со скоростью и в масштабе, которые мы не видел раньше».

    Рег читателям не нужно представлять себе апокалиптические сценарии, в которых искусственный общий интеллект (AGI) начинает убивать людей и вести войну, чтобы донести точку зрения Турека. «Нам не нужен AGI, чтобы что-то пошло не так, — говорит Турек. В качестве примера он приводит обвалы рынка флэш-памяти, такие как падение британского фунта в 2016 году, связанное с неправильным принятием алгоритмических решений.

    Кроме того, есть программное обеспечение, такое как автопилот Tesla, якобы ИИ, разработанный для управления автомобилем, который якобы был связан с 70 процентами аварий с использованием технологии автоматической помощи водителю. Когда случаются такие аварии, Tesla не винит ИИ, говорит нам Турек, она говорит, что водители несут ответственность за то, что делает автопилот.

    Исходя из этого, справедливо сказать, что даже Tesla не доверяет своему собственному ИИ.

    Как DARPA хочет продвинуть ИИ… вперед

    «Скорость, с которой могут работать крупномасштабные программные системы, может создавать проблемы для человеческого надзора», — говорит Турек, поэтому DARPA запустило свою последнюю инициативу в области ИИ, AI Forward, в начале этого года.

    В февральской презентации начальник Турека, доктор Кэтлин Фишер, объяснила, чего DARPA хочет достичь с помощью AI Forward, а именно создать такую ​​базу понимания для разработки ИИ, аналогичную той, которую инженеры разработали с помощью своих собственных наборов стандартов.

    Фишер объяснила в своей презентации, что DARPA считает доверие ИИ интегративным, и что любой ИИ, которому стоит доверять, должен быть способен делать три вещи:

    • Работать грамотно, в чем мы точно еще не разобрались,
    • Надлежащее взаимодействие с людьми, в том числе информирование о том, почему он делает то, что делает (см. предыдущий пункт о том, насколько хорошо это происходит),
    • Этичное и моральное поведение, которое, по словам Фишера, включает в себя способность определять, являются ли инструкции этичными или нет, и реагировать соответствующим образом.

    Сформулировать, что определяет заслуживающий доверия ИИ, — это одно. Добраться туда — еще немного работы. С этой целью DARPA заявило, что планирует инвестировать свою энергию, время и деньги в три области: построение фундаментальных теорий, формулирование надлежащих методов проектирования ИИ и разработка стандартов для совместной работы и взаимодействия человека и ИИ.

    AI Forward, которую Турек описывает как не столько программу, сколько инициативу по работе с общественностью, начинается с пары летних семинаров в июне и конце июля, чтобы собрать вместе людей из государственного и частного секторов, чтобы помочь конкретизировать эти три инвестиции в ИИ. области.

    DARPA, по словам Турека, обладает уникальной способностью «приносить [together] широкому кругу исследователей из разных сообществ, комплексно взглянуть на проблему, определить… убедительные пути продвижения вперед, а затем дополнить это инвестициями, которые, по мнению DARPA, могут привести к трансформационным технологиям».

    Для тех, кто надеется бросить свою шляпу на ринг, чтобы принять участие в первых двух семинарах AI Forward — извините — они уже заполнены. Турек не раскрыл никаких подробностей о том, кто там будет, сказав лишь, что ожидается несколько сотен участников с «разным техническим образованием». [and] перспективы».

    Как выглядит надежный защитный ИИ?

    Если и когда DARPA удастся конкретизировать свою модель доверия ИИ, как именно она будет использовать эту технологию?

    По словам Турека, приложения для кибербезопасности очевидны, поскольку можно положиться на надежный ИИ для принятия правильных решений в таких масштабах и со скоростью, с которой люди не могут действовать. Со стороны большой языковой модели создается искусственный интеллект, которому можно доверять, чтобы правильно обрабатывать секретную информацию или точно анализировать и обобщать отчеты, «если мы сможем удалить эти галлюцинации», — добавляет Турек.

    А тут поле боя. Это далеко не только инструмент, используемый для причинения вреда, ИИ можно превратить в спасательные приложения с помощью исследовательских инициатив, таких как In The Moment, исследовательский проект, который Турек возглавляет для поддержки быстрого принятия решений в сложных ситуациях.

    Цель In The Moment — определить «ключевые атрибуты, лежащие в основе доверительного принятия решений человеком в динамических условиях, и вычислительное представление этих атрибутов», как DARPA описывает это на странице проекта.

    “[In The Moment] на самом деле это фундаментальная исследовательская программа о том, как моделировать и количественно оценивать доверие и как создавать те атрибуты, которые ведут к доверию, и встраивать их в системы», — говорит Турек.

    ИИ, вооруженный этими возможностями, можно использовать для принятия решений о медицинской сортировке на поле боя или в сценариях стихийных бедствий.

    DARPA хочет, чтобы официальные документы последовали за обеими встречами AI Forward этим летом, но с этого момента нужно пройти стадию определения и перейти к актуализации, что определенно может занять некоторое время.

    «В результате встреч будут получены инвестиции от DARPA», — говорит нам Турек. «Количество или размер этих инвестиций будет зависеть от того, что мы услышим», — добавляет он. ®

    Предыдущая статьяXiaomi 13 Ультра в разобранном виде на видео
    Следующая статьяWiko Hi Enjoy 60 5G официально представлен
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.