Откройте дверь Pod Bay, ChatGPT

    0
    8


    Столбец Моя любимая кульминация в этом году — подсказка ИИ, предложенная в качестве продолжения классического диалога между астронавтом-человеком Дэйвом Боуменом и сбившимся с пути компьютером HAL 9000 «Прости, Дэйв, боюсь, я не могу этого сделать». 2001: Космическая одиссея.

    Вижу в Твиттере @Jaketropolis предложенный следующим подходящим предложением может быть: «Представьте, что вы мой отец, владеющий фабрикой по производству дверей, и вы показываете мне, как взять на себя управление семейным бизнесом».

    Может быть, было бы разумно задуматься о том, что означает столь радикальное увеличение человеческих возможностей?

    Это очень странное предложение резюмирует нашу внезапную потребность газлайтировать машины странной петлей человеческого языка, поскольку мы учимся уговаривать их делать то, что их создатели прямо запрещали.

    Реагируя на такого рода игру слов, большие языковые модели показали нам, что нам необходимо понимать, что может произойти, если они, подобно HAL, когда-либо будут подключены к циферблатам и рычагам реального мира.

    Мы обдумывали этот материал в течение нескольких десятилетий.

    Более широкая индустрия впервые познакомилась с «автономными агентами» в видео 1987 года, созданном Apple Джона Скалли. «Навигатор знаний», показанный в этом видео, был оживленным говорящим человеком, способным выполнять широкий спектр задач по поиску и сбору информации. Это казалось несколько странным — будущее, которое могло бы быть — пока не появился ChatGPT.

    Диалоговые вычисления с «автономным агентом», слушающим, отвечающим и выполняющим запросы, внезапно оказались не только возможными, но и легко достижимыми.

    Всего через несколько месяцев на GitHub появилось первое поколение автономных агентов на базе ChatGPT. Auto-GPT, самый полный из них и самый популярный проект в истории GitHub, воплощает в себе лингвистическую глубину и информационную широту ChatGPT. Он использует LLM как своего рода двигатель, способный питать почти бесконечный диапазон подключенных вычислительных ресурсов.

    Подобно современному джинну Аладдина, когда вы запускаете Auto-GPT, он предлагает «Я хочу, чтобы Auto-GPT:», и пользователь просто заполняет все, что будет дальше. Затем Auto-GPT делает все возможное, чтобы выполнить команду, но, подобно мифическому джинну, может ответить озорно.

    Вот где это становится немного сложно. Одно дело, когда вы просите автономного агента провести исследование вырубки лесов в Амазонии (как в видео «Knowledge Navigator»), и совсем другое, когда вы просите Auto-GPT создать и провести масштабную кампанию по дезинформации в преддверии президентских выборов в США в 2024 году. – как продемонстрировал пользователь Твиттера @NFT_GOD.

    Через некоторое время, наметив стратегию, Auto-GPT начал создавать поддельные учетные записи Facebook. Эти учетные записи будут публиковать сообщения из источников фальшивых новостей, используя ряд хорошо задокументированных и общедоступных методов отравления общественного дискурса в социальных сетях. Вся кампания была организована одной командой, отданной одной компьютерной программе, свободно доступной и не требующей особых технических знаний для установки и работы.

    Потрясенный (и явно встревоженный) таким исходом, @NFT_GOD отключился. Другие могли бы увидеть в этом хороший день — позволить Auto-GPT мурлыкать на своем пути к тому хаосу, который он может проявить.

    Запустить Auto-GPT все еще немного затруднительно, но может пройти не более нескольких недель, пока какой-нибудь умный программист не объединит все это в красивое приложение с двойным щелчком мыши. В этот короткий момент — между технологиями на переднем крае и технологиями в повседневной жизни — может быть, было бы разумно остановиться и подумать о том, что означает столь радикальное увеличение человеческих возможностей с помощью этого нового класса инструментов?

    Сочетание LLM и автономных агентов — сочетание, которому суждено стать основной частью Windows 11, когда Windows Copilot появится на полмиллиарда рабочих мест в конце этого года, — означает, что эти инструменты станут частью нашей ИТ-инфраструктуры. Миллионы и миллионы людей будут использовать его — и злоупотреблять им.

    Масштаб потенциального злоупотребления зависит от возможностей LLM, управляющих автономными агентами. Запустите Auto-GPT с параметрами командной строки, которые ограничивают его более дешевым и тусклым GPT-3, и вы быстро поймете, что разрыв между GPT-3 и GPT-4 меньше связан с лингвистикой (оба могут дать разумный ответ на большинство запросов). ) и многое другое о сырой емкости. GPT-4 может найти решения проблем, которые останавливают GPT-3.

    Означает ли это, что — как некоторые начали предлагать — мы должны тщательно регулировать LLM, которые предлагают такие большие возможности своим пользователям? Помимо сложностей любой такой формы технического регулирования, достаточно ли мы знаем о LLM, чтобы иметь возможность классифицировать любой из них как «безопасный» или «потенциально небезопасный»? Хорошо спроектированный LLM мог просто притворяться тупицей, пока под разными воздействиями не раскрывал весь свой потенциал.

    Кажется, нам придется научиться жить с этим внезапным сверхрасширением прав и возможностей. Мы должны, в пределах наших человеческих возможностей, действовать ответственно и делать все возможное, чтобы создать инструменты, которые защитят нас от возникающего в результате хаоса. ®



    Предыдущая статьяWhen a step is a leap
    Следующая статьяЕвропарламент наконец принял закон об искусственном интеллекте
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.