AGI остается далекой мечтой, несмотря на бум LLM

    0
    1


    Особенность Еще один день, еще один заголовок. На прошлой неделе летний стартап привлек 1,3 миллиарда долларов от инвесторов, включая Microsoft и Nvidia, оценив Inflection AI в 4 миллиарда долларов.

    Нелепые оценки, подобные этим, соперничают с предупреждениями о экзистенциальных рисках, массовых потерях рабочих мест и угрозах смерти беспилотников-убийц в шумихе вокруг ИИ в СМИ. Но под заголовками бурлят споры о том, кто будет владеть интеллектуальным ландшафтом, а 60 лет научных исследований, возможно, заметены под ковер. На карту поставлено, когда он сравняет людей с чем-то, называемым общим искусственным интеллектом (AGI).

    Входит профессор экономики Йельской школы менеджмента Джейсон Абалак, который в мае попал в твиттер заявить: «Если вы не согласны с тем, что ОИИ скоро появится, вам нужно объяснить, почему ваши взгляды более информированы, чем эксперты-исследователи ИИ».

    Также известная как сильный ИИ, концепция ОИИ существует с 1980-х годов как средство различения системы, которая может производить результаты, и системы, которая может делать это посредством мышления.

    Недавний всплеск интереса к этой теме связан с OpenAI GPT-4, большой языковой моделью, которая основана на обработке огромных объемов текста, преобразовании ассоциаций между ними в векторы, которые могут быть преобразованы в жизнеспособные результаты во многих формах, включая поэзию и компьютерный код.

    По данным KPMG, после ряда впечатляющих результатов, в том числе сдачи юридического Единого экзамена на адвоката, и смелых заявлений о его экономических преимуществах — увеличения производительности труда в Великобритании на 31 миллиард фунтов стерлингов (39,3 миллиарда долларов) — сторонники становятся все смелее.

    В прошлом месяце генеральный директор OpenAI Сэм Альтман заявил аудитории в Индии: «Я вырос, неявно полагая, что интеллект — это что-то вроде особой человеческой вещи и отчасти волшебной. А теперь я думаю, что это своего рода фундаментальное свойство материи. ..”

    Microsoft, вложившая в OpenAI в январе 10 миллиардов долларов, проводит собственные эксперименты с GPT-4. Команда под руководством Себастьяна Бубека, старшего главного научного руководителя фонда машинного обучения софтверного гиганта, пришла к выводу. [PDF] его «навыки ясно демонстрируют, что GPT-4 может манипулировать сложными понятиями, что является основным аспектом рассуждений».

    Но ученые думали о мышлении гораздо дольше, чем Альтман и Бубек. В 1960 году американские психологи Джордж Миллер и Джером Брунер основали Гарвардский центр когнитивных исследований, что стало хорошей отправной точкой для зарождения дисциплины, хотя некоторые направления восходят к 1940-м годам. Те, кто унаследовал это научное наследие, критически относятся к грандиозным заявлениям экономистов и ученых-компьютерщиков о больших языковых моделях и генеративном ИИ.

    Доктор Андреа Мартин, Max Руководитель исследовательской группы Planck Research, занимающейся языками и вычислениями в нейронных системах, сказал, что AGI был «отвлекающим маневром».

    «Моя проблема связана с понятием общего интеллекта самого по себе. Он в основном предсказательный: один тест в значительной степени предсказывает, как вы наберете баллы в другом тесте. Такое поведение или показатели могут быть коррелированы с некоторыми эссенциалистскими чертами. [but] у нас очень мало доказательств этого», — сказала она. Регистр.

    Мартин также с пренебрежением относится к использованию теста Тьюринга, предложенного Аланом Тьюрингом, сыгравшим основоположную роль в компьютерных науках, искусственном интеллекте и когнитивной науке, в качестве планки для демонстрации ИИ человеческого мышления или интеллекта.

    Тест предназначен для оценки того, может ли машина обмануть людей, заставив их думать, что она человек, посредством сеанса вопросов и ответов на естественном языке. Если оценщик-человек не может надежно отличить невидимую машину от невидимого человека с помощью текстового интерфейса, значит, машина прошла испытание.

    И ChatGPT, и GoogleИИ прошел тест, но использовать это как доказательство того, что компьютеры мыслят, — это «просто ужасное неправильное прочтение Тьюринга», — сказал Мартин.

    «Его намерения всегда были связаны с инженерной или компьютерной концепцией, а не с концепцией когнитивной науки или психологии».

    Заслуженный профессор психологии и неврологии Нью-Йоркского университета Гэри Маркус также раскритиковал тест как средство оценки машинного интеллекта или познания.

    Еще одна проблема с подходом LLM заключается в том, что он фиксирует только те аспекты языка, которые основаны на статистике, а не пытается понять структуру языка или его способность фиксировать знания. «По сути, это инженерная цель. И я не хочу сказать, что это не относится к науке, но я просто думаю, что по определению это другая цель», — сказал Мартин.

    Заявление о том, что LLM умны или могут рассуждать, также сталкивается с проблемой прозрачности методов, используемых для разработки. Несмотря на свое название, OpenAI не раскрывает, как он использовал обучающие данные или отзывы людей для разработки некоторых своих моделей.

    «Модели получают много отзывов о том, каковы веса параметров для приятных ответов, которые отмечаются как хорошие. В 90-х и нулевых это было бы запрещено на конференциях по когнитивным наукам», — сказал Мартин.

    Мартин сказал: «Идея о том, что корреляции достаточно, что она дает вам некую значимую причинно-следственную структуру, неверна».

    Тем не менее, большие языковые модели могут быть ценными, даже если их ценность преувеличена их сторонниками, сказала она.

    «Недостаток в том, что они могут замалчивать многие важные открытия… в философии когнитивной науки мы не можем отказаться от этого и не можем уйти от этого».

    Однако не все в когнитивной науке с этим согласны. У Тали Шарот, профессора когнитивной неврологии Университетского колледжа Лондона, другая точка зрения. «Конечно, использование языка очень впечатляет: придумывание аргументов и такие навыки, как кодирование», — сказала она.

    «Есть какое-то недопонимание между интеллектом и бытием человека. Интеллект — это способность правильно учиться, приобретать знания и навыки.

    «Таким образом, эти языковые модели, безусловно, способны учиться, приобретать знания и приобретать навыки. Например, если кодирование — это навык, то он способен приобретать навыки — это не значит, что он человеческий, ни в каком смысле».

    Одним из ключевых отличий является то, что у ИИ нет свободы действий, а LLM не думают о мире так, как это делают люди. «Они размышляют в ответ — может быть, мы делаем то же самое, но я не думаю, что это правда. Как мне видится, они вообще не думают», — сказал Шарот.

    Вспомнить все

    Касуэлл Бэрри, профессор кафедры клеточной биологии и биологии развития Калифорнийского университета в Лондоне, работает над раскрытием нейронной основы памяти. Он говорит, что OpenAI сделала большую ставку на подход к ИИ, который многие в этой области не считали плодотворным.

    В то время как встраивание слов и языковые модели были хорошо изучены в этой области, OpenAI полагал, что если получить больше данных и «по сути, впитать все, что человечество когда-либо написало, что вы можете найти в Интернете, тогда может произойти что-то интересное», — сказал он.

    «Оглядываясь назад, все говорят, что это имеет смысл, но на самом деле знали, что это была огромная ставка, и она полностью обошла многих крупных игроков в мире машинного обучения, таких как DeepMind. Они не преследовали это направление исследований. Считалось, что вдохновение следует искать в мозгу, и именно так мы доберемся до ОИИ», — сказал Барри, чья работа частично финансируется благотворительной организацией Wellcome, DeepMind и Nvidia, занимающейся исследованиями в области здравоохранения.

    Хотя OpenAI мог удивить промышленность и научное сообщество успехом своего подхода, рано или поздно он может выйти из строя, не обязательно приближаясь к AGI, утверждал он.

    «OpenAI буквально всосала большую часть легкодоступных цифровых текстов в Интернете, вы не можете просто получить в 10 раз больше, потому что вы должны откуда-то взять это. вы используете его, но на самом деле ему все еще не хватает некоторых способностей. Нет твердых указаний на то, что он может генерировать абстрактные концепции и манипулировать ими».

    Между тем, если цель состоит в том, чтобы добраться до ОИИ, эта концепция все еще плохо понята и ее трудно определить, а ее тяжелая история окрашена евгеникой и культурными предубеждениями, сказал он.

    В своей статье [PDF]после заявления о создании «ранней (но все еще неполной) версии системы общего искусственного интеллекта (AGI)», Microsoft больше говорит об определении AGI.

    «Мы используем AGI для обозначения систем, которые демонстрируют широкие возможности интеллекта, включая рассуждение, планирование и способность учиться на собственном опыте, и с этими возможностями на уровне человека или выше», — говорится в документе.

    Абдуктивное рассуждение

    Специалисты по когнитивным наукам и неврологии — не единственные, кто настаивает на своем. Грэди Буч, инженер-программист, прославившийся разработкой унифицированного языка моделирования, поддержал сомневающиеся, заявив в Твиттере, что ОИИ не произойдет ни при нашей жизни, ни в ближайшее время из-за отсутствия «надлежащей архитектуры семантики причинно-следственных связей, абдуктивных рассуждений, рассуждений здравого смысла, теории разума и самости или субъективных опыт.”

    Грибовидная индустрия вокруг LLM, возможно, прямо сейчас поджаривает рыбу покрупнее. OpenAI столкнулся с коллективным иском за очистку данных, защищенных авторским правом, в то время как существуют проблемы с этикой обучающих данных, с одно исследование, показывающее они питают многочисленные расовые и социальные предубеждения.

    Если LLM могут давать достоверные ответы на вопросы и код, который работает, возможно, это оправдывает смелые заявления их создателей — просто как инженерное упражнение.

    Но для доктора Мартина такой подход недостаточен и упускает возможность учиться в других областях.

    «Это восходит к тому, интересуетесь ли вы наукой или нет. Наука — это придумывание объяснений, онтологий и описаний явлений в мире, которые затем имеют механистический или причинно-следственный аспект структуры. Инженерия принципиально не об этом. Но, цитируя [physicist] Max Планк, озарение должно предшествовать применению. Понимание того, как что-то работает, само по себе может привести нас к лучшим приложениям».

    В погоне за поиском приложений для широко разрекламированных LLM-технологий было бы лучше не игнорировать десятилетия когнитивной науки. ®



    Предыдущая статьяКитай говорит, что местное производство полупроводников не соответствует мировому уровню
    Следующая статьяiPhone 15 – все четыре модели ожидают большие обновления батарей
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.