ИИ меняет представление ученых об изучении языков

    0
    50


    Достаточно ли жизни в богатом языками мире, чтобы научить ребенка грамматике?
    Увеличить / Достаточно ли жизни в богатом языками мире, чтобы научить ребенка грамматике?

    В отличие от тщательно прописанных диалогов, которые можно найти в большинстве книг и фильмов, язык повседневного общения имеет тенденцию быть беспорядочным и неполным, полным фальстартов, прерываний и людей, переговаривающихся друг с другом. От случайных разговоров между друзьями до ссор между братьями и сестрами и официальных дискуссий в зале заседаний — подлинный разговор хаотичен. Кажется чудом, что любой человек вообще может выучить язык, учитывая случайный характер лингвистического опыта.

    По этой причине многие лингвисты, в том числе Ноам Хомский, основатель современной лингвистики, считают, что изучающим язык требуется своего рода клей, чтобы обуздать непослушную природу повседневного языка. И этим клеем является грамматика: система правил для создания грамматических предложений.

    Дети должны иметь грамматический шаблон, встроенный в их мозг, чтобы помочь им преодолеть ограничения своего языкового опыта — по крайней мере, так думают.

    Этот шаблон, например, может содержать «суперправило», определяющее, как новые фрагменты добавляются к существующим фразам. Затем детям нужно только узнать, является ли их родной язык языком, например, английским, где глагол стоит перед дополнением (как в «Я ем суши»), или языком, подобным японскому, где глагол стоит после дополнения (в японском языке то же предложение построено как «Я ем суши»).

    Но новое понимание изучения языков исходит из неожиданного источника: искусственного интеллекта. Новое поколение больших языковых моделей ИИ может писать газетные статьи, стихи и компьютерный код и правдиво отвечать на вопросы после того, как подверглось огромному количеству языковых входных данных. И что еще более удивительно, все они делают это без помощи грамматики.

    Грамматический язык без грамматики

    Даже если их выбор слов иногда бывает странным, бессмысленныйили содержит расистские, сексистские и другие пагубные предубеждения, ясно одно: подавляющее большинство выходных данных этих языковых моделей ИИ грамматически правильны. И все же в них нет запрограммированных грамматических шаблонов или правил — они полагаются только на лингвистический опыт, каким бы запутанным он ни был.

    GPT-3, возможно, самая известная из этих моделей, представляет собой гигантскую нейронную сеть глубокого обучения со 175 миллиардами параметров. Он был обучен предсказывать следующее слово в предложении, учитывая то, что было до этого среди сотен миллиардов слов из Интернета, книг и Википедии. Когда он делал неверный прогноз, его параметры корректировались с помощью алгоритма автоматического обучения.

    Примечательно, что GPT-3 может генерировать правдоподобный текст, реагируя на такие подсказки, как «Краткое содержание последнего фильма «Форсаж»…» или «Напишите стихотворение в стиле Эмили Дикинсон». Кроме того, GPT-3 может отвечать на аналогии уровня SAT, вопросы на понимание прочитанного и даже решать простые арифметические задачи — все это от обучения тому, как предсказывать следующее слово.

    Модель ИИ и человеческий мозг могут генерировать один и тот же язык, но делают ли они это одинаково?
    Увеличить / Модель ИИ и человеческий мозг могут генерировать один и тот же язык, но делают ли они это одинаково?

    Just_Super/E+ через Гетти

    Сравнение моделей ИИ и человеческого мозга

    Однако на этом сходство с человеческим языком не заканчивается. Исследование, опубликованное в журнале Nature Neuroscience, показало, что эти искусственные сети глубокого обучения, похоже, используют те же вычислительные принципы, что и человеческий мозг. Исследовательская группа под руководством нейробиолога Ури Хассона сначала сравнила, насколько хорошо GPT-2 — «младший брат» GPT-3 — и люди могут предсказать следующее слово в истории, взятой из подкаста «Эта американская жизнь»: люди и ИИ предсказывал одно и то же слово почти в 50% случаев.

    Исследователи записывали активность мозга добровольцев во время прослушивания истории. Лучшим объяснением паттернов активации, которые они наблюдали, было то, что человеческий мозг — подобно GPT-2 — не просто использовал одно или два предшествующих слова при предсказании, но полагался на накопленный контекст до 100 предыдущих слов. В целом авторы заключают: «Наше обнаружение спонтанных предсказательных нейронных сигналов, когда участники слушают естественную речь, предполагает, что активное предсказание может лежать в основе обучения людей языку на протяжении всей жизни».

    Возможная проблема заключается в том, что эти новые языковые модели ИИ получают много входных данных: GPT-3 был обучен на лингвистическом опыте, эквивалентном 20 000 человеко-лет. Но предварительное исследование, которое еще не было рецензировано, показало, что GPT-2 все еще может моделировать предсказания следующего слова человека и активацию мозга, даже если он обучен всего на 100 миллионах слов. Это вполне соответствует количеству лингвистической информации, которую средний ребенок может услышать в течение первых 10 лет жизни.

    Мы не предлагаем, чтобы GPT-3 или GPT-2 изучали язык точно так же, как это делают дети. Действительно, эти модели ИИ, похоже, мало что понимают из того, что они говорят, в то время как понимание имеет основополагающее значение для использования человеческого языка. Тем не менее, эти модели доказывают, что учащийся — пусть и силиконовый — может достаточно хорошо выучить язык от простого воздействия, чтобы создавать совершенно правильные грамматические предложения и делать это способом, напоминающим обработку человеческого мозга.

    Больше туда и обратно дает больше изучения языка.
    Увеличить / Больше туда и обратно дает больше изучения языка.

    Переосмысление изучения языка

    В течение многих лет многие лингвисты считали, что изучение языка невозможно без встроенного шаблона грамматики. Новые модели ИИ доказывают обратное. Они демонстрируют, что способность производить грамматический язык может быть изучена только на основе лингвистического опыта. Точно так же мы предполагаем, что детям не нужна врожденная грамматика для изучения языка.

    «Детей нужно видеть, а не слышать», — гласит старая поговорка, но последние языковые модели ИИ предполагают, что нет ничего более далекого от истины. Вместо этого детей нужно как можно больше вовлекать в разговор, чтобы помочь им развить свои языковые навыки. Лингвистический опыт, а не грамматика, является ключом к тому, чтобы стать компетентным пользователем языка.

    Мортен Х. Кристиансен — профессор психологии Корнельского университета, а Пабло Контрерас Калленс — доктор философии. студент психологии Корнельского университета.

    Эта статья переиздана из The Conversation под лицензией Creative Commons. Прочитайте оригинальную статью.



    Предыдущая статьяIntel использует USB4 v2 для Thunderbolt следующего поколения со скоростью 120 Гбит/с
    Следующая статьяСледующая спецификация Thunderbolt утроит пропускную способность до 120 Гбит/с — с уловом
    Петр Григорин
    Интересуется софтом, разработкой и использование новых приложений, технология искусственного интеллекта. Этот писатель - человек с техническими знаниями, который увлечен разработкой программного обеспечения и использованием новых приложений. Его особенно интересуют технологии искусственного интеллекта и то, как они могут быть использованы для улучшения различных отраслей промышленности и повседневной жизни. Обладая прочной основой в области информатики и острым взглядом на инновации, этот писатель обязательно привнесет ценные идеи и соображения в любую дискуссию на эти темы. Пишет ли он о последних открытиях в области ИИ или исследует потенциал новых программных инструментов, его работа обязательно будет увлекательной и заставляющей задуматься.