В 2015 году рецепт успеха современного первопроходца в области искусственного интеллекта Эндрю Нг заключался в том, чтобы добиться больших успехов в области нейронных сетей, данных и монолитных систем. Теперь этот рецепт создал проблему: над технологиями доминирует всего несколько богатых компаний, у которых есть деньги и численность персонала для создания таких огромных систем.
Но ландшафт не должен зависеть от такой общедоступности, по словам Нг, Baidu и Google Выпускник Brain (и нынешний генеральный директор производителя программного обеспечения Landing.AI). Вместо этого он предлагает подход к тому, чтобы сделать машинное обучение инклюзивным и открытым во время сессии на конференции Nvidia GPU Technology Conference на прошлой неделе.
Нг предложил создать более совершенные аналитические инструменты искусственного интеллекта и знания в предметной области, чтобы, по сути, иметь возможность делать больше с меньшими затратами. Ключом к доступности ИИ является способность понимать закономерности и тенденции из наборов данных меньшего размера.
«Мы знаем, что в потребительских интернет-компаниях у вас может быть миллиард пользователей и гигантский набор данных. Но когда вы переходите к другим отраслям, размеры часто намного меньше», — сказал Нг.
Нг упомянул создание систем ИИ в таких местах, как больницы, школы или фабрики, которым не хватает ресурсов и наборов данных для разработки и обучения моделей ИИ.
«Предполагается, что ИИ изменит все отрасли. Мы пока не видим, чтобы это происходило в том темпе, который нам хотелось бы, и нам нужны инструменты и принципы ИИ, ориентированные на данные, чтобы сделать ИИ полезным для всех, а не только для крупных потребительских интернет-компаний. “, – сказал Нг.
Например, он ссылается на тысячи проектов стоимостью от 1 до 5 миллионов долларов в таких местах, как больницы, которые, как правило, испытывают нехватку бюджета, которые могут быть переведены на более мелкие специализированные системы искусственного интеллекта для улучшения аналитики.
Нг сказал, что он видел несколько производственных сред, в которых было всего 50 изображений, на которых можно было построить систему контроля на основе компьютерного зрения для выявления дефектных деталей.
«Единственный способ для сообщества ИИ построить это, в основном, очень большое количество систем, — это начать создавать вертикальные платформы, объединяющие все эти варианты использования. Это позволяет конечному потребителю создавать собственную систему ИИ, — сказал Нг.
Одним из таких шагов является лучшая «подготовка данных» — в отличие от очистки данных — для итеративного улучшения системы машинного обучения. Идея состоит не в том, чтобы улучшить все данные в большом наборе данных, а в том, чтобы реализовать метод анализа ошибок, который помогает идентифицировать подмножество или часть данных, которые затем можно улучшить.
«Вместо того, чтобы пытаться улучшить все данные, которых слишком много, может быть, вы знаете, что хотите улучшить эту часть данных, но давайте оставим остальные. Вы можете быть гораздо более целенаправленными», — сказал Нг.
Например, если часть изображения идентифицирована как дефектная, анализ ошибок может увеличить масштаб для получения более целевых и конкретных данных, что является лучшим способом обучения систем. Этот подход с малыми данными более эффективен, чем более широкий подход к получению более широких данных, который может быть дорогим и ресурсоемким.
«Это позволяет вам перейти к гораздо более целенаправленному процессу сбора данных, когда вы идете и говорите: «Эй, давайте пойдем на завод и сделаем гораздо больше изображений», — сказал Нг, добавив, что последовательная и эффективная маркировка — это большая часть процесса.
Нг привел конкретный пример анализа ошибок в системах распознавания речи, чтобы отфильтровать автомобильный шум от человеческой речи в звуковом фрагменте. У инженеров возникло искушение создать систему для обнаружения автомобильного шума, фильтрации автомобильного шума, а затем избавления от автомобильного шума.
Более эффективный подход состоит в том, чтобы генерировать больше данных о человеческой речи и фоновом автомобильном шуме, затем использовать анализ ошибок для выделения проблемных данных о автомобильном шуме, а затем использовать подход целевого увеличения и генерации данных для повышения производительности этого проблемного фрагмента данных.
Традиционные подходы к ИИ на основе больших данных по-прежнему хороши, но системы анализа ошибок лучше подходят для ограниченных наборов данных. «Вы решаете, что вы хотите улучшить, и связываете стоимость сбора дополнительных данных — [whether] это разумно по сравнению с потенциальной выгодой», — сказал Нг.
По его словам, может потребоваться десятилетие и тысячи исследовательских работ, чтобы конкретизировать последовательную модель глубокого обучения, ориентированную на данные.
«Мы все еще находимся на ранних этапах выяснения принципов, а также инструментов для систематического ввода данных», — сказал Нг, добавив: «Я с нетерпением жду, когда многие люди сделают это, а также отметят их работу». .” ®