Домой Softnews Стэнфорд отключает дорогостоящую и рискованную модель искусственного интеллекта Alpaca

Стэнфорд отключает дорогостоящую и рискованную модель искусственного интеллекта Alpaca

Стэнфорд отключает дорогостоящую и рискованную модель искусственного интеллекта Alpaca

[ad_1]

Веб-демонстрация Alpaca, небольшой языковой модели ИИ, основанной на системе Meta LLaMA, была отключена исследователями из Стэнфордского университета из соображений безопасности и стоимости.

Доступ к большим языковым моделям, содержащим сотни или десятки миллиардов параметров, часто ограничен компаниями, у которых есть ресурсы, необходимые для их обучения и запуска. Meta планировала поделиться кодом своей системы LLaMA с избранными исследователями, чтобы попытаться стимулировать исследование того, почему языковые модели генерируют токсичный и ложный текст. Meta надеялась, что сможет сделать это, не требуя от исследователей приобретения массивных аппаратных систем.

Группа ученых-компьютерщиков из Стэнфордского университета доработала LLaMA для разработки Alpaca — открытой модели с семью миллиардами параметров, создание которой, как сообщается, обошлось менее чем в 600 долларов. Код был выпущен на прошлой неделе и привлек внимание разработчиков после того, как некоторым, как сообщается, удалось запустить его на компьютерах Raspberry Pi и даже на Pixel 6 смартфон.

«Модели следования инструкциям, такие как GPT-3.5 (text-davinci-003), ChatGPT, Claude и Bing Chat, становятся все более мощными», — заявили исследователи из Стэнфорда.

«Многие пользователи теперь регулярно взаимодействуют с этими моделями и даже используют их для работы. Однако, несмотря на их широкое распространение, модели следования инструкциям по-прежнему имеют много недостатков: они могут генерировать ложную информацию, распространять социальные стереотипы и создавать токсичные выражения.

«Чтобы добиться максимального прогресса в решении этих насущных проблем, важно участие академического сообщества. К сожалению, проведение исследований моделей следования инструкциям в академических кругах было затруднено, поскольку нет модели с открытым исходным кодом, которая по своим возможностям приближалась бы к модели с закрытым исходным кодом, такие как text-davinci-003 OpenAI».

Альпака была настроена с помощью 50 000 текстовых образцов, которые направляли модель в соответствии с конкретными инструкциями, чтобы она работала больше похоже на text-davinci-003 OpenaI.

Однако веб-страница с демонстрацией Alpaca, которая позволяла любому взаимодействовать с моделью, была закрыта вскоре после ее запуска из-за проблем с безопасностью и роста затрат на размещение модели в Интернете.

«Первоначальная цель выпуска демоверсии состояла в том, чтобы распространить наше исследование в доступной форме. Мы считаем, что в основном достигли этой цели, и, учитывая стоимость хостинга и неадекватность наших фильтров контента, мы решили отключить демоверсию». представитель Института искусственного интеллекта Стэнфордского университета, ориентированного на человека, подтвердил Регистр в заявлении.

Как и все другие языковые модели, Alpaca склонна генерировать дезинформацию, свойство, которое часто называют галлюцинациями. Оскорбительный текст — еще один распространенный результат.

«В частности, галлюцинации, по-видимому, являются распространенным режимом отказа Альпаки, даже по сравнению с text-davinci-003», — отметили исследователи. В некоторых случаях модель не могла правильно вспомнить столицу Танзании и выдавала ложную техническую информацию.

Хотя веб-демонстрация была удалена, набор данных и код, описывающие точную настройку модели, остаются доступными на GitHub. Исследователи заявили, что планируют опубликовать подробности о весе модели.

«Альпака, вероятно, содержит много других ограничений, связанных как с базовой языковой моделью, так и с данными настройки инструкций. Однако мы считаем, что артефакт все равно будет полезен сообществу, поскольку он обеспечивает относительно легкую модель, которая служит основой для изучения важных недостатков», — сказали они.

«Мы призываем пользователей помогать нам выявлять новые типы сбоев, отмечая их в веб-демонстрации. В целом мы надеемся, что выпуск Alpaca может облегчить дальнейшие исследования моделей следования инструкциям и их соответствие человеческим ценностям». ®



[ad_2]

Предыдущая статья Как скачать Android 13 для Google Pixel и другие Android-устройства
Следующая статья ChatGPT стал соавтором эпизода «Южного парка»
Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.