
[ad_1]
Веб-демонстрация Alpaca, небольшой языковой модели ИИ, основанной на системе Meta LLaMA, была отключена исследователями из Стэнфордского университета из соображений безопасности и стоимости.
Доступ к большим языковым моделям, содержащим сотни или десятки миллиардов параметров, часто ограничен компаниями, у которых есть ресурсы, необходимые для их обучения и запуска. Meta планировала поделиться кодом своей системы LLaMA с избранными исследователями, чтобы попытаться стимулировать исследование того, почему языковые модели генерируют токсичный и ложный текст. Meta надеялась, что сможет сделать это, не требуя от исследователей приобретения массивных аппаратных систем.
Группа ученых-компьютерщиков из Стэнфордского университета доработала LLaMA для разработки Alpaca — открытой модели с семью миллиардами параметров, создание которой, как сообщается, обошлось менее чем в 600 долларов. Код был выпущен на прошлой неделе и привлек внимание разработчиков после того, как некоторым, как сообщается, удалось запустить его на компьютерах Raspberry Pi и даже на Pixel 6 смартфон.
«Модели следования инструкциям, такие как GPT-3.5 (text-davinci-003), ChatGPT, Claude и Bing Chat, становятся все более мощными», — заявили исследователи из Стэнфорда.
«Многие пользователи теперь регулярно взаимодействуют с этими моделями и даже используют их для работы. Однако, несмотря на их широкое распространение, модели следования инструкциям по-прежнему имеют много недостатков: они могут генерировать ложную информацию, распространять социальные стереотипы и создавать токсичные выражения.
«Чтобы добиться максимального прогресса в решении этих насущных проблем, важно участие академического сообщества. К сожалению, проведение исследований моделей следования инструкциям в академических кругах было затруднено, поскольку нет модели с открытым исходным кодом, которая по своим возможностям приближалась бы к модели с закрытым исходным кодом, такие как text-davinci-003 OpenAI».
Альпака была настроена с помощью 50 000 текстовых образцов, которые направляли модель в соответствии с конкретными инструкциями, чтобы она работала больше похоже на text-davinci-003 OpenaI.
Однако веб-страница с демонстрацией Alpaca, которая позволяла любому взаимодействовать с моделью, была закрыта вскоре после ее запуска из-за проблем с безопасностью и роста затрат на размещение модели в Интернете.
«Первоначальная цель выпуска демоверсии состояла в том, чтобы распространить наше исследование в доступной форме. Мы считаем, что в основном достигли этой цели, и, учитывая стоимость хостинга и неадекватность наших фильтров контента, мы решили отключить демоверсию». представитель Института искусственного интеллекта Стэнфордского университета, ориентированного на человека, подтвердил Регистр в заявлении.
Как и все другие языковые модели, Alpaca склонна генерировать дезинформацию, свойство, которое часто называют галлюцинациями. Оскорбительный текст — еще один распространенный результат.
«В частности, галлюцинации, по-видимому, являются распространенным режимом отказа Альпаки, даже по сравнению с text-davinci-003», — отметили исследователи. В некоторых случаях модель не могла правильно вспомнить столицу Танзании и выдавала ложную техническую информацию.
Хотя веб-демонстрация была удалена, набор данных и код, описывающие точную настройку модели, остаются доступными на GitHub. Исследователи заявили, что планируют опубликовать подробности о весе модели.
«Альпака, вероятно, содержит много других ограничений, связанных как с базовой языковой моделью, так и с данными настройки инструкций. Однако мы считаем, что артефакт все равно будет полезен сообществу, поскольку он обеспечивает относительно легкую модель, которая служит основой для изучения важных недостатков», — сказали они.
«Мы призываем пользователей помогать нам выявлять новые типы сбоев, отмечая их в веб-демонстрации. В целом мы надеемся, что выпуск Alpaca может облегчить дальнейшие исследования моделей следования инструкциям и их соответствие человеческим ценностям». ®
[ad_2]