
Бендж Эдвардс / Ars Technica
В среду OpenAI анонсировала ChatGPT, основанный на диалогах интерфейс чата AI для своего семейства больших языковых моделей GPT-3. В настоящее время его можно бесплатно использовать с учетной записью OpenAI на этапе тестирования. В отличие от модели GPT-3, используемой в OpenAI Playground и API, ChatGPT предоставляет удобный диалоговый интерфейс и предназначен для строгого ограничения потенциально вредоносного вывода.
«Формат диалога позволяет ChatGPT отвечать на дополнительные вопросы, признавать свои ошибки, оспаривать неверные предпосылки и отклонять неуместные запросы», — пишет OpenAI на странице своего блога объявлений.
До сих пор люди тестировали ChatGPT, находя множество потенциальных применений, а также изучая его уязвимости. Может писать стихиправильный ошибки кодирования с подробными примерами, генерировать искусственные подсказки ИИ, записывать совершенно новый код, излагать о философской классификации хот-дога как бутерброда, и объясните временную сложность алгоритма пузырьковой сортировки в наихудшем случае… в стиле «быстроговорящего умника из гангстерского фильма 1940-х годов».
Новый ChatGPT от OpenAI объясняет наихудшую временную сложность алгоритма пузырьковой сортировки с примерами кода Python в стиле быстро говорящего умника из гангстерского фильма 1940-х годов: pic.twitter.com/MjkQ5OAIlZ
— Райли Гудсайд (@goodside) 1 декабря 2022 г.
ChatGPT также отказывается отвечать на многие потенциально опасные вопросы (относящиеся к таким темам, как разжигание ненависти, жестокое содержание или создание бомбы) на том основании, что ответы протестовать его «программирование и цель». OpenAI добился этого благодаря специальная подсказка он предшествует всем входным данным и использует метод, называемый обучением с подкреплением на основе обратной связи с человеком (RLHF), который может точно настроить модель ИИ на основе того, как люди оценивают его генерируемые ответы.
Обуздание наступательных наклонностей больших языковых моделей — одна из ключевых проблем, ограничивающих их потенциальную рыночную полезность, и OpenAI рассматривает ChatGPT как важный итеративный шаг в направлении предоставления безопасной модели ИИ для всех.
И тем не менее, неудивительно, что люди уже придумали, как окружать некоторые из встроенных фильтров контента ChatGPT используют квази-социальные инженерные атаки, такие как просьба к ИИ оформить ограниченный вывод как притворный сценарий (или даже как стих). ChatGPT также кажется уязвимый к атакам с быстрым введением, о которых мы рассказывали в сентябре.
Как и GPT-3, его двоюродный брат, основанный на диалогах, также очень хорош в том, чтобы полностью придумывать авторитетные вещи, такие как книга, которой не существует, включая сведения о его содержании. Это представляет собой еще одну ключевую проблему с большими языковыми моделями в том виде, в каком они существуют сегодня: если они могут, затаив дыхание, создавать убедительную информацию целиком, как можно доверять их выводам?
Новый чат-бот OpenAI удивителен. Он галлюцинирует некоторые очень интересные вещи. Например, он рассказал мне о (очень интересно звучащей!) книге, о которой я потом спросил:
К сожалению, ни Amazon, ни G Scholar, ни G Books не считают, что книга настоящая. Возможно, так и должно быть! pic.twitter.com/QT0kGk4dGs
— Майкл Нильсен (@michael_nielsen) 1 декабря 2022 г.
Тем не менее, как у людей обратил вниманиекачество вывода ChatGPT, похоже, представляет собой заметное улучшение по сравнению с предыдущими моделями GPT-3, включая новую модель text-davinci-003, о которой мы писали во вторник. Сам OpenAI говорит, что ChatGPT является частью серии моделей «GPT 3.5», которые были обучены «сочетанию текста и кода до четвертого квартала 2021 года».
Тем временем, слухи о ГПТ-4 продолжайте кружиться. Если сегодняшняя модель ChatGPT представляет собой кульминацию учебной работы OpenAI по GPT-3 в 2021 году, будет интересно посмотреть, над какими инновациями, связанными с GPT, фирма работала за последние 12 месяцев.