[ad_1]
Генеральный директор OpenAI Сэм Альтман чувствует себя «ужасно» из-за того, что ChatGPT слил истории чатов некоторых пользователей в понедельник, и обвинил в путанице ошибку библиотеки с открытым исходным кодом.
В паре твитов Альтман признался, что недостатокчто позволяло некоторым пользователям видеть фрагменты чужих разговоров — не полное содержание, а недавние заголовки — с ботом вопросов и ответов.
«У нас была серьезная проблема в ChatGPT из-за ошибки в библиотеке с открытым исходным кодом, для которой сейчас выпущено исправление, и мы только что закончили проверку», — Альтман. сказал.
«Небольшой процент пользователей смог увидеть заголовки истории разговоров других пользователей. Мы ужасно переживаем из-за этого».
Из-за ошибок в коде пользователи ChatGPT не смогут получить доступ к большинству своих разговоров от 20 марта. добавлен.
По словам Альтмана, OpenAI также планирует опубликовать техническую информацию о нарушении конфиденциальности. Бывший некоммерческий бизнес не ответил на Регистрзапросы о том, какая библиотека с открытым исходным кодом содержала ошибочный код и сколько пользователей пострадало.
Пока нет информации о том, когда будет выпущено исправление и когда будет опубликовано вскрытие.
В то время как пользователи по понятным причинам недовольны утечкой разговоров, сказал ведущий специалист по данным «Лаборатории Касперского». Регистр что пользователи ChatGPT должны читать мелкий шрифт и забыть о любой иллюзии конфиденциальности.
«ChatGPT предупреждает при входе в систему, что «разговоры могут быть проверены нашими тренерами по ИИ», — сказал Влад Тушканов, отметив, что веб-демонстрация и API для бизнеса используют разные интерфейсы. «Поэтому с самого начала у пользователей не должно было быть никаких ожиданий конфиденциальности при использовании веб-демонстрации ChatGPT».
Он добавил, что у Касперского есть следующий совет: «Относитесь к любому взаимодействию с чат-ботом (или любой другой службой, если уж на то пошло) как к разговору с совершенно незнакомым человеком. Вы не знаете, где окажется контент, поэтому воздержитесь от раскрытия информации». любую личную или конфиденциальную информацию о себе или других людях».
А пока посмотрите на новые игрушки!
В четверг OpenAI объявила о выпуске плагинов ChatGPT для подключения чат-бота к сторонним приложениям, что позволяет чат-боту делать такие вещи, как заказ еды через Instacart от имени пользователей или бронирование авиабилетов на Expedia.
Плагины также позволяют ChatGPT получать доступ к информации в режиме реального времени, такой как курсы акций и спортивные результаты, или документы компании, хранящиеся на вашем устройстве — если вы доверяете их чат-боту.
«Вы можете установить плагины, которые помогут решить самые разные задачи», — Альтман. твитнул. «Мы рады видеть, что создают разработчики!»
Без сомнения, воры данных тоже. ®
[ad_2]
онфиденциальности на своем сайте.
на техническая информация.
Генеральный директор OpenAI Сэм Альтман чувствует ужас из-за того, что библиотека с открытым исходным кодом вызвала некоторые проблемы с ChatGPT, в которой часть пользователей могли видеть заголовки чужих разговоров. Он признал эту проблему и отметил, что уже было исправление, и идет проверка. С этого времени пользователи ChatGPT не могут получить доступ к своим разговорам. Альтман также заявил, что OpenAI планирует опубликовывать техническую информацию о нарушении к