[ad_1]
Apple стала последней компанией, запретившей внутреннее использование ChatGPT и подобных продуктов, по иронии судьбы так же, как чат-бот OpenAI появился на iOS в виде мобильного приложения.
Новость о переезде была опубликована вчера Журнал “Уолл Стрит, который рассмотрел внутренний документ Apple, информирующий сотрудников о запрете. Согласно документу, опасения Apple совпадают с опасениями других корпораций, которые также запрещают внутреннее использование ChatGPT, а именно то, что ИИ может разглашать конфиденциальную внутреннюю информацию, которой он поделился.
Сообщается, что Apple также запретила инструмент автоматического кодирования GitHub Copilot. В течение некоторого времени ходили слухи о планах Apple в отношении искусственного интеллекта, и компания, возможно, работает над собственным LLM, чтобы конкурировать с ChatGPT и Google Бард.
Купертино вряд ли одинок в своем решении запретить использование поддерживаемого Microsoft чат-бота: он присоединяется к постоянно растущему списку таких компаний, как Amazon и ряду банков, включая JPMorgan Chase, Bank of America, Citigroup, Deutsche Bank и им подобные.
конкурент Apple Samsung также перешел к запрету внутреннего использования ChatGPT – дважды – из-за неудач. Samsung сняли запрет на использование ChatGPT сотрудниками в марте, но менее чем через месяц корейские СМИ сообщили, что Samsung сотрудники обратились к ChatGPT за помощью в устранении ошибок исходного кода, исправлении программного обеспечения, используемого для сбора данных измерений и результатов, а также в преобразовании протоколов совещаний в протоколы.
Samsung ранее в этом месяце повторно заблокировал ChatGPT, чтобы предотвратить повторение подобных инцидентов.
Проблема с ChatGPT, Google Боты Bard и LLM заключаются в том, что передаваемые им данные часто используются для дальнейшего обучения ботов, что, как предупредило британское шпионское агентство GCHQ, может легко привести к раскрытию конфиденциальной деловой информации, если другие зададут аналогичные вопросы.
Запросы также видны поставщикам ботов, таким как OpenAI и Googleкоторые могут сами просматривать контент, передаваемый их языковым моделям, что еще больше повышает риск раскрытия тщательно охраняемых корпоративных секретов.
Аварии тоже случаются
Наряду с риском того, что бот поделится конфиденциальной информацией, пытаясь помочь другим, существует также вероятность того, что такие компании, как OpenAI, просто не создают лучшее программное обеспечение.
В марте OpenAI признала ошибку в библиотеке с открытым исходным кодом. redis-py
сделал так, что фрагменты тет-а-тет людей с ChatGPT были доступны для просмотра другими пользователями. Эта ошибка, по словам ведущего аналитика данных в «Лаборатории Касперского» Влада Тушканова, должна служить напоминанием о том, что чат-боты LLM не обеспечивают пользователям реальной конфиденциальности.
«ChatGPT предупреждает при входе в систему, что «разговоры могут быть проверены нашими тренерами по ИИ»… Таким образом, с самого начала у пользователей не должно было быть никаких ожиданий конфиденциальности при использовании веб-демонстрации ChatGPT», — сказал Тушканов.
В прошлом месяце OpenAI добавила пользователям ChatGPT возможность отключать историю чата, что не только скрывает чат на боковой панели интерфейса ChatGPT, но и предотвращает использование чатов с отключенной историей для обучения моделей OpenAI.
OpenAI заявила, что по-прежнему будет сохранять разговоры в течение 30 дней, когда история отключена, и будет иметь возможность просматривать их, «когда это необходимо для отслеживания злоупотреблений, прежде чем окончательно удалить», — заявила компания, поддерживаемая Microsoft.
В том же объявлении OpenAI также заявила, что скоро развернет бизнес-версию ChatGPT, которая предлагает предприятиям больший контроль над использованием их данных, что, по словам OpenAI, означает, что разговоры ChatGPT Business не будут использоваться для обучения своих LLM.
Мы задали OpenAI несколько дополнительных вопросов о ChatGPT Business, например, смогут ли сотрудники OpenAI просматривать чаты и когда он может быть выпущен, и обновим эту историю, если получим ответ. ®
[ad_2]