
[ad_1]
Вкратце Отмеченные наградами писатели Пол Тремблей и Мона Авад, а также комик Сара Сильверман и писатели Кристофер Голден и Ричард Кадри по отдельности подали в суд на OpenAI и обвинили стартап в обучении ChatGPT их книгам без согласия, что нарушает законы об авторских правах.
В исках, поданных в Северный окружной суд Сан-Франциско, говорится, что ChatGPT генерирует точные резюме своих книг, и подчеркивается это как доказательство того, что программное обеспечение обучалось на их работе.
«OpenAI сделала копии книг истцов в процессе обучения языковым моделям OpenAI без разрешения истцов. В частности, OpenAI скопировала как минимум книгу истца Тремблея. Хижина на краю света; и книги истца Авада 13 способов взглянуть на толстую девушку и Кролик“, согласно судебным документам [PDF] в первом костюме.
Во втором костюме Сильверман и др. [PDF], сделайте аналогичные заявления. Трио также подчеркивает, что их книги, в том числе книга Сильвермана, комическая автобиография под названием ночник, содержат определенную информацию об управлении авторскими правами, которая была бы включена в законные книги, защищенные авторским правом. Это является основанием для третьего обвинения, которое они выдвигают против OpenAI, и утверждают, что оно нарушило DCMA, удалив информацию об управлении авторскими правами. В иске говорится: «ChatGPT ни в коем случае не воспроизводил какую-либо информацию об управлении авторскими правами, которую истцы включали в свои опубликованные работы».
OpenAI обучает свои большие языковые модели, извлекая текст из Интернета, и, хотя он не раскрыл, какие именно ресурсы он проглотил, стартап признался, что обучал свои системы на сотнях тысячах книг, защищенных авторским правом и хранящихся на веб-сайтах. как Sci-Hub или Bibliotik.
Все авторы считают, что их книги были прочитаны ChatGPT без их разрешения и что OpenAI получает прибыль от их работы без указания авторства. Они подали коллективный иск для присоединения других авторов и требуют возмещения убытков и постоянных судебных запретов, чтобы помешать OpenAI продолжать свои действия.
Adobe запрещает сотрудникам использовать сторонние инструменты генеративного искусственного интеллекта
Софтверный гигант Adobe запретил сотрудникам использовать свои личные адреса электронной почты или корпоративные кредитные карты для регистрации и оплаты продуктов и услуг машинного обучения.
Директор по информационным технологиям Синди Стоддард предупредила сотрудников о необходимости защищать данные технологического гиганта и не использовать генеративные инструменты искусственного интеллекта таким образом, чтобы это могло нанести ущерб его бизнесу, клиентам или рабочей силе. Бизнес-инсайдер сообщил.
Adobe не запрещает сторонние приложения, такие как ChatGPT, напрямую, но имеет строгие ограничения на то, что разрешено, а что нет в таких системах. Сотрудники не должны раскрывать свои запросы ввода, загружать личные данные Adobe или код для создания черновиков электронной почты, обобщения документов или исправления ошибок в программном обеспечении.
Им также следует убедиться, что контент из их разговоров не используется в качестве обучающих данных. Кроме того, они не могут зарегистрироваться для использования этих инструментов со своими частными адресами электронной почты или оплатить подписку корпоративными кредитными картами (или заплатить личной картой и вернуть ее в качестве расхода).
Adobe присоединяется к растущему списку компаний, включая Amazon, Samsungи Apple, которые ограничили или запретили сотрудникам использовать приложения генеративного ИИ из соображений конфиденциальности данных.
Минобороны США тестирует LLM
Пентагон тестирует способность пяти больших языковых моделей решать текстовые задачи, которые однажды могут помочь в принятии решений и боевых действиях.
Модели кормят сверхсекретными документами и просят помочь спланировать и решить гипотетические сценарии, такие как глобальный кризис. Некоторые задачи, такие как запрос информации от определенных воинских частей, иногда могут занимать несколько часов или дней, но большие языковые модели могут предоставлять данные в течение нескольких минут.
Сообщается, что один тест выполнил запрос всего за десять минут. Но эта технология, как известно, сложна, ее производительность может зависеть от того, как сформулирован запрос, и она склонна генерировать ложную информацию.
«Это не означает, что он готов к прайм-тайм прямо сейчас. Но мы просто сделали это в прямом эфире. Мы сделали это с секретными данными», — сказал Мэтью Стромейер, полковник ВВС США, который сказал Bloomberg, что военные могут использовать большой язык. скоро модели.
Пентагон не сообщил, какие модели они тестируют. Однако Scale AI, как сообщается, показал, что одним из них является система Донована, ориентированная на защиту. Другими потенциальными системами могут быть модели OpenAI, предлагаемые через платформу Microsoft Azure Government, или другие инструменты, созданные оборонными подрядчиками, такими как Palantir или Anduril. ®
[ad_2]