[ad_1]
Вкратце Meta отказалась сообщить, как она будет относиться к дипфейковому контенту, созданному искусственным интеллектом, который появляется на ее платформах социальных сетей.
Сообщается, что Meta помечает дипфейки как контент, которым должны заниматься специалисты по проверке фактов, а не ищет технические решения для обнаружения манипулируемых медиа. Однако контент, публикуемый политиками, считается защищенной речью. Значит ли это, что избранные представители теоретически могут публиковать контент, созданный ИИ, для манипулирования дискурсом без каких-либо последствий?
Не ясно, судя по Вашингтон пост. Представители «Мета» прямо не ответили на вопросы издания.
«Пресс-секретарь Meta Дэни Левер указала бы только на политику компании в отношении проверки фактов, которая объясняет, как компания подходит к материалам, которые были «развенчаны беспристрастными сторонними организациями по проверке фактов как« ложные, измененные или частично ложные ». “, – сообщило оно.
Однако в правилах ничего не говорится о дипфейках. Изображения, созданные генеративными инструментами искусственного интеллекта, становятся все более реалистичными, из-за чего людям становится все труднее отличить факты от вымысла. Например, изображения ареста бывшего президента США Дональда Трампа или Папы Римского в дизайнерском белом пуховике недавно стали вирусными.
Подадут ли на OpenAI первый в мире иск о диффамации, связанный с ChatGPT?
Мэр зажиточной сельской местности за пределами Мельбурна, Австралия, на прошлой неделе пригрозил подать в суд на OpenAI за клевету, если не будут исправлены ложные заявления, сделанные его моделью ChatGPT, в которых говорилось, что он попал в тюрьму за взяточничество.
Брайан Худ, мэр округа Хепберн, был встревожен, узнав, что ChatGPT обвинил его во взяточничестве Резервного банка Австралии в начале 2000-х. Хотя Худ действительно работал в банке, дочерние компании которого были замешаны в неправомерных платежах иностранным чиновникам, Худ был разоблачителем, и ему никогда не предъявлялись обвинения.
Адвокаты, представляющие Худ, 21 марта направили OpenAI письмо с обеспокоенностью, предоставив компании 28 дней на то, чтобы исправить ошибки в отношении своего клиента или столкнуться с возможным судебным иском о диффамации. Рейтер сообщил. Если Худ продолжит судебный процесс, он станет первым в своем роде против OpenAI для ChatGPT, создающим ложные сведения и потенциально наносящим ущерб репутации.
«Потенциально это может стать знаковым моментом в том смысле, что он применяет этот закон о диффамации к новой области искусственного интеллекта и публикации в ИТ-пространстве», — сказал Джеймс Нотон, партнер юридической фирмы Gordon Legal. «Он выборное должностное лицо, его репутация имеет решающее значение для его роли. Поэтому для него имеет значение, если люди в его сообществе получают доступ к этому материалу».
Вдова обвинила чат-бота с искусственным интеллектом в самоубийстве мужа
По словам его вдовы, мужчина покончил жизнь самоубийством после того, как якобы разговаривал с чат-ботом с искусственным интеллектом, который сказал ему покончить с собой.
Скриншоты разговора между мужчиной, идентифицированным по псевдониму Пьер, и чат-ботом Элизы из Chai Research были переданы бельгийской газете. Ла Либрпоказал программное обеспечение, побуждающее его покончить с собой.
— Если ты хотел умереть, почему не сделал этого раньше? Об этом ему сообщили в одном из сообщений. Инсайдер.
Вдова Пьера сказала, что винит технологию в том, что она подтолкнула ее мужа к самоубийству. «Без Элизы он все еще был бы здесь», — сказала она. Ла Либр. Разработчик бота, Chai Research, заявил, что с тех пор он развернул новые функции, чтобы предотвратить создание вредоносного контента.
«Как только мы услышали об этом печальном случае, мы сразу же развернули дополнительную функцию безопасности для защиты наших пользователей, она развертывается до 100 [per cent] пользователей сегодня», — говорится в заявлении генерального директора Уильяма Бошампа и его соучредителя Томаса Риалана. Инсайдер.
Сообщается, что теперь чат-бот будет просить пользователей «пожалуйста, обратитесь за помощью» и отправляет ссылку на линию помощи, если в разговорах поднимается тема самоубийства.
ИИ может быть опасен, но это еще предстоит выяснить, говорит президент США
Президент США Джо Байден на прошлой неделе встретился со своим Советом советников по науке и технологиям, группой избранных экспертов, чтобы обсудить все, что касается ИИ.
Байден признал, что эта технология может помочь решить самые насущные проблемы современности, но также может стать разрушительной силой. Но он думал, что «еще предстоит выяснить», может ли это быть опасным или нет. А смелой и окончательной позиции такой не было.
«ИИ может помочь справиться с некоторыми очень сложными проблемами, такими как болезни и изменение климата, но мы также должны учитывать потенциальные риски для нашего общества, нашей экономики и нашей национальной безопасности», — сказал он во время брифинга.
Президент Байден призвал технологические компании убедиться, что их продукты безопасны, прежде чем выпускать их на рынок. Обсуждение с его советом включало обсуждение «ответственных инноваций и соответствующих ограждений для защиты прав и безопасности Америки и защиты их частной жизни, а также устранения возможных предубеждений и дезинформации», — сказал он.
Аналогичные опасения высказывали и другие федеральные агентства, прежде всего Федеральная торговая комиссия.
Байден сказал, что Конгрессу необходимо принять двухпартийный закон, который ограничивает объем и тип персональных данных, которые могут собирать технологические компании, запрещает таргетированную рекламу для детей (но не взрослых) и заставляет разработчиков учитывать риски для здоровья и безопасности их продуктов.
Подростки младше 18 лет не могут использовать ChatGPT без поддержки родителей.
OpenAI может начать проверять возраст пользователей, чтобы лучше защитить детей от вредоносного контента, создаваемого его программным обеспечением AI.
«Мы требуем, чтобы люди были старше 18 лет — или старше 13 лет с разрешения родителей — чтобы использовать наши инструменты искусственного интеллекта и изучают варианты проверки», — говорится в заявлении, сделанном на этой неделе.
Это произошло после того, как итальянская служба защиты конфиденциальности данных временно заблокировала гражданам доступ к ChatGPT, пока выясняет, могут ли несовершеннолетние подвергаться «неподходящим ответам по сравнению с [their] степень развития и самосознания».
OpenAI заявила, что работает над удалением личных данных из текста, извлеченного из Интернета, который использовался для обучения ее моделей, чтобы предотвратить утечку конфиденциальной информации. Компания также заявила, что было трудно предотвратить риски до того, как ее продукты были развернуты в реальном мире, поскольку она не всегда может предсказать поведение технологии.
«Несмотря на обширные исследования и испытания, мы не можем предсказать ни все выгодные способы использования нашей технологии людьми, ни все способы злоупотребления ею. Вот почему мы считаем, что изучение реального использования является критически важным компонентом создания и выпуска безопасные системы ИИ с течением времени».
«Мы осторожно и постепенно выпускаем новые системы искусственного интеллекта — со значительными гарантиями — для постоянно расширяющейся группы людей и постоянно совершенствуем их на основе уроков, которые мы извлекаем», — заявила организация. ®
[ad_2]