Похоже, что Meta планирует серьезно заняться искусственным интеллектом — с изображениями ИИ в Instagram и чат-ботами, стремящимися собирать больше личных данных от пользователей…
ИИ-изображения в Instagram
Разработчик и реверс-инженер Алессандро Палуцци обнаружил в приложении Instagram код, предназначенный для маркировки изображений ИИ.
Создатель или Мета сказал, что этот контент был создан или отредактирован Алом.
Изображение создано Meta Al
Что такое генеративный Al?
Люди используют инструменты Al для создания текста, изображений и видео из отдельных описаний.
Как узнать, когда в сообщениях используется Al
Контент, созданный с помощью Al, обычно помечается, чтобы его можно было легко идентифицировать.
Мета отказался комментировать Engadgetно генеральный директор Марк Цукерберг сделал несколько довольно важных намеков в отчете о прибылях и убытках на прошлой неделе.
Вы можете представить множество способов, которыми ИИ может помочь людям общаться и выражать себя в наших приложениях: творческие инструменты, которые упрощают и делают более увлекательным обмен контентом, агенты, которые действуют как помощники, тренеры или которые могут помочь вам взаимодействовать с компаниями и создателями, и более.
Изображение выше — это фотография Беньямина Бохлоули, которая была расширена по горизонтали с помощью бета-версии генеративной функции искусственного интеллекта Photoshop.
Цукерберг особенно ясно дал понять, что мы можем ожидать чат-ботов (они же «агенты, которые действуют как помощники»), и Файнэншл Таймс имеет более подробную информацию.
Три человека со знанием планов [said] некоторые из чат-ботов, которых сотрудники окрестили «персонажами», принимают форму разных персонажей.
По словам человека, знакомого с планами, компания изучила возможность запуска одного, который говорит как Авраам Линкольн, и другого, который советует варианты путешествий в стиле серфера.
В нем говорится, что первый из них может запуститься в сентябре.
Боязнь конфиденциальности и дезинформации чат-бота
Хотя это может показаться забавным, эксперты говорят, что компания, скорее всего, будет использовать их для сбора большего количества личных данных о пользователях, чтобы затем показывать более персонализированную рекламу.
«Когда пользователи взаимодействуют с чат-ботом, он действительно раскрывает гораздо больше своих данных компании, так что компания может делать с этими данными все, что захочет», — сказал Равит Дотан, советник по этике ИИ и соучредитель Collaborative AI. Лаборатория ответственности Питтсбургского университета.
Еще одним опасением является известное явление, когда генеративные чат-боты с искусственным интеллектом просто выдумывают фальшивые факты, которые люди затем принимают за настоящие.
Мета, вероятно, привлечет внимание экспертов, следящих за чат-ботами, на наличие признаков предвзятости или риска того, что они делятся опасными материалами или дезинформацией, известной как «галлюцинации».
Предыдущие боты, созданные компанией, действительно быстро начали распространять дезинформацию.