Европол предупреждает, что ChatGPT уже помогает преступникам

    0
    13


    Преступники уже используют ChatGPT для совершения преступлений, говорится в отчете Европола, опубликованном в понедельник, в котором подробно описывается, как языковые модели ИИ могут способствовать мошенничеству, киберпреступности и терроризму.

    Созданный OpenAI, ChatGPT был выпущен в ноябре 2022 года и быстро стал интернет-сенсацией, поскольку пользователи сети стекались на сайт, чтобы чат-бот создавал эссе, шутки, электронные письма, программный код и всевозможный другой текст.

    Теперь правоохранительный орган Европейского Союза, Европол, подробно рассказал, как эту модель можно использовать в более гнусных целях. На самом деле, люди уже используют его для осуществления незаконной деятельности, утверждают полицейские.

    «Влияние этих типов моделей на работу правоохранительных органов уже можно предвидеть», — говорится в отчете Европола. [PDF]. «Преступники, как правило, быстро используют новые технологии, и было замечено, что они быстро придумывают конкретные преступные действия, предоставляя первые практические примеры всего через несколько недель после публичного выпуска ChatGPT».

    Хотя ChatGPT лучше отказывается выполнять потенциально опасные запросы ввода, пользователи нашли способы обойти систему фильтрации контента OpenAI. Некоторые заставили его выдать инструкции о том, как, например, создать самодельную бомбу или крэк-кокаин. Пользователи сети могут попросить ChatGPT узнать, как совершать преступления, и получить пошаговое руководство.

    «Если потенциальный преступник ничего не знает о конкретной области преступления, ChatGPT может значительно ускорить процесс исследования, предлагая ключевую информацию, которую затем можно дополнительно изучить на последующих этапах. Таким образом, ChatGPT можно использовать для изучения огромного количества потенциальных преступников. области преступности без предварительных знаний, начиная от того, как проникнуть в дом, заканчивая терроризмом, киберпреступностью и сексуальным насилием над детьми», — предупредил Европол.

    Агентство признало, что вся эта информация уже находится в открытом доступе в Интернете, но модель упрощает поиск и понимание того, как совершать конкретные преступления. Европол также подчеркнул, что эта модель может использоваться для выдачи себя за цели, содействия мошенничеству и фишингу или для производства пропаганды и дезинформации в поддержку терроризма.

    Способность ChatGPT генерировать код, даже вредоносный, повышает риск киберпреступности, поскольку для создания вредоносных программ требуются технические навыки.

    «Для потенциального преступника с небольшими техническими знаниями это бесценный ресурс. В то же время более продвинутый пользователь может использовать эти улучшенные возможности для дальнейшего совершенствования или даже автоматизации сложных методов работы киберпреступников»,* говорится в отчете.

    Большие языковые модели (LLM) несложны и все еще находятся в зачаточном состоянии, но они быстро совершенствуются по мере того, как технологические компании вкладывают ресурсы в разработку технологии. OpenAI уже выпустила более мощную систему GPT-4, и эти модели все чаще интегрируются в продукты. Майкрософт и Google обе компании запустили поисковых чат-ботов на основе ИИ в свои поисковые системы с момента выпуска ChatGPT.

    Европол заявил, что по мере того, как все больше компаний внедряют функции и услуги ИИ, это откроет новые способы использования технологии для незаконной деятельности. «Мультимодальные системы искусственного интеллекта, которые объединяют диалоговых чат-ботов с системами, которые могут создавать синтетические медиа, такие как очень убедительные дипфейки, или включают сенсорные способности, такие как зрение и слух», — говорится в отчете правоохранительной организации.

    Например, тайные версии языковых моделей без фильтров контента и обученные на вредоносных данных могут размещаться в даркнете.

    «Наконец, есть неопределенность в отношении того, как службы LLM могут обрабатывать данные пользователей в будущем — будут ли разговоры храниться и потенциально раскрывать конфиденциальную личную информацию неуполномоченным третьим лицам? И если пользователи создают вредоносный контент, следует ли сообщать об этом правоохранительным органам? “, – спросил Европол. ®

    *ЗАПИСКА. Это множественное число modus operandi.

    Предыдущая статьяЛучшие док-станции Thunderbolt в 2023 году
    Следующая статьяUbisoft присоединяется к Sony, Nintendo и Microsoft в пропуске E3 2023
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.