Ученики делают непристойные “AI-изображения” одноклассников | UK | News

    0
    39


    Центр безопасного Интернета Великобритании сообщил, что он получил сообщения из школ о том, что ученики используют генераторы искусственного интеллекта для создания непристойных фотографий.

    Эксперты организации заявили, что такие изображения – которые по закону являются материалами, содержащими сексуальное насилие над детьми – могут оказать вредное воздействие на подростков, добавив, что такие фотографии могут быть использованы для жестокого обращения или даже шантажа.

    UKSIC призвала школы убедиться в том, что их системы фильтрации и мониторинга способны эффективно блокировать незаконные материалы на разных устройствах, чтобы бороться с ростом такой активности.

    Дэвид Райт, директор UKSIC, отметил, что искусственный интеллект может быть использован во благо, но добавил: “Сообщения, которые мы видим, не должны удивлять.

    “Молодые люди не всегда осознают всю серьезность того, что они делают, тем не менее, такие виды вредного поведения следует ожидать, когда новые технологии становятся общедоступными”.

    “Хотя количество случаев в настоящее время невелико, мы находимся в самом начале пути и должны видеть, что шаги предпринимаются уже сейчас, пока школы не перегружены и проблема не разрослась”.

    Г-н Райт объяснил, что вмешательство имеет решающее значение для предотвращения дальнейшего распространения преступного контента.

    В октябре Интернет Watch Фонд, входящий в состав UKSIC, предупредил, что созданные искусственным интеллектом изображения сексуального насилия над детьми стали настолько реалистичными, что многие из них невозможно отличить от реальных, и тысячи таких изображений появились в сети.

    В течение последнего года ИИ все чаще становится предметом дискуссий о безопасности в Интернете, особенно после того, как в прошлом году был запущен генератор ChatGPT.

    Группы, занимающиеся вопросами безопасности в Интернете, правительства и отраслевые эксперты хотят улучшить регулирование этого сектора из-за опасений, что он развивается быстрее, чем власти могут на него реагировать.



    Summarize this content to 100 words Центр безопасного Интернета Великобритании сообщил, что он получил сообщения из школ о том, что ученики используют генераторы искусственного интеллекта для создания непристойных фотографий.Эксперты организации заявили, что такие изображения – которые по закону являются материалами, содержащими сексуальное насилие над детьми – могут оказать вредное воздействие на подростков, добавив, что такие фотографии могут быть использованы для жестокого обращения или даже шантажа.UKSIC призвала школы убедиться в том, что их системы фильтрации и мониторинга способны эффективно блокировать незаконные материалы на разных устройствах, чтобы бороться с ростом такой активности.Дэвид Райт, директор UKSIC, отметил, что искусственный интеллект может быть использован во благо, но добавил: “Сообщения, которые мы видим, не должны удивлять.”Молодые люди не всегда осознают всю серьезность того, что они делают, тем не менее, такие виды вредного поведения следует ожидать, когда новые технологии становятся общедоступными”.”Хотя количество случаев в настоящее время невелико, мы находимся в самом начале пути и должны видеть, что шаги предпринимаются уже сейчас, пока школы не перегружены и проблема не разрослась”.Г-н Райт объяснил, что вмешательство имеет решающее значение для предотвращения дальнейшего распространения преступного контента.В октябре Интернет Watch Фонд, входящий в состав UKSIC, предупредил, что созданные искусственным интеллектом изображения сексуального насилия над детьми стали настолько реалистичными, что многие из них невозможно отличить от реальных, и тысячи таких изображений появились в сети.В течение последнего года ИИ все чаще становится предметом дискуссий о безопасности в Интернете, особенно после того, как в прошлом году был запущен генератор ChatGPT.Группы, занимающиеся вопросами безопасности в Интернете, правительства и отраслевые эксперты хотят улучшить регулирование этого сектора из-за опасений, что он развивается быстрее, чем власти могут на него реагировать.

    Предыдущая статьяУченики делают непристойные “AI-изображения” одноклассников
    Следующая статьяНе воспринимайте торговлю криптовалютой как работу, говорит криптоаналитик
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.