Налоговая служба Пакистана отрицает, что пиратское ПО вызывало отключение – признает это

    0
    59


    Ученые проверили Copilot на GitHub с точки зрения безопасности и заявили, что они обнаружили, что примерно в 40% случаев код, сгенерированный помощником по программированию, в лучшем случае содержит ошибки, а в худшем – потенциально уязвим для атак.

    Copilot прибыл с несколькими предостережениями, такими как его склонность к созданию неправильного кода, его склонность к раскрытию секретов и его проблемы с оценкой лицензий на программное обеспечение. Но помощник по программированию ИИ, основанный на нейронной сети OpenAI Codex, также имеет еще один недостаток: как и люди, он может создавать ненадежный код.

    Возможно, это неудивительно, учитывая, что Copilot был обучен на исходном коде с GitHub и поглотил все ошибки в нем. Тем не менее, пять специалистов, связанных с инженерной школой Тандон Нью-Йоркского университета, сочли необходимым количественно оценить степень, в которой Copilot выполняет изречение «мусор на входе, мусор на выходе».

    Предыдущая статьяАмериканская лаборатория в Аргонне покупает AI super у HPE, AMD, Nvidia в ожидании Intel °
    Следующая статья10 лучших видов оружия для рубящего урона в Monster Hunter Stories 2: Wings Of Ruin, рейтинговые
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.