Министерство обороны США создало Task Force Lima, новую группу для изучения того, что генеративный ИИ может сделать для вооруженных сил, с заявленной целью защиты национальной безопасности.
Целевая группа была организована заместителем министра обороны Кэтлин Хикс и будет возглавляться Главным управлением цифрового и искусственного интеллекта. Он проанализирует различные инструменты, такие как большие языковые модели, и выяснит, как их интегрировать в военные программные системы.
«Создание оперативной группы «Лима» подчеркивает непоколебимую приверженность Министерства обороны делу инноваций в области искусственного интеллекта», — говорится в заявлении Хикс.
«Используя преобразующую силу генеративного ИИ, мы по-прежнему сосредоточены на обеспечении национальной безопасности, минимизации рисков и ответственной интеграции этих технологий. Будущее обороны — это не только внедрение передовых технологий, но и дальновидность и ответственность. и глубокое понимание более широких последствий для нашей нации», — добавила она.
Правительство США активизирует свои усилия по регулированию ИИ и призвало ведущие компании разработать меры защиты от неправомерного использования технологии для создания биологического оружия или вредоносных программ.
Крейг Мартелл, директор Министерства обороны США по цифровым технологиям и искусственному интеллекту и бывший руководитель отдела машинного обучения в компании Lyft, занимающейся беспилотным вождением, заявил, что США должны изучить и внедрить ИИ, несмотря на риски.
«Министерству обороны необходимо ответственно заняться внедрением генеративных моделей ИИ, одновременно определяя надлежащие защитные меры и снижая риски для национальной безопасности, которые могут возникнуть в результате таких проблем, как плохо управляемые данные обучения», — сказал он. «Мы также должны учитывать, в какой степени наши противники будут использовать эту технологию, и стремиться подорвать наше собственное использование решений на основе ИИ».
CDAO особенно заинтересована в применении генеративных моделей ИИ для создания новых инструментов, которые могут улучшить боевые возможности вооруженных сил и принятие решений, а также улучшить другие области, такие как здравоохранение и политика.
«Применение искусственного интеллекта в обороне связано не только с инновационными технологиями, но и с укреплением национальной безопасности», — сказал капитан ВМС США М. Ксавьер Луго, который также является командиром оперативной группы «Лима» и членом Управления алгоритмической войны CDAO. «Министерство обороны признает потенциал генеративного ИИ для значительного улучшения разведки, оперативного планирования, а также административных и бизнес-процессов. Однако ответственное внедрение является ключом к эффективному управлению сопутствующими рисками».
В июле сообщалось, что Пентагон приступил к тестированию способности пяти различных больших языковых моделей решать такие задачи, как создание стратегических планов.
Коммерческим моделям был предоставлен доступ к военным документам и предложено создать планы для решения гипотетических сценариев, таких как глобальный кризис. Однако современные инструменты могут оказаться малополезными для военных, учитывая их тенденцию генерировать ложную, вводящую в заблуждение информацию, которой нельзя доверять, особенно в ситуациях высокого риска, таких как боевые действия или разведка. ®