Согласно слушаниям в парламенте Великобритании, распространение ИИ в системах вооружений среди негосударственных субъектов, таких как террористические группы или наемники, будет практически невозможно остановить.
Комитет Палаты лордов по искусственному интеллекту в системах вооружений вчера услышал, как программная природа моделей искусственного интеллекта, которые могут использоваться в военном контексте, усложняет их сдерживание и удержание от гнусных рук.
Когда мы говорим о негосударственных субъектах, это вызывает в воображении образы насильственных экстремистских организаций, но это должно включать в себя крупные транснациональные корпорации, которые находятся в авангарде развития этой технологии.
Выступая перед комитетом, Джеймс Блэк, заместитель директора исследовательской группы по обороне и безопасности RAND Europe, сказал: «Многие вещи будет очень трудно контролировать с точки зрения нераспространения из-за их изначальной программной природы. … Многие из наших существующих режимов экспортного контроля и нераспространения в значительной степени сосредоточены на традиционном оборудовании старой школы: это ракеты, двигатели, ядерные материалы».
Дополнительная неопределенность заключалась в том, что не существовало устоявшейся теории «военных игр» о том, как враждебные негосударственные субъекты могут вести себя, используя оружие на основе ИИ.
RAND начала свою деятельность в 1945 году как правительственное подразделение США по специальному контракту с Douglas Aircraft Company, но вскоре превратилась в независимую некоммерческую корпорацию, нацеленную на совершенствование политики с научной строгостью. Это был один из лидеров в применении теории игр к распространению ядерного оружия времен холодной войны.
Блэк сказал: «По вопросу об эскалации: в целом у нас нет особенно хорошей теории для понимания того, как сдерживать негосударственных акторов. [has] развилась из ядерного сдерживания времен холодной войны в СССР, США и на Западе. На самом деле он не настроен таким же образом, чтобы думать о негосударственных субъектах, особенно о тех, которые имеют очень децентрализованные, свободные неиерархические сетевые командные структуры, которые не поддаются влиянию таким же образом, как традиционная нисходящая вооруженная сила. противник».
По его словам, ситуация с оружием с улучшенным ИИ отличается от более раннего военного анализа тем, что частный сектор намного опережает правительственные исследования, чего нельзя сказать о физических угрозах.
«Локус инноваций в обороне, особенно в этой области, сместился из государственного сектора. [to] частный. Когда мы говорим о негосударственных субъектах, это вызывает в воображении образы воинствующих экстремистских организаций, но это должно включать в себя крупные транснациональные корпорации, которые находятся в авангарде развития этой технологии. Это не то же самое, что ранние вычисления или реактивный двигатель, которые во многом разрабатывались в финансируемых государством лабораториях. Это то, где частный сектор лидирует и, следовательно, формирует дебаты о типе управления, а также о реальных доступных возможностях».
Кеннет Пейн, профессор стратегии в Королевском колледже Лондона, заявил комитету, что даже если бы правительства смогли принять закон, направленный на сдерживание распространения оружия с улучшенным ИИ, у них был бы огромный стимул для мошенничества.
«Если у вас есть контроль над вооружениями, вам нужен некоторый процесс проверки», — сказал он. «Но сигнатура для разработки ИИ довольно мала. Вам, например, не нужны эти заводы по обогащению урана. Вы говорите о складах с компьютерами и учеными. Как вы можете отслеживать потенциальное отступление от режима контроля над вооружениями? стимул обманывать регулирование, если вы считаете, что эти технологии дают серьезное военное преимущество. Это меня немного смущает… Я немного скептически отношусь к перспективам регулирования».
В прошлом месяце сотни ученых-компьютерщиков, лидеров технологической отрасли и экспертов по ИИ подписали открытое письмо с призывом приостановить как минимум на шесть месяцев обучение систем ИИ, более мощных, чем GPT-4. Среди подписантов были соучредитель Apple Стив Возняк, генеральный директор SpaceX Илон Маск и пионер вычислительной техники IEEE Грэди Буч.
Но перспектива паузы была совершенно нереалистичной, сказал Пейн. «Это отражает степень беспокойства общества по поводу быстрых темпов изменений, которые, по мнению людей, приближаются к ним. Но я не думаю, что это реалистичное предложение». ®