На этой неделе эксперты в области технологического права и программного обеспечения столкнулись с Палатой лордов Великобритании по поводу того, возможно ли технически возложить ответственность за решения на поле боя на оружие, управляемое искусственным интеллектом.
Во время слушаний Комитета по системам вооружений в четверг лорды изо всех сил пытались убедить экспертов в том, что в конечном итоге это может быть возможно, или представили их с осторожностью, по-видимому, обеспокоенные потерей позиций при внедрении ИИ в войну.
Лорд Хоутон из Ричмонда сказал, что комитет хотел порекомендовать, как добиться прогресса в какой-то правовой базе.
Бывший начальник штаба обороны британских вооруженных сил попросил прокомментировать, могут ли различия и соразмерность в конечном итоге применяться автономно.
Профессор Кристиан Энемарк, профессор международных отношений Саутгемптонского университета, ответил: «Только люди могут проводить дискриминацию, только люди могут обеспечивать пропорциональность, а автономный разряд со стороны нечеловеческого существа, возможно, является философской чушью».
Лорд Хоутон ответил: «Возможно, постепенно прогресс в технологии расширит границы, в которых могут быть сделаны такого рода делегирования».
Эксперт по этике ИИ Лаура Нолан, главный инженер-программист поставщика средств обеспечения надежности Stanza Systems, утверждала, что решения ИИ на поле боя не могут оценить пропорциональность курса действий.
«Вы должны знать предполагаемую стратегическую военную ценность операции, а оружие никак не может это знать», — сказала она. «Оружие находится в поле, просматривая, возможно, какие-то изображения, что-то вроде машинного обучения и восприятия. Оно ничего не знает. Оно просто выполняет какие-то вычисления, которые на самом деле не имеют никакого отношения к военной ценности».
Нолан добавил: «Только командир может знать военную ценность, потому что военная ценность конкретной атаки не основана исключительно на этом конфликте, местном контексте на земле. Это более широкий стратегический контекст. Совершенно невозможно запросить оружие на земле. и примите это решение».
Таниэль Юсеф, приглашенный исследователь в Центре изучения экзистенциального риска Кембриджского университета, сказал, что простые алгоритмы для классификации точек данных, которые могут идентифицировать цели, могут, например, ошибочно принимать кошку за собаку.
«Когда это произойдет в полевых условиях, у вас будут люди на земле, говорящие, что эти гражданские лица были убиты, и вы получите отчет от оружия, которое возвращает [that] смотрит на математику, — сказала она.
«Математика говорит, что это была цель… это была военная база, потому что так говорит математика, и мы часто полагаемся на математику, потому что математика очень конкретна, и… математика будет верной.
«Есть разница между правильным и точным. Есть разница между точным и точным. такого значимого человеческого контроля с надзором в конце — вот чего нам будет не хватать».
«Технически это невозможно [to make judgements about proportionality] потому что вы не можете знать результат системы [until] он достиг цели, которую вы закодировали, и вы не знаете, как он туда попал».
Консервативный пэр лорд Сарфраз вставил: «На днях я видел собаку, которую я принял за кошку».
«Я предполагаю, что вы не стреляли в него», — ответил Юсеф. ®