
[ad_1]
Группа из 24 светил ИИ опубликовала документ и открытое письмо, призывающие к более строгому регулированию и защите технологий, прежде чем они нанесут вред обществу и отдельным людям.
«Чтобы ИИ стал благом, мы должны переориентироваться; одного лишь продвижения возможностей ИИ недостаточно», — призвала группа в своем документе.
Группа, возглавляемая двумя из трех так называемых «крестных отцов ИИ» Джеффри Хинтоном и Йошуа Бенджио, заявила, что прогресс ИИ был «быстрым и для многих удивительным».
Группа утверждает, что нет никаких оснований предполагать, что темпы развития ИИ замедлятся, а это означает, что достигнута точка, когда регулирование одновременно необходимо и возможно – возможность, по их мнению, может быть упущена.
«На то, чтобы признать изменение климата и противостоять ему, потребовались десятилетия; для ИИ десятилетия могут оказаться слишком долгими», — утверждается в письме. «Без достаточной осторожности мы можем необратимо потерять контроль над автономными системами искусственного интеллекта, что сделает вмешательство человека неэффективным».
Будущее развитие автономного искусственного интеллекта является центральной темой письма. Такие системы, утверждают ученые, могут быть разработаны со злым умыслом или оснащены вредоносными возможностями, что делает их потенциально более опасными, чем многие национальные государства, которые в настоящее время угрожают чувствительным системам.
Кроме того, плохой ИИ может «усилить социальную несправедливость, подорвать социальную стабильность и ослабить наше общее понимание реальности, которое является основополагающим для общества», пишут авторы.
Чтобы предотвратить худшие возможности, письмо призывает компании, исследующие и внедряющие ИИ, использовать «безопасные и этические цели». Авторы полагают, что технологические компании и частные спонсоры исследований в области ИИ должны выделять не менее трети своих бюджетов на исследования и разработки на безопасность.
Авторы призывают правительства также действовать и отмечают, что не существует каких-либо нормативных или управленческих рамок для устранения рисков, связанных с ИИ, однако правительства регулируют фармацевтику, финансовые системы и ядерную энергетику.
Авторы писем утверждают, что правительства должны обеспечить понимание развития ИИ с помощью таких правил, как регистрация моделей, защита информаторов, стандарты сообщения об инцидентах и мониторинг разработки моделей и использования суперкомпьютеров.
Правительствам должен быть предоставлен доступ к системам ИИ до их развертывания, «чтобы оценить их на предмет опасных возможностей», таких как самовоспроизведение, которое, по мнению авторов, может сделать автономный ИИ непреодолимой угрозой. Кроме того, разработчики передовых моделей «передового ИИ» должны нести юридическую ответственность за вред, присущий их моделям, если эти проблемы «можно разумно предвидеть или предотвратить».
Регулирующие органы также должны предоставить себе полномочия «лицензировать [AI] разработки, приостановить разработку в ответ на тревожные возможности, обязать контролировать доступ и потребовать принятия мер информационной безопасности, устойчивых к хакерам на государственном уровне, до тех пор, пока не будут готовы адекватные меры защиты», — утверждает группа.
«Это ответственный путь, если у нас хватит мудрости пойти по нему», — написали Хинтон, Бенджио и их коллеги.
Руководитель Meta по искусственному интеллекту не согласен
Призыв к улучшению управления рисками в сфере ИИ прозвучал всего за неделю до первого в мире саммита по безопасности ИИ, который пройдет в британском Блетчли-парке в ноябре. Мировые правительства, технологические лидеры и ученые будут присутствовать, чтобы обсудить те самые угрозы, о которых предупреждает открытый доклад.
Одним из участников саммита в Блетчли станет Ян ЛеКун, третий из трех крестных отцов искусственного интеллекта, получивших премию Тьюринга в 2019 году за исследования в области нейронных сетей и чье имя явно отсутствует в опубликованной сегодня статье по управлению рисками.
В отличие от Бенджио и Хинтона, последний из которых ушел Google в мае и выразил сожаление по поводу своего вклада в область искусственного интеллекта и вреда, который он может причинить, Лекун продолжает свою работу с частной технологической индустрией в качестве главного ученого по искусственному интеллекту в материнской компании Facebook Meta, которая в последнее время полностью занимается разработкой искусственного интеллекта. .
В начале этого месяца ЛеКун даже вступил в дебаты в Facebook с Бенджио.
Руководитель Meta заявил, что «молчаливое большинство» ученых в области искусственного интеллекта не верят в сценарии конца света для искусственного интеллекта и считают, что технологиям нужны открытые, доступные платформы, чтобы стать «мощными, надежными и безопасными».
Бенджио, напротив, сказал, что он думает о чем-то таком же большом потенциале, как и то, что ИИ нуждается в регулировании, чтобы он не попал в чужие руки.
«Ваш аргумент о том, чтобы позволить каждому манипулировать мощными ИИ, похож на либертарианский аргумент о том, что каждому должно быть разрешено владеть пулеметом… Насколько я помню, вы были не согласны с такой политикой», — сказал Бенджио в ответ на сообщение ЛеКуна в Facebook. «Разрешают ли правительства кому-либо создавать ядерные бомбы, манипулировать опасными патогенами или управлять пассажирскими самолетами? Нет. Это строго регулируется правительствами».
ЛеКун не ответил на вопросы Регистрно он говорил с Файнэншл Таймс на прошлой неделе и высказали мнения, которые сейчас воспринимаются как упреждающий ответ на утверждения, содержащиеся в научном документе по управлению рисками ИИ.
«Регулирование исследований и разработок в области искусственного интеллекта невероятно контрпродуктивно», — сказал Лекун FT, добавив, что те, кто просит о таком, «хотят регулирующего контроля под прикрытием безопасности искусственного интеллекта».
ЛеКун назвал возможность того, что ИИ может угрожать человечеству, «нелепой», утверждая, что модели ИИ даже не понимают мир, не могут планировать и по-настоящему рассуждать.
«У нас нет полностью автономных, беспилотных автомобилей, которые могли бы научиться водить машину примерно за 20 часов практики, что под силу 17-летнему подростку», — утверждает Лекун. Попытки контролировать быстро развивающиеся технологии, такие как искусственный интеллект, следует сравнивать с ранними днями Интернета, который процветал только потому, что оставался открытым, утверждал Метамен.
Стоит отметить, что авторы опубликованной сегодня статьи и открытого письма не утверждают, что нынешнее поколение ИИ способно противостоять прогнозируемым ими угрозам. Скорее, они хотят, чтобы правила вводились до того, как возникнут такие проблемы.
«В 2019 году GPT-2 не мог надежно считать до десяти. Всего четыре года спустя системы глубокого обучения смогут писать программное обеспечение, генерировать фотореалистичные сцены по запросу, давать советы по интеллектуальным темам и сочетать обработку языка и изображений для управления роботами», — 24 – отметила академическая группа.
«Мы должны предвидеть усиление продолжающегося вреда, а также новых рисков, и подготовиться к самым большим рискам задолго до того, как они материализуются». ®
[ad_2]