Миру понадобится экосистема взаимосвязанных регуляторов ИИ, заявили сегодня эксперты на конференции ATxSG в Сингапуре.
На протяжении нескольких сессий многие участники конференции приветствовали появление генеративного ИИ как определяющий момент в истории человечества, наравне с широким использованием ископаемого топлива или промышленной революцией.
У новой технологии, естественно, был свой сегмент на саммите, где обсуждалось регулирование. По мере того, как правительство и промышленность активно боролись друг с другом, возникли две темы: сравнение регулирования генеративного ИИ с законами, применимыми к законам об автомобилях, и юристам не следует использовать ChatGPT для написания сводок дел.
На прошлой неделе адвокат сделал именно это, сославшись на шесть прошлых судебных решений — по делам, которых не существовало.
По словам Кэт Фрит Баттерфилд, исполнительного директора Центра надежных технологий, ассоциированного с Всемирным экономическим форумом, этот юрист даже попросил ChatGPT проверить, являются ли приведенные случаи реальными.
Почти каждая панель Рег присутствовали причастные эксперты, посмеиваясь над глупостью адвоката.
Но это также заставило многих людей задуматься: виноват ли конечный пользователь в галлюцинациях генеративного ИИ — вежливый термин, используемый для описания ошибок, допущенных цифровыми мозговыми коробками.
Руководитель глобального отдела этики и регулирования ИИ в EY д-р Ансгар Коэн выразил неприязнь к этому термину на том основании, что он антропоморфизирует машинные ошибки. По словам Коэна, применение термина «человеческое поведение» к выходным данным компьютера может привести к неправильному пониманию того, что именно происходит.
«Генеративный ИИ работает не в измененном состоянии, а так, как он должен работать», — сказал Коэн. Затем он задал вопрос: «Как мы формируем правительство вокруг генеративного ИИ, если мы не знаем, как его использовать?»
И это, в свою очередь, вызывает другой вопрос: кто виноват в этом сценарии?
«Врачи и юристы используют эти инструменты», — предположил Баттерфилд. «Еще более важно, когда неспециалисты используют эти инструменты, чтобы была подотчетность, отсутствие ответственности. Если вы не эксперт, где вы идете, чтобы проверить инструмент? Ответственность должна лежать на тех, кто его создает».
И с этим мыслительным процессом почти каждая панель Рег в конце концов склонился к метафоре с автомобилем — и не только потому, что автомобили и ИИ забавны в управлении, дороги в эксплуатации и опасны после десяти бутылок пива. Скорее всего, ИИ нуждается в регулировании таким же образом, как общество регулировало автомобильную промышленность.
«Каждый раз, когда вы производите новый автомобиль, вы должны сначала убедиться, что он безопасен для вождения, прежде чем вы позволите ему выйти на улицу», — сказала министр цифровизации Нидерландов Александра ван Хаффелен.
Но не только производители обязаны проводить строгие испытания и следовать стандартам. Водителям нужны лицензии, и они должны зарегистрировать свой автомобиль, который должен пройти испытания на выбросы. Дороги построены по определенным стандартам, а транспортные потоки регулируются светофорами, знаками и ограничениями скорости. Парковка разрешена только в определенных местах.
Баттерфилд даже вслух размышлял во вторник, станет ли когда-нибудь страхование для снижения рисков генеративного ИИ нормой.
«Дело не только в машинах и дорогах, но также в городе и в том, как мы его строим», — подытожил Коэн.
Фреймворки генеративного ИИ также должны учитывать, как они рекламируются, как данные управляются с согласия и защищаются, и как на них влияет закон об авторском праве — этот список можно продолжить.
Неизбежный вывод заключается в том, что любая результирующая нормативно-правовая база будет экосистемой, а не нисходящей инициативой под руководством полицейского с искусственным интеллектом. А для технологии, которой меньше года, регулирование вступает в силу быстро.
«Я думаю, что уровень международного сотрудничества между США и их союзниками в Европе и других странах на самом деле феноменален в области политики ИИ, и предпринимаются большие усилия по гармонизации», — сказал вице-президент Nvidia Кит Страйер, человек, чей работодатель, производитель аппаратного обеспечения ИИ, имеет много причин отказаться от регулирования ИИ.
Но даже когда он выступал против правительства, он предположил, что технология может регулироваться профессиональными стандартами, социальными нормами, определяющими границы, и образованием — что напоминает подход «большого общества».
«Эта технология присутствует на рынке уже шесть месяцев, я никогда не видел такой активности», — сказал Страйер, преуменьшая необходимость срочных действий.
Но, по крайней мере, на этой неделе в Сингапуре мнение о том, что генеративный ИИ может получать больше внимания, чем ему необходимо, казалось, было в меньшинстве. ®