Правительство Великобритании использует ИИ для самых разных целей, и все идет как по маслу


    Правительство Великобритании использует алгоритмы глубокого обучения под общим названием ИИ, чтобы помочь своим различным подразделениям принимать решения при подаче заявлений на получение социальных пособий, выявлении случаев мошенничества и даже при сканировании паспортов. Все это, вероятно, неудивительно, но, как показало одно расследование, это открывает огромную банку с червями для всех заинтересованных сторон.

    Если Вы задаетесь вопросом, о каком виде ИИ здесь идет речь, то подумайте о расширении. Системы, используемые правительством, не слишком отличаются от систем, разработанных компанией Nvidia для своей технологии DLSS Super Resolution.

    Модель данных для этой технологии обучается путем подачи миллионов кадров очень высокого разрешения из сотен игр. Таким образом, когда алгоритму затем подается изображение низкого разрешения, он может определить, как кадр с наибольшей вероятностью появится после увеличения масштаба.

    Для перехода, например, от 1080p к 4K при повышении разрешения DLSS использует довольно стандартную процедуру. Затем он запускает алгоритм искусственного интеллекта для исправления любых ошибок в изображении. Но, как и во всех подобных системах, качество конечного результата в значительной степени зависит от того, что Вы подаете в алгоритм и на каком наборе данных проводилось обучение.

    Расследование, проведенное газетой Guardian по поводу использования искусственного интеллекта правительством Великобритании, показывает, что происходит, когда возникают проблемы с обоими этими аспектами. Например, издание сообщает, что Министерство внутренних дел Великобритании использовало искусственный интеллект для чтения паспортов в аэропортах, чтобы помочь выявить потенциальные фиктивные браки для дальнейшего расследования.

    Guardian сообщает, что внутренняя оценка Министерства внутренних дел показала, что алгоритм выделяет непропорционально большое количество людей из Албании, Греции, Румынии и Болгарии. Если набор данных был обучен на данных, которые сами по себе уже чрезмерно подчеркивают определенные черты в опросе, то ИИ будет столь же необъективен в своих расчетах.

    Open Ai - ChatGPT - фотоиллюстрация словаря

    (Image credit: Jonathan Raa/NurPhoto via Getty Images)

    Сообщения о том, что правительственные организации допускают серьезные ошибки из-за чрезмерного увлечения искусственным интеллектом, не так уж редки. Шумиха вокруг потенциала искусственного интеллекта привела к тому, что такие системы, как ChatGPT, рассматриваются как одно из самых важных изобретений на сегодняшний день, и, тем не менее, они могут легко привести к весьма сомнительным и шокирующим результатам.

    Правительство Великобритании, естественно, защищает использование искусственного интеллекта и в случае с заявками на получение социального пособия говорит, что окончательное решение принимается человеком. Но основывает ли этот человек свое решение на результатах работы алгоритма или же он возвращается назад и проверяет все еще раз? Если последнее, то использование искусственного интеллекта – это пустая трата времени и денег.

    Но если это первое, и ИИ был обучен на информации, которая уже предвзята, то окончательное, окончательное решение, принятое живым человеком, тоже будет предвзятым. Это может повлиять даже на такие, казалось бы, невинные сценарии использования, как определение того, какие люди подвержены большему риску в случае пандемии, поскольку могут быть выбраны не те люди или пропущены те, кто больше всего в этом нуждается.

    Потенциал использования глубокого обучения во всех областях, как в хороших, так и в плохих, настолько велик, что ни одно правительство не собирается отказываться от него. Что необходимо, так это большая прозрачность используемых алгоритмов, а также предоставление экспертам доступа к коду и набору данных, чтобы убедиться, что системы используются справедливо и надлежащим образом.

    В Великобритании такой шаг уже предпринят, но когда Вас просто “призывают заполнять отчет о прозрачности алгоритмов для каждого алгоритмического инструмента”, это не является особым стимулом или юридическим давлением для любой организации, чтобы сделать это.

    Возможно, со временем ситуация изменится, но до тех пор я хотел бы видеть широкомасштабную программу обучения для всех государственных служащих, использующих ИИ в своей работе. Не о том, как его использовать, а о понимании его ограничений, чтобы люди были в более выгодном положении и могли подвергать сомнению результаты работы алгоритма.

    Все мы, так или иначе, предвзяты, но мы должны помнить, что и ИИ тоже.

    Предыдущая статьяКак улучшить производительность графического процессора
    Следующая статьяСэкономьте до 31% на SamsungЗверь 990 PRO SSD
    Илларион Товаркин
    Илларион Товаркин - талантливый писатель, страстно любящий все, что связано с играми. От захватывающих экшн-игр до сложных ролевых игр, они обладают глубоким пониманием игровой индустрии и того, что делает игру великой. Благодаря острому вниманию к деталям и способности создавать захватывающие сюжетные линии, Илларион Товаркин способен перенести читателей в захватывающие игровые миры, наполненные приключениями и азартом. Пишет ли он о последней игре-блокбастере или углубляются в историю классических игр, его статьи всегда увлекательны и информативны. Так что если вы поклонник игр или просто ищете отличное чтение, обязательно ознакомьтесь с его работами - вы не будете разочарованы!