Руководители отрасли искусственного интеллекта приветствуют регулирование правительства США

    0
    1


    Светила искусственного интеллекта, которых сенаторы допрашивали на слушаниях во вторник, согласились с тем, что законы необходимы для регулирования технологии до более широкого развертывания в реальном мире.

    Генеральный директор OpenAI Сэм Альтман заявил сенатскому комитету по судебной системе, что правительству США следует рассмотреть вопрос о введении правил, которые потребуют от компаний получения лицензии на создание моделей ИИ, обладающих расширенными возможностями, превышающими определенный порог.

    Когда Альтмана нажали на этом пороге, он ответил: «Я думаю, что модель, которая может убеждать, манипулировать или влиять на поведение человека или его убеждения, — это будет хорошим порогом. Я думаю, что модель, которая могла бы помочь создать новую биологическую агенты были бы отличным порогом — и тому подобное».

    Гэри Маркус, бывший профессор психологии и нейробиологии в Нью-Йоркском университете и основатель стартапов Robust AI и Geometric Intelligence (последний с тех пор приобрел Uber), рассказал, как чат-боты могут обмануть людей, заставив их поверить в ложную информацию или вовлечь их во вредные и рискованное поведение.

    Маркус указал на случай, когда ChatGPT ложно обвинил профессора права в сексуальных домогательствах. И еще один, когда ИИ Snapchat видимо посоветовал 13-летней девочке солгать родителям о встрече с 31-летним мужчиной.

    Такие ответы возможны, потому что, хотя ИИ может генерировать связный текст без грамматических ошибок, он не понимает язык, считает он. Оно не знает, что реально, а что нет. Поэтому генеративный ИИ часто фабрикует факты и дает неуместные ответы.

    Тем не менее люди все чаще обращаются за информацией к чат-ботам с искусственным интеллектом, что имеет очевидные недостатки, если приводит к распространению дезинформации.

    «Чем больше это происходит, тем больше кто-либо может отрицать что-либо. Как сказал мне в пятницу один известный адвокат, ответчики начинают утверждать, что истцы выдумывают законные доказательства. кому верить, и способствовать подрыву демократии”, – сказал Маркус.

    Кристин Монтгомери, директор IBM по конфиденциальности и доверию, призвала Конгресс установить правила, регулирующие развертывание ИИ в конкретных случаях использования, вместо широкомасштабных политик, которые могут ограничивать инновации. Она предложила правительству США применять «разные правила для разных рисков».

    «Самое строгое регулирование должно применяться к случаям использования с наибольшим риском для людей и общества… Должно быть четкое руководство по использованию ИИ или категориям деятельности, поддерживаемой ИИ, которая по своей природе сопряжена с высоким риском. Это общее определение является ключом к четкому пониманию какие нормативные требования будут применяться в различных случаях использования и контекстах», — заявила она в своем вступительном слове.

    Кто должен регулировать ИИ?

    Сенаторы, ведущие слушания Подкомитета по конфиденциальности, технологиям и законодательству, а также трое приглашенных спикеров в значительной степени поддержали идею создания учреждения, занимающегося регулированием и аудитом ИИ. Однако они разошлись во мнениях относительно того, кто должен действовать в качестве регуляторов.

    Маркус сказал, что может понадобиться нейтральная международная организация, состоящая из исследователей. Некоторые сенаторы и генеральный директор OpenAI Альтман говорили о создании специализированного федерального агентства. Альтман сказал, что агентство может отвечать за выдачу лицензий компаниям, позволяющих им создавать модели с установленными защитными ограждениями, и будет иметь право отзывать лицензии, если производители моделей нарушают правила.

    Джон Кеннеди (R-LA) даже зашел так далеко, что спросил Альтмана, достоин ли он сам возглавить такую ​​группу. «Мне нравится моя нынешняя работа, — ответил он.

    Однако Джош Хоули (R-MO), похоже, больше поддерживал регулирование судебных разбирательств, чем государственные учреждения. «Увидев, как работают агентства в этом правительстве, они обычно захватываются интересами, которые они должны регулировать. Они обычно контролируются людьми, за которыми они должны следить», — посетовал он.

    «У меня есть другая идея. Почему бы нам просто не позволить людям подать на вас в суд? Почему бы нам просто не привлечь вас к ответственности… мы можем создать федеральное право иска, которое позволит частным лицам, пострадавшим от этой технологии, попасть в суд и приносить доказательства в суд. И это может быть кто угодно”, – продолжил он.

    Хоули сказал, что хочет облегчить потребителям, пострадавшим от ИИ, — он предложил вред, такой как создание медицинской или избирательной дезинформации, — подать коллективные иски против компаний, которые создали эту технологию.

    Однако Маркус не согласился. Он утверждал, что правовая система движется слишком медленно, чтобы эффективно регулировать технологии. Он добавил, что неясно, могут ли действующие законы учитывать влияние ИИ на текущие проблемы, такие как авторское право, дезинформация, могут ли компании нести ответственность за то, что произносят чат-боты, или защищены ли они законами США, которые освобождают издателей от ответственности за контент. они размещают, но который был создан третьими лицами.

    «У нас много ситуаций, когда мы действительно не знаем, какие законы применяются. Будут лазейки — система действительно не продумана», — сказал он.

    Монтгомери был более оптимистичен в отношении способности правительства США контролировать ситуацию и выразил уверенность в том, что нынешние регулирующие органы могут решить текущие проблемы. «Я думаю, что мы не хотим замедлять регулирование, чтобы устранить реальные риски прямо сейчас. У нас есть действующие регулирующие органы, которым ясно, что они могут регулировать в своих соответствующих областях».

    За последние несколько месяцев такие агентства, как Федеральная торговая комиссия и Министерство юстиции, выступили с резкими заявлениями, предупреждающими, что они будут принимать жесткие меры в отношении компаний, использующих искусственный интеллект, нарушающих законы о гражданских правах и защите прав потребителей.

    Конкуренция и данные

    Разработка современных систем искусственного интеллекта сложна и требует значительных, дорогих и дефицитных аппаратных ресурсов.

    Многие эксперты обеспокоены тем, что технология будет контролироваться гигантскими корпорациями, создающими монополии. Альтман признал, что разработчики создают отличные технологии с открытым исходным кодом, но, как правило, не способны создавать конкурентоспособные модели. Он сказал, что если будет всего несколько крупных игроков, то ИИ будет легче регулировать, но у концентрации власти есть и обратная сторона.

    «Существует реальный риск технической технократии в сочетании с олигархией, когда небольшое количество компаний влияет на убеждения людей через природу этих систем… [They] может тонко формировать наши убеждения и оказывать огромное влияние на то, как мы живем, и небольшое количество игроков делает это с данными, о которых мы даже не знаем. Это меня пугает», — сказал Маркус.

    Данные, используемые для обучения моделей ИИ, сильно влияют на его возможности, производительность и поведение. Политики предложили проверять данные, чтобы понять модель и убедиться, что используемые наборы данных имеют высокое качество и не нарушают авторские права.

    Конфиденциальность также является главной проблемой. Официальные лица в Италии, Франции, Испании и Канаде начали расследование того, почему набор данных ChatGPT включает личную информацию, такую ​​как номера телефонов и адреса.

    Также неясно, как информация, предоставленная пользователями, которая сама по себе может быть конфиденциальной, может использоваться или храниться. Samsungнапример, временно запретил сотрудникам использовать этот инструмент после того, как один из сотрудников слил проприетарный исходный код.

    Альтман сказал, что, по его мнению, пользователи должны иметь возможность отказаться от использования своих данных для обучения моделей, и что такие компании, как OpenAI, должны облегчить людям удаление своих данных. В прошлом месяце стартап из Сан-Франциско запустил функцию, позволяющую пользователям отключать историю чатов в ChatGPT, чтобы предотвратить использование их данных.

    Печатный станок или атомная бомба?

    В конце концов, Конгресс, похоже, запутался в том, как думать об ИИ.

    «Будет ли это похоже на печатный станок, который широко распространил знания, силу и знания по всему ландшафту, который расширил возможности обычных людей? Это привело к большему процветанию, что привело, прежде всего, к большей свободе? Или это будет больше похоже на атомная бомба — огромный технологический прорыв, но последствия тяжелые, ужасные и продолжают преследовать нас по сей день?» — спросил сенатор Хоули.

    «Я не думаю, что кто-либо из присутствующих в зале знает ответ на этот вопрос. Поэтому я думаю, что этот ответ еще не написан. И в определенной степени это зависит от нас здесь и от нас, американского народа, писать ответ», — добавил он.

    Однако эксперты в промышленности и научных кругах более сообразительны. Они согласны с тем, что ИИ быстро развивается и создает новые социальные риски и проблемы. Они хотят, чтобы регулирующая политика решала вопросы безопасности, не препятствуя исследованиям и разработкам.

    «Я думаю, важно, чтобы любой новый подход, любой новый закон не мешал инновациям происходить с небольшими компаниями, моделями с открытым исходным кодом, исследователями, которые выполняют работу в меньшем масштабе. Это замечательная часть этой экосистемы и Америки. Мы не хотим это замедлять», — заключил Альтман. ®



    Предыдущая статьяЛучшая криптовалюта для покупки сейчас, 16 марта – The Graph, Lido DAO, Injective
    Следующая статьяФункция Ultra HDR в Android 14 может быть ограничена для выбора Samsung телефоны
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.