Эксперты предупреждают об исчезновении ИИ, если не принять меры сейчас

    0
    0


    Есть еще одно обреченное открытое письмо об искусственном интеллекте. На этот раз широкий круг технологических лидеров, светил машинного обучения и даже несколько знаменитостей подписались, чтобы призвать мир более серьезно отнестись к предполагаемым угрозам исчезновения, исходящим от искусственного интеллекта.

    Более уместно заявление Центра безопасности ИИ (CAIS), подписанное такими людьми, как пионер ИИ Джеффри Хинтон, генеральный директор OpenAI Сэм Альтман, гуру шифрования Мартин Хеллман, технический директор Microsoft Кевин Скотт и другие, представляет собой одно повествовательное предложение, предсказывающее апокалипсис, если остается без внимания:

    «Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война».

    Почему так кратко? Цель состояла в том, чтобы «продемонстрировать широкую и растущую коалицию ученых в области ИИ, технических лидеров и профессоров, которые обеспокоены рисками исчезновения ИИ. Нам нужно широкое признание ставок, чтобы мы могли вести полезные политические обсуждения», — сказал директор CAIS Дэн Хендрикс. Регистр.

    Отметим, что CAIS не упоминает общий искусственный интеллект (AGI) в своем списке рисков ИИ. А модели текущего поколения, такие как ChatGPT, не представляют апокалиптической угрозы для человечества, сказал нам Хендрикс. Предупреждение на этой неделе касается того, что может произойти дальше.

    «Типы катастрофических угроз, на которые ссылается это заявление, связаны с будущими передовыми системами искусственного интеллекта», — считает Хендрикс. Он добавил, что необходимые достижения, необходимые для достижения уровня «апокалиптической угрозы», могут произойти всего через два-десять лет, а не через несколько десятилетий. «Нам нужно готовиться сейчас. Однако системы ИИ, которые могут привести к катастрофическим последствиям, не обязательно должны быть ОИИ», — сказал он.

    Это не выглядит хорошо

    Одной из таких угроз является вооружение, или идея о том, что злоумышленники могут перепрофилировать доброжелательный ИИ, чтобы он был очень разрушительным, например, используя бота для открытия лекарств для разработки химического или биологического оружия, или используя обучение с подкреплением для машинного боя.

    ИИ также можно научить преследовать свои цели, не принимая во внимание индивидуальные или общественные ценности. Это может «ослабить» людей, которые в конечном итоге уступят свои навыки и способности автоматизированным машинам, вызвав дисбаланс сил между контроллерами ИИ и теми, кто вытеснен автоматизацией, или будут использоваться для распространения дезинформации, преднамеренно или иным образом. Опять же, ни один из этих ИИ не должен быть общим, и не так уж сложно увидеть потенциал развития ИИ текущего поколения, который будет создавать риски, о которых беспокоится CAIS. У вас может быть собственное мнение о том, насколько действительно разрушительным может быть программное обеспечение.

    Следовательно, крайне важно, утверждает CAIS, изучить и устранить уже ощущаемые негативные последствия ИИ, а также превратить эти существующие воздействия в предвидение. «Поскольку мы боремся с непосредственными рисками ИИ… индустрия ИИ и правительства во всем мире также должны серьезно противостоять риску того, что будущие ИИ могут представлять угрозу для человеческого существования», — говорится в заявлении Хендрикса.

    «Мир успешно сотрудничает для снижения рисков, связанных с ядерной войной. Такой же уровень усилий необходим для устранения опасностей, создаваемых будущими системами искусственного интеллекта», — призвал Хендрикс, поддержавший его список корпоративных, академических и идейных лидеров.

    Маска нет на борту

    Среди других подписавших Google Главный научный сотрудник DeepMind Ян Гудфеллоу, философы Дэвид Чалмерс и Дэниел Деннетт, писатель и блогер Сэм Харрис и музыкант/бывшая Илона Маска Граймс. Говоря о самом человеке, подпись Маска отсутствует.

    Генеральный директор Твиттера был среди тех, кто подписал открытое письмо, опубликованное Институтом будущего жизни в марте этого года, в котором содержится призыв к шестимесячной паузе в обучении систем ИИ, «более мощных, чем GPT-4». Неудивительно, что подпись генерального директора OpenAI Альтмана отсутствовала. что конкретное письмо, якобы потому, что оно напрямую вызывало его компанию.

    С тех пор OpenAI выпустила свои собственные предупреждения об угрозах, создаваемых продвинутым ИИ, и призвала к созданию глобального наблюдательного органа, подобного Международному агентству по атомной энергии, для регулирования использования ИИ.

    Это предупреждение и регулятивный призыв, в случае исторически неподходящего времени, прозвучали в тот же день, когда Альтман пригрозил вывести OpenAI, а вместе с ним и ChatGPT, из ЕС из-за закона об искусственном интеллекте блока. Правила, которые он поддерживает, — это одно, но Альтман сказал Брюсселю, что их идея об ограничении ИИ — это слишком нормативный мост, большое вам спасибо.

    В ответ парламентарии ЕС заявили, что OpenAI не будет диктовать им требования, и что, если компания не сможет соблюдать основные правила управления и прозрачности, «их системы не подходят для европейского рынка», — заявил депутат Европарламента от Нидерландов Ким ван Спаррентак. .

    Мы запросили у OpenAI разъяснение позиции Альтмана и обновим эту историю, если получим ответ. ®

    Предыдущая статьяВсе, что вам нужно знать, чтобы начать играть
    Следующая статьяСоздание полезного NFT
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.