Google обещает 20 миллионов долларов на финансирование исследований ответственного ИИ

    0
    2


    Google собрал 20 миллионов долларов для финансирования исследований того, как искусственный интеллект можно разрабатывать и использовать ответственно, а также оказать положительное влияние на мир.

    «ИИ обладает потенциалом сделать нашу жизнь проще и решить некоторые из самых сложных проблем общества, таких как предотвращение болезней, улучшение работы городов и прогнозирование стихийных бедствий», — объяснила в своем докладе Бриджит Хойер Госселинк, директор по влиянию продуктов поискового гиганта. заявление сегодня.

    «Но это также поднимает вопросы о справедливости, предвзятости, дезинформации, безопасности и будущем труда. Ответ на эти вопросы потребует глубокого сотрудничества между промышленностью, научными кругами, правительствами и гражданским обществом».

    20 миллионов долларов, выделенные на этот проект цифрового будущего – не так уж и много денег для Google но многое для ученых и аналитических центров – пойдет на поддержку сторонних исследователей, изучающих, как технология машинного обучения будет формировать общество, поскольку оно все больше вторгается в жизнь людей. Проект особенно заинтересован в потенциале ИИ перевернуть экономику, правительства и институты и финансирует ученых для исследования таких вопросов, как:

    • Как ИИ повлияет на глобальную безопасность и как его можно использовать для повышения безопасности учреждений и предприятий
    • Как ИИ повлияет на труд и экономику, какие шаги мы можем предпринять сегодня, чтобы перевести рабочую силу на рабочие места будущего, основанные на ИИ, и как правительства могут использовать ИИ для повышения производительности и экономического роста
    • Какие структуры управления и межотраслевые усилия могут лучше всего способствовать ответственным инновациям в области ИИ?

    Google заявил, что уже выделил часть денег в качестве грантов различным аналитическим центрам: Институту Аспена, Брукингскому институту, Фонду Карнеги за международный мир, Центру новой американской безопасности, Центру стратегических и международных исследований и Институту Р. Стрита, а также «Будущее работы Массачусетского технологического института» и некоммерческие организации SeedAI, Институт безопасности и технологий и Образовательный фонд конференции лидерства.

    Как и другие крупные технологические компании, веб-гигант стремится заявить о себе как о лидере в разработке искусственного интеллекта во благо. В соответствии с принципами ИИ, Google пообещал создать технологию безопасно и избегать вредных предубеждений. Однако компании не всегда удавалось выполнить свои обещания, и некоторые из ее продуктов оказывались в затруднительном положении.

    Программное обеспечение для распознавания изображений, развернутое в приложении «Фото», пометило чернокожих людей как горилл, например, в 2015 году. Чтобы избежать ошибок такого рода, Google просто заблокировали пользователям возможность поиска по своим изображениям, используя любые метки, связанные с приматами. Другие компании, такие как Apple, Microsoft и Amazon, сделали то же самое со своим собственным программным обеспечением для хранения изображений.

    Сходным образом, Google подверглась критике за поспешное внедрение своего поискового чат-бота Bard в Интернете, чтобы конкурировать с обновленным поиском Bing, управляемым через чаты. В день запуска Бард был пойман на публичной демонстрации за предоставлением ложной информации. Когда чат-боту задали вопрос о крупнейших открытиях космического телескопа Джеймса Уэбба, он ошибочно заявил, что «JWST сделал самые первые снимки планеты за пределами нашей Солнечной системы».

    Фактически, по данным НАСА, наше самое первое изображение экзопланеты, 2M1207b, было получено Очень Большим Телескопом Европейской Южной Обсерватории в 2004 году.

    Позже выяснилось, что Bing AI от Microsoft на самом деле ничуть не лучше, а также генерирует неверную информацию о местах и ​​отчетах.

    Все еще, Google пытается сделать свою технологию более безопасной и присоединилась к другим ведущим компаниям, таким как OpenAI, Meta, Amazon, Microsoft и другим, чтобы согласиться на государственный аудит своих продуктов. Эти расследования будут сосредоточены на особенно рискованных областях, таких как кибербезопасность и биобезопасность. Они также пообещали разработать методы нанесения цифровых водяных знаков для обнаружения контента, созданного искусственным интеллектом, и борьбы с дезинформацией.

    В прошлом месяце исследователи из Google DeepMind анонсировала SynthID, инструмент, который тонко изменяет пиксели изображения, сгенерированного его моделью Imagen, чтобы сигнализировать, что это синтетическое изображение. Тем временем, Google также недавно обновил свои правила политического контента и теперь требует, чтобы все проверенные предвыборные рекламодатели раскрывали, содержат ли их рекламные объявления изображения, видео или аудио, созданные искусственным интеллектом. Новая политика вступит в силу в середине ноября этого года.

    А Amazon совсем недавно внесла изменения в свою политику, требуя от авторов, делящихся своими работами через Kindle Direct Publishing гиганта электронной коммерции, раскрывать любое использование искусственного интеллекта для создания контента. ®

    Предыдущая статьяHeck yeah, this Starfield mod lets you craft your own ammo
    Следующая статьяКак узнать характеристики вашего компьютера с Windows 11
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.