Маск считает, что X отмечает место для ИИ-движка Grok

    0
    0


    Коротко об искусственном интеллекте X, сайт микроблогов, ранее известный как Twitter, на выходных представил избранной группе пользователей свой «первый искусственный интеллект».

    Продукт был сначала дразнили бывшим генеральным директором и нынешним владельцем Илоном Маском, который не сказал, что это было или что именно он сделал, но был уверен, что это было лучшее в своем роде «в некоторых важных отношениях».

    «Завтра @xAI представит свой первый ИИ избранной группе. В некоторых важных отношениях это лучшее, что существует на данный момент», — он хвастался.

    А когда в субботу появилась эта новость, было объявлено, что его мушкетеры запустили свою собственную модель искусственного интеллекта, получившую название Grok, которую он описал как имеющую «бунтарскую жилку». По словам xAI, модель «создана по образцу «Автостопом по путешествию». Galaxy», а для тех, кто узнал это имя из интернет-культуры, но не знает его происхождения, оно было придумано Робертом Хайнлайном для его классической книги 1961 года. Незнакомец в чужой стране где это было слово марсианского языка, которое буквально означало «пить», но в переносном смысле означало «глубоко понимать».

    «Уникальное и фундаментальное преимущество Grok заключается в том, что он получает знания о мире в режиме реального времени через платформу . Он также будет отвечать на острые вопросы, которые отвергаются большинством других систем искусственного интеллекта», — заявила команда, добавив предостережение: «Grok это все еще очень ранняя бета-версия продукта – лучшее, что мы могли сделать за два месяца обучения – так что ожидайте, что с вашей помощью он будет быстро улучшаться с каждой неделей».

    Маск заявил, что доступ к информационному потоку в режиме реального времени делает Grok быстро развивающейся платформой с огромным потенциалом. Но проверить это на самом деле никто не может, поскольку он еще не выпущен в общий выпуск и первоначально будет доступен только тем, кто готов заплатить за синюю галочку на сайте.

    Маск имеет репутацию человека, нарушающего сроки и слишком многообещающего – например, он уже на пять лет опоздал с достижением своей цели по доставке платных пассажиров на Луну. Посмотрим, как сработает эта предполагаемая система ИИ… может быть.

    Люди лучше ИИ справляются с фишинговыми атаками

    Согласно экспериментам, проведенным командой безопасности IBM, большие языковые модели могут создавать фишинговые электронные письма быстрее, чем люди, но их написание менее убедительно, чем старая добрая социальная инженерия.

    Главный хакер Big Blue Стефани Каррутерс рассказала, как ChatGPT может создавать поддельные фишинговые сообщения за пять минут, по сравнению с обычными 16 часами, которые ее команде требуется для создания идеального электронного письма. В отличие от ИИ, люди обычно не торопятся исследовать конкретную область или тип жертвы, на которую они нацелены.

    Исследователи IBM, например, в ходе своего эксперимента разослали фишинговые электронные письма, созданные искусственным интеллектом и людьми, более чем 800 сотрудникам медицинской компании и сравнили результаты. Сообщения, написанные ChatGPT, отмечались как подозрительные чаще, чем сообщения, написанные командой людей.

    Каррутерс сказал, что ИИ менее эффективны в социальной инженерии, чем люди, потому что им не хватает эмоционального понимания, необходимого для манипулирования жертвами. Машины не могут создавать персонализированные сообщения, и их написание является общим, то есть люди могут обнаружить явные признаки того, что фишинговая атака кажется фальшивой.

    «Возможно, люди с небольшим перевесом выиграли этот матч, но ИИ постоянно совершенствуется. По мере развития технологий мы можем только ожидать, что ИИ станет более сложным и потенциально однажды даже превзойдет человека», — сказала она.

    Компании, занимающиеся искусственным интеллектом, соглашаются на государственное тестирование моделей перед выпуском

    Ведущие компании в области искусственного интеллекта, включая OpenAI, Google DeepMind, Anthropic, Amazon и Microsoft подписали соглашение, позволяющее правительствам Великобритании, США и Сингапура тестировать свои системы на предмет рисков безопасности.

    Соглашение было подписано во время британского саммита по искусственному интеллекту под руководством премьер-министра Риши Сунака. Лидеры всего мира пытаются сбалансировать регулирование технологий таким образом, чтобы позволить инновациям процветать, но при этом сохранять меры безопасности. Хотя они признают экономические выгоды, которые принесет ИИ, многие обеспокоены тем, что его используют для создания дезинформации, угрозы национальной безопасности или разрушения рынков труда.

    Теперь чиновники призывают разработчиков самых мощных систем проверять свои модели, прежде чем они будут развернуты в реальном мире.

    «Я верю, что достижения этого саммита склонят чашу весов в пользу человечества», — сказал Сунак, согласно сообщению Файнэншл Таймс. «Мы будем вместе работать над тестированием безопасности новых моделей ИИ перед их выпуском».

    Однако остается без ответа вопрос о том, действительно ли застройщики, подписавшие соглашение, выполняют его, поскольку договор не имеет юридической силы. Также неясно, как именно правительства планируют тестировать свои модели ИИ.

    Новостной контент часто используется в наборах данных для обучения чат-ботов с искусственным интеллектом.

    Согласно отчету, опубликованному на этой неделе, издательская торговая группа News Media Alliance обнаружила, что чат-боты с искусственным интеллектом обучаются в основном на статьях в СМИ и могут воспроизводить контент, защищенный авторским правом.

    Группа, представляющая более 2200 издателей в США и Канаде, обнаружила [PDF] что наборы обучающих данных, такие как C4, OpenWebText и OpenWebText2, часто используемые для обучения больших языковых моделей, в основном содержат текст, полученный из средств массовой информации.

    Хотя компании, разрабатывающие программное обеспечение, хотят, чтобы их чат-боты извлекали факты, в конечном итоге они также извергают текст, имитирующий письмо репортера. Согласно комментариям, представленным в Бюро авторских прав США, News Media Alliance считает, что это нарушает права издателей на материалы, защищенные авторским правом.

    Он призвал разработчиков ИИ получить «соответствующее разрешение» и выплатить «компенсации, выплачиваемые издателям» за использование их охраняемых произведений. «Без эффективного правоприменения, регулирования и стандартов – включая требование к разработчикам ИИ запрашивать разрешение у правообладателей на использование их защищенного контента для обучения конкурентоспособным продуктам – ИИ может привести к значительному вреду».

    «Этот вред может включать в себя подрыв основ нашей демократии через дальнейшее ослабление или полное закрытие газет, журналов и цифровых изданий – особенно местных – распространение дезинформации и дезинформации, а также ограничение доступа к репортажам, которые, по сути, могут только быть созданы людьми – на основе обширного сбора фактов, интервью и суждений», – согласно ответу группы [PDF]. ®



    Предыдущая статьяЭтот комплект PS5 может оказаться самым дешевым перед Черной Пятницей
    Следующая статьяSony Xperia 1 V получает Android 14 с Video Creator и улучшенным режимом Bokeh
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.