Вкратце Генеральный директор OpenAI Сэм Альтман признался в телеинтервью, что он «немного напуган» властью и рисками, которые языковые модели представляют для общества.
Альтман предупредил, что их способность автоматически генерировать текст, изображения или код может быть использована для запуска дезинформационных кампаний или кибератак. Технологией могут злоупотреблять отдельные лица, группы или авторитарные правительства.
«Мы должны быть осторожны здесь», — сказал он ABCNews. «Я думаю, что люди должны быть счастливы, что мы немного боимся этого».
OpenAI подвергается критике за то, что хранит в секрете технические детали своей последней языковой модели GPT-4 — она не раскрывает информацию о размере модели, архитектуре, обучающих данных и многом другом.
Однако некоторых людей поведение стартапа смущает. Если технология так опасна, как утверждает OpenAI, почему она доступна любому, кто готов за нее платить? Тем не менее, Альтман добавил: «Меня беспокоит то, что… мы не собираемся быть единственными создателями этой технологии. Будут и другие люди, которые не наложат на нее некоторых ограничений безопасности, которые мы накладываем на нее. “
Вы можете посмотреть интервью ниже.
YouTube видео
Discord ненадолго изменил свою политику сбора данных после анонса новых инструментов ИИ
Приложение для обмена мгновенными сообщениями Discord незаметно удалило политики, обещающие не собирать пользовательские данные, после того, как оно развернуло серию новых генеративных функций искусственного интеллекта, и добавило их обратно после того, как пользователи заметили изменение.
Discord выпустил чат-бота Clyde, работающего на моделях искусственного интеллекта, разработанных Stable Diffusion и OpenAI, который способен создавать текст и изображения для создания мемов, шуток и многого другого.
Когда он добавил новые функции в Clyde, параграф из его политики конфиденциальности, в котором говорилось: «Обычно мы не храним содержимое видео- или голосовых вызовов или каналов» и «Мы также не храним потоковый контент, когда вы делитесь своим экраном», внезапно исчез. . Пользователи обеспокоены тем, что чат-платформа может собирать и хранить их данные для обучения будущих моделей ИИ.
Discord незаметно добавил оба правила обратно после критики, ТехРадар сообщил. Представитель сказал: «Мы признаем, что, когда мы недавно опубликовали измененную формулировку в нашей Политике конфиденциальности, мы непреднамеренно вызвали замешательство среди наших пользователей. Чтобы было ясно, ничего не изменилось, и мы повторно вставили формулировку обратно в нашу Политику конфиденциальности вместе с некоторыми дополнительными уточнение информации».
Однако Discord признал, что в будущем он может создать функции, которые будут обрабатывать голосовой и видеоконтент.
В лондонском ночном клубе звучит созданная искусственным интеллектом музыка для любителей вечеринок
Клубберы танцевали под музыку, созданную с помощью программного обеспечения искусственного интеллекта, в модном танцевальном баре в Лондоне на первом мероприятии такого рода в прошлом месяце, сообщило агентство Reuters на этой неделе.
The Glove That Fits, ночной клуб в Восточном Лондоне, известный тем, что играет электронную музыку, провел «Algorhythm» — вечер продвижения музыки, созданной с помощью приложения Mubert, которое создает треки, созданные искусственным интеллектом.
Диджейская будка могла быть пуста, но танцпол — нет. Пара тусовщиков даже сказала, что музыка не так уж и плоха.
«Это может быть более сложно», — сказала Роуз Катбертсон, студентка магистратуры по искусственному интеллекту. «У него нет таких знаний, возможно, о других электронных жанрах, которые могли бы сделать музыку более интересной. Но танцевать под нее все равно весело».
Пьетро Капече Галеота, программист, сказал, что программное обеспечение «до сих пор неплохо справлялось со своей задачей».
Пол Згордан, генеральный директор Mubert, сказал, что искусственный интеллект создаст новые рабочие места для артистов и новые способы создания музыки. «Мы хотим сохранить рабочие места музыкантов, но по-своему. Мы хотим дать им возможность зарабатывать деньги с помощью ИИ. Мы хотим дать людям новые (работы)». ®
если некоторые компании или органы править будут использовать эти модели плохо, то это сможет оказать существенное влияние на нашу демократию.
тех пор до сих пор остается неясным, насколько информация о пользователях будет использоваться для персонализации их испытаний.
Сэм Альтман, генеральный директор OpenAI, высказал свою озабоченность относительно власти и рисков, связанных с языковыми моделями для общества. Он также предупредил, что