Ключевые выводы
- OpenAI обеспокоена тем, что пользователи могут сформировать эмоциональную связь с ChatGPT-4o из-за его человекоподобного взаимодействия.
- Компания опасается, что слишком поспешная вера в ИИ может привести к инвестированию в ложные убеждения и изменению социальных норм.
- OpenAI стремится контролировать и корректировать свои системы, чтобы пользователи не принимали искусственный интеллект, такой как ChatGPT-4o, за человеческое взаимодействие.
Компании, занимающиеся чатботами на основе искусственного интеллекта, стремятся сделать свои модели максимально похожими на человеческие. Однако, похоже, OpenAI немного обеспокоена тем, насколько человек «слишком человечен», и как это может повлиять на общественные нормы. Компания опубликовала большой отчет о том, как она ведет бизнес, и одна часть дает это понять очень ясно: компания действительно, действительно предпочла бы, чтобы вы не уловили никаких чувств к ChatGPT-4o.

Связанный
Обзор Solos AirGo 3: даже с ChatGPT эти замечательные очки на самом деле не такие уж и умные
Из всех умных очков, которые я тестировал, эти — лучшие в плане того, чтобы быть очками. Однако я не могу сказать того же об умных функциях.
OpenAI описывает свои опасения относительно того, как люди могут строить отношения с ChatGPT-4o
Как упоминалось в сообщении блога OpenAI, компания усердно работала над тем, чтобы ChatGPT-4o ощущался так, будто вы разговариваете с человеком. Это включает в себя новую голосовую функцию, которая пытается эмулировать человеческую речь, а также более быстрые ответы. Конечный результат означает, что вы можете вести голосовую беседу с чат-ботом так же, как с человеком.
Есть только небольшая проблема – OpenAI заметил, что люди начали обращаться ChatGPT-4o как человек:
Во время раннего тестирования, включая red teaming и внутреннее пользовательское тестирование, мы наблюдали, как пользователи использовали язык, который мог указывать на формирование связей с моделью. Например, сюда входит язык, выражающий общие связи, например «Это наш последний день вместе». Хотя эти случаи кажутся безобидными, они сигнализируют о необходимости дальнейшего изучения того, как эти эффекты могут проявляться в течение более длительных периодов времени.
OpenAI утверждает, что это плохие новости по двум причинам. Во-первых, когда ИИ кажется похожим на человека, мы более склонны верить в то, что он говорит, буквально. Это означает, что люди гораздо более склонны вкладываться в галлюцинации, чем если бы ИИ выглядел как робот.
Во-вторых, OpenAI обеспокоена тем, что социальные нормы могут быть искажены ChatGPT-4o. Компания обеспокоена тем, что это снизит потребность людей в социальном взаимодействии, «потенциально принося пользу одиноким людям, но, возможно, влияя на здоровые отношения». Более того, OpenAI обеспокоена тем, что люди могут начать разговаривать с людьми, как будто они ChatGPT-4o. Это довольно плохо, учитывая, как OpenAI специально разработала ChatGPT-4o, чтобы он прекращал говорить в тот момент, когда пользователь начинает говорить через него. Перенос этого ожидания в человеческий мир не был бы так хорошо принят.
На данный момент OpenAI будет следить за тем, как люди развивают эмоциональные связи с его чат-ботами, и при необходимости настраивать свои системы. Но это интересный взгляд на побочные эффекты создания модели ИИ как можно более соотносимой и доступной.