В последнее время в моде генеративный ИИ, запущенный ChatGPT, а затем Microsoft Bing. С того времени, Google по-видимому, ускорила разработку собственной модели чата с искусственным интеллектом и выпустила Bard в ограниченном количестве, и пока что он, похоже, уступает остальным продуктам конкурентов. Он борется с основными вопросами, использует сомнительные источники и в целом кажется полусырым продуктом.
Чтобы быть полностью справедливым к Googleс этими проблемами роста столкнулся и Бинг, а Бард только только выпущенный. Более того, Google не готовил Bard в качестве поисковой системы, как Microsoft говорила о Bing. Тем не менее, если Бард был достаточно хорош для поисковой системы, я думаю Google вероятно, будет рекламировать его как один. Google не хочет отставать, и если бы у него был конкурент поисковой системы, который можно было бы противопоставить Bing, он бы почти наверняка это сделал.
С учетом всего сказанного, Бард — это проблеск ужасающе дезинформированного будущего. Он уже несколько раз облажался, и, как Google борется со своим собственным ИИ, чтобы он был менее неустойчивым, становится трудно настроить его, чтобы он тоже стал полезным. Чтобы ИИ был полезным, он должен быть динамичным, но этот динамизм связан с опасностью более широкого Интернета, на который он также опирается.
Google Бард пытается и не может быть поисковой системой
Google постоянно говорит, что Bard не является поисковой системой, а является «дополнением к поиску». Кажется, что Google хочет, чтобы вы использовали Bard как средство создания электронных писем, написания заметок и других творческий вещи… и нет получить информацию.
Если это так, Google не хочет, чтобы Бард воспринимался как поисковая система, тогда почему он подключен к Интернету?
Как (с юмором) отметили многие пользователи, вы можете задавать Барду вопросы, для которых ему определенно нужен Интернет, и он также будет искать и пытаться дать вам ответ. Если бы он был разработан, чтобы просто помогать с творчеством, компания могла бы легко сделать его намного более похожим на ChatGPT и просто сделать так, чтобы он мог отвечать только на вопросы о том, чему его обучали. Однако это не так, и если вы зададите ему вопросы, на которые он не знает ответа, он предпримет несколько амбициозных попыток найти источник.
Например, пользователь спросил Барда, сколько времени потребуется, чтобы Бард выключился. Ответ был получен из шутливого комментария Hacker News, в котором говорилось, что сервис уже закрыт.
Бард также позволил себе вольности, когда дело доходит до месяцев года, с чем он, кажется, борется, когда вы даете ему первые два месяца года.
Как я могу только предположить, что вышесказанное произошло, так это то, что Бард распознал «уарное» окончание первых двух месяцев (вместе с опечаткой в феврале) и следовал своему собственному распознаванию шаблона вместо того, что на самом деле означают месяцы года. являются.
Несмотря ни на что, ясно, что Бард не совсем готовый быть поисковой системой, и я предполагаю, что именно поэтому она не рекламировалась как поисковая система Google. Вы не должны использовать его в качестве поисковой системы по той простой причине, что в данный момент времени она, похоже, не способна им быть. Он может находить вещи, но не имеет возможности проверить их подлинность, и если он может получить случайный комментарий Hacker News для всего закрываемого сервиса, ясно, что в этой области необходимо проделать немало работы.
Bard, ChatGPT и Bing против будущего дезинформации
Дезинформация и дезинформация уже невероятно широко распространены в современном обществе, и искусственный интеллект, у которого нет системы отсчета для вещей, которые они извергают конечному пользователю, может больше, чем когда-либо, способствовать распространению дезинформации. Население в целом рассматривает ИИ как всезнающее существо, способное понять весь Интернет таким образом, чтобы упростить его для простых пользователей, таких как мы. Это не может быть дальше от истины, и дальше будет только хуже.
Барда уже обвинили в плагиате Оборудование Тома, который, столкнувшись с ним, обвинил пользователя во лжи. Если вы думаете, что что-то из этого звучит похоже на фиаско «Я был хорошим Bing 😊», вы были бы правы. Это те же ловушки, с которыми Microsoft уже сталкивалась, и их сложно обойти, не ограничивая ваш ИИ. слишком много. Когда ИИ говорит, что ложью является то, что не является ложью, это напрямую способствует распространению дезинформации, даже если это обыденно.
Бард — не единственный генеративный ИИ, обвиняемый в распространении дезинформации, но он, безусловно, является частью существующей в настоящее время проблемы. Практически невозможно гарантировать, что ИИ будет предоставлять конечному пользователю только факты, особенно когда дело доходит до поиска информации. недавний информация. На что, по вашему мнению, ИИ может ответить эффективно? Для меня это в основном все, что Google Помощник способен… в первую очередь получать доступ к уже сопоставленным данным. Он не собирается и не собирается ИИ для потребления конечным пользователем; это просто читается из базы данных.
Мы сейчас на распутье. С одной стороны, ИИ с каждым днем становится все более и более мощным. Подобные языковые модели становятся все более популярными, и большинство людей только увидят их эффективность и сразу же начнут их использовать; черт, ChatGPT — самое быстрорастущее потребительское приложение всегда с точки зрения времени, которое потребовалось, чтобы достичь ста миллионов пользователей. Сказав это, подобные программы имеют невероятное влияние, когда их содержание буквально не контролируется и не проверяется.
Это не значит, что эти инструменты ИИ могут никогда быть хорошими, но очень вероятно, что в будущем они будут способствовать дезинформации и дезинформации, и с этим будет трудно бороться. Facebook уже удается убеждать людей во всевозможных теориях заговора, а ИИ с GoogleИмя (или Microsoft, или OpenAI) на нем почти наверняка в какой-то момент внесет свой вклад в эти теории заговора. На данный момент лучший совет, который мы можем дать с любым из этих инструментов, — это перепроверить всю информацию, которую они вам предоставляют, и весьма вероятно, что этот совет будет преобладающим в будущем.