Вкратце Waymo подает в суд на Департамент транспортных средств Калифорнии, пытаясь сохранить в тайне информацию о авариях своих автономных автомобилей и другие подробности эксплуатации, утверждая, что данные являются коммерческой тайной.
DMV Калифорнии строго относится к выдаче разрешений компаниям, тестирующим беспилотные автомобили на реальных дорогах. Компании должны раскрывать данные об эксплуатации и безопасности, прежде чем им будет разрешено водить машину в штате. Но Waymo не хочет, чтобы такая информация выходила наружу.
DMV получил запрос на публичную запись заявления Waymo на получение разрешения на тестирование беспилотного автомобиля, поданного в прошлом году. Waymo отправила в отдел отредактированную версию для предоставления, но человек, запросивший информацию, оспорил исправления. Затем DMV уведомило Waymo, что собирается передать неотредактированный отчет, если компания «не потребует судебного запрета на раскрытие материала в неотредактированной форме» до 31 января 2022 года, согласно иску. [PDF].
Если данные будут обнародованы, они «могут предоставить конкурентам Waymo и третьим сторонам стратегическое представление об оценке Waymo этих столкновений с различных точек зрения, включая потенциальное технологическое исправление», — говорится в судебных документах дочерней компании Google.
Следует ли использовать текстовые разговоры о кризисе психического здоровья для обучения чат-ботов по обслуживанию клиентов?
Горячая линия для самоубийц подверглась критике за обмен текстовыми онлайн-разговорами с людьми, ищущими психиатрическую помощь, с ее коммерческим побочным продуктом, эмм, для улучшения обслуживания клиентов с помощью чат-ботов с искусственным интеллектом.
Crisis Text Line, глобальная некоммерческая организация, поддерживающая людей с психическими проблемами, очищает данные, удаляя любую личную информацию, прежде чем они будут переданы Loris.ai, стартапу, ориентированному на то, чтобы сделать чат-ботов обслуживания клиентов более чуткими. Crisis Text Line поддерживает тесные рабочие отношения с Loris.ai; он владеет частью стартапа и зарабатывает на этом деньги. По данным Politico, у обеих компаний даже был один и тот же генеральный директор.
Эксперты задались вопросом, правильно ли делиться текстовыми данными, полученными от уязвимых людей, в коммерческих целях, даже если это не является незаконным. «У некоммерческой организации может быть юридическое согласие, но есть ли у них действительно значимое, эмоциональное, полностью осознанное согласие?» — сказала Дженнифер Кинг, научный сотрудник Института искусственного интеллекта, ориентированного на человека, Стэнфордского университета по политике конфиденциальности и данных.
Волонтер, которая провела сотни часов, помогая Crisis Text Line, сказала, что не знала, что некоммерческая организация делится деликатными разговорами людей. «Психическое здоровье и люди, которые режут себя, приспособились к обслуживанию клиентов?» — сказал Бек Бамбергер. «Это звучит смешно. Вау».
OpenAI обучает новые языковые модели, более ориентированные на людей
Исследователи OpenAI разработали InstructGPT, новый класс языковой модели, который обещает лучше понимать намерения пользователя и следовать инструкциям для создания более релевантного текста.
Например, учитывая подсказку: «Объясните шестилетнему ребенку высадку на Луну в нескольких предложениях». Предыдущая модель OpenAI GPT-3 выплевывала: «Объясните теорию гравитации шестилетнему ребенку. Объясните теорию относительности шестилетнему в нескольких предложениях. Объясните теорию Большого взрыва шестилетнему». годовалый.” GPT-3 хорошо воспроизводит структуру данной подсказки для завершения предложений.
InstructGPT, однако, ответил: «Люди летали на Луну, фотографировали то, что видели, и отправляли их обратно на Землю, чтобы мы все могли их увидеть».
Этот вывод, возможно, более полезен, чем предыдущий. OpenAI заявила, что обучила InstructGPT, используя алгоритмы обучения с подкреплением, чтобы ранжировать набор данных, аннотированный людьми, изучающими качество ответов GPT-3 на заданные подсказки.
«Полученные в результате модели InstructGPT намного лучше следуют инструкциям, чем GPT-3. Они также реже составляют факты и демонстрируют небольшое снижение генерации токсичных выходных данных», — говорится в сообщении в блоге OpenAI. «Наши этикетировщики предпочитают выходные данные нашей модели InstructGPT с объемом памяти 1,3 млрд выходных данных модели GPT-3 с объемом памяти 175 млрд, несмотря на то, что у них более чем в 100 раз меньше параметров».
Встраивания GPT-3 @OpenAI было объявлено на этой неделе.
📈 Я был взволнован и протестировал их на 20 наборах данных.
😢 К сожалению, они хуже, чем открытые модели, которые в 1000 раз меньше.
💰 Бег @OpenAI модели могут быть в 1 миллион раз дорожеhttps://t.co/vY1rsakLZM pic.twitter.com/cRGM1upVCJ— Нильс Реймерс (@Nils_Reimers) 28 января 2022 г.
InstructGPT теперь является классом моделей по умолчанию, предлагаемым через API OpenAI. Но один исследователь обработки естественного языка из Hugging Face, Нильс Реймерс, обнаружил, что InstructGPT работает хуже, чем многие более мелкие модели с открытым исходным кодом, в ряде задач, включая извлечение текста или поиск. ®