Введение: Доверие как новая валюта на основе ИИ
Внедрение ИИ переместилось из экспериментальных задач в масштабы всего предприятия. Тем не менее в 2025 году определяющий фактор, который будет отличать оптимистов от отстающих, — не скорость, а доверие.
Агентный ИИ автономен и нацелен на достижение цели. Он может кардинальным образом изменить отрасль. Однако автономия без ответственности создает риск. Руководители должны ответить: Как мы обеспечиваем точность, справедливость, безопасность и соответствие наших ценностей системам Uber?
Здесь вступают в силу подходы корпоративного управления, предотвращения систематических предубеждений и ответственного использования ИИ. И здесь решения Uber для ИИ помогают предприятиям ответственно масштабировать агентский ИИ.
Проблема доверия к агентному ИИ
Руководителям известно, что несоблюдение мер предосторожности приводит к лишним рискам. Платформа доверия должна быть разработана с самого первого дня.
По мере того как системы становятся все более автономными, риски увеличиваются:
- Смещенное усиление: Непроверенные данные обучения приводят к дискриминационным результатам.
- Галлюцинации: Специалисты LLM дают правдоподобные, но неточные результаты.
- Нечеткое обоснование: Предприятия не могут действовать исходя из того, чего они не понимаю.
- Безопасность и конфиденциальность. Конфиденциальные данные должны оставаться в конфиденциальности и соответствовать требованиям.
Управление и качество в агентском ИИ
Чтобы обеспечить доверие, компании уже внедряют строгие программы обеспечения качества:
- Соглашение между аннотаторами (IAA): Согласие нескольких оценщиков для подтверждения качества.
- Каппа Коэна и Fleiss: Статистические показатели, определяющие надежность аннотаций по данным разных проверяющих.
- Золотые наборы данных: Подборка подтвержденных данных для сравнения.
- Соблюдение условий соглашения об уровне обслуживания: Точность и сроки выполнения заказов — всё это в операционных договорах.
Эти показатели качества подаются в легкодоступных и повторяющихся сигналах доверия, на которые можно положиться.
Предупреждение систематических ошибок в агентном ИИ
Предвзятость — это не только техническая ошибка. это риск для репутации и соблюдения нормативных требований.
Эффективные стратегии предотвращения выбросов включают в себя:
- Объединяющие усилия и соревнующееся тестирование: Стринг-тестирование ИИ на предмет необъективных или вредных подсказок.
- Согласованная система обозначений: Чтобы избежать систематических ошибок, нам
- Петли обратной связи. Аудит с участием человека постоянно повышает справедливость системы.
- Панели управления предубеждением: Данные о решениях, влияющих на модель, и их влиянии на демографические данные в реальном времени.
конкретный случай: Внутренние модели безопасности Uber выявляют предубежденные отклонения при регистрации водителей. Благодаря изменению разметки данных и оценке на основе опроса удалось снизить уровень систематических ошибок и восстановить справедливость.
Ответственные платформы на основе ИИ: От правил к действиям
Для ответственного использования ИИ необходимо претворить абстракции в конкретные действия:
- Справедливость: Разнообразные источники данных и оценщики.
- Подотчетность: Журнал аудита, панели управления объяснимостью, отслеживание соглашений об уровне обслуживания.
- прозрачность: Документированная информация о происхождении модели, происшествии за набором данных и способах принятия решений.
- Безопасность: Эксклюзивное тестирование, внесение систематических предубеждений и красная команда.
- Конфиденциальность: Надежная доставка данных и сертификаты соответствия требованиям.
Когда на предприятиях начинают действовать эти принципы, агентный ИИ переходит от рискованной автономии к автономии, пользующейся доверием.
Решения Uber на основе ИИ. Надежная автономия в любом масштабе
Уже почти 10 лет компания Uber балансирует на балансе между автономией и доверием клиентов: от обнаружения мошенничества в режиме реального времени до систем распознавания беспилотных автомобилей. Теперь с помощью решений Uber на основе ИИ этот инструмент доступен и корпоративным клиентам.
Мы помогаем вам в этом:
- Стандарты качества 98%+ по сравнению с 95% отраслевых стандартов
- Глобальное мероприятие и опытные сотрудники: Более 8,8 млн партнеров по всему миру предоставляют различные пулы оценки.
- Платформа uLabel: Автоматическая предварительная маркировка, модель достижения согласия, проверка эталонного набора данных.
- Координация uTask: Отслеживание рабочих процессов с помощью панели управления в режиме реального времени.
- Оценка uTest: Сбор данных о красных командах, сбор данных о предпочтениях и сравнение данных для проверки безопасности.
Как предприятиям восстановить доверие в 2025 году
- Проведите проверку системы доставки данных на основе ИИ — убедитесь, что наборы данных, аннотаций и оценивания проходят объективную проверку.
- Используйте показатели, которые важны не только для точности результатов, но и для соглашения между экспертами, соблюдения соглашения об уровне обслуживания и справедливости.
- Внедрите надзор за безопасностью в международном аэропорту HITL — модели, основанные на принципах личного участия, позволяют обеспечить безопасность там, где это необходимо.
- Сотрудничайте с надежными поставщиками. Для масштабирования ответственного ИИ требуются опыт, охват по всему миру и знание предметной области.
Вывод: Доверие как конкурентное преимущество
В 2025 году компании не могут позволить себе обращать внимание на доверие в последний момент. Он должен стать базой для внедрения агентного ИИ.
Внедряя управление, предотвращение предубеждения и ответственный подход к ИИ, водители могут внедрить не только эффективные, но и этические, справедливые и безопасные системы.
Решения Uber на основе ИИ помогают предприятиям использовать это доверие по всему миру, предоставляя им автономию и ответственность. В эру агентного ИИ доверие не является обязательным — это единственный способ двигаться вперед.
Industry solutions
Отрасли
Навигаторы