Большие языковые модели (LLM) склонны к ошибкам и галлюцинациям. Поскольку агентские системы обрабатывают последовательности выходных данных, полученных из LLM, галлюцинация в выходных данных может породить каскадные эффекты, если не установлены средства защиты. Поскольку агентские системы предназначены для автономной работы, руководители бизнеса должны вводит дополнительные механизмы надзора и барьеры. Хотя сложно полностью предвидеть все агентские риски, некоторые из них верифицированы.
Потенциально вредные результаты
Большие языковые модели не всегда точны, иногда предоставляя неверную информацию или выполняя действия с нежелательными последствиями. Эти риски усиливаются, поскольку агенты генеративного ИИ (gen AI) самостоятельно выполняют задачи, используя данные и цифровые инструменты в очень изменчивых сценариях. Например, агент может одобрить высокорискованный кредит, что приведет к финансовым потерям, или может совершить дорогую, невозвращаемую покупку для клиента.
Стратегия смягчения. Организации должны внедрять надежные меры подотчетности, четко определяя обязанности как агентов, так и людей, обеспечивая объсняемость и понятность результатов работы агентов. Это может быть достигнуто путем разработки фреймворков для управления автономией агентов (например, ограничение действий агентов на основе сложности варианта использования) и обеспечение человеческого надзора (например, проверка результатов работы агентов перед выполнением и проведение регулярных аудитов решений агентов). Кроме того, механизмы прозрачности и прослеживаемости могут помочь пользователям понять процесс принятия решений агентом, чтобы на раннем этапе выявить потенциально опасные проблемы.
Неправильное использование инструментов
Благодаря своей способности получать доступ к инструментам и данным, агенты могут быть опасны, если их намеренно использовать не по назначению. Например, агенты могут использоваться для разработки уязвимого кода, создания убедительных фишинговых мошенничеств или взлома конфиденциальной информации.
Стратегия смягчения. Для потенциально высокорисковых сценариев организации должны встраивать барьеры (например, контроль доступа, ограничения на действия агентов) и создавать закрытые среды для агентов (например, ограничивать доступ агентов к определенным инструментам и источникам данных). Кроме того, организации должны применять мониторинг действий агентов в режиме реального времени с автоматическими оповещениями о подозрительном поведении. Регулярные аудиты и проверки соответствия могут гарантировать, что барьеры остаются эффективными и актуальными.
Недостаточное или чрезмерное доверие между человеком и агентом
Так же, как и в отношениях с коллегами-людьми, взаимодействие между людьми и агентами ИИ основано на доверии. Если пользователи не верят в агентские системы, они могут сократить взаимодействие человека с агентом и обмен информацией, которые требуются агентским системам, если они хотят учиться и совершенствоваться. И наоборот, по мере того, как агенты становятся более искусными в подражании человеческому поведению, некоторые пользователи могут оказывать им слишком большое доверие, приписывая им понимание и суждение на человеческом уровне. Это может привести к тому, что пользователи будут некритически принимать рекомендации или предоставлять агентам слишком много автономии без достаточного контроля.
Стратегия смягчения. Организации могут управлять этими проблемами, уделяя первостепенное внимание прозрачности принятия решений агентами, обеспечивая обучение пользователей ответственному использованию агентов и создавая процесс «человек в контуре» для управления поведением агентов. Человеческий надзор за процессами агентов является ключом к обеспечению того, чтобы пользователи сохраняли сбалансированную точку зрения, критически оценивали работу агентов и сохраняли окончательные полномочия и ответственность в действиях агентов. Кроме того, работа агентов должна оцениваться путем привязки действий агентов к конкретным результатам (например, удовлетворенность клиентов, показатели успешного завершения тикетов).
Проблемы
Помимо устранения этих потенциальных рисков, организациям следует учитывать более широкие проблемы, возникающие в связи с появлением агентов поколения ИИ:
- Соответствие ценностям. Поскольку агенты похожи на коллег, их действия должны воплощать организационные ценности.
- Какие ценности должны воплощать агенты в своих решениях?
- Как регулярно оценивать и обучать агентов, чтобы они соответствовали этим ценностям?
- Смена рабочей силы. Выполняя задачи независимо, агентские системы могут существенно изменить способ выполнения работы, потенциально позволяя людям больше сосредоточиться на задачах более высокого уровня, требующих критического мышления и управленческих навыков.
- Как будут меняться роли и обязанности в каждой бизнес-функции?
- Как сотрудникам могут быть предоставлены возможности переподготовки?
- Существуют ли новые модели сотрудничества, которые могут улучшить взаимодействие между людьми и агентами ИИ?
- Антропоморфизм. Поскольку агенты все больше обладают человеческими способностями, пользователи могут развить чрезмерную зависимость от них или ошибочно полагать, что помощники ИИ полностью соответствуют их собственным интересам и ценностям.
- В какой степени человекоподобные характеристики должны быть включены в дизайн агентов?
- Какие процессы могут быть созданы для обеспечения обнаружения потенциального вреда в реальном времени при взаимодействии человека и агента?
Источник
Why agents are the next frontier of generative AI. By Lareina Yee, Michael Chui, and Roger Roberts with Stephen Xu.https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/why-agents-are-the-next-frontier-of-generative-ai