Показаны сообщения с ярлыком риск. Показать все сообщения
Показаны сообщения с ярлыком риск. Показать все сообщения

четверг, 15 января 2026 г.

Риски агентного ИИ

Автономные агенты ИИ открывают новый мир возможностей, а также целый ряд новых и сложных рисков и уязвимостей, требующих внимания и действий немедленно.

Руководители предприятий спешат внедрить агентный ИИ, и легко понять, почему. Автономные и целеустремлённые агентные системы ИИ способны рассуждать, планировать, действовать и адаптироваться без человеческого контроля — это мощные новые возможности, которые могут помочь организациям раскрыть потенциал, открываемый ИИ нового поколения , радикально переосмыслив свои методы работы. Всё больше организаций в настоящее время изучают или внедряют системы агентного ИИ, которые, по прогнозам, помогут ежегодно получать от 2,6 до 4,4 триллиона долларов США в более чем 60 сферах применения ИИ нового поколения, включая обслуживание клиентов, разработку программного обеспечения, оптимизацию цепочек поставок и обеспечение соответствия требованиям. И путь к развертыванию агентного ИИ только начинается: только 1% опрошенных организаций считают, что внедрение ИИ у них достигло зрелости.

Но хотя агентный ИИ может принести огромную пользу, эта технология также несет в себе ряд новых рисков, создавая уязвимости, которые могут нарушить работу, поставить под угрозу конфиденциальные данные или подорвать доверие клиентов. Агенты ИИ не только предоставляют новые внешние точки входа для потенциальных злоумышленников, но и, поскольку они способны принимать решения без человеческого контроля, создают новые внутренние риски. С точки зрения кибербезопасности можно рассматривать агентов ИИ как «цифровых инсайдеров» — субъектов, работающих в системах с различными уровнями привилегий и полномочий. Так же, как и их коллеги-люди, эти цифровые инсайдеры могут причинить вред непреднамеренно, из-за плохой координации или преднамеренно, если они будут скомпрометированы. Уже 80% организаций сообщают, что сталкивались с рискованным поведением агентов ИИ, включая ненадлежащее раскрытие данных и несанкционированный доступ к системам.

Руководителям в области технологий, включая директоров по информационным технологиям (CIO), директоров по рискам (CRO), директоров по информационной безопасности (CISO) и директоров по защите данных (DPO), предстоит тщательно изучить возникающие риски, связанные с агентами ИИ и агентскими рабочими силами, а также заблаговременно обеспечить безопасное и соответствующее требованиям внедрение этой технологии. Будущее ИИ на работе — не просто быстрее или умнее. Он становится более автономным. Агенты будут всё чаще инициировать действия, сотрудничать вне определённых подразделений и принимать решения, влияющие на бизнес-результаты. Это многообещающее развитие, при условии, что эти агенты работают не только с доступом компании, но и с её намерениями. В мире агентов доверие — это не просто характеристика. Оно должно быть основой.

Возникающие риски в эпоху агентов


Работая автономно и автоматизируя задачи, традиционно выполняемые людьми, агентный ИИ добавляет новое измерение к ландшафту рисков. Ключевым изменением является переход от систем, обеспечивающих взаимодействие, к системам, управляющим транзакциями, которые напрямую влияют на бизнес-процессы и результаты. Этот сдвиг обостряет проблемы, связанные с основными принципами безопасности: конфиденциальностью, целостностью и доступностью в агентском контексте, из-за дополнительного потенциала усиления фундаментальных рисков, таких как конфиденциальность данных, отказ в обслуживании и целостность системы. 

Следующие новые факторы риска выходят за рамки традиционной таксономии рисков, связанных с ИИ.

  • Цепочка уязвимостей. Ошибка в одном агенте распространяется каскадом по задачам на других агентов, увеличивая риски.
  • Эскалация задач между агентами. Вредоносные агенты используют механизмы доверия для получения несанкционированных привилегий.
  • Риск синтетической идентификации. Злоумышленники подделывают или выдают себя за агентов, чтобы обойти механизмы доверия.
  • Неотслеживаемая утечка данных. Автономные агенты, обменивающиеся данными без контроля, скрывают утечки и уклоняются от проверок.
  • Распространение искажения данных. Данные низкого качества незаметно влияют на решения, принимаемые агентами.

Подобные ошибки грозят подорвать доверие к бизнес-процессам и решениям, которые агентские системы призваны автоматизировать, сводя на нет любой прирост эффективности, который они обеспечивают. К счастью, это не неизбежно. Агентский ИИ может раскрыть свой потенциал, но только если принципы безопасности, описанные ниже, будут внедрены в систему с самого начала.

Для каждого варианта использования агента в портфеле ИИ организации технические руководители должны выявить и оценить соответствующие организационные риски и, при необходимости, обновить свою методологию оценки рисков.

Руководящие принципы обеспечения безопасности агентского ИИ


Для безопасного внедрения агентного ИИ организации могут использовать структурированный многоуровневый подход. Ниже мы предлагаем практическую дорожную карту, которая описывает ключевые вопросы, которые следует задать технологическим лидерам для оценки готовности, снижения рисков и обеспечения уверенного внедрения агентных систем. Процесс начинается с обновления систем управления рисками и управления, затем следует создание механизмов надзора и повышения осведомленности, а завершается внедрением средств контроля безопасности.

Перед развертыванием агента


Прежде чем организация начнет использовать автономных агентов, ей следует убедиться в наличии необходимых мер безопасности, методов управления рисками и корпоративного управления для безопасного, ответственного и эффективного внедрения этой технологии. Вот несколько ключевых вопросов, которые следует рассмотреть:

Рассматривает ли наша политика в области ИИ агентские системы и их уникальные риски? Ответ на этот вопрос начинается с обновления существующих политик, стандартов и процессов в области ИИ, таких как управление идентификацией и доступом (IAM) и управление рисками третьих сторон (TPRM), с учетом новых возможностей агентских систем. Например, в контексте IAM организации должны определить роли и процессы утверждения агентов для защиты взаимодействия с данными, системами и пользователями. Аналогичным образом, им следует определить и проанализировать взаимодействие агентских решений, приобретенных у третьих сторон, с внутренними ресурсами.

Организациям также приходится учитывать постоянно меняющийся характер правил, регулирующих использование ИИ. Для начала им следует определить правила, которым они подчиняются. Например, статья 22 Общего регламента по защите данных Европейского союза (GDPR) ограничивает использование ИИ, предоставляя отдельным лицам право отклонять решения, основанные исключительно на автоматизированной обработке. В Соединенных Штатах отраслевые законы, такие как Закон о равных возможностях кредитования (ECOA), устанавливают требования к системам ИИ для предотвращения дискриминации. Кроме того, инициативы на уровне штатов, такие как местный закон № 144 города Нью-Йорка, предусматривают проведение аудита предвзятости для автоматизированных инструментов принятия решений о найме, что свидетельствует о растущей тенденции к ответственности ИИ. В настоящее время принимаются новые правила, регулирующие использование ИИ, такие как Закон ЕС об ИИ, которые вступят в силу в полном объеме в течение следующих трех лет. В этой быстро меняющейся нормативной среде, где многие требования остаются неясными, консервативный подход, предполагающий прогнозирование возможных стандартов, таких как человеческий надзор, защита данных и справедливость, может помочь организациям оставаться на шаг впереди и избегать дорогостоящих пересмотров требований в будущем.

Готова ли наша программа управления рисками к управлению рисками, связанными с агентским ИИ? Корпоративные фреймворки кибербезопасности, такие как ISO 27001, фреймворк кибербезопасности Национального института стандартов и технологий (NIST CSF) и SOC 2, фокусируются на системах, процессах и людях. Они пока не в полной мере учитывают автономных агентов, которые могут действовать по своему усмотрению и адаптироваться. Чтобы преодолеть этот пробел, организации могут пересмотреть свою таксономию рисков, чтобы явно учитывать новые риски, связанные с агентским ИИ.

Для каждого варианта использования агентного ИИ в портфеле ИИ организации технические руководители должны выявлять и оценивать соответствующие организационные риски и, при необходимости, обновлять свою методологию оценки рисков, чтобы иметь возможность измерять риски, связанные с агентным ИИ. Без такой прозрачности риски, возникающие в результате использования агентного ИИ, грозят стать «черным ящиком» даже в большей степени, чем то, что мы наблюдали в случае аналитического или генного ИИ.

Есть ли надежное управление ИИ на протяжении всего жизненного цикла? Для создания системы управления необходимо определить стандартизированные процессы надзора, включая права собственности и обязанности в рамках процедур подключения, развертывания и отключения ИИ; мониторинг и обнаружение аномалий, привязанные к ключевым показателям эффективности (KPI); определение триггеров для эскалации; и разработку стандартов ответственности за действия агентов. Для каждого решения агентского ИИ в портфеле организации должны начать с перечисления технических деталей, таких как базовая модель, место размещения и используемые источники данных, а также критичность варианта использования, контекстную конфиденциальность данных, права доступа и межагентские зависимости. Затем им следует четко определить права собственности на каждый вариант использования, с контролем со стороны человека и ответственными заинтересованными сторонами за принятие решений, безопасность и соответствие требованиям, а также определить и распределить ресурсы для управления рисками.

Особенно на экспериментальной или пилотной стадии проекты ИИ имеют тенденцию к быстрому росту без адекватного контроля, что может усложнить управление рисками или обеспечение соблюдения принципов управления.

Перед запуском использования агента


После решения вышеперечисленных основополагающих вопросов и внедрения структуры и политик управления рисками агентского ИИ организациям следует четко понимать, что именно они разрабатывают, учитывая сопутствующие риски и требования к соблюдению нормативных требований для каждого проекта. Ответы на следующие вопросы помогут обеспечить соответствие амбиций и готовности к реализации:

Как сохранить контроль над инициативами агентов и обеспечить надзор за всеми проектами? Особенно на экспериментальном или пилотном этапе проекты ИИ быстро разрастаются без адекватного контроля, что может затруднить управление рисками и обеспечение надлежащего управления. Организациям следует создать четкую, централизованно управляемую и ориентированную на бизнес систему управления портфелем ИИ, которая обеспечит надзор со стороны служб ИТ-рисков, информационной безопасности и соответствия ИТ-требованиям. Эта система должна обеспечивать полную прозрачность в отношении владения бизнесом, ИТ и безопасностью; подробное описание вариантов использования; список данных, предоставленных агенту для обучения, взаимодействия (например, подключенных API) или и того, и другого; и статус данных. Репозиторий также должен включать все агентские системы, которые в настоящее время находятся в разработке, пилотируются или планируются бизнес-подразделениями. Это может помочь организациям избежать экспериментального и неконтролируемого развертывания моделей с потенциально непреднамеренными критическими точками риска.

Есть ли возможности для поддержки и защиты систем агентского ИИ? Чтобы обеспечить успех пилотных проектов агентского ИИ, организациям следует оценить свой текущий уровень навыков, знаний и ресурсов в соответствии с планом развития агентов, включая проектирование безопасности ИИ, тестирование безопасности, моделирование угроз, а также навыки, необходимые для управления, соответствия требованиям и управления рисками. Затем им следует выявить пробелы в навыках и ресурсах, существующие между амбициями агентов и возможностями безопасности, и запустить информационно-просветительские кампании для их сокращения, одновременно определяя критически важные роли на основе жизненного цикла ИИ. Например, организациям, не обладающим знаниями об угрозах, связанных с ИИ, необходимо будет повысить квалификацию инженеров по безопасности в области моделирования угроз для моделей и агентов ИИ.

Во время развертывания варианта использования агентского ИИ


После запуска сценариев использования и пилотных проектов организациям необходимо обеспечить соблюдение пилотных проектов с помощью технических и процедурных мер контроля. Эти меры контроля следует регулярно пересматривать, чтобы гарантировать их актуальность и эффективность по мере совершенствования и масштабирования агентных систем. 

Вот несколько ключевых вопросов, которые следует рассмотреть:

Готовы ли мы к межагентному взаимодействию и защищены ли эти соединения? Агенты ИИ взаимодействуют не только с пользователями-людьми, но и с другими агентами ИИ. Организациям крайне важно обеспечить безопасность такого взаимодействия агентов, особенно в условиях роста многоагентных экосистем. Протоколы управления взаимодействием агентов, такие как протокол контекста модели Anthropic, протокол подключения агентов Cisco, протокол Agent2Agent от Google и протокол связи агентов IBM, находятся в стадии разработки, но пока не достигли полной зрелости. Следя за развитием протоколов, руководители технологических компаний должны также обеспечить аутентификацию, протоколирование и надлежащее разрешение межагентного взаимодействия. Вместо того, чтобы ждать идеальных стандартов, лучше всего внедрить меры безопасности уже сейчас и планировать обновления по мере появления более безопасных протоколов.

Имеем ли мы контроль над тем, кто может использовать агентские системы и используют ли они их надлежащим образом? Доступ к моделям и ресурсам должен контролироваться и защищаться. Системы управления идентификацией и доступом должны применяться не только к пользователям-людям, но и к агентам ИИ, взаимодействующим с другими агентами, людьми, данными и системными ресурсами. Организации должны определить, какие пользователи, люди или ИИ, имеют право доступа или взаимодействия с такими ресурсами и активами и при каких условиях. Им также следует дополнить IAM защитными барьерами ввода/вывода, чтобы предотвратить ненадлежащее использование агентов, манипулирование ими или их небезопасное поведение посредством враждебных подсказок или несогласованных целей. Кроме того, организациям необходимо тщательно контролировать способы взаимодействия сторонних агентов ИИ с внутренними ресурсами, чтобы гарантировать их соответствие тем же требованиям безопасности, управления и этики, что и внутренние системы.

Можно ли отслеживать действия агентов, понимать и объяснять их поведение? Агентские системы должны создаваться с механизмами отслеживания с самого начала. Это означает регистрацию не только действий агентов, но и подсказок, решений, изменений внутреннего состояния, промежуточных рассуждений и результатов, которые привели к такому поведению. Такие системы необходимы для обеспечения аудита, анализа первопричин, соответствия нормативным требованиям и анализа после инцидентов. Организациям следует регулярно проводить оценку эффективности, чтобы оценить, соответствуют ли агенты своему назначению.

Есть ли план действий на случай сбоя агента или его непредвиденного поведения? Даже хорошо спроектированные агенты могут выйти из строя, быть поврежденными или стать жертвой злоумышленников. Перед развертыванием организациям следует разработать план действий на случай сбоя, включая надлежащие меры безопасности, для каждого критически важного агента. Это начинается с моделирования наихудших сценариев, таких как отсутствие ответа агента, отклонение от ожидаемой цели, намеренное злонамеренное поведение или эскалация задач без разрешения. Затем организациям следует обеспечить наличие механизмов завершения работы и запасных решений. Наконец, следует развертывать агенты в автономных средах с четко определенным доступом к сети и данным. Это также позволяет обеспечить немедленную изоляцию при необходимости.

Выявляя и внедряя эффективные средства контроля, организации могут проактивно снижать риски, связанные с ИИ-агентами, а не реагировать на них реактивно. Например, поддержание согласованного портфеля ИИ-агентов и надёжное ведение журналов ИИ позволяет отслеживать обмен данными между агентами, тем самым снижая риск неотслеживаемой утечки данных. Кроме того, внедрение плана действий ИИ на случай непредвиденных обстоятельств и среды «песочницы» в сочетании с IAM и защитными барьерами позволяет эффективно изолировать ИИ-агента, пытающегося несанкционированно повысить привилегии посредством эскалации задач между агентами.

Безопасность агентов не может быть второстепенной задачей


Появление агентов неизбежно. По мере того, как всё больше компаний внедряют агентов на основе ИИ, возникнут новые проблемы с сохранением конфиденциальности и целостности данных и систем. В настоящее время лица, принимающие решения, сталкиваются с необходимостью сбалансировать поддержку бизнеса со структурированным подходом к управлению рисками, связанными с безопасностью агентов; в конце концов, никто не хочет стать первым примером катастрофы, связанной с безопасностью агентов на основе ИИ. ИТ-директора, директора по управлению рисками и руководители служб информационной безопасности должны незамедлительно начать важные обсуждения со своими коллегами, чтобы получить прозрачную информацию о текущем состоянии внедрения агентов на основе ИИ в организации и начать создавать необходимые барьеры. Тщательные и целенаправленные действия сейчас помогут обеспечить успешное масштабирование в будущем.

В настоящее время агентские транзакции остаются цифровыми, но траектория указывает на ещё более радикальное будущее, включая воплощённых агентов, действующих в физическом мире. Последствия для безопасности станут ещё более серьёзными, поэтому ещё важнее подготовить прочный фундамент уже сегодня.

Источник


Безопасное развертывание агентного ИИ: руководство для лидеров в области технологий. 16 октября 2025 г. Статья. Бенджамин Кляйн, Чарли Льюис, Рич Айзенберг, Данте Габриелли, Хелен Мёллеринг, Рафаэль Энглер.

https://www.mckinsey.com/capabilities/risk-and-resilience/our-insights/deploying-agentic-ai-with-safety-and-security-a-playbook-for-technology-leaders

Deploying agentic AI with safety and security: A playbook for technology leaders. October 16, 2025.

вторник, 23 декабря 2025 г.

Триада "Черного лебедя"

Триада "Черного лебедя"

  • Аномальность явления.
  • Огромная сила воздействия.
  • Природа явления, объясняемая "задним числом".
При оценке рисков как в списке рисков, так и в матрице воздействия всегда отсутствует Черный лебедь. Тем не менее он всегда незримо присутствует "в углу", В нижнем или в верхнем - зависит от направлений осей. 

Но нужно помнить об ошибке подтверждения: "Если вы что-то хотите найти, вы обязательно найдете и наоборот". Это говорит о том, что нет смысла искать Черного лебедя в силу триады "Черного лебедя"

  • Аномальность явления.
  • Огромная сила воздействия.
  • Природа явления, объясняемая "задним числом".
А именно, третий элемент "Природа явления, объясняемая задним числом".

***

А вот удивительный факт из области математики. Является ли константа 6174 "черным лебедем".
Первый признак, - анамальность явления, - пока присутствует. Иного пока не доказано. Но даже природа явления не объяснена пока. Но сила воздействия зависит от любви к математике.

Константа, равная 6174, — это четырёхзначное число, обладающее уникальным свойством: «независимо от того, с какого четырёхзначного числа вы начнёте, после ряда математических операций вы всегда получите 6174».

Давайте начнём с четырёхзначного числа, скажем, 3769. Мы можем переставить цифры так, чтобы получилось максимально большое и минимально возможное число. В данном случае наибольшее возможное число — 9763, а наименьшее возможное число — 3679. Затем мы вычитаем меньшее число из большего: 9763–3679 = 6084. Повторяем процесс с результатом: 8640–0468 = 8172, и так далее, пока не получим число 6174.

Это свойство справедливо для любого четырёхзначного числа, если выполнять те же математические операции. В 1949 году индийский математик по имени Д. Р. Капрекар открыл это интригующее свойство.

вторник, 23 сентября 2025 г.

Оценочная карта для оценки рисков ИИ

Комплексная система показателей может помочь компаниям перестроить структуры и практики управления рисками генеративного ИИ (Gen AI) и использовать потенциал этой преобразующей технологии.

Gen AI меняет индустрию финансовых услуг: от того, как банки обслуживают клиентов, до того, как руководители принимают решения. Несмотря на все преимущества, которые предлагает новая технология, включая автоматизацию рабочих процессов, улучшение программного обеспечения и повышение производительности, gen AI также несет в себе значительные риски. Он может подвергнуть финансовое учреждение правовым и репутационным рискам и повысить его уязвимость к кибератакам, мошенничеству и так далее.

Повышенные опасения проистекают из того, как работает gen AI. Традиционные системы ИИ созданы для управления задачами узкого масштаба с использованием фирменных бизнес-данных. Напротив, gen AI может создавать новый контент — часто с использованием общедоступных, неструктурированных и мультимодальных данных — посредством ряда сложных, многоэтапных процессов, которые могут создавать больше возможностей для неправильного использования и ошибок. Традиционные системы управления рисками ИИ не предназначены для контроля этих дополнительных уровней сложности.

Финансовым учреждениям необходимо будет обновить структуры управления ИИ, чтобы учесть  возросшую сложность и более чувстительные точки воздействия. Это будет означать включение модели управления рисками модели (MRM), включение новых технологий, данных и юридических рисков в модель риска предприятия. Необходимо пересмотреть надзор за ИИ, а затем оценить, как лучше всего управлять моделями, специфичными для генеративного ИИ.

Модернизация управления генеративным ИИ


Чтобы учесть потенциальное влияние на бизнес генеративного ИИ, лидерам необходимо систематически пересматривать все области риска, затронутые технологией. Следует проанализировать системы надзора, модели генеративного ИИ, интеллектуальную собственность (ИС), использование данных, а также ряд юридических и этических факторов.

Системы надзора


Как правило одна группа (например, комитет MRM) контролирует все приложения генеративного ИИ. Такой подход обычно не подходит для систем генеративного ИИ, поскольку они часто включают в себя смесь различных моделей и программных компонентов, каждый из которых может нуждаться в специализированном надзоре. Например, чат-бот на базе ИИ, который предоставляет финансовые консультации клиентам, может подвергнуть компании целому ряду технологических, юридических и связанных с данными рисков. Соответственно, финансовым учреждениям необходимо решить, какие компоненты ИИ требуют только проверки рисков модели, а какие требуют совместного обзора с другими видами риска. Тесная координация между комитетами по рискам может обеспечить тщательный надзор.

Модели генеративного искусственного интеллекта


Руководителям по управлению рисками в финансовых учреждениях понадобятся новые модели для управления рисками ИИ. В прошлом модели ИИ создавались в первую очередь для выполнения одной конкретной задачи за раз, например, для прогнозирования на основе структурированных данных и сортировки данных на основе меток. Такие инструменты могут извлекать данные о прошлых кредитах, например, для прогнозирования вероятности того, что заявитель может не выплатить свой кредит, или для определения оптимальной цены кредита.

С новыми многозадачными моделями генеративного ИИ банки могут делать больше, чем просто прогнозировать и классифицировать. Они могут разрабатывать и предоставлять персонализированные услуги, улучшать взаимодействие с клиентами и повышать операционную эффективность способами, которые они не могли бы сделать с традиционным ИИ. Например, модели генеративного ИИ могут автоматически создавать новые листы условий кредита на основе анализа похожих, ранее оформленных кредитов. Это не только сокращает ручную работу, но и может ускорить процесс закрытия и улучшить опыт заемщика.

Однако, поскольку модели генеративного ИИ обучаются как на публичных, так и на частных данных, они могут выдавать информацию или ответы, которые фактически неверны, вводят в заблуждение или даже сфабрикованы, например, создавая завышенные итоговые суммы доходов или воображаемую историю банкротства для клиента, запрашивающего приложение генеративного ИИ. Эти проблемы можно свести к минимуму с помощью приложений retrieval-augmented-generation (RAG), которые объединяют внешние и внутренние данные для обеспечения точных ответов. Приложения RAG могут включать юридически проверенный язык о правилах кредитования и могут применять строгие правила общения, чтобы помочь банкам управлять взаимодействием клиентов с инструментами генеративного ИИ.

IP и использование данных


Инструменты Gen AI могут вводить обязательства, связанные с входящим и исходящим IP и его чрезмерным распространением. Например, помощник по кодированию Gen AI может предложить банку использовать вычислительный код, имеющий проблемы с лицензированием или способный непреднамеренно раскрыть фирменные алгоритмы банка. Некоторые приложения Gen AI, работающие в режиме реального времени, например, используемые в обслуживании клиентов, требуют сочетания автоматизированного и человеческого контроля для оперативного выявления проблем.

Многие финансовые учреждения не уделяют достаточного внимания контролю данных Gen AI, который в значительной степени зависит от объединения публичных и частных данных. Это вызывает опасения относительно того, кто несет ответственность за какие данные и как они используются. Например, при использовании помощников по кодированию Gen AI вопросы и фрагменты кода из открытых интегрированных сред разработки могут быть включены в подсказки и отправлены внешним поставщикам Gen AI. Но они могут не сохраняться, и их влияние на рекомендации по коду может иметь юридические последствия.

Финансовые учреждения должны разработать системы для отслеживания происхождения данных, способа их использования и соответствия правилам конфиденциальности. Отсутствие привязки кредитных решений к исходным данным может привести к штрафам со стороны регулирующих органов, судебным искам и даже потере лицензии за несоблюдение. Компаниям необходимо вести учет контента, созданного ИИ, который может меняться в зависимости от введенной информации.

Правовые и этические факторы


Заголовки пестрят новостями о системах генеративного искусственного интеллекта, которые нарушают правила. В основном это происходит потому, что модели стирают границы между новым контентом и существующим контентом, защищенным законами об интеллектуальной собственности. Это создает путаницу относительно того, кто владеет и лицензирует его. Кроме того, когда модели генеративного искусственного интеллекта обучаются на конфиденциальных данных, таких как информация о клиентах, требуется больше внимания к конфиденциальности и соблюдению правил. Эти модели нуждаются в тщательном мониторинге, чтобы они не раскрывали конфиденциальную информацию и не увековечивали предвзятость.

Прозрачность и «объяснимость» (способность понимать, как работает модель ИИ и почему она принимает определенные решения) также имеют решающее значение, поскольку результаты работы систем генеративного ИИ иногда бывает трудно отследить до их происхождения. Финансовые учреждения должны установить меры безопасности для управления этими рисками на протяжении всего жизненного цикла модели, чтобы обеспечить соответствие меняющимся правилам и этическим стандартам.

Использование системы показателей для управления рисками генеративного ИИ


Поскольку финансовые учреждения систематически анализируют воздействие на клиентов; финансовое воздействие; сложность моделей, технологий и данных генеративного ИИ; а также правовые и этические последствия, они могут использовать оценочную карту рисков, чтобы определить, какие элементы управления генеративного ИИ требуют обновлений и насколько срочной является эта необходимость. Команды могут использовать оценочную карту для оценки рисков для всех вариантов использования и приложений генеративного ИИ в компании.

Команды могут использовать следующую оценочную карту для оценки рисков

 

Низкий риск

Средний риск

Высокий риск

Воздействие на клиентов

Возможности ИИ не соответствуют клиентским запросам

Возможности ИИ косвенно доступны внешним клиентам

Возможности ИИ доступны (и могут использоваться) внешним клиентам

Финансовые последствия

Возможности ИИ не оказывают прямого влияния на финансовые или операционные процессы

Возможности ИИ могут привести к небольшому риску убытков из-за низкой производительности модели.

Возможности ИИ могут привести к значительному риску убытков из-за низкой эффективности модели

Сложность модели

Базовая начальная модель используется без настройки

Встроенные виртуальные агенты используют базовую начальную модель

Построены новые фундаментальные модели или переобучены фундаментальные модели с открытым исходным кодом

Сложность технологии

ИИ используется только как модель, без интеграции с ИТ

Инструменты сторонних разработчиков для работы с базовой моделью используются для создания и поддержки приложений ИИ

Необходимо создать и поддерживать пользовательские инструменты для работы с базовой моделью в процессе производства приложений ИИ

Сложность данных

Качество обучающих данных высокое, хорошо документированное и верифицированное

Качество обучающих данных достаточно высокое и хорошо документировано

Качество обучающих данных не может быть проверено. Качество обучающих данных низкое или набор данных содержит конфиденциальную информацию

Этические риски

Данные и приложения ИИ прошли тщательную внутреннюю и внешнюю проверку

Данные и приложения ИИ прошли тщательную внутреннюю проверку

Данные и приложения ИИ могут включать в себя внутренние предубеждения или генерировать токсичный или вредный контент



Система оценок может быть полезна для групп по закупкам в финансовых учреждениях, которые покупают, а не создают приложения генеративного ИИ; они могут использовать ее для оценки своей потенциальной подверженности риску третьих лиц и своего комфорта в отношении данных и методов моделирования, используемых продавцами приложений генеративного ИИ. Хотя некоторые факторы могут быть не совсем прозрачны для покупателей, группы по закупкам могут использовать сочетание комплексной проверки поставщиков, технических обзоров базовых моделей и договорных гарантий для присвоения оценок риска стороннему программному обеспечению и принятия более обоснованных решений о закупках.

Внедрение комплекса мер контроля для управления рисками генеративного ИИ


Использование оценочной карты риска может помочь финансовым учреждениям расставить приоритеты в случаях использования генеративного ИИ на основе бизнес-потребностей и профиля риска/доходности каждого случая. Оценочные карты также могут сигнализировать о возникновении проблем. В обоих случаях оценочная карта также должна поддерживаться структурой управления рисками или набором элементов управления для управления генеративным ИИ. Каждый тип контроля — бизнес, процедурный, ручной и автоматизированный — играет важную роль в обеспечении безопасного и эффективного использования генеративного ИИ.

Управление бизнесом: не блокировать, настраивать


Финансовым учреждениям необходимо будет разработать структуру, которая будет контролировать риск генеративного ИИ, не замедляя инновации. Например, организация может использовать централизованный комитет по надзору за ИИ на ранних этапах внедрения чат-бота или другого приложения генеративного ИИ. Позже контроль может перейти к подкомитету или нескольким комитетам.

Компаниям необходимо будет решить, как риски вписываются в операционные модели (будь то централизованные, федеративные или децентрализованные), чтобы лучше справляться с новыми вызовами, создаваемыми системами генеративного ИИ. Большинство финансовых учреждений начинают с централизованной организационной модели оценки рисков генеративного ИИ и переходят к частично централизованной или полностью децентрализованной модели по мере развития возможностей управления рисками. Чтобы двигаться быстрее, некоторые создают ускорители генеративного ИИ для создания согласованных подходов во всех департаментах.

Процедурный контроль: будьте гибкими


Для таких процедур, как обработка кредитных заявок, большинство финансовых учреждений должны обновить стандарты MRM. Стандарты должны отражать специфические риски Gen-AI, такие как то, как модели обрабатывают изменяющиеся входные данные и многоэтапные взаимодействия. Например, если банк моделирует широкий спектр ответов клиентов виртуальному помощнику, MRM необходимо будет постоянно адаптировать. Аналогичным образом, процессы проверки технологий должны быть оптимизированы для безопасной интеграции систем Gen AI. Все обновления должны включать методы мониторинга того, как приложения Gen AI адаптируются с течением времени, чтобы гарантировать, что они остаются точными и соответствующими требованиям при обработке новых подсказок и новых данных.

Ручное управление: следите за машиной

Человеческий надзор необходим для проверки конфиденциальных результатов и обеспечения этичного использования Gen AI. Например, рецензентам необходимо редактировать конфиденциальные данные, прежде чем модели их обработают. Когда дело доходит до качества ответов, сгенерированных Gen-AI, финансовые учреждения должны создать «золотые списки» вопросов для тестирования моделей.

Они также должны запрашивать много отзывов от клиентов и сотрудников. Системы могут учиться на человеческих оценках. Обратная связь может информировать о точности и уместности различных выходных данных — например, то, как виртуальный помощник «разговаривает» с клиентом, должно соответствовать институциональным ценностям и целям. Выходные данные следует регулярно пересматривать и обновлять по мере необходимости, чтобы усилить обучающие способности моделей.

Автоматизированный контроль: рассмотрите сторонние инструменты

Одним из преимуществ технологии является то, что в некоторых случаях она может управлять собой. Автоматизированные инструменты могут очищать данные в масштабе, отмечать необычное использование и запускать исправления в режиме реального времени. Например, многие сторонние приложения могут удалять конфиденциальную информацию из документов. Другие сторонние инструменты могут автоматизировать тестирование уязвимостей для систем генеративного ИИ, что помогает финансовым учреждениям быстро выявлять и устранять слабые места. Сами модели генеративного ИИ могут использовать комбинацию традиционного ИИ и новых технологий для проверки собственных выходных данных, то есть моделей, проверяющих модели, чтобы обеспечить контроль качества на высоких скоростях.

Заключение


Поскольку генеративный ИИ становится частью финансовых учреждений, руководителям по управлению рисками необходимо переосмыслить то, как они управляют соответствующими системами . Им необходимо будет выйти за рамки традиционных практик управления рисками ИИ и включить мониторинг в реальном времени, надежную прозрачность и более надежные гарантии конфиденциальности данных и этики. Комплексная система оценки рисков и фокус на четырех ключевых наборах элементов управления могут помочь компаниям найти правильный баланс между стремлением к инновациям и снижением рисков. Более того, применение системного подхода к обновлению управления рисками генеративного ИИ может помочь финансовым учреждениям раскрыть преобразующую силу новой технологии для улучшения принятия решений, обслуживания клиентов и операционной эффективности — и сделать это ответственно.

Источник


Как финансовые учреждения могут улучшить управление искусственным интеллектом
27 марта 2025 г. Статья
Амит Гарг, Дэвид Шоеман и Кевин Бюлер.

How financial institutions can improve their governance of gen AI
March 27, 2025 | Article

https://www.mckinsey.com/capabilities/risk-and-resilience/our-insights/how-financial-institutions-can-improve-their-governance-of-gen-ai

среда, 9 октября 2024 г.

Когда предпочитают не рисковать?

Мохандас Карамчанд Ганди о том, что нас губит:
• политика без принципов,
• удовольствие без совести,
• богатство без труда,
• знание без характера,
• бизнес без морали,
• наука без гуманизма,
• поклонение без жертвенности.

Взято из
И. Адизес. 
Управление жизненным циклом корпорации.

***

Когда предпочитают не рисковать?

Когда от результатов зависит слишком многое, все члены команды начинают нервничать. В такой ситуации люди предпочитают не рисковать. И выбирают самые безопасные методы. Но самые безопасные – не самые не лучшие.
 
  • Прежде всего, по всем спорным вопросам, отсекается все, что противоречит единому мнению.
  • Новые идеи не приветствуются.
  • Интересует – где это уже применялось.
  • Везде «подстилается соломка».
  • В принятии решений «менее рискованный план А всегда считается явно лучше оригинального Б»
  • По мере нарастания напряженности команда постепенно отказывается от принципа коллегиальности в пользу иерархического распределения ролей.
  • Несогласных осуждают.
  • Коллективное знание ценится больше опыта отдельных специалистов.

И ничего невозможно изменить.
 
Источник
«Работать профессионально – и никаких компромиссов». Хейди Гарднер. HBR, №5, 2012

вторник, 4 июня 2024 г.

CMT Cycle - Цикл командного антикризисного управления

Цикл командного антикризисного управления
Crisis management team (CMT) cycle

Цикл командного антикризисного управления включает в себя семь шагов реагирования при наступлении разрушительного инцидента командой антикризисного управления.
  • Провести анализ ситуации. Conduct situation analysis.
  • Принять немедленные меры. Trigger immediate measures.
  • Расставить приоритеты для мер. Prioritize measures.
  • Определить меры. Define measures.
  • Спланировать будущие меры. Plan future measures.
  • Обеспечить документацию. Ensure documentation.
  • Запустить последующие шаги. Trigger next steps.
Всегда имейте в виду
  • Условия инцидента динамичны.
  • Используйте подходы, нацеленные на установление фактов.
  • Будьте готовы идти на продуманный риск, делайте короткие отчеты и будьте готовы к последствиям.
  • Будьте готовы принимать важные решения на основе неполной информации и брать на себя ответственность.
  • Выслушивайте все потенциальные решения без осуждения.
  • Будьте гибкими и прагматичными.
  • Будьте кратки и лаконичны при обсуждении деталей среди заинтересованных сторон.
  • Все заинтересованные стороны должны быть включены в кризисные коммуникации,
  • Не давайте обещаний.
  • Воздерживаетесь от спонтанных высказываний.





Также полезным является представление риска с помощью следующей матрицы:


пятница, 5 апреля 2024 г.

Глобальные риски в 2024 году

20 главных рисков для мировой экономики, основанные на опросе 1490 лидеров. Лидерам было предложено выбрать до пяти рисков, которые могут привести к материальному кризису в глобальном масштабе в 2024 году.

Рейтинг

Риск

Доля респондентов

Категория

1

Экстремальные погодные условия

66%

Относящийся к окружающей среде

2

Дезинформация и дезинформация

53%

Технологический

3

Социальная поляризация

46%

Социальный

4

Кризис стоимости жизни

42%

Социальный

5

Кибератаки

39%

Технологический

6

Экономический спад

33%

Экономический

7

Нарушение цепочек поставок критически важных товаров и ресурсов.

25%

Экономический

8

Эскалация или начало межгосударственных вооруженных конфликтов

25%

Геополитический

9

Атаки на критическую инфраструктуру

19%

Геополитический

10

Нарушение цепочки поставок продуктов питания

18%

Экономический

11

Цензура и эрозия свободы слова

16%

Социальный

12

Нарушение цепочки поставок энергии

14%

Экономический

13

Государственный долг

14%

Экономический

14

Квалификация или нехватка рабочей силы

13%

Экономический

15

Случайное или преднамеренное ядерное событие

12%

Геополитический

16

Насильственные гражданские забастовки и беспорядки

11%

Геополитический

17

Случайный или преднамеренный выброс биологических агентов

9%

Геополитический

18

Институциональный коллапс финансового сектора

7%

Экономический

19

Схлопывание жилищного пузыря

4%

Экономический

20

Схлопывание технического пузыря

4%

Экономический


Будущие глобальные риски или Как изменятся глобальные риски в течение следующего десятилетия.

Рейтинг

Риск

Категория

1

Экстремальные погодные явления

Относящийся к окружающей среде

2

Критические изменения в системах Земли

Относящийся к окружающей среде

3

Утрата биоразнообразия и коллапс экосистем

Относящийся к окружающей среде

4

Нехватка природных ресурсов

Относящийся к окружающей среде

5

Дезинформация и дезинформация

Технологический

6

Неблагоприятные последствия технологий искусственного интеллекта

Технологический

7

Вынужденная миграция

Социальный

8

Кибербезопасность

Технологический

9

Социальная поляризация

Социальный

10

Загрязнение

Относящийся к окружающей среде



Дополнение. ИИ потенциально может сильно дестабилизировать общество, представляя некоторые экзистенциальные риски из-за своей роли «умножителя силы», что означает, что он может усилить влияние военных систем страны, анализа данных и других возможностей.

Источники.

1. Глобальные риски. Отчет 2024 год. 19-ое издание. World Economic Forum (Всемирный Экономический Форум).
https://www3.weforum.org/docs/WEF_The_Global_Risks_Report_2024.pdf

2. Визуализация главных глобальных рисков в 2024 году (Visualizing the Top Global Risks in 2024).
https://www.visualcapitalist.com/top-global-risks-in-2024/