вторник, 26 марта 2024 г.

Немного идей о буддизме и сутрах

Элемент - самосущая единичность

Каковы основные идеи праджня-парамитских сутр? Их можно обобщить следующим образом:
  1. Бессущностна не только личность, но и образующие ее (равно как и всю сферу опыта) элементарные психофизические состояния — дхармы. Более того, наличие представления о самосущей единичности, или элементе, является источником всех заблуждений и корнем сансарического существования. Именно из соответствующего представления вытекают и все прочие ложные идеи — о вечном «я», душе, субстанциальной личности и другие.
  2. Пребывание живых существ в сансаре иллюзорно. В действительности все живые существа являются Буддами и изначально пребывают в нирване. Только неведение порождает мираж сансарического существования. Эту истину постигает бодхисаттва, осознавая, что с точки зрения абсолютной истины спасать некого и не от чего. И вместе с тем, руководствуясь этим знанием, он на уровне относительной истины стремится спасать эмпирически наличные живые существа. Для бодхисаттвы не существует представлений о «я», личности, душе и дхармах.
  3. Будда не есть человеческое существо, пусть даже и совершенное в своей святости. Будда — синоним истинной реальности, как она есть, и глубоко заблуждается тот, кто думает опознать Будду по его физическим признакам.
  4. Истинная реальность не может быть описана и обозначена. Она в принципе не семиотична и недоступна для языкового выражения Все описываемое не есть реальность и все реальное не может быть выражено в языке и представлении
  5. Истинная реальность постигается благодаря йогической интуиции, которая и есть праджня-парамита. Праджня-парамитские тексты предназначены для порождения в воспринимающем их человеке соответствующего состояния. Следовательно, если учесть невыразимую природу реальности, праджня-парамитская сутра есть текст, отрицающий сам себя.
Последний пункт особенно важен: праджня-парамитский текст — текст с психопрактическими функциями.

пятница, 22 марта 2024 г.

Архитектура предприятия



SAP представил следующую простую "картинку" архитектуры предприятия:


Уровни архитектуры предприятия (в ходе перевода упоминание SAP S/4HANA заменено на "цифру".
  • Стратегия и организация. Как архитектура поддерживает наилучшим образом стратегию бизнеса.
  • Бизнес процессы. Какие бизнес-процессы имеют наибольшие возможности для улучшения? Как идентифицировать эти бизнес-процессы.
  • Функции/Возможности. Как получить максимум из "цифры"? Какие компоненты связаны с потребностями бизнеса?
  • Приложения. Как старые приложения могут быть переведены на "цифру"? Что стоит сохранить? Как сохранить ландшафт максимально экономичным?
  • Данные. Какие стратегические данные поддерживают бизнес приоритеты? Как можно увероваться в качестве данных на всем ландшафте?
  • Платформа. Какие возможности платформы интеллектуализируют предприятие?
  • Технология. Как перейти в "облако"? Каковы риски и ограничения используемых технологий?

четверг, 14 марта 2024 г.

Слайды проектного менеджмента применительно к управлению знаниями

Из архивов нашлись такие слайды-заметки. Оставляю на всякий случай.



DIKW модель

DIKW (data, information, knowledge, wisdom) — совокупность моделей, которые отображают структурные и функциональные связи между такими категориями как данные, информация, знания и мудрость. Демонстрирует пути получения ценности в процессе обработки данных. Представляет собой не технологию, а теоретическую основу для понимания того, какие этапы необходимо пройти для получения пользы от имеющихся данных.




KM Index - Индекс управления знаниями — это инструмент оценки, разработанный проектом «The Knowledge for Health (K4Health) Project для изучения использования организацией или проектом практики управления знаниями (KM), выявления возможностей для улучшения и составления плана действий по укреплению KM. Индекс KM измеряет потенциал в четырех фундаментальных областях практики KM:
  • организационная структура (видение и стратегия KM),
  • возможности обучения (профессиональное развитие),
  • внутренняя культура KM (поиск и обмен знаниями),
  • KM для глобального повышения зрелости.

Индекс KM следует использовать в качестве базовой оценки и о проектной деятельности, направленной на повышение потенциала KM, а также в качестве конечной оценки изменений в развитии потенциала KM и реализации инициатив KM.





 

воскресенье, 10 марта 2024 г.

К теме искусственного интеллекта в банках

Приложения генеративного искусственного интеллекта (gen AI) развиваются в авангарде банковских учреждений. Большинство первоначальных приложений были сосредоточены на улучшении обслуживания клиентов, производительности агентов и разработке программного обеспечения. 

Согласно анализу McKinsey, около 75% стоимости, созданной искусственным интеллектом во всех отраслях на сегодняшний день, приходится на взаимодействие с клиентами и три другие категории: синтез контента (виртуальный эксперт), генерация контента, а также кодирование и программное обеспечение.

Привлечения клиентов. Решения Gen AI могут превратить утомительные ручные процессы в более увлекательное и эффективное взаимодействие. Например, виртуальный помощник кредитора помогает сотрудникам пройти процесс подачи кредитной заявки, используя полезные выдержки из истории чата, объяснения терминов. Это делает процесс более рациональным и менее обременительным. Некоторые банки используют Gen AI для предоставления сотрудникам утвержденных шаблонов, которые помогают при оформлении документации.

Синтез контента (виртуальный эксперт). Модели Gen AI повышают производительность сотрудников, обобщая и извлекая информацию из огромных объемов информации — например, запрашивая последние государственные нормативные акты в разных регионах; создание исследовательских отчетов, презентаций, анализа настроений клиентов и инструкций; или выступать в роли «виртуального эксперта». Сообщается, что Morgan Stanley создал ИИ-помощника, использующего GPT-4, который помогает десяткам тысяч управляющих активами быстро находить и синтезировать ответы из огромной внутренней базы знаний. Он также обобщает встречи с клиентами и генерирует электронные письма. Другой ведущий банк сообщил, что он близок к сокращению времени на составление инвестиционного обзора более чем на 90% (с девяти часов до 30 минут) благодаря использованию искусственного интеллекта.

Генерация контента. Модели Gen AI могут создавать персонализированный контент в режиме реального времени для многих вариантов использования. Например, персонализированные маркетинговые материалы, сформированные на основе профилей клиентов, их историй и подробностей о продуктах.

Кодирование и программное обеспечение. Помощники по программированию на основе искусственного интеллекта помогают компаниям справиться с технологическим долгом и ускорить разработку программного обеспечения. Помощники по коду переводят устаревший код на новые языки, используя подсказки на естественном языке, и помогают разработчикам отлаживать и создавать тесты.

Риски использования Gen AI


Генеративный ИИ (Gen AI), несмотря на все свои потенциальные преимущества, сопряжен с уникальными рисками. Некоторые из наиболее важных проблем включают в себя:

Несправедливость. Gen AI может проецировать алгоритмическую предвзятость из-за несовершенства обучающих данных или инженерных решений на этапах разработки и развертывания.

Проблемы камни интеллектуальной собственности. Данные обучения и выходные данные моделей могут создавать значительные риски для интеллектуальной собственности, включая возможное нарушение авторских прав, товарных знаков, запатентованных и иным образом защищенных законом материалов.

Проблемы конфиденциальности. Gen AI может усилить проблемы конфиденциальности из-за (потенциально непреднамеренного) использования личной или иной конфиденциальной информации, используемой при обучении моделей.

Угрозы безопасности. Приложения могут подвергаться уязвимостям безопасности и манипуляциям. Например, злоумышленники могут обойти фильтры безопасности посредством запутывания, разделения полезной нагрузки или виртуализации.

Отсутствие объяснимости. Gen AI опирается на нейронные сети с миллиардами параметров, тем самым усложняя попытки объяснить пользователям, как создается тот или иной ответ.

Ненадежность. Gen AI может давать разные ответы на одни и те же запросы, что затрудняет способность пользователей оценивать точность и надежность результатов.

Организационное воздействие. Gen AI может существенно повлиять на рабочую силу, оказывая потенциально непропорциональное негативное воздействие на отдельные группы и местные сообщества.

Последствия ESG. Обучение и внедрение базовых моделей могут увеличить выбросы углекислого газа и превзойти экологические, социальные и управленческие (ESG) обязательства или ожидания.


Gen AI потенциально может произвести революцию в способах управления рисками банков. Это может позволить подразделениям перейти от ориентированной на задачи деятельности к партнерству с бизнес-подразделениями по предотвращению стратегических рисков и обеспечению контроля на начальном этапе взаимодействия с новыми клиентами. Это, в свою очередь, освободит специалистов по рискам для консультирования предприятий по вопросам разработки новых продуктов и стратегических бизнес-решений, изучения возникающих тенденций и сценариев риска, повышения устойчивости и активного улучшения процессов управления рисками и контроля.

Использование Gen AI в функциях управления рисками и соблюдением требований


Соответствие нормативным требованиям. Предприятия используют Gen AI в качестве виртуального эксперта по нормативно-правовому регулированию и политике, обучая его отвечать на вопросы о правилах, политике компании и руководящих принципах. Технология также может сравнивать политики, правила и рабочие процедуры. Он может проверять код на наличие несоответствий и пробелов. Он может автоматизировать проверку соблюдения нормативных требований и предупреждать о потенциальных нарушениях.

Финансовое преступление. Gen AI может генерировать отчеты о подозрительной активности на основе информации о клиентах и ​​транзакциях. Он также может автоматизировать создание и обновление рейтингов рисков клиентов на основе изменений в атрибутах «знай своего клиента». Создавая и улучшая код для обнаружения подозрительной активности и анализа транзакций, технология может улучшить мониторинг транзакций.

Риск кредита. Обобщая информацию о клиентах (например, транзакции с другими банками) для обоснования кредитных решений, Gen AI может помочь ускорить сквозной кредитный процесс. После принятия решения о кредите он может составить кредитное авизо и договор. Финансовые учреждения используют эту технологию для создания отчетов о кредитных рисках и извлечения информации о клиентах из кредитных авизо. Gen AI может генерировать код для получения и анализа кредитных данных, чтобы получить представление о профилях рисков клиентов и генерировать оценки вероятности дефолта и потерь с помощью моделей.

Моделирование и анализ данных. Gen AI может ускорить миграцию с устаревших языков программирования. Он также может автоматизировать мониторинг производительности модели и генерировать оповещения, если показатели выходят за пределы допустимых значений. Компании также используют ИИ для разработки документации по моделям и отчетов о проверке.

Киберриск. Проверяя уязвимости кибербезопасности, Gen AI может использовать естественный язык для генерации кода и ускорить разработку безопасного кода. Технология также может служить виртуальным экспертом для исследования данных безопасности. Это может сделать обнаружение рисков более разумным за счет ускорения и агрегирования информации о безопасности и тенденций на основе событий безопасности и аномалий поведения.

Климатический риск. В качестве ускорителя кодирования Gen AI может предлагать фрагменты кода, облегчать модульное тестирование и помогать визуализировать физические риски с помощью карт высокого разрешения. Он может автоматизировать сбор данных для оценки рисков перехода контрагентов и генерировать сигналы раннего предупреждения на основе триггерных событий. Будучи виртуальным экспертом, Gen AI может автоматически создавать отчеты по экологическим, социальным и управленческим темам (ESG), а также разделы годовых отчетов, посвященные устойчивому развитию.

Операционные риски. Еще одна область, в которой ИИ может сыграть важную роль, — это операционные риски. Банки могут использовать Gen AI для автоматизации контроля, мониторинга и обнаружения инцидентов. Gen AI также может автоматически составлять оценку рисков и контролировать их.

Функции управления рисками


Доведение информации о рисках. Все в организации должны быть осведомлены о рисках, присущих Gen AI, публикуя информацию о том, что можно и чего нельзя делать, а также устанавливая ограничения рисков.

Актуализации критериев идентификации политики и моделей рисков. Обновление критериев идентификации моделей и политику моделирования рисков (в соответствии с такими нормативными актами, как Закон ЕС об искусственном интеллекте) с тем, чтобы обеспечить идентификацию и классификацию моделей Gen AI, а также иметь соответствующую систему оценки и контроля рисков.

Подготовка экспертов по рискам и соблюдению требований, связанных с искусственным интеллектом, которые смогут работать напрямую с передовыми командами разработчиков над новыми продуктами и взаимодействиями с клиентами.

Пересмотр существующих принципов «знай своего клиента», мер по борьбе с отмыванием денег, мошенничеством и киберконтролем с тем, чтобы убедиться, что они по-прежнему эффективны в мире с поддержкой искусственного интеллекта.

Семь измерений масштабирования генеративного ИИ


  1. Стратегическая дорожная карта. 
    • Видение, согласованность и приверженность высшего руководства и подотчетность на уровне бизнес-подразделений для достижения результатов. 
    • Список приоритетных областей (функций или бизнес-подразделений), в которых можно построить несколько связанных вариантов использования, каждый из которых имеет четкое экономическое обоснование, основанное на потенциальной ценности и осуществимости доставки (Gen AI не всегда является правильным решением; иногда традиционный аналитический ИИ лучше). 
    • Четкие цели «от - к», которые переосмысливают приоритетные области. 
    • Оценка возможностей, включая таланты, гибкую операционную модель, технологии и данные.
    • Тщательный план масштабирования, в котором указано, когда и как решать каждую область и создавать необходимые возможности.
    • Подробный план партнерства, при необходимости, для потенциального расширения существующих возможностей или приобретения новых.
  2. Привелечение талантов.
  3. Операционная модель.
  4. Технология.
  5. Данные.
  6. Риск и контроль (упрваление).
  7. Внедрение и управление изменениями.

Источники


https://www.mckinsey.com/industries/financial-services/our-insights/capturing-the-full-value-of-generative-ai-in-banking

https://www.mckinsey.com/capabilities/risk-and-resilience/our-insights/how-generative-ai-can-help-banks-manage-risk-and-compliance

среда, 6 марта 2024 г.

Как обнаружить дезинформацию

Большая часть онлайн-контента рассчитана на высокую вовлеченность, а не на точность.

Развитие алгоритмов социальных сетей увеличило количество способов распространения научной дезинформации, а также расширило типы дезинформации, с которой вы, вероятно, столкнетесь. Это уже не просто гомеопатия; сегодня это политические и социальные претензии, призванные возмутить вас и заставить поделиться контентом.

Одна вещь, которая действительно возникла и заняла первое место в XXI веке, — это так называемая аффективная поляризация

Аффективная поляризация — это тенденция людей с партийными чувствами активно не любить людей из оппозиционной политической партии. Социологи активно изучают, почему это явление стало такой заметной чертой.

Причина, вероятно, многофакторна, но одной из причин, безусловно, стал рост алгоритмов социальных сетей, связанный с ростом аффективной поляризации. Основной сюжет (и это не просто какая-то случайная гипотеза, это был предмет большого количества исследований) заключается в том, что статьи в социальных сетях продвигаются (то есть показываются большему количеству людей), когда они получают высокую степень вовлеченности. Если я опубликую фотографию растения в горшке, на нее никто не отреагирует, и алгоритм ее проигнорирует; если я опубликую фотографию детей, которых приносят в жертву культисты, это вызовет огромное возмущение, и все нажмут на нее, репостнут или оставят комментарий. Затем алгоритм продвигает этот пост еще большему количеству людей, вызывая еще больше реакций, и люди проводят больше времени на платформе, выражая свое возмущение. Это означает большую доступность рекламы и, следовательно, больший доход.

Эта система воспользовалась огромным преимуществом аффективной поляризации. Если вы посмотрите на недавние президентские выборы, темы дел в Верховном суде, а также на социальные и религиозные разногласия, высокая аффективная поляризация означает большее возмущение в сообщениях в социальных сетях и, следовательно, гораздо более высокую вовлеченность. Если вы когда-либо нажимали на «гневную» реакцию или делились в социальных сетях статьей, раскрывающей какую-то ужасную новость, которую задумала противостоящая политическая партия, скорее всего, вам показали этот пост, потому что алгоритм знал из вашего прошлого поведения, что ваша политическая партия поляризация означала, что вы, скорее всего, предпримете именно это действие. А те дополнительные минуты, которые вы провели на сайте, просто принесли кому-то деньги.

Когда так много людей во всем мире находятся во власти такого эффективного влияния, неудивительно, что мировые правительства использовали его в своих интересах, чтобы сеять раскол и нестабильность на выборах друг друга. Конечным результатом всего этого является огромное количество онлайн-информации, которая распространяется как в защиту, так и против всего, что вы можете себе представить, особенно всего, что кого-то шокирует и возмущает. И вот очень важный момент: эти онлайн-статьи и посты кажутся нам весьма правдоподобными, независимо от их точности, из-за обратной стороны медали аффективной поляризации, которая представляет собой тенденцию автоматически симпатизировать и доверять людям. Поэтому, поскольку мы видим, что весь этот контент поступает из надежных источников — людей, за которыми мы следим в Интернете, — мы автоматически воспринимаем это как факт.

Из-за этого дезинформацию распознать труднее, чем когда-либо прежде.

Является ли вопрос вызывающим разногласия. Вопросом, из-за которого какая-либо группа становится злодейской?

Это, пожалуй, самый большой тревожный сигнал о том, что статья вполне может быть пропагандой, варьирующейся от преувеличенной до совершенно ложной. Это негативная статья о каких-то ужасных новых действиях какой-то группы, нации или демографической группы, которая вам уже не нравится?

Реальные новостные статьи не вызывают разногласий. Они сообщают о важных событиях. Иногда это преступления или международные конфликты, но настоящие непредвзятые новостные сайты понимают, что все международные конфликты многогранны и сложны; поэтому они, как правило, не сообщают об односторонней точке зрения.

Если вам кажется, что статья слишком точно соответствует вашим предубеждениям, воспринимайте это как предупреждение о том, что алгоритм показал вам что-то, на что, как он знал, вы отреагируете.

Обвиняет ли заголовок некоторую политическую фигуру?

Классическая вызывающая разногласия статья, дезинформирующая, призывает к ответственности какого-нибудь политика, и посвящена какой-то возмутительной, невероятной новой идее, которую пытаются протолкнуть политики. Алгоритмы любят распространять такие истории, потому что очень много людей делятся ими и добавляю комментарии со своим возмущением.

У этой медали есть две стороны. Маргинальные партийные политики часто используют сеющую разногласия терминологию и часто указывают на призраков, чтобы поддерживать воодушевление и использовать эту аффективную поляризацию для сохранения популярности. Но не все всегда это делают. Часто вы обнаружите, что в отчете об их возмутительном поведении есть не что иное, как доля правды, и что в этой истории есть нечто большее, а их настоящие комментарии в контексте вообще не были возмутительными.

Так что просто имейте в виду, что политики, которые вам нравятся, могут заниматься первым; и сеющие разногласия политики, которых вы ненавидите, возможно, занимаются последним. В мире гораздо больше здравомыслия, чем безумия; это просто алгоритмы, которые заставят вас думать иначе.

Поищите на объективном новостном сайте.

Если ваша статья представляет собой некачественную информацию, призванную вызвать разногласия и возмущение, то вы, вероятно, вообще не найдете эту историю на качественных, объективных новостных сайтах. Возникает вопрос, как их найти? Какие источники новостей являются надежными и беспристрастными? Прим. Открытый вопрос. Автор ссылается на американские издания...

Поищите на сайтах проверки фактов.

Если история вымышлена, то почти наверняка кто-то другой уже проделал всю работу за вас. Проверьте это. Найдите его на паре ваших любимых из четырех лучших сайтов по проверке фактов. Автор приводит: Snopes , Politifact , FactCheck.org и BBC Reality Check.

Всегда выполняйте быструю перепроверку источника.

Является ли статья со знакомого новостного сайта, который, как вы уверены, является законным? Если это не так, то вам лучше быстро проверить, настоящий ли этот сайт, или это сайт пародии или сатиры, или просто какой-то мусорный сайт, который недавно был создан без заслуживающего доверия происхождения.

Что делать, если вы обнаружили дезинформацию

Всякий раз, когда вы видите в социальных сетях пост, который вы считаете пропагандой, основанной на алгоритмах, лишите его кислорода. Скройте. При необходимости заблокируйте отправителя. Если сообщение опубликовано другом, сообщите ему, что это, вероятно, пропаганда, основанная на алгоритмах. Убедитесь, что вы не делаете комментарий к самому сообщению, потому что любой комментарий (даже отрицательный) имеет значение и еще больше повышает ценность этой статьи.

Наконец, я рекомендую очистить ваши собственные источники.

Брайан Даннинг
How to Spot Misinformation.
https://skeptoid.com/episodes/4910



суббота, 2 марта 2024 г.

Масштабирование ИИ

Когда организация эксплуатирует модель машинного обучения, модель может устареть или снизить производительность из-за изменений в базовых данных или изменениях в бизнес-требованиях. Масштабирование ИИ также сопряжено с рисками, такими как снижение производительности, с необходимостью соблюдения организацией высоких стандартов безопасности, соблюдения нормативных требований и этики. По мере масштабирования проектов искусственного интеллекта командам сложнее поддерживать производительность в силу растущей сложности, неэффективного сотрудничества и отсутствия стандартизированных процессов разработки и стандартизированных инструментов.

Четыре технических фактора для успешного масштабирования ИИ:
  • хранилища функций (репозитории кодов), 
  • повторно используемые пакеты и модули, 
  • стандартизированные подходы в разработке ИИ,
  • использование технологических возможностей операций машинного обучения (MLOps).

Хранилища функций


При разработке новых моделей машинного обучения группы обработки данных часто сталкиваются с проблемами, связанными с качеством данных, их доступностью для разработки, а также с обслуживанием и мониторингом моделей. Данные могут содержать ошибки, пропущенные значения, систематическую ошибку или выбросы, которые влияют на скорость разработки модели и качество работы модели. Кроме того, данные из различных источников могут быть труднодоступны из-за неэффективного управления данными. Эти проблемы в конечном итоге увеличивают затраты на разработку и обслуживание, влияют на способность моделей генерировать значимые и действенные идеи на основе своих данных.

Хранилища функций помогают устранить дубеирование усилий и ускорить разработку и развертывание моделей машинного обучения предоставляя единую платформу, на которой специалисты, работающие с данными, могут сотрудничать и повторно использовать функции. Это по сути межфункциональное сотрудничество.

Например, в модель данных могут добавляться новые функции, обрабатывающие поступающие данных из разных источников, такие, например, как функции прогноза оттока клиентов. Новые функции могут использоваться другими специалистами. Например, рпск-менеждеры, - создающие и модифицирующие модели риска. Тогда этим специалистам не нужно с нуля создавать новые функции.

Хранилища функций не только ускоряют разработку отдельных вариантов использования, но также помогают поддерживать контроль версий, отслеживать происхождение данных, что значительно повышает общее качество моделей и обеспечивает управление конвейером AI/ML. Хранилища функций могут облегчить масштабирование проектов искусственного интеллекта и машинного обучения. Используя совокупные знания и опыт, содержащиеся в хранилище функций, компании могут быстро разрабатывать и внедрять новые модели машинного обучения, способствуя инновациям, стимулируя рост в быстро меняющейся конкурентной среде.

Повторно используемые пакеты и модули


Если организации принимают бизнес-решения на основе кода, который не прошел всестороннюю проверку, то возникают у организации возникают соответствующие риски.

В силу затрат на всестороннюю проверку, повторное используование пакетов и модулей является хорошей передовой практикой разработки программного обеспечения и организациям следует рассмотреть возможность внедрения повторного использования пакетов и модулей при разработке проектов AI/ML. Проектирование программного обеспечения с использованием пакетов кода и модулей похоже на строительство здания из готовых компонентов. Готовые элементы кода могут помочь группам обработки данных ускорить процесс разработки, снизить затраты, поддерживать согласованную, легко поддерживаемую и гибкую структуру программного обеспечения. Это может привести к долгосрочному успеху и устойчивости инициатив AI/ML.

Многоразовые пакеты кода сокращают дублирование усилий, позволяя группам обработки данных сосредоточиться на совместной работе, инновациях и стратегических задачах, а не на мелочах кодирования. Этот модульный подход означает, что проекты AI/ML становятся более экономичными, поскольку ресурсы можно распределять более эффективно. Это также облегчает организациям модификацию, расширение или перепрофилирование проектов. Затем они смогут постоянно совершенствовать проекты искусственного интеллекта и машинного обучения в соответствии с меняющимися рыночными условиями, требованиями клиентов или нормативными требованиями.

Стандартизированные подходы в разработке ИИ


Учитывая скорость и потребность в трансформации ИИ, организации должны принять стандарты и протоколы для эффективного масштабирования ИИ. Создание надежной структуры стандартов и протоколов дает командам данных рекомендации по созданию, оценке и развертыванию моделей машинного обучения. Используя эту структуру, группы обработки данных следуют стандартизированному подходу при разработке сценариев использования ИИ и соблюдают ограничения, необходимые для их отрасли (например, не используют функции, которые могут создать предвзятость).

При масштабировании ИИ организации могут добиться успеха, внедрив три важных аспекта стандартов и протоколов: 
  • инженерные стандарты, 
  • передовые методы управления данными и жизненным циклом машинного обучения,
  • нормативные требования, соответствие требованиям и этику.

Стандартные технологии разработки программного обеспечения. Организации могут применять стандартные технологии разработки программного обеспечения, чтобы максимизировать отдачу от своих инвестиций в ИИ. Среды непрерывной интеграции/непрерывного развертывания (CI/CD) и автоматизированного тестирования позволяют организациям автоматизировать создание, тестирование и развертывание ИИ.

Лучшие практики обработки данных и машинного обучения.

Внедряя ряд четко определенных протоколов, организации могут оптимизировать процесс аналитики. Такие протоколы обычно определяют, как организации подходят к новым проектам, принимают данные, разрабатывают функции машинного обучения, а также создают и тестируют модели. После развертывания модели тщательный мониторинг ее производительности и проведение технического обслуживания становятся необходимыми для достижения максимально возможной производительности.

Эти лучшие практики должны быть систематизированы в комплексные руководства, которые объясняют последовательность действий, важные результаты и роли различных заинтересованных сторон, таких как специалисты по обработке данных, инженеры и бизнес-профессионалы. Организации, применяющие эти лучшие практики, могут более эффективно масштабировать ИИ и развивать культуру межфункционального сотрудничества.

Использование технологических возможностей операций машинного обучения (MLOps)


Организации могут в полной мере использовать свои инвестиции в машинное обучение, внедряя технологию, которая эффективно переводит модели машинного обучения от экспериментирования к производству и облегчает постоянное обслуживание и производительность после развертывания этих моделей. Здесь в игру вступает MLOps.

MLOps относится к технологиям и лучшим практикам, которые обеспечивают надежность и эффективность моделей машинного обучения перед развертыванием за счет автоматизации ключевых задач, облегчения сотрудничества между командами и предоставления надежных конвейеров развертывания и механизмов мониторинга. Такая бесперебойная доставка гарантирует качество и надежность моделей машинного обучения, повышая доверие к процессам принятия решений на основе данных. Это также сводит к минимуму риск проблем с производительностью после запуска моделей ML, помогая компаниям сократить время и ресурсы, необходимые для моделей ML, чтобы обеспечить реальный эффект.

Что еще важно - MLOps предотвращает деградацию модели.

Источник


Scaling AI for success: Four technical enablers for sustained impact
Масштабирование ИИ для достижения успеха: четыре технических фактора, способствующих устойчивому эффекту

September 27, 2023by Gerry Aue, Pepe Cafferata, Roman Drapeko, Margaux Penwarden, and Vaibhav Sinha

https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/tech-forward/scaling-ai-for-success-four-technical-enablers-for-sustained-impact


Джерри Ауэ — партнер офиса McKinsey в Гватемале, Пепе Кафферата — старший партнер в офисе в Сан-Паулу, а Роман Драпеко — выдающийся инженер по обработке данных в лондонском офисе, где Марго Пенварден — главный специалист по данным, а Вайбхав Синха — руководитель. инженер данных.