- ML: Подобласть ИИ, которая использует статистические методы для обучения. Пример - оптимизация расписания.
- Компьютерное зрение: подобласть машинного обучения на базе визуальных данных, таких как изображение, видео и 3-D сигналы, извлечение сложная информации и получение интерпретаций. Пример - распознавание лиц, биометрия.
- NLP: Подобласть ML, которое включает обработку, генерация и понимание языковых данных, такие как письменный текст и устное слово. Пример - распознавание речи в виртуальном голосовом помощнике.
- Глубокое обучение с подкреплением: сочетание глубокого обучени и обучения с подкреплением, в котором агент принимает решения в неопределенной среде, используя сложные алгоритмы, "вдохновленные" нейронными сетями мозга. Пример - планирование движения робота-манипулятора для производственной линии.
- Графы знаний: структурированный набор данных, изображенный в виде сети для демонстрации сложных отношений между объектами. Пример - анализ социальных сетей.
Преимущества технологий.
- Экономия затрат: до 90% респондентов отметили снижение затрат в 2020 году.
- Общее увеличение доходов: до 75% респондентов указали на увеличение доходов в 2020 году.
- Новые варианты использования. Новые варианты использования откроют новые бизнес-возможности.
- Расширенный доступ к ИИ и простота внедрения: новые технологии и методы, такие как операции машинного обучения и автоматизация программного обеспечения, должны сделать ИИ более доступным.
Риски и неопределенности
- Высокие первоначальные инвестиции в таланты и ресурсы: это создает высокий барьер для входа, связанного с разработкой рабочих процессов AI и ML для производства.
- Проблемы кибербезопасности и конфиденциальности: риски и уязвимости данных возникают в рамках технического рабочего процесса ИИ.
- Усиление регулирования и соответствия: новое законодательство повлияет на развитие ИИ.
- Этика ИИ: вопросы включают ответственность, справедливость и объяснимость.
Какие темы для дебатов связаны с темой прикладного ИИ?
Надежность. Что значит надежный и ответственный ИИ?
- Потенциальные риски и опасения возрастают по мере расширения вариантов использования ИИ.
- По данным Экспертной группы Комиссии ЕС по ИИ, ответственный и заслуживающий доверия ИИ может определяться соблюдением законов, соблюдением этики, обеспечением технической и социальной устойчивости, снижением потенциального вреда.
- Комиссия разработала 7 требований к ответственному ИИ и к доверию ИИ: человеческое вмешательство и надзор; социальное и экологическое благополучие; техническая надежность и безопасность; конфиденциальность и управление данными; прозрачность; подотчетность; разнообразие, дискриминация и справедливость.
Объяснимость. Когда нужна объяснимость решений ИИ?
- Объяснимость решений ИИ показывает, насколько хорошо мы можем понять модель ИИ. Интерес к этой области растет по мере того, как модели становятся все более сложными и изучаются случаи использования с высоким риском (например, диагностика заболеваний).
- Согласно исследований Стэнфордского университета, для искусственного интеллекта, ориентированного на человека присущи три вида объснений решений ИИ: объяснение для инженеров (технически объясняет, как работает модель ИИ), причинно-следственное объяснение (объясняет, почему входные данные модели порождают соответствующий результат), доверие - обеспечение объяснимости (информация, которой можно доверять и с помощью которой можно объяснить модель).
- В зависимости от ситуации организации могут использовать один тип объяснимости, комбинацию типов или все три типа (например, оценка риска заболевания рассматривает все три типа).
Приоритет в реализации приложений. Как определить, какое приложение ИИ принесет наибольшую пользу?
- В разных отраслях и организациях каждое применение ИИ по-разному повлияет на доходы; понимание того, как ИИ влияет на каждого заинтересованного лица, организацию и экосистему.
- Понимание последствий применения ИИ будет иметь важное значение для принятия решений о приоритетах развертывания и мониторинга ИИ.
Другие риски. Каковы еще области риска в применениях ИИ?
- Основные области риска включают кибербезопасность, соблюдение нормативных требований, объяснимость, личную конфиденциальность, репутацию организации и справедливость.
- В то время как клиенты, акционеры и регулирующие органы призывают к более тщательному изучению этих тем, субъективные темы (например, конфиденциальность и справедливость) не являются высокими стратегическими приоритетами в организациях, поскольку им не хватает ресурсов и возможностей для полного понимания и решения таких проблем.
Источник.
McKinsey Technology Trends Outlook 2022. August 2022. McKinsey analysis.
Комментариев нет:
Отправить комментарий