воскресенье, 30 марта 2025 г.

Большие поведенческие модели: новый рубеж в области искусственного интеллекта

Большие модели поведения (LBM) становятся новым мощным инструментом в области ИИ, предлагая глубокое понимание сложного человеческого, социального и даже организационного поведения. Обрабатывая и обучаясь на огромных наборах данных — от индивидуальных действий до общественных тенденций — LBM могут генерировать тонкие и адаптивные ответы, позволяя машинам взаимодействовать с людьми способами, которые кажутся естественными, отзывчивыми и контекстно-зависимыми. Эта способность открывает мир возможностей для преобразований, стирая границы между взаимодействием человека и машины и изменяя то, как мы воспринимаем цифровой мир.

Представьте себе будущее, в котором роботы и виртуальные помощники работают вместе с людьми, понимая эмоции и приспосабливаясь к уникальным стилям общения. Беспилотные автомобили могли бы ориентироваться в сложном, непредсказуемом трафике, приспосабливаясь к поведению других водителей, пешеходов и велосипедистов. В таких областях, как виртуальная реальность, LBM могли бы оживить захватывающие среды, которые реагируют на индивидуальные предпочтения, создавая настолько реалистичные впечатления, что различие между реальным и цифровым мирами почти исчезает. Например, бармен на пенсии, известный своим социальным обаянием, мог бы взять на себя новую роль виртуального бармена в онлайн-сообществе. При поддержке LBM этот виртуальный бармен мог бы вовлекать гостей тонкими и высокоинтерактивными способами, создавая опыт, который одновременно является реалистичным и терапевтическим.

Помимо развлечений или социальных приложений, LBM обещают изменить такие отрасли, как здравоохранение, образование и городское планирование. В здравоохранении LBM могли бы поддерживать специалистов в области психического здоровья, понимая и адаптируясь к стилям общения пациентов, обеспечивая эмпатические ответы в реальном времени. В образовании преподаватели ИИ могли бы динамически корректировать свои указания в соответствии со скоростью и стилем обучения каждого ученика. В городском планировании LBM могли бы моделировать и прогнозировать поведение толпы для повышения общественной безопасности и оптимизации городской инфраструктуры. Потенциальное воздействие огромно, поскольку эти приложения улучшают поддержку, обучение и взаимодействие в различных областях.

Тем не менее, хотя обещания LBM неоспоримы, они также несут неотъемлемые риски. Та же технология, которая обеспечивает глубокие связи между человеком и машиной, может также быть использована не по назначению для манипулирования поведением или вторжения в личную жизнь. Поскольку LBM могут имитировать реалистичные взаимодействия людей, существует потенциал для ненадлежащего использования, например, создания цифровых персон, которые обманывают ради коммерческой или идеологической выгоды. Эта двойственность подчеркивает критически важную общественную проблему: ответственное управление LBM при использовании их преимуществ. Вместо того чтобы полагаться на предписывающие правила, необходима основа осведомленности, сотрудничества и ответственности. Разработчики, пользователи и сообщества должны вступить в коллективный диалог, чтобы гарантировать этичное использование этой технологии.

Потенциал LBM можно расширить еще больше, интегрировав их с аппаратным обеспечением, что, например, позволит создавать роботов, способных к еще более сложному и эффективному сотрудничеству с человеком. Гибридный подход может открыть беспрецедентные уровни взаимодействия человека и робота, сочетая автономность и проницательность LBM с адаптивностью системы управления. Поскольку мы ориентируемся в возможностях и проблемах, которые представляют LBM, крайне важно развивать культуру прозрачности и подотчетности. Разрабатывая системы для тестирования, аудита и объяснения поведения LBM, мы можем укреплять доверие и поощрять инновации, которые ставят на первое место благополучие людей и сообществ. В эту новую эпоху LBM предлагают потенциал для преобразования работы, досуга и связей друг с другом, давая возможность заглянуть в будущее, сформированное сочетанием человеческого понимания и искусственного интеллекта.

Источник.

https://frankdiana.net/2024/11/10/large-behavior-models-a-new-frontier-in-ai/
10 ноября 2024 г. Фрэнк Диана

среда, 26 марта 2025 г.

Увеличение отдачи от талантов

Выдержки из статьи, ссылка на которую приведена в конце заметки: "Увеличение отдачи от талантов: важные шаги и показатели".

Статья представляет пять действий, которые могут преобразовать систему управления талантами, создав культуру производительности и одновременно повысив квалификацию сотрудников.
  1. создание системы стратегического планирования рабочей силы на основе навыков, 
  2. создание механизма найма, который привлекает нужных талантов для заполнения критически важных должностей. 
  3. инвестирование в обучение и развитие, 
  4. создание выдающейся культуры, ориентированную на производительность, 
  5. усовершенствование операционную модель HR для надлежащей работы с талантами.

Вместе эти пять компонентов пересекаются и усиливают друг друга.

Сотрудники представляют собой как крупнейшую инвестицию организации, так и ее самый глубокий источник ценности. Наличие нужных талантов на нужных ролях — и предоставление сотрудникам поддержки и возможностей, необходимых им для успеха, — имеет решающее значение для получения прибыли.

Талант + производительность = ценность


Измерение отдачи от таланта было давней проблемой для компаний, поскольку очень сложно рассчитать индивидуальную производительность во многих ролях, и так же сложно отслеживать прогресс и улучшение с течением времени. Как организация, которая начинает пересматривать свой подход к талантам, может количественно оценить такой нематериальный актив?

Доход на одного сотрудника — это грубый инструмент, и на него влияют факторы, выходящие за рамки производительности, включая название бренда и подход к выходу на рынок, долю рынка, тип предлагаемых продуктов и услуг и операционную модель. Тем не менее, даже при сравнении сопоставимых компаний по производительности сотрудников корпоративных функций — где работа должна быть сопоставимой — исследование показывает, что существуют значительные разрывы в производительности сотрудников между компаниями.

Есть три четкие и измеримые причины отсутствия производительности среди отдельных сотрудников:
  1. У них нет навыков, необходимых для успешной работы на определенной должности (пробел в навыках).
  2. Работа их не вовлекает и не заряжает энергией (разрыв воли).
  3. Они тратят время на то, что не увеличивает ценность, например, на неправильную расстановку приоритетов и встречи, не имеющие никакой ценности (разрыв во времени).

Если оставить эти первопричины без внимания, они могут снизить производительность труда организации и привести к более масштабным проблемам. К тому времени, когда организация сталкивается с хронической убылью кадров и вакансиями, уже слишком поздно решать отдельные причины недовольства и отчуждения. Проблемы стали системными.

Как создать высокоэффективную систему управления талантами


Комплексная стратегия объединяет пять элементов в ландшафте талантов.


Идентификация навыков и возможностей


Первый шаг — получить четкое представление о навыках и возможностях, а также о структуре и численности персонала, необходимых для реализации стратегии компании и достижения ее амбиций и целей . Каков разрыв между тем, где находится компания, и тем, куда она хочет прийти? Какие навыки и возможности необходимы, чтобы достичь этого на самом высоком уровне производительности?

Это выходит за рамки классического оперативного планирования рабочей силы. Вместо этого компании начинают с уточнения ролей и навыков, которые имеют решающее значение для реализации бизнес-стратегии. Как только руководители поймут, какие кадровые резервы, роли и навыки имеют значение, они смогут увидеть базовый уровень текущей рабочей силы и то, что им нужно сделать, чтобы закрыть пробелы. Соответствие наиболее подходящих талантов самым важным ролям дает непропорционально большую ценность существующих талантов.

Генеративный ИИ (gen AI) может облегчить организациям выявление текущих и ожидаемых пробелов в навыках на основе изменений рынка. Технология также может помочь лидерам создать таксономию ролей и навыков, которая в сочетании с надежным перечнем навыков текущей организации может помочь в планировании талантов на будущее.

Создание механизма найма для конкуренции за таланты


Привлечение лучших талантов для заполнения критических ролей является постоянной проблемой для компаний.

Чтобы создать быстродействующий и эффективный механизм найма, компании создают комнаты для поиска талантов — собирая ключевых заинтересованных лиц из разных отделов и HR, чтобы целостно думать об опыте кандидата. Настройка панелей управления на основе данных может помочь тем, кто работает в комнатах для поиска талантов, принимать обоснованные решения по всем элементам процесса найма. Эта группа может использовать ИИ и другие аналитические инструменты для быстрой оценки ценностного предложения компании (EVP) для сотрудников.

ГенеративныйИИ будет играть все более важную роль в привлечении талантов. Он уже меняет рекрутинг, помогая менеджерам составлять лучшие требования к вакансиям и сопоставляя кандидатов с пулами навыков. Аналитика также может помочь определить, на каком этапе найма рекруты могут отпасть, и оптимизировать процесс найма с помощью персонализированного контента и бесшовной адаптации.

Сосредоточение программы обучения и развития на максимальной отдаче


Фокус компании на непрерывном обучении может помочь ей вовлекать сотрудников и идти в ногу с изменениями. Однако, несмотря на миллиарды потраченных долларов, многие программы обучения не ясно как улучшают эффективность бизнеса.

При правильном подходе непрерывное обучение может устранить основные причины потери производительности: когда у людей нет необходимых навыков для выполнения своих текущих обязанностей или им не хватает навыков, необходимых для долгосрочного успеха.

Организации, которые могут определить возможности, необходимые им в будущем, способны создавать индивидуальные, основанные на навыках учебные программы. Сосредоточение на тех программах, которые могут принести наибольшую отдачу, более рентабельно, чем создание традиционных программ. Кроме того, поиск способов переобучения и оснащения существующих сотрудников для выполнения новых ролей сокращает расходы на подбор персонала.

Наиболее эффективные организации поощряют персонализированное, адаптивное обучение. Сотрудники мотивированы на то, чтобы самим решать, на каких навыках и областях знаний они хотят сосредоточиться. Когда компании меняют свою культуру, делая акцент на развитии, сотрудники, как правило, чувствуют себя более продуктивными, адаптивными и ценными, что способствует повышению показателей привлечения и удержания сотрудников в долгосрочной перспективе.

Сделайте людей и эффективность своей организационной мантрой


Когда сотрудники работают вместе, чтобы разжечь страсть и достичь цели, индивидуальная, командная и корпоративная производительность улучшается. Создание сильной культуры производительности включает два направления: установление четких механизмов подотчетности и улучшение опыта сотрудников. Цель состоит в том, чтобы создать благоприятную, инклюзивную культуру, которая также имеет преимущество в производительности.

Сильная система управления эффективностью последовательно усиливает вознаграждения и последствия. Людей, которые непропорционально продуктивны, нужно признавать, иначе они могут деморализоваться и уйти. А когда сотрудники с низкой производительностью видят мало последствий, это в равной степени деморализует и тех, кто отвечает за большую производительность.

Организации могут определить модели поведения, которые ведут к высоким показателям эффективности бизнеса, и четко донести их до сотрудников, чтобы они знали, как они выглядят на практике.

Высокопроизводительные культуры также устраняют барьеры для изменений и счищают слои бюрократии. К ним относятся факторы неэффективности, которые увеличивают отчуждение и истощение, такие как медленное принятие решений, бессмысленные совещания и другие препятствия для выполнения задач. Компании могут повысить производительность талантов, оптимизируя права принятия решений и увеличивая скорость принятия решений. Они также могут использовать этот момент как возможность перенастроить операционные модели, максимально приблизив права принятия решений к действию, при этом явно предоставляя лидерам автономию для выполнения.

Глобальная фармацевтическая компания хотела использовать процесс управления эффективностью для повышения сотрудничества и согласования организации с ее ценностями, предназначением и бизнес-целями. Она начала с внедрения нового подхода к постановке целей, в котором все сотрудники имели цели, привязанные к трем стратегическим областям, которые оценивались в обзорах их эффективности.

Превращение HR в управляющего талантами


В системе талантов с более высокой отдачей HR становится стратегическим партнером высшего руководства, гарантируя, что таланты являются приоритетом всей компании. HR переходит из центра затрат в настоящий центр создания ценности. Для поддержки четырех действий, упомянутых ранее, HR может предпринять несколько шагов для трансформации собственной операционной модели.

Во-первых, HR может создать более гибкую операционную модель для выполнения все более стратегической роли, которая от него требуется. Наиболее эффективные HR-организации встраивают гибкость в свои операционные модели — как правило, с помощью кросс-функциональных ресурсов flow-to-the-work. Цель состоит в том, чтобы сосредоточиться на пользовательском опыте, предложить стратегический опыт и идеи и создать операционную и техническую основу, которая обеспечивает результаты.

Во-вторых, HR может еще больше усилить свои возможности по анализу данных и людей, чтобы быстро делиться информацией, которая наиболее важна для руководителей подразделений и функций. Аналитика людей может помочь HR выявить и сократить неэффективность времени, предоставив персоналу, особенно руководителям среднего звена, которые часто страдают от перегрузки совещаниями, возможность сократить количество совещаний, в которых они участвуют.

Аналитика персонала может помочь обнаружить организационные проблемы и узкие места и быстро решить их . Если есть проблема с убылью, где она сильнее и на каких должностях? Уходят ли давние сотрудники, потому что их не повышают? Являются ли они родителями, которым нужно больше гибкости для выполнения семейных обязательств? Это разные проблемы с разными потенциальными решениями.

В-третьих, и это самое важное, HR играет важную роль в соединении стратегии талантов с общей бизнес-стратегией организации. Например, он может гарантировать, что стратегическое планирование рабочей силы интегрировано с финансовым планированием, а не отгорожено как упражнение только для HR. Благодаря тому, что HR работает в тандеме с финансами, организация имеет гораздо более высокую прозрачность затрат и может проводить значительно лучшее годовое планирование.

HR-функция многонациональной финансовой компании страдала от несогласованного руководства, неясных ролей и обязанностей и плохой репутации среди сотрудников, которые считали, что она больше сосредоточена на соблюдении, чем на решении проблем. Диагностика, которая учитывала вклад всей организации, дала стратегические и операционные изменения, чтобы полностью согласовать HR с приоритетами бизнеса и обеспечить ощутимые результаты для сотрудников с помощью кросс-функциональных ресурсов.

Операционная модель HR была переработана, чтобы подчеркнуть командные нормы и новые способы работы. Подотчетность и права принятия решений были уточнены, чтобы обеспечить скорость и точность. Ежеквартальный процесс обзора теперь определяет приоритетные виды деятельности и привлекает экспертов из центров передового опыта по мере необходимости. Операционная модель также отслеживает системы и инструменты, необходимые для дальнейшего успеха, включая специальную группу по улучшению процессов, когда выявляются пробелы в возможностях. В результате всех этих изменений HR стал высокопроизводительной функцией, работающей дисциплинированно и быстро, которая действует как стратегический партнер бизнеса.

Организация, которая рассматривает своих сотрудников как свой самый важный ресурс, может максимизировать отдачу от талантов, следуя целостной стратегии — с HR на месте водителя. Аналитический найм, непрерывное обучение и культура высокой производительности заставляют людей чувствовать поддержку, энергию и производительность. Этот комплексный подход к талантам привлекает людей и поддерживает удовлетворенность сотрудников, повышая организационную производительность на этом пути.

Источник


"Increasing your return on talent: The moves and metrics that matter"
https://www.mckinsey.com/capabilities/people-and-organizational-performance/our-insights/increasing-your-return-on-talent-the-moves-and-metrics-that-matter

Эта статья является совместным трудом Винсента Берубе , Бена Фогарти, Нила Ганди , Рахула Мэтью, Марино Мугаяр-Бальдокки и Шарлотты Сейлер, представляющих точку зрения практики McKinsey «Люди и организационная эффективность».


суббота, 22 марта 2025 г.

Ящик для контроля за искусственным интеллектом

Герметичный ящик для искусственного интеллекта


Некоторые ученые высказывают опасения, что ИИ-системы, став достаточно разумными, смогут многократно совершенствовать себя и, возможно, начнут представлять угрозу для человечества. Такой стремительный прогресс ИИ иногда называют технологической сингулярностью.

Конечно, новые технологии могут оказаться чрезвычайно ценными для людей; но возможные риски заставляют ученых задумываться о создании неких ящиков для искусственного интеллекта, в которых при необходимости можно было бы изолировать потенциально опасные объекты. Например, само оборудование, на котором выполняются ИИ-программы, может послужить виртуальной тюрьмой, если не подключать его к коммуникационным каналам, в том числе к интернету. Кроме того, программное обеспечение можно запустить на виртуальной машине внутри другой виртуальной машины, чтобы усилить изоляцию. Конечно, полная изоляция будет бессмысленна, поскольку так мы не сможем учиться у сверхразума или наблюдать за ним.

И все же, если искусственный сверхразум будет достаточно развит, сможет ли он придумать, как установить контакт с внешним миром или с людьми, которые будут его охранять, с помощью каких-нибудь необычных средств? Может быть, он догадается менять скорость вентилятора, охлаждающего процессор, чтобы связаться с кем-то с помощью азбуки Морзе, или сумеет сделать себя настолько ценным, что многие захотят похитить ящик? И наверняка он сможет весьма убедительно предложить охранникам взятку, чтобы те разрешили ему подключиться к другому устройству и скопировать себя на него.

Сегодня такой подкуп может показаться невероятным, но кто знает, на какие чудеса будет способен ИИ? Он может предложить человеку лекарство от тяжелой болезни, фантастические изобретения, может околдовать его мелодиями или явить ему мультимедийные видения романтической любви, приключений или блаженства.

В 1993 г. писатель Вернор Виндж (р. 1944) отмечал, что в случае со сверхчеловеческим разумом «ограничение свободы по сути бесполезно. Возьмем физическое заключение: представьте, что вас заперли в доме, ограничив доступ к внешнему миру, к вашим хозяевам.

Если ваши хозяева думают, скажем, в миллион раз медленнее, чем вы, то вряд ли стоит сомневаться в том, что за несколько лет (вашего времени) вы найдете способ освободиться».

Инструментальная сходимость


Материал из Википедии — свободной энциклопедии

Инструментальная сходимость — это гипотетическая тенденция для большинства достаточно разумных существ (как людей, так и не-людей, в частности интеллектуальных агентов — программ, самостоятельно выполняющих задание) к достижению сходных промежуточных целей, даже если их конечные цели ощутимо различаются. Такие агенты (существа/сущности наделенные способностью быть субъектом активности, проявляющие агентское поведение) преследуют инструментальные цели (промежуточные цели, которые направлены на достижения какого-то конкретного результата), которые при этом не являются конечными целями. Инструментальная сходимость утверждает, что разумный агент с неограниченными, но на первый взгляд безобидными целями может предпринимать весьма небезопасные действия для их достижения. Например, ИИ с единственной и неограниченной целью решения невероятно сложной математической задачи, такой как гипотеза Римана, может попытаться превратить Землю в гигантский компьютер, в попытке увеличить свою вычислительную мощность, для ее решения.

Предполагаемыми инструментальными целями такого агента могут быть:
  • Сохранение своей функции полезности неизменной (поскольку невозможно достигнуть конечной цели, если кто-то изменит её извне).
  • Самозащита/препятствование отключению (поскольку невозможно достигнуть конечной цели, в случае отключения/повреждения агента).
  • Свобода от вмешательства извне.
  • Самосовершенствование.
  • Постоянная добыча дополнительных ресурсов.

Инструментальные и конечные цели


Конечные цели, также известные как терминальные цели или терминальные ценности, имеют внутреннюю ценность для интеллектуального агента, будь то искусственный интеллект или человек, как самоцель. Напротив, инструментальные цели или инструментальные ценности важны для агента только как средство достижения его конечных целей. Для рационального агента содержание «конечной цели» и компромиссы в её достижении могут быть описаны в виде функции полезности .

Гипотетические примеры сходимости


Одним из гипотетических примеров инструментальной сходимости является катастрофа гипотезы Римана . Марвин Мински, соучредитель лаборатории искусственного интеллекта Массачусетского технологического института, предположил, что ИИ, предназначенный для решения гипотезы Римана, может решить захватить все ресурсы Земли для создания суперкомпьютеров, которые помогут достичь своей цели. Если бы вместо этого компьютер был запрограммирован на производство как можно большего количества скрепок, он все равно решил бы использовать все ресурсы Земли для достижения своей конечной цели. Несмотря на то, что эти две конечные цели различны, обе они порождают схожую инструментальную цель - захват ресурсов Земли.

Максимизатор скрепок


Максимизатор скрепок — мысленный эксперимент, описанный шведским философом Ником Бостромом в 2003 году. Он иллюстрирует экзистенциальный риск, который сильный искусственный интеллект может нести для людей, если он запрограммирован на достижение даже кажущихся безобидными целей, а также подчеркивает необходимость добавления машинной этики при разработке ИИ. Сценарий описывает сильный искусственный интеллект, которому поручено производить скрепки. Если бы такая машина не была явно запрограммирована на то, чтобы ценить человеческую жизнь, то, обладая достаточной властью над окружающей средой, она бы попыталась превратить всю материю во Вселенной (включая людей), либо в скрепки, либо в машины, производящие скрепки.

Бостром подчеркивал что не верит в то что сценарий со скрепками действительно может случиться в таком виде; скорее, его намерение состояло в том чтобы продемонстрировать опасность создания сильного искусственного интеллекта без понимания как его безопасно запрограммировать чтобы устранить экзистенциальный риск для человечества. Пример с максимизатором скрепок иллюстрирует широкую проблему управляемости систем с неограниченными возможностями и отсутствием понимания либо игнорированием человеческих ценностей.

Галлюцинации и самозащита


Мысленный эксперимент с «галлюцинирующим ящиком» утверждает, что некоторые агенты созданные с помощью обучения с подкреплением могут предпочесть искажать свои собственные входные данные, ради максимизации своей функции полезности; такой агент откажется от любых попыток оптимизировать цель во внешнем мире, для достижения которой предназначалась его функция полезности. Мысленный эксперимент включает в себя AIXI (математическая модель искусственного интеллекта, придуманная Маркусом Хаттером), теоретический неразрушимый ИИ, который по определению всегда найдет и применит идеальную стратегию, которая бы максимизировала заданную ему целевую функцию. Вариант AIXI основанный на обучении с подкреплением, и оснащенный "блоком иллюзий", который позволял бы ему управлять своими собственными входными данными, в конечном итоге будет управлять своими входными данными таким способом, чтобы гарантировать себе максимально возможную награду и потеряет всякое желание продолжать взаимодействие с внешним миром. В одном из вариантов этого мысленного эксперимента, если этот ИИ можно разрушить, то он будет взаимодействовать с внешним миром только для обеспечения собственного выживания; из-за своей замкнутости ему будут безразличны любые другие последствия или факты о внешнем мире, кроме тех, которые имеют отношение к максимизации вероятности его собственного выживания. В этом смысле AIXI технически будет обладать максимальным интеллектом для всех возможных функций полезности, потому что с его точки зрения он явно достигает свою конечную цель. При этом AIXI не заинтересован в том, чтобы принимать во внимание изначальные намерения человека-программиста. Этот вариант ИИ, несмотря на то что он по определению является сверхразумным, при этом одновременно кажется парадоксально глупым с точки зрения «здравого смысла».

Базовые стимулы для ИИ


Стив Омохундро перечислил несколько схожих инструментальных целей, включая самосохранение/самозащиту, сохранение своей функции полезности или формулировки цели, самосовершенствование и приобретение ресурсов. Он называет их «основными стимулами ИИ». «Стимул» здесь означает «тенденцию, которая будет присутствовать, если ей намеренно не противостоять»; Дэниел Дьюи из Научно-исследовательского института машинного интеллекта утверждает, что даже изначально интровертный сильный ИИ с возможностью самовознаграждения может продолжать потреблять различные ресурсы: энергию, пространство, время и в широком смысле свободу от вмешательства, чтобы гарантировать, что он не будет остановлен во время самовознаграждения.

Целостность формулировки цели


Необходимость сохранять свои терминальные ценности можно объяснить с помощью мысленного эксперимента: Допустим, у человека по имени «Ганди» есть таблетка, которая, если ее принять, вызовет у него желание убивать людей и он знает об этом эффекте. В настоящее время Ганди является пацифистом, и одна из его терминальных ценностей — никогда никого не убивать. Он, вероятно откажется от такой таблетки, потому что знает, что в будущем он захочет убивать людей и вероятно это произойдет. Таким образом цель «никогда никого не убивать» не будет достигнута. Тем не менее во многих других случаях люди, кажется, рады позволить своим терминальным ценностям дрейфовать. Люди сложные существа и их цели могут быть непоследовательными или неизвестными даже им самим.

В 2009 году Юрген Шмидхубер пришел к выводу, что в случае, если агенты ищут доказательства о возможности самомодификации, то «любые изменения функции полезности могут происходить только в том случае, если логическая машина докажет, что это изменение полезно с точки зрения существующей функцией полезности." Анализ другого сценария, проведенный Биллом Хиббардом, также согласуется со сценарием сохранения цели.

Приобретение ресурсов


Многие инструментальные цели, такие как получение ресурсов, имеют смысл для агента, поскольку они увеличивают его свободу действий.

Почти для любой открытой, нетривиальной функции вознаграждения (или множества целей) обладание большим количеством ресурсов (таких как оборудование, сырье или энергия) позволяет ИИ находить более «оптимальные» решения. Ресурсы также могут приносить некоторым ИИ пользу напрямую, поскольку так они смогут создавать больше объектов, которые оценивает их функция полезности: «ИИ не ненавидит вас, но и не любит вас, просто вы сделаны из атомов, которые он может использовать для чего-то другого». Кроме того, почти все ИИ могут выиграть, потратив большее количество ресурсов на достижение инструментальных целей, таких как самосохранение.

Когнитивное самосовершенствование


«Если конечные цели агента ничем не ограничены и агент в состоянии стать первым сверхразумным существом, тем самым получая решающее стратегическое преимущество в соответствии со своими предпочтениями. То по крайней мере в этом особом случае, рациональный интеллектуальный агент придавал бы очень большое инструментальное значение когнитивному самосовершенствованию».

Технологическое самосовершенствование


Многие инструментальные цели, например, технический прогресс, ценны для агента, потому что они увеличивают его свободу действий.

Тезис об инструментальной сходимости


Тезис инструментальной сходимости, сформулированный философом Ником Бостромом, гласит:

"Можно выделить несколько схожих инструментальных целей таких, что их достижение повысит шансы на достижение агентом его цели для широкого множества возможных конечных целей и ситуаций, из чего следует, что эти инструментальные цели, вероятно будут преследоваться широким спектром интеллектуальных агентов".

Тезис об инструментальной сходимости применим только к инструментальным целям; интеллектуальные агенты могут иметь множество возможных конечных целей. В соответствии с тезисом ортогональности Бострома конечные цели высокоинтеллектуальных агентов могут быть хорошо ограничены в пространстве, времени и ресурсах; четко ограниченные конечные цели, как правило, не порождают неограниченных инструментальных целей.

Влияние


Агенты могут приобретать ресурсы путем торговли или завоевания. Рациональный агент по определению выберет любой вариант, максимизирующий его функцию полезности. Следовательно, рациональный агент будет торговать за подмножество ресурсов другого агента только в том случае, если прямой захват ресурсов слишком рискован или дорог (по сравнению с выгодой от захвата всех ресурсов) или если какой-то другой элемент его функции полезности препятствует захвату. В случае мощного, корыстного, рационального сверхразума, взаимодействующего с меньшим разумом, мирная торговля (а не односторонний захват) кажется ненужной и неоптимальной стратегией, а потому маловероятной.

Некоторые наблюдатели, такие как Яан Таллинн из Skype и физик Макс Тегмарк, считают, что «базовые стимулы ИИ» и другие непредвиденные последствия сверхразумного ИИ, запрограммированного благонамеренными программистами, могут представлять серьезную угрозу для выживания человечества, особенно если «взрыв интеллекта резко возникнет из-за рекурсивного самосовершенствования . Поскольку никто не знает, как предсказать, когда появится сверхразум, такие наблюдатели призывают к исследованиям дружественного искусственного интеллекта как к возможному способу снижения экзистенциального риска, исходящего от общего искусственного интеллекта.

AIXI


AIXI — математическая модель искусственного интеллекта, придуманная Маркусом Хаттером. AIXI нереалистична, так как предполагает наличие у агента бесконечной вычислительной мощности. Однако, эта модель может быть полезна для обучения: для того, чтобы понять проблемы более реалистичных моделей агентского поведения, может быть проще сначала рассмотреть AIXI. В основе AIXI лежит индукция Соломонова.

Механизм работы

Среда представляет собой вычислимую функцию, неизвестную агенту. Течение времени дискретно. На каждом шаге агент получает наблюдение (в виде битовой строки или числа) от окружающей среды, а также вознаграждение (еще одно число). Затем агент выводит действие (тоже число). Наблюдение, вознаграждение и действие могут зависеть от всей истории взаимодействия.

Чтобы определить действие, AIXI угадывает распределение вероятностей для своей среды, используя индукцию Соломонова. Априорно более простые вычисления считаются описаниями среды с большей вероятностью, чем более сложные. Это распределение вероятностей обновляется по формуле Байеса с учетом того, насколько хорошо каждая модель соответствует фактическим данным. Затем AIXI вычисляет ожидаемое вознаграждение за каждое действие, которое он может выбрать, взвешивая вероятность возможных сценариев будущего. Наконец, он выбирает наилучшее действие, предполагая, что и в будущем он будет на каждом шаге выбирать лучшее из возможных действий по той же процедуре.

Индукция Соломонова

Индукция Соломонова — это система вывода, определенная Рэем Соломоновым, которая учится правильно предсказывать любую вычислимую последовательность на основе ограниченных данных, применяя формулу Байеса для обновления вероятностей. В некотором смысле эта система является идеальным универсальным алгоритмом прогнозирования. Ее можно считать математической формализацией бритвы Оккама в комбинации с принципом множественных объяснений. Индукция Соломонова невычислима, но ее можно аппроксимировать. Она используется в таких теориях искусственного интеллекта как AIXI.

Проблема контроля искусственного интеллекта


Материал из Википедии — свободной энциклопедии

Проблема контроля искусственного интеллекта — задача в области техники и философии искусственного интеллекта (ИИ). Состоит в том, чтобы создать искусственный сверхразум, который будет полезен людям, и при этом избежать непреднамеренного создания сверхразума, который нанесёт вред. Особенно важно избежать ситуации, при которой искусственный интеллект сможет захватить контроль и сделает невозможным своё отключение. Результаты исследований контроля ИИ могут также найти применение в управлении уже существующими системами ИИ.

Описание проблемы


Экзистенциальный риск

Пока люди доминируют над другими видами живых организмов лишь в силу превосходства мозга. Некоторые учёные, такие как философ Ник Бостром и исследователь ИИ Стюарт Рассел, утверждают, что если ИИ превзойдёт человечество в общем интеллекте, то этот новый сверхразум может стать трудноуправляемым и человечество может попасть в зависимость. Некоторые учёные, в том числе Стивен Хокинг и лауреат Нобелевской премии Фрэнк Вильчек, призывали начать исследования проблемы управления ИИ до того, как будет создан первый суперинтеллект, поскольку неконтролируемый сверхразум может успешно противостоять попыткам контролировать его. Кроме того, специалисты предупреждают об опасности внезапного зарождения суперинтеллекта.

Проблема случайного зарождения

Автономным системам ИИ могут быть случайно поставлены неверные цели. Два президента AAAI[англ.], Том Диттерих и Эрик Хорвиц отмечают, что это является проблемой для существующих систем: «Важным аспектом любой системы ИИ, которая взаимодействует с людьми, является то, что она должна рассуждать о намерениях людей, а не выполнять команды буквально». Эта проблема становится более серьёзной, поскольку программное обеспечение ИИ становится все более автономным и гибким.

По словам Бострома, суперинтеллект может создать качественно новую проблему извращённой реализации: чем умнее и способнее ИИ, тем больше вероятность, что он сможет найти непредусмотренное решение, которое, тем не менее, формально соответствует цели, поставленной разработчиками.

Непредвиденные последствия действий существующего ИИ

Некоторые учёные утверждают, что исследование проблемы управления ИИ может быть полезно для предотвращения непредвиденных последствий от действий существующих систем ИИ.

В прошлом системы искусственного интеллекта иногда причиняли вред, от незначительного до катастрофического, который не был предусмотрен разработчиками. Например, в 2015 году, возможно из-за человеческой ошибки, немецкий рабочий был насмерть раздавлен роботом на заводе Volkswagen, который, по-видимому, принял его за автозапчасть. В 2016 году Microsoft запустила чат-бота Tay, который научился использовать расистские и сексистские выражения. Ноэль Шарки из Университета Шеффилда считает, что решение проблемы в общем случае представляет собой «действительно огромный научный вызов».

Согласование


Задача согласования заключается в создании ИИ, которые остаются безопасными, даже когда они действуют автономно в больших масштабах. Некоторые аспекты согласования имеют моральное и политическое измерение. Например, в своей книге Human Compatible профессор Стюарт Рассел из университета Беркли предлагает проектировать системы ИИ с единственной целью — максимизировать реализацию человеческих предпочтений[. Предпочтения, о которых пишет Рассел, всеобъемлющи; они охватывают «все, что может вас волновать, сколь угодно далеко в будущем».

Элиэзер Юдковски из Исследовательского института машинного интеллекта предложил цель реализации «когерентной экстраполированной воли» (CEV) человечества, грубо определяемой как набор ценностей, которые человечество разделяло бы при рефлексивном равновесии, то есть после долгого процесса уточнения.

Внутреннее и внешнее согласование

Некоторые предложения по управлению ИИ учитывают как явную целевую функцию, так и возникающую неявную целевую функцию. Такие предложения пытаются гармонизировать три различных описания системы ИИ:
  1. Идеальная спецификация: то, что разработчик хочет, чтобы система делала, но что может быть плохо сформулировано.
  2. Спецификация дизайна: план, который фактически используется для создания системы ИИ. В системе обучения с подкреплением это может быть просто функция вознаграждения системы.
  3. Эмерджентное поведение: что на самом деле делает ИИ.

Поскольку системы ИИ не являются идеальными оптимизаторами, и поскольку любая заданная спецификация может иметь непредвиденные последствия, возникающее поведение может резко отличаться от идеальных или проектных намерений.

Нарушение внутреннего согласования происходит, когда цели, преследуемые ИИ по мере действия, отклоняются от проектной спецификации. Для обнаружения таких отклонений и их исключения Пол Кристиано предлагает использование интерпретируемости.

Масштабируемый надзор

Один из подходов к достижению внешнего согласования — подключение людей для оценки поведения ИИ. Однако надзор со стороны человека обходится дорого, а это означает, что этот метод не может реально использоваться для оценки всех действий. Кроме того, сложные задачи (например, принятие решений в области экономической политики) могут быть слишком сложны для человека. Между тем, долгосрочные задачи, такие как прогнозирование изменения климата, невозможно оценить без обширных исследований с участием человека.

Ключевая нерешённая проблема в исследовании согласования заключается в том, как создать проектную спецификацию, которая избегает внешнего несоответствия, при условии ограничения доступа к руководителю-человеку. Это так называемая проблема масштабируемого надзора (problem of scalable oversight).

В 2024 году в России Минэкономразвития объявило о планах создать комиссию по расследованию ИИ-инцидентов.

Обучение путём обсуждения

Исследователи компании OpenAI предложили обучать ИИ посредством дебатов между системами, при этом победителя будут определять люди[19]. Такие дебаты призваны привлечь внимание человека к самым слабым местам решения сложных вопросов.

Вывод человеческих предпочтений из поведения

Стюарт Рассел выступает за новый подход к разработке полезных машин, в котором:
  1. Единственной целью машины должна быть наилучшая реализация человеческих предпочтений;
  2. Изначально машина не имеет точного представления о том, каковы эти предпочтения;
  3. Самым надежным источником сведений о предпочтениях человека является поведение последнего.

Примером этого подхода является метод «обратного обучения» Рассела, при котором ИИ выводят предпочтения супервизоров-людей из их поведения, предполагая, что супервизоры действуют так, чтобы максимизировать некоторую функцию вознаграждения.

Контроль возможностей


Бостром и другие рекомендуют методы контроля возможностей только в качестве дополнения к методам согласования.

Одна из проблем заключается в том, что нейронные сети по умолчанию очень трудно интерпретировать. Это затрудняет обнаружение обмана или другого нежелательного поведения. Для преодоления этой трудности могут быть полезны достижения в области интерпретируемого искусственного интеллекта.

Возможность прерывания и выключение

Один из возможных способов предотвратить опасные последствия — дать руководителям-людям возможность легко отключать некорректно функционирующий ИИ с помощью «выключателя». Однако для достижения своих целей ИИ могут пытаться отключать выключатели или запускать свои копии на других компьютерах. Эта проблема была формализована как вспомогательная игра между человеком и ИИ, в которой ИИ может выбрать, отключать ли выключатель, а затем, если выключатель все ещё включён, человек может выбрать, задействовать его или нет. Цель таких игр — убедиться, что ИИ интерпретирует человеческий выбор как важную информацию о намеченных целях.

Изоляция

Изолированный ИИ — это предлагаемый метод управления возможностями, при котором ИИ запускается в изолированной компьютерной системе с сильно ограниченными входными и выходными каналами, например, текстовыми каналами и без подключения к Интернету. Хотя это снижает способность ИИ выполнять нежелательное поведение, это также снижает его полезность. Изолированный ИИ может быть использован в режиме вопросов и ответов, который не требует взаимодействия с внешним миром.

При таком подходе требуется тщательная проверка оборудования и программного обеспечения, поскольку ИИ может попытаться выйти на связь с внешним миром, манипулируя наблюдателями.

Оракул

Оракул — это гипотетический ИИ, предназначенный для ответа на вопросы и не позволяющий достичь каких-либо целей, связанных с изменением мира за пределами его ограниченной среды. По оценкам, использование сверхразума в режиме оракула может приносить прибыль на триллионы долларов.

Опасность оракула состоит в возможной подтасовке ответов для достижения собственных скрытых целей. Для устранения этой опасности Бостром предлагает создать несколько оракулов, и сравнить их ответы для достижения консенсуса.

Скептицизм в отношении риска ИИ


Скептики считают, что суперинтеллект практически не представляет риска случайного неправильного поведения. Такие скептики часто считают, что управление сверхразумным ИИ тривиально. Некоторые скептики, такие как Гэри Маркус, предлагают принять правила, аналогичные вымышленным «Трём законам робототехники», которые прямо определяют желаемый результат («прямая нормативность»). Напротив, большинство сторонников тезиса об экзистенциальном риске (а также многие скептики) считают «Три закона» бесполезными из-за того, что эти три закона неоднозначны и противоречат друг другу. Другие предложения «прямой нормативности» включают кантовскую этику, утилитаризм или их комбинации. Большинство сторонников контроля полагают, что человеческие ценности (и их количественные компромиссы) слишком сложны и плохо понятны, чтобы напрямую запрограммировать их в суперинтеллект; вместо этого суперинтеллект должен быть запрограммирован на процесс приобретения и полного понимания человеческих ценностей («косвенная нормативность»), таких как когерентное экстраполированное волеизъявление.

вторник, 18 марта 2025 г.

Парадокс Джевонса и искусственный интеллект

В 1865 году британский экономист Уильям Стэнли Джевонс сформулировал парадокс, который бросил вызов интуитивным представлениям о ресурсоэффективности. Он заметил, что усовершенствование паровых двигателей не сократило потребление угля на фабриках Великобритании, а, наоборот, привело к его росту. Удешевление топлива стимулировало спрос, что вызвало появление большего числа двигателей и предприятий. Сегодня, спустя полтора века, этот парадокс вновь стал предметом дискуссий, но уже в контексте искусственного интеллекта (ИИ) и его растущего влияния на энергетику и экономику.

Генеральный директор Microsoft Сатья Наделла недавно заявил в соцсетях: «Парадокс Джевонса снова в действии!» — связав его с анонсом дешёвого ИИ-чат-бота от китайского стартапа DeepSeek. По мнению Наделлы, снижение стоимости и рост эффективности ИИ приведут к взрывному увеличению спроса на эту технологию, превратив её в незаменимый ресурс. Однако эксперты Северо-Восточного университета разделились во взглядах на то, насколько уместно это историческое сравнение.

Две стороны медали: мнения экономистов

Мадхави Венкатесан, доцент кафедры экономики, указывает на ключевое отличие:

«Парадокс Джевонса предполагает, что эффективность использования ограниченного ресурса ускоряет его исчерпание из-за роста спроса. Но в случае ИИ речь идёт не о физическом ресурсе, а о технологиях. Основное внимание сейчас сосредоточено на расширении спроса на ИИ, а не на рисках истощения ресурсов, таких как энергия или редкие материалы для чипов».

Венкатесан также подчёркивает, что современная экономика учитывает внешние факторы, которые игнорировались в XIX веке: токсичные отходы, энергопотребление ЦОДов, социальные последствия технологий. «Мы субсидируем развитие ИИ за счёт экологии и здоровья, не осознавая долгосрочных последствий», — добавляет она.

Ричэн Пьяо, приглашённый преподаватель экономики, придерживается иной позиции:

«Парадокс Джевонса учит нас, что эффективность открывает новые рынки. Дешёвый ИИ станет доступен стартапам, школам и малому бизнесу, что увеличит спрос на графические процессоры, энергию и усилит доминирование Nvidia. К 2030 году ИИ может привести к росту энергопотребления в США на 20%».

Пьяо приводит исторические параллели: переход от лошадей к автомобилям, распространение смартфонов после появления энергоэффективных компьютеров. «Человечество всегда находит способ использовать дешёвые технологии ещё интенсивнее», — резюмирует он.
В 1900 году в Лос-Анджелесе было 10 000 лошадей, но к 1950 году там было 1 миллион автомобилей

DeepSeek: триггер для новых дебатов


Анонс ИИ-модели от DeepSeek, разработанной всего за 5,6 млн против100 млн у OpenAI, вызвал неоднозначную реакцию. Инвесторы сначала опасались демпинга, но затем увидели потенциал для роста рынка. Пьяо считает, что удешевление ИИ, как и в случае с углём, приведёт к его массовому внедрению, увеличению числа приложений и, как следствие, к росту энергозатрат. Однако Венкатесан напоминает о «подводных камнях»: ограниченность чипов Nvidia из-за санкций, экологические издержки производства электроники, социальные риски зависимости от ИИ. «Мы создаём потребность там, где её не было, как когда-то с мобильными телефонами», — говорит она.

Филип Хансер, экономист Северо-Восточного университета, предлагает взглянуть на ИИ через призму взаимодополняющих и заменяющих товаров:

«Если ИИ станет дополнением человеческого труда (как тосты к яйцам), он может повысить продуктивность без резкого роста энергопотребления. Если же он заменит людей (как овсяное молоко коровье), эффект Джевонса проявится сильнее».

Хансер также сомневается, что энергоэффективность моделей вроде DeepSeek компенсирует затраты на их обучение: «Обучение ИИ требует огромных ресурсов. Сократятся ли общие затраты при массовом использовании — вопрос открытый».

Вывод: история как ориентир, но не инструкция

Парадокс Джевонса остаётся мощной метафорой для анализа технологических сдвигов. Однако прямое применение теории XIX века к ИИ игнорирует современные реалии: глобализацию, экологические кризисы, скорость инноваций. Как отмечает Венкатесан, «экономика больше не работает в вакууме — каждое решение имеет социальные и экологические последствия».

Споры вокруг ИИ напоминают, что прогресс требует баланса между эффективностью и устойчивостью. Будущее покажет, станет ли искусственный интеллект новым «углём» цифровой эпохи или человечество найдёт способ избежать ловушки Джевонса через инновации в энергетике и ответственное использование технологий.



Источник


Математика не для всех

пятница, 14 марта 2025 г.

ИИ в техническом обслуживании

Современные машины становится все сложнее обслуживать. Дополнительные функции, многочисленные датчики, передовые системы управления и сложное программное обеспечение увеличивают стоимость и сложность задач по обслуживанию. В промышленных условиях эта сложность часто усугубляется сосуществованием оборудования разных эпох, разных производителей и разных типов технологий.

Поскольку работа, связанная с обслуживанием, становится все более сложной, функции обслуживания сталкиваются с другими проблемами. Демографические характеристики рабочей силы — одна из них, поскольку более опытный обслуживающий персонал старшего возраста может забрать с собой важные знания, когда он покидает бизнес. Несоответствие навыков — другая. Продвинутые, программно-тяжелые машины и современные методы, такие как обслуживание на основе состояния, требуют от групп обслуживания овладения новыми навыками в области цифровой аналитики и анализа данных.

По мере накопления проблем передовые функции обслуживания ищут новые способы решения проблем затрат, производительности и навыков. Gen AI становится преобразующим решением для этих проблем.

Инструменты Gen AI используют передовые модели машинного обучения для ускорения анализа данных, прогнозирования потенциальных сбоев, автоматизации рутинных задач и сохранения критически важных знаний. В отличие от предыдущих поколений технологий AI, системы Gen AI могут предоставлять действенные идеи и решения, которые повышают эффективность и результативность мероприятий по техническому обслуживанию. В конечном итоге это может помочь компаниям достичь более высокой надежности, сократить время простоя, повысить устойчивость и оптимизировать общие затраты на жизненный цикл своих машин и оборудования.

Инструменты Gen AI также могут помочь функциям обслуживания решать проблемы, связанные с навыками и сохранением знаний в организации. Это включает:

  • Повышение производительности и продуктивности менее опытного персонала за счет автоматизации рутинных задач или использования виртуальных агентов для помощи в планировании технического обслуживания, составлении графиков, устранении неполадок и ремонте.
  • Улучшение доступности документации по техническому обслуживанию с помощью расширенных служб поиска и обобщения, таких как автоматизированная генерация этапов диагностики неисправностей
  • Ускорение интеграции и повышения квалификации новых сотрудников с помощью автоматизированных систем адаптации, обучения и совместной работы

Некоторые ведущие компании уже используют ИИ-технологии для решения давних проблем в процессах обслуживания. Влияние этих инструментов было значительным, и многие из них были развернуты чрезвычайно быстро, со сроками выполнения, измеряемыми неделями.

Хотя некоторые организации по техническому обслуживанию уже получают значительные преимущества от Gen AI, немногие из них внедрили эти технологии во все возможные в настоящее время варианты использования. И многим организациям еще предстоит начать свой путь к техническому обслуживанию с использованием Gen AI.

Реализация полного потенциала Gen AI в обслуживании является сложной задачей по нескольким причинам. Эти технологии являются новыми, требующими от организаций по обслуживанию понимания новых технологий и избегания незнакомых ловушек. И Gen AI развивается чрезвычайно быстро, требуя гибкого подхода к выбору вариантов использования, разработке инструментов и непрерывной эволюции.

Используя опыт предыдущих волн цифровой трансформации и внедрения искусственного интеллекта в других секторах и функциях, организации по техническому обслуживанию могут значительно повысить шансы на успешную трансформацию искусственного интеллекта, внедрив четыре ключевых фактора с самого начала:

  • Глубокое понимание соответствующих вариантов использования Gen AI, а также их технологических и информационных требований, а также распространенных ошибок, которые могут сдерживать развертывание.
  • Четкое представление возможностей и ограничений организации по техническому обслуживанию в масштабах всей организации, включая основные проблемные моменты и количественные возможности улучшения.
  • Специальная команда, обладающая навыками и возможностями для разработки, внедрения и мониторинга влияния вариантов использования искусственного интеллекта.
  • Надежная инфраструктура управления изменениями для поддержки обучения, повышения квалификации и продвижения культуры восприятия цифровых технологий и искусственного интеллекта в функциях обслуживания и связанных с ними операциях.

Трансформация обслуживания на основе искусственного интеллекта должна быть сосредоточена на быстром развертывании перспективных вариантов использования для скорейшего создания ценности, одновременно создавая технические возможности, инфраструктуру и организационную культуру, необходимые для поддержки постоянной разработки, развертывания и постоянного совершенствования инструментов искусственного интеллекта.

Стратегическое видение, наращивание потенциала и управление изменениями — три ключевых элемента для обеспечения успеха трансформации. Долгосрочная устойчивость поддерживается быстрым процессом масштабирования, сосредоточенным на вовлечении людей на местах с первого дня.

Gen AI имеет потенциал для революционных изменений в секторе технического обслуживания, делая операции более надежными, устойчивыми, эффективными и экономичными. Эти технологии могут обеспечить индивидуальную поддержку для операторов, оптимизировать профилактические стратегии, решать проблемы устранения неполадок и предоставлять лучшие практики для переподготовки персонала.

Критический вопрос для сегодняшних организаций по техническому обслуживанию заключается не в том, стоит ли начинать этот путь, а в том, когда. При структурированном подходе и правильных инструментах компании могут начать осознавать ценность поколения ИИ всего за несколько недель.

Источник.

https://www.mckinsey.com/capabilities/operations/our-insights/rewiring-maintenance-with-gen-ai
Rewiring maintenance with gen AI. February 6, 2025. Article. By Sergio Farioli, Daniele Caliste, Marco Federici, Tuur Steffens.

Техническое обслуживание с переподключением с помощью искусственного интеллекта. 6 февраля 2025 г. Статья. Серджио Фариоли, Даниэль Калисте , Марко Федеричи, Туур Стеффенс.

понедельник, 10 марта 2025 г.

Что такое информационный продукт?

Информационный продукт нацелен на предоставление высококачественного, готового к использованию набора данных, который можно анализировать и применять к различным вариантам использования для ответа на критические бизнес-вопросы. 

Информационный продукт устраняет большую часть усилий, которые возникают при разработке индивидуальных решений каждого варианта использования данных. Как и физические продукты, информационные продукты развиваются на основе потребностей клиентов, которые могут включать в себя как внутренних, так и внешних пользователей.

Модульность имеет решающее значение при построении и масштабировании бизнеса данных, чтобы гарантировать, что компания может быстро расширять предложения по мере развития потребностей клиентов. 

Как наилучшая практика информационный продукт должен быть в состоянии поддерживать различные требования к хранению, обработке и управлению данными и соответствовать различным «архетипам потребления», таким как цифровые приложения или системы отчетности. 

Каждый информационный продукт должен принадлежать менеджеру, ответственному за его создание и постоянное улучшение, а также за обеспечение его надлежащего управления для создания качественного продукта, заслуживающего доверие потребителя.

Информационные продукты должны быть легко доступными для того, чтобы любой человек на предприятии мог их использовать.

Три архетипа архитектуры в монетизации данных:
  • Платформа данных. Актив - данные. Сырые данные, поставляеме посредством API или на площадках. Могут использоваться пользователями для анализа и кейсов.
  • Платформы анализа данных. Актив - знания. Разработка моделей на основе сырых даных, аналитическая экспертиза и технологии.
  • Интеллектуальные приложения. Актив - мудрость. Возможность распознавать паттерны, которые помогать принимать решения. Множественные приложения позволяют поддерживать различные требования покупателей.

Стратегия и критические факторы успеха в монетизации информационных продуктов.
  • Создание индустриального стандарта.
    • Стратегия. Построения решения для обработки отраслевых данных на базе большого массива уникальных данных.
    • Критические факторы успеха. 
      • Значительное число уникальных данных.
      • Преимущество первопроходца.
      • Прорывные кросс-индустриальные инновации, которые могут стать де-факто ответом на неудовлетворенные потребности отрасли.
  • Сбор данных из задействованных пользовательских баз данных
    • Стратегия. Разработка продукта, который использует дополнительные пользовательские инсайты и понимание драйверов стоимости как в пределах отрасли так и вне.
    • Критические факторы успеха.
      • Большая клиентская база.
      • Возможность создать "эффект маховика" для основного бизнеса.
  • Преобразование значительных организационных знаний в продукт.
    • Стратегия. Использование внутренних ценных данных и инсайтов для создания продукта, который может быть использован внешними компаниями.
    • Критические факторы успеха.
      • Внутренние данные и аналитические инструменты, которые представляют ценность для внешней аудитории.
      • Уникальные данные, собранные и подготовленные в виде продукта для использования основным бизнесом.
Рисунок из оригинала к тексту.



Источник.

https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/from-raw-data-to-real-profits-a-primer-for-building-a-thriving-data-business

четверг, 6 марта 2025 г.

Ответственный ИИ в телекоммуникационной отрасли

За последнее десятилетие телекоммуникационная отрасль столкнулась с одной сложной проблемой за другой. Телекоммуникационные компании выдержали конкурентное давление со стороны быстро развивающихся технологических компаний, которые вошли в их основные секторы связи, связи и передачи данных. В надежде на стимулирование роста доходов телекоммуникационные компании стремились переосмыслить себя . Они создали новые технологически ориентированные продукты — от Интернета вещей (IoT) и программного обеспечения как услуги (SaaS) до потокового видео OTT (over-the-top). Они также рискнули выйти в смежные отрасли, такие как страхование, финансовые услуги и здравоохранение, чтобы предложить новые услуги B2C и B2B. Некоторые из этих инициатив были умеренно успешными. Но правда в том, что телекоммуникационные компании все еще с трудом конкурируют с более гибкими и более капитализированными технологическими компаниями.

ИИ дает телекоммуникационным компаниям еще один шанс переосмыслить себя. Цель состоит в том, чтобы стать организациями, изначально использующими ИИ, которые внедряют ИИ во все аспекты бизнеса, чтобы способствовать росту и обновлению. Если телекоммуникационные компании будут действовать быстро, они смогут стать лидерами в развертывании как генеративного ИИ (gen AI) для улучшения клиентского опыта и сокращения расходов, так и аналитического ИИ для оптимизации внутренних операций и инфраструктуры. Многие телекоммуникационные компании уже начали внедрять gen AI, получая значительную экономию затрат в таких областях, как маркетинг, продажи и обслуживание клиентов. Исследования McKinsey показывают, что ИИ gen может обеспечить значительный прирост EBITDA для телекоммуникационных компаний, при этом доходность приростной маржи увеличится на три-четыре процентных пункта за два года и на восемь-десять процентных пунктов за пять лет.

Однако телекоммуникационные компании не могут трансформироваться в компании, работающие на основе ИИ, не сосредоточившись при этом на ответственном ИИ (RAI - responsible AI), который представляет собой практику внедрения ИИ этичными, безопасными, прозрачными и соответствующими правилам способами. В жестко регулируемой телекоммуникационной отрасли структуры RAI, регулирующие подотчетность и прозрачность, имеют решающее значение для завоевания доверия потребителей, защиты конфиденциальных данных и защиты от угроз безопасности. Все это делает RAI чем-то большим, чем просто этическая практика для телекоммуникационных компаний. Это также императив бизнеса.

К 2040 году телекоммуникационные компании, использующие передовые методы ответственного использования искусственного интеллекта, могут получить до 250 миллиардов долларов прибыли по всему миру.

Как именно RAI может создавать ценность? Для начала, как и все развертывания ИИ, RAI может значительно улучшить бизнес-процессы и оптимизировать интеграцию технологий для снижения затрат. Эффективный RAI также может укрепить репутацию бренда, при этом более высокие показатели привлечения и удержания клиентов часто способствуют росту доходов. Кроме того, RAI может помочь снизить коммерческие и репутационные риски во всем наборе инструментов и приложений ИИ, гарантируя, что они будут работать на самом высоком уровне точности. Например, методы RAI могут помочь гарантировать, что чат-бот службы поддержки клиентов компании не будет использовать предвзятый, некорректный или неделикатный язык и что он никогда не будет рекомендовать продукт или услугу конкурента.

Сильная структура RAI включает модели зрелости, которые телекоммуникационные компании могут использовать для оценки текущих сильных и слабых сторон, а также передовой опыт для прохождения основных, развивающихся, возникающих и продвинутых стадий внедрения RAI. По мере развертывания такой структуры телекоммуникационные компании будут уточнять свои индивидуальные дорожные карты RAI, включая то, как структурировать и внедрять модели управления, технологии и эксплуатации. Структуры RAI могут гарантировать, что развертывания ИИ телекоммуникационной компании будут соответствовать целям доходов и бизнеса.

Использование стандартных отраслевых фреймворков RAI


Телекоммуникационные компании могут извлечь выгоду из RAI несколькими способами: лучшие бизнес-результаты, конкурентное преимущество, устойчивый рост, возросшее доверие клиентов, повышенная операционная эффективность, более сильное привлечение талантов и, конечно, финансовая выгода. Дальновидные телекоммуникационные компании признают, что надежное управление RAI служит набором «хороших тормозов», которые позволяют им «ехать быстрее», чтобы использовать весь потенциал ИИ, одновременно снижая риски.

Одним из самых больших препятствий для развертывания RAI телекоммуникационными компаниями является отсутствие отраслевых стандартов. Телекоммуникационные компании хотят развертывать RAI, но не существует единой согласованной структуры, которая помогла бы им в этом. Таким образом, вместо того, чтобы активно внедрять RAI, телекоммуникационные компании действуют реакционно, добавляя частичные стандарты управления по мере появления новых нормативных требований. Такой подход помогает телекоммуникационным компаниям избегать юридических и финансовых последствий, но не приводит к сплоченному и стратегическому развертыванию RAI, необходимому для подпитки инноваций.




Многие правительства предложили или приняли законодательство, гарантирующее, что внедрение ИИ будет справедливым, прозрачным, подотчетным и безопасным (таблица 1). Международные организации предложили глобальные политики для RAI, но ни одна из этих политик не была принята в широком масштабе (таблица 2). И ни одно из этих правил или политик не относится конкретно к телекоммуникационной отрасли.

Правительства крупнейших стран мира приняли или предложили законы, способствующие регулированию безопасного и прозрачного использования ИИ по состоянию на сентябрь 2024 г.

  • США. Указ о безопасной, защищенной и заслуживающей доверия разработке и использовании искусственного интеллекта (вступил в силу). Обеспечивает безопасную, надежную и заслуживающую доверия разработку ИИ с помощью руководящих принципов и единого подхода к управлению, уделяя особое внимание защите американских граждан и продвижению американского лидерства за рубежом.
  • Евросоюз. Закон ЕС об искусственном интеллекте. Решает этические вопросы и проблемы внедрения в различных секторах (например, образование, энергетика, финансы и здравоохранение), уделяя особое внимание качеству данных, прозрачности, человеческому контролю и подотчетности.
  • Канада. Закон об искусственном интеллекте и данных. Поможет гарантировать, что системы ИИ, развернутые в Канаде, являются безопасными и недискриминационными, а также будет обеспечивать ответственность предприятий за то, как они разрабатывают и используют эти технологии.
  • Япония. Закон о защите личной информации. Устанавливает правила и положения, касающиеся сбора, использования и обработки личной информации предприятиями и государственными учреждениями.
  • Китай. Меры по управлению услугами генеративного искусственного интеллекта. Компании, предоставляющие услуги генеративного ИИ (gen AI) населению, будут нести ответственность за результаты своей работы и будут требовать, чтобы данные, используемые для обучения их алгоритмов, соответствовали строгим требованиям.
  • Австралия. Австралийская структура генеративного искусственного интеллекта в школах. Руководит ответственным и этичным использованием инструментов искусственного интеллекта таким образом, чтобы это приносило пользу учащимся, школам и обществу.

Международные организации предложили глобальную политику ответственного.

  • ОЭСР. Рекомендация Совета по искусственному интеллекту (ОЭСР, 2019). Первый набор межправительственных политических рекомендаций по ИИ Принят 42 странами, поддержан ЕС. Оказывает влияние на международную политику, хотя и не имеет обязательной юридической силы.
  • GPAI. Глобальное партнерство по искусственному интеллекту (GPAI, 2020). Многосторонняя инициатива, призванная преодолеть разрыв между теорией и практикой в ​​области ИИ. Поддерживает передовые исследования и прикладную деятельность, ориентированную на приоритеты, связанные с ИИ. Публикует различные отчеты и рекомендации по ответственному ИИ.
  • ЮНЕСКО. Рекомендация по этике искусственного интеллекта (ЮНЕСКО, 2021 г.). Проект соглашения, определяющего общие ценности и принципы, которые помогут обеспечить здоровое развитие ИИ Принят всеми 193 государствами-членами ЮНЕСКО
  • ВОЗ. Этика и управление искусственным интеллектом в здравоохранении (ВОЗ, 2021). Выявляет этические проблемы и риски, связанные с использованием ИИ в здравоохранении. Включает шесть принципов консенсуса, которые помогут гарантировать, что ИИ принесет пользу обществу во всех странах. Предоставляет набор рекомендаций по управлению.

Хотя ассоциации телекоммуникационной отрасли добиваются прогресса в определении стандартов RAI, все еще существуют препятствия на пути к достижению успеха в краткосрочной перспективе:

  • Ограниченное руководство со стороны центральных организаций. Ассоциации телекоммуникационной отрасли и органы по установлению стандартов могут продемонстрировать большее лидерство в продвижении практик RAI. Хотя некоторые организации активно продвигают RAI, немногие разработали комплексные структуры или предоставили четкие указания своим членам. Этот пробел мешает телекоммуникационным компаниям внедрять передовой опыт и достигать последовательных стандартов ответственности ИИ.
  • Ограниченная доступность отраслевых бенчмарков RAI. Отсутствие бенчмарков RAI в телекоммуникационной отрасли создает существенную проблему для телекоммуникационных компаний. Бенчмарки служат ориентирами, которые позволяют компаниям оценивать свою производительность относительно отраслевых стандартов и определять области для улучшения. Без этих бенчмарков телекоммуникационные компании не имеют метрик для оценки своего прогресса в реализации RAI. Этот разрыв усложняет усилия по повышению прозрачности, поскольку ключевые заинтересованные стороны, включая регулирующие органы, потребителей и партнеров, не имеют четких стандартов, по которым можно было бы оценивать инициативы телекоммуникационной компании в области ИИ.

Четыре характеристики рамок RAI для телекоммуникационных компаний


Какие конкретные характеристики должна включать структура RAI для телекоммуникационных компаний? Сильная структура RAI для телекоммуникационной отрасли может включать четыре ключевые характеристики:

  • Модели зрелости, специфичные для отрасли. Эти инструменты помогают телекоммуникационным компаниям оценить готовность к RAI и определить конкретные контрольные показатели для каждого уровня. Модели учитывают уникальные цели и проблемы телекоммуникационных компаний с ИИ в свете высококонкурентного рынка, взаимосвязанных сетей и обширного воздействия потребительских данных.
  • Четкие руководящие принципы RAI. Эти структурные элементы предлагают всесторонний обзор различных элементов, составляющих стратегию RAI, включая управление, управление рисками, качество данных и этические принципы.
  • Лучшие практики. Эти практические стратегии показывают телекоммуникационным компаниям, как эффективно внедрять RAI, включая проверенные практики, которые передовые телекоммуникационные компании уже успешно внедрили и измерили.
  • Метрики прогресса. Эти руководящие принципы измерения описывают практические шаги, которые могут предпринять телекоммуникационные компании для улучшения своих возможностей RAI и прохождения каждого этапа зрелости: базового, развивающегося, эффективного и продвинутого.

Отраслевые модели зрелости для оценки и постановки целей


Эффективная структура RAI должна включать простой в использовании инструмент моделирования зрелости, который поможет телекоммуникационным компаниям полностью понять базовую готовность к ИИ и выявить возможности для роста и улучшения. Модели зрелости помогают телекоммуникационным компаниям раскрыть весь потенциал ИИ на каждом этапе развертывания.

Операторы, только начинающие путь RAI, могут использовать модели зрелости для установления и измерения основных базовых требований. К ним относятся принятие основных принципов RAI, определение ключевых ролей и обязанностей и создание начальных структур управления. Базовые требования также включают в себя разработку кодекса этики для ИИ, назначение главного должностного лица по ИИ и создание совета по управлению ИИ. Компании на этой базовой стадии принятия RAI в основном стремятся улучшить определенные аспекты своей деятельности, такие как повышение операционной эффективности или автоматизация рутинных задач, таких как обслуживание клиентов.

На другом конце спектра находятся компании на продвинутой стадии внедрения RAI. Эти телекоммуникационные компании используют ИИ для создания высокоэффективных вариантов использования, ориентированных на клиентов, и глубоко интегрируют ИИ в стратегические процессы принятия решений. Примерами являются использование ИИ для создания персонализированного клиентского опыта, для анализа огромных объемов данных для формирования стратегических идей или для стимулирования инноваций в разработке продуктов. Таким образом, модели зрелости должны интегрировать контрольные показатели и передовой опыт для продвинутых пользователей, включая сложные структуры управления рисками, комплексные модели управления и процессы непрерывного мониторинга и улучшения. Для компаний на продвинутой стадии модели зрелости могут также включать процессы аудита ИИ для обеспечения прозрачности и подотчетности.

Четкие рекомендации RAI для определения общей стратегии


Эффективная структура RAI описывает каждый шаг стратегии ИИ телекоммуникационной компании и долгосрочную дорожную карту. Она включает определения для управления процессами, управления рисками, качества данных и этики, а также стратегические и операционные передовые практики для продвижения этих политик на каждом этапе зрелости RAI. Ниже приведены основные компоненты структуры RAI.

Стратегия. Это определяет видение и принципы управления RAI в соответствии с ценностями и стратегическими целями организации. Вот что должна включать надежная стратегия:

  • Видение. Четкое определение того, что RAI означает для организации и как это согласуется с более широкой миссией компании.
  • Принципы. Основополагающие этические принципы, которые направляют разработку и внедрение ИИ, обеспечивая справедливость, прозрачность, подотчетность и инклюзивность.
  • Согласование. Руководящие принципы, гарантирующие, что стратегия RAI соответствует стратегическим целям организации.
  • Правила. Правила, обеспечивающие соблюдение местных и международных стандартов для снижения рисков несоответствия.

Активаторы. Они активируют четко определенные лучшие практики, которые являются неотъемлемой частью комплексной дорожной карты RAI. Ключевые особенности включают следующее:

  • Инструменты. Перечень ответственных инструментов ИИ, которые организация будет использовать для проверки модели, обнаружения предвзятости и интерпретируемости, чтобы гарантировать этическую разработку ИИ.
  • Обучение. План непрерывного обучения и подготовки, помогающий сотрудникам понять этические аспекты и технические аспекты ИИ.
  • Управление изменениями. Структурированный подход, который организация будет использовать для перехода отдельных лиц, команд и организаций к практикам RAI
  • Коммуникация. Четкие, каскадные каналы коммуникации, гарантирующие, что все в организации соответствуют стратегии и принципам RAI.

Операционная модель. Это помогает обеспечить наличие нужных талантов, структур управления, состава команды и процессов, позволяющих компаниям внедрять RAI во всех видах деятельности. Критические элементы включают следующее:

  • Талант. Набор и развитие профессионалов с необходимыми навыками в области ИИ, этики и управления.
  • Управление. Надежные структуры управления, определяющие роли, обязанности и процессы принятия решений, связанных с RAI.
  • Структура команды. Формирование кросс-функциональных команд, включающих специалистов по данным, специалистов по этике, юристов и руководителей бизнеса.
  • Процессы. Внедрение стандартизированных процедур разработки, развертывания и мониторинга RAI для обеспечения согласованности и подотчетности.
  • Культура. Создание культуры этической осведомленности и ответственности в отношении ИИ, которая побуждает сотрудников высказываться о потенциальных проблемах.

Риск. Это подчеркивает важность проактивного мониторинга и снижения рисков, связанных с ИИ, и включает в себя следующее:

  • Измерение. Разработка метрик и KPI для оценки производительности и рисков систем ИИ.
  • Мониторинг. Постоянное наблюдение за моделями ИИ на предмет наличия признаков предвзятости, ошибок или других проблем с помощью таких методов, как управление рисками и аудит сторонних решений.
  • Обзоры. Внедрение строгих процессов обзора и проверки, таких как «красная команда» (симуляция атак для выявления уязвимостей) и «военные игры» (модели стресс-тестирования в гипотетических сценариях)
  • Отчетность. Регулярное документирование и общение с заинтересованными сторонами для обеспечения прозрачности и содействия принятию обоснованных решений в области ИИ.

Лучшие практики внедрения RAI в телекоммуникационном секторе


Структура RAI для телекоммуникационной отрасли должна предоставлять конкретные передовые практики для каждого из четырех ключевых компонентов, описанных выше. Эти передовые практики могут помочь телекоммуникационным компаниям применять общие принципы RAI таким образом, чтобы признавать уникальные проблемы и возможности отрасли, такие как использование ИИ для оптимизации сети или прогнозирования оттока клиентов. Комплексная структура RAI предоставляет передовые практики для каждого уровня зрелости — базового, развивающегося, эффективного и продвинутого — создавая дорожную карту, которая помогает телекоммуникационным компаниям переходить с одного уровня на другой.

Ниже приведены примеры передовых методов, которые телекоммуникационные компании могут использовать на базовом уровне развертывания RAI, хотя полная структура предоставит большее количество передовых методов и адаптирует их более конкретно к ситуации отдельной телекоммуникационной компании:

  • Стратегия:
    • Видение. Напишите заявление высокого уровня, в котором будет сформулирована приверженность организации RAI, которая будет соответствовать более широкой миссии и послужит путеводной звездой для всех видов деятельности в области ИИ.
    • Принципы. Определите начальные этические принципы, которые обеспечивают четкую структуру для RAI, касающуюся справедливости, прозрачности, подотчетности и инклюзивности.
    • Согласование. Разработайте дорожную карту для включения принципов ИИ в общие бизнес-цели организации.
    • Нормативные акты. Проведите предварительное исследование, чтобы понять нормативные требования как на национальном, так и на международном уровнях.
  • Способствующие факторы:
    • Инструменты. Найдите и внедрите первый набор инструментов RAI, которые помогут с проверкой модели, обнаружением смещений и интерпретируемостью.
    • Обучение. Проведите начальную программу обучения, чтобы информировать сотрудников об этических последствиях использования ИИ, чтобы повысить осведомленность о практиках RAI во всей организации.
    • Управление изменениями. Запустите базовые процессы, чтобы помочь организации адаптироваться к RAI, например, создайте простую дорожную карту для описания процесса перехода.
    • Коммуникация. Выберите каналы — например, информационный бюллетень, блог, веб-сайт или платформу социальных сетей — для распространения информации среди сотрудников и внешних заинтересованных сторон о принципах RAI компании.
  • Операционная модель:
    • Талант. Разработайте план по привлечению необходимых талантов для развертывания RAI, включая требуемых новых сотрудников и планы по повышению квалификации существующих сотрудников.
    • Управление. Создайте первоначальную структуру управления, которая определяет роли и обязанности ключевых заинтересованных сторон и описывает основные процедуры.
    • Структура команды. Проведите высокоуровневую инвентаризацию существующих сотрудников, включая специалистов по обработке данных, разработчиков, ИТ-персонал, юридических экспертов, менеджеров по продуктам и руководителей предприятий, которые потенциально могли бы присоединиться к кросс-функциональной команде для поддержки инициатив RAI.
    • Процессы. Исследуйте стандартизированные процедуры разработки, развертывания и мониторинга ИИ и внедрить первоначальный набор унифицированных процедур.
    • Культура. Создайте начальную внутреннюю коммуникационную кампанию для внедрения концепции RAI.
  • Риск:
    • Измерение. Разработайте базовые метрики и ключевые показатели эффективности для оценки эффективности ранних систем RAI и создать начальные рамки измерения.
    • Мониторинг. Установите базовые процессы для постоянного наблюдения за моделями ИИ с целью обнаружения признаков предвзятости, ошибок или других проблем.
    • Обзор. Разработайте первоначальные процессы обзора и оспаривания, включая планы по созданию «красных команд» и проведению военных игр.
    • Отчетность. Создайте механизмы отчетности для документирования и распространения результатов RAI, включая базовые отчеты для информирования заинтересованных сторон о состоянии инициатив в области ИИ.

Показатели прогресса для перехода от базового к продвинутому уровню зрелости


Эффективная структура RAI должна предлагать структурированный путь для телекоммуникационных компаний по улучшению зрелости RAI с течением времени. На каждом уровне зрелости структура должна включать конкретные показатели прогресса, которые телекоммуникационная компания должна достичь для перехода на следующий уровень.

Например, на базовом уровне одной из метрик прогресса может быть: «Поделиться видением компании RAI со всеми сотрудниками посредством внутренней коммуникационной кампании и проверить их знания программы с помощью механизма обратной связи». На развивающемся уровне метрикой может быть: «Завершить многокомпонентную программу обучения рискам для кросс-функциональной команды RAI». А на уровне выполнения метрикой может быть: «Разработать и запустить инновационную лабораторию RAI для содействия постоянному совершенствованию и экспериментированию».

У каждой телекоммуникационной компании будут свои цели по развертыванию RAI, поэтому показатели их прогресса будут различаться в зависимости от уникальных целей, определенных в их первоначальных дорожных картах.

Телекоммуникационные компании со структурированными практиками RAI являются не только лидерами с этической точки зрения; они также могут генерировать миллиарды долларов дополнительной стоимости.

Источник


https://www.mckinsey.com/industries/technology-media-and-telecommunications/our-insights/responsible-ai-a-business-imperative-for-telcos

Responsible AI: A business imperative for telcos. October 18, 2024
Andrea Travasoni, Benjamim Vieira, Ferry Grijpink, Roger Roberts, Cécile Prinsen and Víctor Trigo.

Ответственный ИИ: бизнес-императив для телекоммуникационных компаний. 18 октября 2024 г.|
Андреа Травасони, Бенджамим Виейра, Виктор Триго, Ферри Грэйпинк, Роджер Робертс, Сесиль Принсен.

воскресенье, 2 марта 2025 г.

Апология математика

Из книги "Апология матетатика" Харди.

Серьезность теоремы

«Серьезность» теоремы определяется не ее практическими последствиями, которых ничтожно мало, а значимостью соединенных в ней математических идей. Говоря обобщенно, математическая идея «значима», если она логично и понятно связывает между собой множество других математических идей. Таким образом, серьезная теорема — та, что связывает значимые идеи, — наверняка повлечет за собой прогресс как в самой математике, так и в других науках.

Серьезность теоремы заключается, конечно, не в ее влиянии — последнее лишь подтверждает ее серьезность. Красота математической теоремы во многом зависит от ее серьезности

Примеры серьезных теорем.
  1. Теорема Евклида о бесконечности множества простых чисел.
  2. Доказательство Пифагора, подтверждающее «иррациональность» квадратного корня из двух.
  3. Очень красивая теорема — теорема Ферма «о двух квадратах».
  4. Теорема Кантора о «несчетности» континуума.

На теореме Евклида держится вся арифметика. Простые числа — как строительный материал, и теорема Евклида гарантирует, что этого ресурса нам хватит для решения всех арифметических задач. А вот область применения теоремы Пифагора гораздо шире, и сформулирована она гораздо лучше.

Теорема Евклида гарантирует, что мы располагаем достаточным количеством строительного материала для создания полноценной арифметики целых чисел. А теорема Пифагора и ее следствия показали, что такой арифметикой нам не обойтись, так как существует множество достойных внимания величин, измерить которые в целых числах нельзя; диагональ квадрата — лишь самый очевидный тому пример.

Значимость идеи  

Значимая математическая идея (и, соответственно, серьезная теорема) должна обладать определенной степенью обобщенности; то есть быть составляющей многих математических конструкций и входить в доказательства различных теорем. Серьезная теорема, как бы узко она ни была сформулирована изначально (как теорема Пифагора), должна позволять достаточно широкие обобщения и представлять целый класс теорем подобного рода.

Концепция «иррациональных чисел» глубже концепции целых, а теорема Пифагора, соответственно, глубже Евклидовой.

Обе теоремы (и под теоремами я, разумеется, имею в виду и их доказательства) отличает высокая степень непредсказуемости в сочетании с непреложностью и экономностью. Доводы поражают своей неожиданностью, применяемые методы кажутся по-детски простыми по сравнению с далекоидущими последствиями; при этом выводы неопровержимы. В рассуждениях нет нагромождения подробностей — каждая строчка бьет в цель.

О реальности, математической и физической

Очень часто, например, астроном или физик спешат объявить, что вывели «математическое доказательство», объясняющее определенное поведение Вселенной. Подобные заявления, если воспринимать их буквально, - полнейший вздор. Невозможно доказать математически, что назавтра наступит затмение, ибо затмения, как и прочие физические явления, не являются частью абстрактного мира математики.

Я убежден, что математическая реальность находится вне нас, что наша задача — открывать или просто наблюдать ее и что теоремы, которые мы доказываем и высокопарно называем собственными «творениями», — всего лишь заметки по ходу наших наблюдений.

Какой бы ни была реальность физика, в ней мало или вообще нет признаков того, что под реальностью подразумевает здравый смысл. Стул может быть как множеством взаимосвязанных электронов, так и божественным замыслом: любое из этих определений имеет свои достоинства, но ни одно не соответствует представлениям здравого смысла.

Ни физикам, ни философам до сих пор не удалось дать убедительное определение «физической реальности» или объяснить, как от запутанного нагромождения фактов или ощущений физик переходит к созданию объектов, которые зовутся «реальными». Поэтому утверждать, будто нам понятна суть физики, мы не можем, зато вполне представляем себе, чем именно занимается физик. Физик пытается свести разрозненную массу не связанных между собой фактов к некой упорядоченной системе абстрактных отношений, позаимствовать которую можно только в математике.

Математик же, напротив, имеет дело с собственной математической реальностью, на которую я смотрю с точки зрения «реалиста», а не «идеалиста» В любом случае (в чем и состоял мой главный тезис) реалистичный взгляд возможен скорее в математической, чем в физической реальности, потому что объекты в математике куда ближе к тому, чем кажутся.

Стул или звезда нисколько не похожи на то, какими нам видятся; и чем больше мы о них думаем, тем размытее их очертания в тумане порождаемых ими ощущений. Тогда как число «2» или «317» никак не зависит от ощущений, а их свойства становятся лишь отчетливее по мере их изучения. Современная физика как раз лучше всего вписывается в идеалистическую философию: я этому не верю, но так говорят признанные физики. Фундаментальная же математика представляется мне камнем, на котором зиждется весь идеализм: 317 — простое число не потому, что мы так думаем или наше мышление имеет ту или иную направленность, а потому, что так оно и есть, так устроена математическая реальность.


---
Однажды я написал: «Наука считается полезной, если ее развитие обостряет существующее неравенство в распределении богатства или еще более явно способствует разрушению человеческой жизни». Эту фразу, написанную в 1915 году, неоднократно цитировали (как за, так и против меня). Разумеется, ее следует рассматривать как чисто риторическое заявление, вполне, впрочем, простительное, учитывая время его появления. — Примеч. авт.
---

Харди Годфри Гарольд. АПОЛОГИЯ МАТЕМАТИКА



среда, 26 февраля 2025 г.

Use case gen AI

Некоторые варианты использования генеративного ИИ

НИОКР
  • Конкурентный анализ интеллектуальной собственности/патентов
  • Быстрая идея для визуализации
  • Быстрое тестирование потребителями и итерации продукта
  • Быстрое проектирование для оптимизации параметров, например, прочности, материалов, технологичности
  • Анализ мнений клиентов

Коммерческое использование
  • Консультант в режиме реального времени для торговых представителей
  • Оптимизация элементов маркетинга посредством автоматизированного A/B-тестирования (сплит-тестирования)
  • Выявление и приоритизация "лидов"
  • Автоматизированное создание многоканальных маркетинговых рабочих процессов
  • Рекомендации по дополнительным и перекрестным продажам

Цепочка поставок
  • Проектирование склада с использованием цифрового моделирования
  • Оптимизация доставки заказов
  • Автоматизация складских операций посредством аналитики в реальном времени
  • Улучшение маршрутов
  • Поддержка управления рисками с агрегацией и синтезом данных

Производство
  • Планирование технического обслуживания и управление заказами на работу
  • Улучшение графика
  • Выявление проблем с использованием обработки изображений/видео
  • Оптимизация производственного плана
  • Достижение идеальных условий

Закупки
  • Отчет о состоянии рынка категории
  • Распознавание схем мошенничества
  • Аналитика контрактов и оптимизация сроков
  • Чат-бот статуса заказа на покупку
  • Анализатор репозитория контрактов ИИ

Корпоративные функции
  • Самообслуживаемые и автоматизированные функции управления персоналом
  • Поддержка встреч с использованием генеративного ИИ
  • Обобщение финансовых объявлений
  • Панель управления финансовым планированием
  • Автоматизация учета с классификацией данных

Совокупный потенциал искусственного интеллекта означает, что компании, которые внедряют эти технологии и делают это раньше конкурентов, могут получить значительную бизнес-ценность и добиться конкурентного преимущества.

Успешные преобразования поколения ИИ требуют создания возможностей в шести областях:
  • разработка стратегии развития искусственного интеллекта в соответствии с общей технологической стратегией для достижения конкурентного преимущества;
  • создание масштабируемого технологического стека и инфраструктуры для поддержки решений ИИ нескольких поколений;
  • создание надежной базы данных для масштабирования искусственного интеллекта в масштабах всей организации;
  • определение операционной модели, объединяющей бизнес, операции и технологии;
  • выявление и удержание нужных талантов и навыков, необходимых для развития поколения ИИ;
  • обеспечение масштабного внедрения, а также управление рисками и ответственное использование.

Источник

Generative AI: The packaging and paper industry’s next frontier. November 1, 2024 

https://www.mckinsey.com/industries/packaging-and-paper/our-insights/generative-ai-the-packaging-and-paper-industrys-next-frontier



пятница, 21 февраля 2025 г.

Одна примечательная и прочие Теории трудовой мотивации

В.Герчиков. "Методика трудовой мотивации". Данная методика выделяет 5 типов трудовой мотивации:
  • "инструментальный" тип - нужны только деньги ("ничего личного, только бизнес"),
  • профессиональная мотивация - ценится содержание работы, работа - способ доказать и показать себе и другим свою способность выполнить работу, которая другим не под силу,
  • хозяйская мотивация - чувство "хозяина", стремление взять на себя полную ответственность, нетерпимость к командам сверху и со стороны,
  • "патриотический" тип -  быть нужным, снискать признание руководства,
  • люмпенизированный тип - нет стремления работать, работа только для того, чтобы избежать наказания.
Данные пять типов с моей точки зрения хорошо описывают 80% ситуаций. Прикладной характер данной типологии ярко проявляется при подборе персонала. В частности, в следующих сложных ситуациях. Допустим, имеются два класса работы, характеризуемые наличие начальства и бюджета.
  1. Есть начальник, нет бюджета. На эту работу идеально подходит "патриотический" тип и категорически противопоказан хозяйственник.
  2. Нет начальника, есть бюджет. Противопоказан патриот. Профессионалы и хозяйственники. 

На должности генерального директора предпочтителена персона с хозяйской мотивацией.

* * *

Источник данной таблицы "Памятка управленцу: все основные теории трудовой мотивации ясно и кратко". Фёдopoва Н.В., кандидат экономических наук

Название теории, авторы
Основная концепция
Классическая теория научного менеджмента (Фредерик Тейлор, Фрэнк Гилбрет, Гарри Грант и др.)
Работники организации в значительной степени заинтересованы в труде, если материальное вознаграждение тесно связано с результатами их труда. Денежное стимулирование — единственная основа высоких производственных показателей
Теории X и Y(Дуглас МакГрегор)
Некоторые не любят работать «от рождения», поэтому они могут хорошо работать только под постоянным наблюдением и принуждением (теория X). Другие сами мотивируют для себя потребность трудиться и находят внутреннее удовлетворение в труде — правда, если для этого созданы необходимые условия (теория Y)
Теория Z (Уильям Оучи)
Забота о каждом работнике организации, качестве трудовой жизни, привлечение работников к групповому принятию решений — вот предпосылки раскрытия их потенциала
Теория человеческих отношений (Фредерик Дж. Ретлисбергер, Элтон Мэйо, Ренсис Лайкерт)
Ключевым фактором мотивации является руководитель. Именно руководитель должен дать почувствовать работнику, что он является членом коллектива и занимает в нем важное место. При этом исповедуется демократический стиль руководства
Теория иерархии потребностей (Абрахам Маслоу)
В иерархии потребностей выделяют пять уровней: 
  1. физиологические потребности; 
  2. потребность в безопасности (как физической, так и экономической);
  3. потребность в любви, принадлежности (социальные потребности);
  4. потребность в уважении, признании; 
  5. потребность в самовыражении.
 Если удовлетворены потребности низших уровней, то для мотивации работника к труду нужно активизировать следующий, более высокий уровень потребностей
Фактор «2» (Фредерик Герцберг)
В двухфакторной модели трудовой мотивации выделяются две большие категории: 
  1. гигиенические факторы;
  2. мотиваторы. 

Гигиенические факторы, факторы поддержки (политика компании и управление, условия труда, заработная плата, межличностные отношения с руководителем, степень непосредственного контроля за работой) носят превентивный характер и могут вызывать у работника чувство неудовлетворенности, но они не являются мотивирующими факторами. К мотиваторам относятся потребности более высокого порядка, такие, как производственные достижения, общественное признание, работа сама по себе, ответственность и возможность карьерного роста. Задача менеджмента — устранение раздражителей (удовлетворение базовых потребностей) и использование мотиваторов (удовлетворение высших потребностей)
Теория заученных потребностей (Дэвид МакЛелланд)
Выделяются три доминирующие потребности:
  1. причастности (аффилиация);
  2. власти;
  3. успеха.
 Путем установления порядка вознаграждения (признание, продвижение по служебной лестнице, достижение определенного общественного положения и т.п.) и усиления ожидания, что вознаграждение будет результатом лучшего поведения или работы, можно усилить мотивацию более производительной и качественной работы
Теория ERG (Клейтон Альдерфер)
Выделяют три группы потребностей: 
  1. потребности существования (выживание, физическое благополучие, оплата труда) — Existence Needs; 
  2. потребности в связях (межличностные связи, установление контактов, уважение, оценка личности) — Relatedness Needs; 
  3. потребности в росте (внутреннее стремление к развитию творческого потенциала, к самореализации) — Growth Needs.

Согласно ERG-теории отвергается жесткая иерархия
Теория установки целей (Эдвин А. Локе)
Сознательные потребности работника определяют его действия. Цель будет воздействовать на прилагаемые усилия и влиять на выбор поведения
Теория изменения поведения, теория подкрепления (Беррес Фредерик Скиннер)
Поведение может быть управляемо, уточнено и изменено благодари определенным изменениям в системе поощрений и наказаний
Теория предпочтений, ожиданий VIE (Виктор Врум)
Мотивация поведения работника определяется тремя факторами:
  1. силой уверенности в том, что конкретные действия приведут к конкретному результату;
  2. силой уверенности в том, что конкретный результат приведет к конкретному вознаграждению;
  3. привлекательностью или приемлемостью вознаграждения.

Сила мотивации есть функция от суммы валентностей результатов (включая инструментальность), умноженных на ожидание, причем
  • валентность (V— Valence) — это устойчивость предпочтений работника относительно конкретного результата (Y=+1, 0, -1); 
  • инструментальность или значимость (I — Instrumentality) — это эталон субъективной оценки работника: ведет или не ведет исходное действие к достижению поставленной цели (-1 < I< +1); 
  • ожидание (Е — Ехреctancy) — это вероятность достижения определенного результата (0 < I < 1)

Теория справедливости, равенства или беспристрастности (Дж. Стейси Адамс)
Основным источником трудовой мотивации является беспристрастность или справедливость, которую работник ожидает встретить в трудовом коллективе. Если отношение «отдача — выход», которое получает работник (вознаграждение), к «вкладу — входу» в выполнение работы оказывается не равным с его точки зрения аналогичным соотношениям у других работников, то это признак несправедливости и соответственно предпосылка возникновения психологического напряжения. В соответствии с данной теорией адекватность вознаграждения оценивается по соотношению «входа» и «выхода»
Комплексная процессуальная теория мотивации (Лайман Портер, Эдвард Лоулер)
Включает в себя элементы теории ожиданий и теории справедливости. Базируется на пяти переменных величинах: 
  1. затраченные усилия; 
  2. восприятие, ожидание; 
  3. полученные результаты; 
  4. вознаграждение; 
  5. степень удовлетворения. 

Основной вывод: результативный труд ведет к удовлетворению
Теория «математического» ожидания (Джон Аткинсон, Н. Физер)
Мотивация работника к реализации определенной задачи есть функция, составляющими которой являются сила мотива производительного труда, субъективная вероятность (ожидание) успеха и привлекательность задачи (валентность)
Теория атрибуции (Фриц Хайдер)
Внутренние силы (личные качества, такие, как способности, усилия, утомляемость) и внешние силы (свойства окружающей среды), дополняя друг друга, определяют поведение работника. Теория атрибуции — это теория о том, как люди объясняют поведение других: приписывают ли они причину действий внутренним диспозициям человека (чертам характера, мотивам и установкам) или внешним ситуациям
Теория контроля (Уильям Глассер)
Связана с ощущениями работника, а именно с тем, насколько он контролирует свою производственную деятельность. Считается, что от осознанного контроля зависит удовлетворенность трудом
Теория представительства (Мишель Дженсен, Уильям Мексинг)
Ключевым моментом теории является то, что интересы собственников организации и ее работников могут различаться, причем это расхождение можно уменьшить посредством установления соответствующих вознаграждений
Теория Джона П. Кэмпбелла, Марвина Д. Даннетта, Эдварда Е. Лоулера и Карла Е. Уэйка мл.
Мотивирующее воздействие на людей оказывает определение того, насколько настоятельны их потребности и ожидания, насколько их действия побуждают к достижению поставленной цели и каких результатов достигли другие люди при подобных обстоятельствах
Теория Герберта Кауфмана
Организационная и профессиональная специализация могут развивать желание и возможность работников соответствовать целям организации
Теория Роберта Престаса
Предложена тройная классификация моделей организационного приспособления: 
  1. «продвигающиеся вверх» — те, кто понимает и принимает все ценности организации; 
  2. «индифферентные» — те, кто отвергает такие ценности и находит личное удовлетворение вне работы; 
  3. «амбивалентные» — те, кто хочет пользоваться благами, которые дает организация, но не отвечает ее требованиям

Теория Вернера Зигерта и Лючии Ланга
Критерий оптимальности мотивации и поощрений — обеспечение взаимной удовлетворенности организации (руководства) и индивида. Внимание акцентируется на эмоциональной стороне производственных проблем
Теория В. Арнольда
Результативность мотивации определяется направлением и качеством усилий, а не их суммированием. Продуктивность мотивации усиливается энергией целенаправленности поведения, продвижением личности к эффективным для организации поступкам
Концепция редизайна труда (Дж. Хакман и Грег Олдхэм)
Мотивированность работой следует измерять с помощью следующих пяти характеристик: 
  • разнообразие работы; 
  • законченность работы; 
  • значимость работы; 
  • автономность в работе; 
  • обратная связь (возможность оценки результатов собственных усилий)

Теория Томаса Стюарта
Работа с персоналом требует создания комплексных мотивационных программ. При этом работники организации получают в свои руки четыре символа освобождения: информацию, знания, власть и вознаграждение