среда, 8 апреля 2026 г.

Нагрузки, связанные с искусственным интеллектом

Нагрузки, связанные с искусственным интеллектом, меняют экономику центров обработки данных, планирование энергопотребления и решения по аренде. Их влияние уже очевидно в большинстве новых объектов и будет только усиливаться в ближайшие годы.

Искусственный интеллект в настоящее время является основным двигателем роста центров обработки данных в Соединенных Штатах и, по прогнозам, станет одним из нескольких факторов, которые приведут к увеличению предложения и мощности электросетей с примерно 30 или более гигаватт (ГВт) в 2025 году до 90 или более ГВт к 2030 году, что составит примерно 22% в год. Эта мощность превышает общую потребность в электроэнергии Калифорнии на сегодняшний день. И это полностью меняет инфраструктуру центров обработки данных в стране.

Ожидается, что крупные провайдеры облачных услуг займут около 70% прогнозируемой мощности на рынке США за счет собственных или арендованных мощностей. Их решения в области инфраструктуры определят, как будет развиваться вся экосистема центров обработки данных. Сегодня вычисления для ИИ в основном делятся на два типа рабочих нагрузок: обучение и вывод результатов. Обе рабочие нагрузки быстро формируют стратегии гипермасштабируемых компаний и приводят к сдвигу парадигмы в выборе площадок, стратегии энергоснабжения и архитектурном проектировании в портфелях гипермасштабируемых компаний.

Обучающие нагрузки стимулируют потребность в крупномасштабных, высокоплотных кампусах с передовыми инженерными системами (механическими, электрическими и сантехническими) и специализированными схемами интеграции оборудования. В то же время, нагрузки, связанные с данными в рамках искусственного интеллекта, ускоряют строительство площадок в крупных городах и прилегающих районах, оптимизированных для сокращения времени передачи данных, высокой сетевой взаимосвязи и энергоэффективности. Исследование показывает, что к 2030 году на нагрузки, связанные с данными, будет приходиться чуть более половины всех нагрузок ИИ, что заставляет крупных операторов пересматривать подход к проектированию и местоположению центров обработки данных. А ограничения в области энергосбережения меняют взгляд крупных операторов на рынок и способы ускорения строительства.

Вычислительные системы для ИИ всё больше ориентируются на будущее с высокой доступностью и интенсивным использованием алгоритмов вывода. В задачах обучения моделей ИИ основное внимание уделяется разработке и совершенствованию больших языковых моделей и других систем искусственного интеллекта. Для таких задач требуется высокая удельная мощность — от 100 до 200 и более киловатт (кВт) на стойку, специализированные межсоединения с низкими потерями и передовые системы жидкостного охлаждения для поддержания ресурсоемких вычислительных задач. Тренировочные нагрузки нечувствительны к задержкам и могут допускать задержки до 100 миллисекунд между соседними областями. Это позволяет крупным компаниям размещать их в отдаленных, богатых энергоресурсами районах, где имеется больше электроэнергии, земельных участков и водных ресурсов.

Рабочие нагрузки для вывода информации развертывают и запускают обученные модели. Они обеспечивают работу приложений реального времени, таких как поиск, чат-боты и рекомендательные системы, и требуют от 30 до 150 кВт на стойку. Старое оборудование можно перепрофилировать для обработки одновременных атомизированных рабочих нагрузок. В то время как затраты на обучение являются капиталоемкими и часто трудно напрямую связать с коммерческим эффектом, затраты на вывод результатов обычно являются периодическими и напрямую связаны с получением дохода.

По мере расширения как обучающих, так и вычислительных ресурсов, крупные облачные компании требуют более высокого уровня отказоустойчивости инфраструктуры для обеспечения бесперебойной работы и непрерывности предоставления услуг. Многие новые центры обработки данных, готовые к внедрению ИИ, проектируются в соответствии со стандартами полного резервирования, чтобы свести к минимуму риск простоев из-за отказов компонентов или вспомогательных систем. Этот переход к отказоустойчивому проектированию отражает как критическую важность непрерывных операций ИИ, так и растущие экономические риски, связанные с приложениями, основанными на выводе информации.

К 2030 году вывод данных превзойдет обучение и станет доминирующей нагрузкой в ​​центрах обработки данных для ИИ, составляя более половины всех вычислительных мощностей ИИ и примерно 30%-40% от общего спроса на центры обработки данных. Этот переход от однократного обучения модели к постоянной деятельности по выводу данных будет все больше влиять на стратегию размещения, проектирование сетей и распределение электроэнергии у крупных облачных провайдеров.

Тем не менее, точная траектория роста объемов вычислительных нагрузок остается неопределенной. Хотя объемы запросов и ресурсоемкие задачи продолжают расти, несколько показателей эффективности улучшаются с той же скоростью. Достижения в области аппаратного обеспечения снижают потребление энергии на одно вычислительное устройство (токены на ватт). Оптимизация программного обеспечения, включая переход к более мелким и точно настроенным моделям, еще больше снижает требования к времени выполнения. Улучшения в форматах точности и специализации моделей также развиваются с той же скоростью. Эти тенденции могут замедлить рост до среднегодового темпа роста в 4%–7%, особенно с учетом того, что сроки получения разрешений, нормативные ограничения и региональные ограничения энергосистемы ограничивают скорость ввода в эксплуатацию новых мощностей.

Потребности в инфраструктуре ИИ распределены между двумя рабочими нагрузками. В некоторых передовых системах для обучения потребуется до одного мегаватта (МВт) на стойку. Это требует использования сверхплотных стеков для графических процессоров (GPU) и тензорных процессоров, а также жидкостного охлаждения. В отличие от этого, задачи вывода, хотя и значительно превосходят традиционные вычисления по потреблению кВт, потребляют от 30 до 150 кВт на стойку. Это больше соответствует усовершенствованной инфраструктуре облачных вычислений, чем полноценной высокопроизводительной вычислительной инфраструктуре. Отчасти это связано с тем, что рабочие нагрузки для вывода результатов обладают высокой степенью атомизации — другими словами, отдельные задачи могут обрабатываться независимо — в отличие от обучения, которое опирается на крупномасштабные, тесно синхронизированные кластеры графических процессоров. В результате получаются два радикально разных архетипа построения, каждый из которых определяет, где и как гипермасштабные компании строят решения для ИИ.

Для минимизации задержек рабочие нагрузки, связанные с выводом результатов, часто размещаются совместно с приложениями и хранилищем данных. С точки зрения требований к энергопотреблению и оборудованию, рабочие нагрузки, связанные с обучением, требуют использования современных коммутационных устройств и отказоустойчивых систем бесперебойного питания с резервным питанием от батарей, способных поглощать резкие скачки нагрузки, вызванные быстрыми колебаниями мощности графических процессоров. Эти колебания обусловлены высокой изменчивостью вычислительной интенсивности во время циклов обучения ИИ. По мере перехода графических процессоров между фазами обучающих событий, такими как умножение матриц, передача данных в память и синхронизация, мгновенное потребление энергии может резко возрастать или снижаться на 30–60 процентов в течение миллисекунд. Для управления этими скачками напряжения требуются сети электроснабжения увеличенной мощности, фильтрация гармоник и быстродействующие системы бесперебойного питания, чтобы предотвратить падение напряжения и защитить компоненты, расположенные ниже по цепи.

Центры обработки данных для обучения ИИ требуют гораздо большей плотности энергопотребления, чем стандартные центры обработки данных, из-за высоких вычислительных затрат на обучение больших моделей ИИ. Ожидается, что спрос на центры обработки данных для обучения ИИ будет расти со среднегодовым темпом роста в 22% в течение следующих пяти лет, достигнув более 60 ГВт к 2030 году. Но по мере того, как рабочие нагрузки, связанные с выводом данных, будут становиться все более доминирующими — ожидается, что они будут расти со среднегодовым темпом роста в 35% в течение следующих пяти лет и достигнут более 90 ГВт к 2030 году — центры обработки данных будут адаптироваться для поддержки вывода данных в масштабе, сосредоточившись на обработке в реальном времени с низкой задержкой. Таким образом, для удовлетворения потребностей центров обработки данных в масштабе ГВт потребуется переход от крупных, энергоемких объектов к более мелким, модульным и распределенным центрам обработки данных.

Облачные кампусы трансформируются в многофункциональные платформы для выполнения инференции и общих вычислительных задач.

Уже сейчас около 70% новых базовых кампусов объединяют общие вычислительные мощности и средства обработки данных, часто разделенные зданиями или дата-залами. Для обеспечения мгновенного отклика в проектах центров обработки данных следующего поколения кластеры обработки данных размещаются в существующих облачных кампусах, а не изолированы в отдельных учебных площадках. Стойки для обработки данных размещаются ближе к точкам доступа, хранилищам и сетевым зонам, что меняет структуру традиционных базовых облачных кампусов.

Меньшие по размеру центры обработки данных будут соединены высокоскоростными сетями, оптимизированными для выполнения вычислений в реальном времени и крупномасштабного обучения. Значительная часть вычислений будет по-прежнему перемещаться на периферию сети, что позволит снизить задержку и требования к пропускной способности. Кроме того, в новых центрах обработки данных будет расширено использование энергоэффективного оборудования, такого как специализированные микросхемы (например, интегральные схемы специального назначения и нейронные процессоры) и процессоры на базе архитектуры ARM.

Крупные центры обработки данных первого уровня, такие как северная Вирджиния и Санта-Клара, вместе составляют примерно 30 процентов мощности центров обработки данных в США. В настоящее время эти регионы ограничены перегрузкой электросетей, многолетними сроками получения разрешений и ценами на землю, превышающими 2 миллиона долларов за акр. В результате крупные компании переориентируются на рынки второго уровня, включая Де-Мойн, штат Айова; Сан-Антонио, штат Техас; и Колумбус, штат Огайо, где электроэнергия может поставляться на 12–24 месяца быстрее, а стоимость земли до 70% ниже. Эта перебалансировка подталкивает крупные компании к внедрению моделей выбора площадок, ориентированных на приоритет электроэнергии и энергоснабжения, например, путем прямого партнерства с поставщиками коммунальных услуг штатов для строительства новых центров обработки данных.

Хотя центры обработки данных мощностью менее 500 МВт по-прежнему часто финансируются за счет собственных средств, более крупные, многогигаваттные кампусы все чаще полагаются на совместные предприятия (СП) с инфраструктурными фондами, коммунальными предприятиями или частными кредитными партнерами. Капиталоемкость (до 25 миллионов долларов за МВт) и давление, связанное со скоростью выхода на рынок, вынуждают крупные компании использовать различные стратегии распределения капитала, включая использование балансов, поддерживаемых застройщиками или фондами, вместо ожидания внутренних циклов привлечения капитала. Хотя эти структуры расширяют доступ к капиталу, они часто вносят сложности по мере вовлечения большего числа сторон. Например, согласование интересов, ведение переговоров по контрактам, распределение рисков и структурирование стратегий выхода могут стать более сложными, что может замедлить этапы подготовки к строительству, комплексную проверку и юридические переговоры. Кроме того, партнеры-коммунальные предприятия могут потребовать дополнительных переговоров по модернизации сети, резервированию мощностей и координации разрешений для обслуживания новых нагрузок, что может увеличить сроки.

Некоторые разработчики экспериментируют с системами, расположенными за счетчиком (такими как топливные элементы, микросети и малые модульные реакторы), и соглашениями о прямой покупке электроэнергии, чтобы снизить свою зависимость от сети и ускорить ввод в эксплуатацию центра обработки данных. Например, компания New APR Energy развертывает мобильные газовые турбины, поставляющие более 100 МВт электроэнергии за счетчик американскому гипермасштабному оператору. Кроме того, компания Active Infrastructure планирует построить на севере Вирджинии кампус площадью 362 акра, который будет включать в себя водородные топливные элементы, микросеть и аккумуляторные батареи для основного производства электроэнергии на месте. Доступ к земельным участкам, имеющим соответствующие права, и надежным источникам энергии стал стратегическим конкурентным преимуществом, определяющим масштабы присутствия крупных технологических компаний и их привлекательность в качестве долгосрочных инвестиций.

Крупные облачные компании адаптируются по пяти основным направлениям.

В настоящее время стратегии крупных облачных компаний определяют темпы финансирования, владения и эксплуатации цифровой инфраструктуры, а также реакцию всей экосистемы в целом. Их приоритеты формируют потоки капитала, выявляя возможности в энергоэффективных системах, модульных конструкциях и передовых технологиях жидкостного охлаждения. По мере изменения и масштабирования рабочих нагрузок ИИ стратегии крупных облачных компаний меняются по пяти основным направлениям.

1. Крупные облачные компании продолжают инвестировать в электроэнергию для дальнейшего масштабирования ИИ.

Поскольку энергия становится конкурентным и ограниченным ресурсом для центров обработки данных, крупные компании переходят от пассивных потребителей к активным участникам энергетической экосистемы. Задача теперь заключается не только в снижении затрат; речь идет об обеспечении надежного, масштабируемого и, в идеале, экологически чистого энергоснабжения для поддержки экспоненциального роста спроса на ИИ. Например, крупные компании инвестируют в источники энергии следующего поколения, включая малые модульные реакторы и партнерства в области термоядерного синтеза, чтобы обеспечить экологически чистое и масштабируемое электроснабжение.

В настоящее время заинтересованные стороны обсуждают, следует ли вкладывать капитал в строительство или софинансирование новой инфраструктуры (например, возобновляемых источников энергии, систем хранения энергии или атомных электростанций следующего поколения) или же инвестировать в разработчиков и поставщиков, которые могут гарантировать долгосрочный доступ к чистой энергии. Эта дискуссия отражает более широкий стратегический сдвиг: энергетика стала ключевым фактором роста мощностей, а доступ к ней может обеспечить компаниям конкурентное преимущество. Регуляторное давление, обязательства в области устойчивого развития и региональные проблемы с энергосетями — все это влияет на инвестиционные решения в этом направлении.

Всё чаще крупные операторы центров обработки данных создают специализированные компании и совместные предприятия для финансирования строительства крупных центров обработки данных, чтобы снизить кредитную нагрузку и уменьшить риски, связанные с владением крупными долгосрочными инфраструктурными активами, включая такие виды деятельности, как прямой выпуск облигаций для финансирования крупных проектов.

2. Крупные облачные компании обменивают право собственности на скорость передачи данных и доступ к рынку.

В регионах с ограниченными энергетическими ресурсами время выхода на рынок в среднем составляет от 24 до 36 месяцев, поэтому лизинг остается критически важным для обеспечения вычислительных и энергетических мощностей в краткосрочной перспективе и удовлетворения потребностей клиентов. Однако крупные облачные компании по-прежнему стремятся к долгосрочному контролю над основными площадками. Исследование McKinsey показало, что в результате модели лизинга с правом выкупа теперь составляют от 25% до 30% новых сделок с крупными облачными платформами, особенно на рынках с ограниченными ресурсами, таких как Северная Вирджиния и Санта-Клара, где дефицит земли и электроэнергии делает гибкость крайне важной.

Показатели продления договоров аренды остаются высокими, составляя около 90%-95%, и, вероятно, будут продолжать расти, особенно на рынках первого уровня. В то время как крупные операторы стремятся к внедрению ИИ-технологий, они также осознают стратегическую важность сохранения площадок, критически важных для конечного потребителя. Чтобы сохранить свою инфраструктуру и одновременно удовлетворить меняющийся спрос, операторы все чаще готовы продавать небольшие или не подлежащие модернизации площадки и переориентировать свой портфель на мегакампусы и зоны доступности (АЗ), оптимизированные для ИИ.

3. Модульные и сборные конструкции служат катализатором развития крупных инвестиционных компаний.

Быстрорастущий спрос на ИИ стимулирует внедрение сборных и стандартизированных конструкций, которые могут сократить сроки поставки до 50% по сравнению со сборными зданиями. Предварительно одобренные корпуса с питанием от сети сокращают время выхода на рынок на 50%–70%. Важно отметить, что модульные конструкции теперь готовы к использованию жидкостного охлаждения, что позволяет крупным компаниям масштабно обрабатывать стойки следующего поколения с высокой плотностью размещения.

Более модульное строительство будет ориентировано на предпочтения крупных компаний, что приведет к увеличению доли сборных решений в центрах обработки данных. Строительные и производственные компании, работающие с различными типами решений, могут помочь крупным компаниям быстрее вводить свои объекты в эксплуатацию.

4. Крупные облачные компании переходят от разрозненных площадок к объединенным многофункциональным комплексам.

Крупные облачные компании объединяют рабочие нагрузки в больших, готовых к использованию ИИ кампусах и модернизируют часть своего существующего парка оборудования для поддержки жидкостного охлаждения и более высокой плотности размещения стоек, где можно эффективно масштабировать энергопотребление, охлаждение и структурные улучшения.

Крупные облачные компании развивают свои модели зон доступности (ЗД), переходя от автономных объектов к кластерам из нескольких объектов. Прогнозируется, что к 2030 году на такие кампусы будет приходиться около 70% развертываний. Эта тенденция подчеркивает заинтересованность компаний в кластеризации своих центров обработки данных для обеспечения оперативной и внутризональной отказоустойчивости, в отличие от использования автономных центров обработки данных, разбросанных по разным частям страны, в качестве собственных ЗД. Например, в случае отказа источника энергии или программного обеспечения, кластеры из нескольких объектов могут проще реплицировать и переключать данные и процессы, чем если бы центры располагались в нескольких местах.

С операционной точки зрения такой подход выгоден. Размещение кампусов ближе друг к другу и объединение этих центров позволяет операторам сохранять контроль над значительной территорией без необходимости укомплектовывать персоналом и контролировать несколько объектов, расположенных на значительном расстоянии друг от друга.

Там, где модернизация невозможна, операторы отдают приоритет задачам, не связанным с ИИ, на устаревших площадках и переносят задачи, связанные с ИИ, на новые, специально построенные кампусы.

5. Крупные облачные компании инвестируют в модернизацию существующих площадок, чтобы подготовить их к работе с искусственным интеллектом.

Поскольку искусственный интеллект меняет потребности инфраструктуры, крупные облачные компании вкладывают значительные средства в модернизацию устаревших центров обработки данных, а не в их замену. Традиционные объекты, предназначенные для облачных нагрузок с низкой плотностью, теперь требуют существенной модернизации для поддержки ресурсоемких систем ИИ с использованием графических процессоров, потребляющих до десяти раз больше энергии на стойку. Усилия по модернизации сосредоточены на интеграции технологий жидкостного и иммерсионного охлаждения, усилении конструкций для более тяжелых стоек ИИ, а также расширении мощностей электроснабжения и подстанций для обеспечения более высоких нагрузок.

Эти проекты могут быть сопряжены со своими трудностями. Во-первых, они капиталоемки, обычно стоят от 4 до 7 миллионов долларов за МВт для компаний, размещающих свои мощности в одном месте, и от 20 до 30 миллионов долларов за МВт для крупных операторов. Во-вторых, проект модернизации может нарушить работу существующего объекта. И в-третьих, эти проекты возможны только в местах с достаточным запасом электроэнергии. Тем не менее, проекты модернизации быстрее и менее рискованны, чем строительство новых кампусов. Модернизируя, а не переезжая, крупные операторы сохраняют доступ к сетевым узлам первого уровня, таким как северная Вирджиния и Санта-Клара.

Операторы выделяют объекты, где модернизация технически нецелесообразна для задач, не связанных с ИИ, и концентрируют высокопроизводительные вычисления в новых, оптимизированных для ИИ кампусах. Таким образом, модернизация стала катализатором дальнейшего масштабирования ИИ, позволяя крупным компаниям продлевать срок службы активов, быстро наращивать мощности ИИ и повышать отказоустойчивость своих наиболее ценных центров обработки данных.

Искусственный интеллект стал центром притяжения цифровой инфраструктуры. Нынешний сдвиг в стратегиях крупных компаний является редким и важным событием — он знаменует начало фундаментальных изменений на рынке, и заинтересованные стороны в цепочке создания стоимости центров обработки данных должны осознать этот сдвиг и понять, как адаптировать свою позицию, чтобы воспользоваться новыми возможностями, которые эти изменения создают. Следующий этап этой эволюции размоет грань между центром обработки данных и электростанцией, поскольку крупные компании превратятся в поставщиков коммунальных услуг, соразработчиков и финансистов, переопределяя темпы и географию роста ИИ. Эти изменения будут способствовать дальнейшему развитию рынка, поскольку крупные компании и экосистема центров обработки данных адаптируются к растущему спросу на вычислительные ресурсы.

Источник

Следующие крупные изменения в рабочих нагрузках ИИ и стратегиях гипермасштабируемых компаний. 17 декабря 2025 г. Статья. Чхави Арора, Марк Сорель, Панкадж Сачдева, Рия Гарг, Шрия Равишанкар.

The next big shifts in AI workloads and hyperscaler strategies. December 17, 2025 Article.

https://www.mckinsey.com/industries/technology-media-and-telecommunications/our-insights/the-next-big-shifts-in-ai-workloads-and-hyperscaler-strategies

Комментариев нет:

Отправить комментарий