Microsoft (MSFT) Wtyczka została włączona Centrum danych planowania Ohio W zeszłym miesiącu i Wells Fargo (WFC) Raport sugerował Amazon (Amzn) Usługi internetowe były takie Przemyślając niektóre umowy najmuObserwatorzy rynku szybko zdiagnozowali objawy: obawy dotyczące bąbelków AI, niepewność popytu i Nieuniknione odnośnie Po latach gwałtownej ekspansji.

Był jeden problem z tą analizą. Firmy budujące te centra danych twierdzą, że to źle.

Zamiast wykazywać wątpliwości co do przyszłości sztucznej inteligencji, ostatnich dostosowań centrum danych autorstwa Amazon i Microsoft odzwierciedlają branżę w obliczu surowej rzeczywistości. Rozszerzenie zajęło lata i ułożono sześć razy więcej niż cena i był przytłoczony wymaganiami większej władzy niż faktycznie istniały. Pytanie nie brzmi, czy zapotrzebowanie na infrastrukturę AI jest autentyczne, ale czy rynek nieruchomości i sieć energii elektrycznej poradzą sobie z tym, co przychodzi.

Według Andy’ego Cvengros, 20-letniego weterana branży danych w JLL, nacisk na każdą aktualizację najmu od gigantów technologicznych odzwierciedla podstawowe nieporozumienie na temat działania rynku centrum danych.Jll) Przedstawiciele głównych firm zaawansowanych technologii w zakresie transakcji nieruchomości. W przeciwieństwie do typowych transakcji nieruchomości, Hyperschool współpracuje z tym samym partnerem na wielu rynkach w celu obsługi portfela. Innymi słowy, anulowanie jednego miejsca często pokrywają się z rozszerzeniami innego miejsca. Ponadto, ze względu na zaangażowaną na dużą i długą osi czasu, korekty te sprawiają, że biznes jest rutyną, a nie strategicznym odosobnieniem.

„Dzieje się tak przez cały czas” – powiedział Cvengros. „Dwa lata temu nikt nie podążył za tym”.

Cvengros powiedział, że 75% do 85% pojemności nowego centrum danych do 2029 r. Zostało już wcześniejsze. Nie są to niepewne zobowiązania z trudnych startupów, ale mamy umowy z hiperskarzy informacyjnymi, takimi jak Microsoft, Google (Google (Googl), meta (Meta), a Amazon planuje wydać w tym roku ponad 300 miliardów dolarów.

Dyrektor generalny Tech odrzuca także historię rekolekcji. Andy Jassy z Amazon Niedawno rozmawiał z akcjonariuszami Będą „bardzo szczęśliwi” z wydatkami na rzecz infrastruktury AI w wysokości 100 miliardów dolarów. Satyana Dela Microsoft Uzgodnienie odrzuconych centrów danych Jako codzienny biznes, który przyciąga teraz większą uwagę. „Zawsze dostosowaliśmy się, wynajęliśmy i jakie tempo budujemy w ciągu ostatnich 10 lub 15 lat” – powiedziała Nadella w swoim telefonie. „Po prostu zwracam więcej uwagi na to, co robimy w dzisiejszych czasach kwartalnie”.

Pasuje do tego, jak wygląda Cvengros na ziemi. Zamiast cofać się, Hyperschool powiedział: „Zatrzymać się, aby powtórzyć strategię ponownie i ostatecznie wrócić i kontynuować świetną robotę, co robią”. „Nigdy nie widzieliśmy, jak się spóźniają”.

Siatka nie może nadążyć

Prawdziwym ograniczeniem jest raczej podstawowa infrastruktura niż wstrząsanie popytem. Siły mocy w całym kraju walczą (Lub zawodzi) Nadążaj za wybuchowymi wymaganiami energetycznymi AI.

Skala wyzwania jest bezprecedensowa. W 2023 r. Centra danych zużyją ponad 4% energii elektrycznej w USA, potencjalnie wzrastając do 12% do 2028 r. Według Ministerstwa Energii. Nowy obiekt regularnie wymaga ponad 500 megawatów. Wystarczy poprowadzić setki tysięcy domów. Już sama Virginia ma największą narzędzie państwa 75 Nowe połączone centra danych Od 2019 r. Zwiększył ogólnokrajową sprzedaż energii elektrycznej o 7%, co wywołało prognozy wzrostu popytu o 85% w ciągu najbliższych 15 lat.

Przemysł technologiczny odpowiednio dostosowuje swoje plany budowy. „Odnajdujemy najlepszy odpowiedni rozmiar” – powiedział Henrike Setsch z Gartnera.To) Analitycy śledzący rynek centrum danych. Oprócz ograniczeń infrastruktury sektor centrum danych łagodzi prognozy zapotrzebowania na energię, co prowadzi do oczekiwań wzrostu o 5-6-krotności, aby osiągnąć bardziej realistyczny wzrost o 3-4. „Nikt nie wie dokładnie, jak duża jest sztuczna inteligencja, ale wszyscy zgadzają się, że to wielka rzecz” – powiedział Cecci.

Drużyna zaopatrzenia będzie ciężko. Według Electric Power Research Institute (EPRI), niezależnego laboratorium badań energetycznych, potrzeba zamówienia niezbędnej technologii sieci, takiej jak obecne turbiny spalania, zostanie otrzymane dopiero w 2029 r.. Tradycyjne budynki sieciowe trwają 4-7 lat w normalnych okolicznościach, ale wąskie gardła łańcucha dostaw pogarszają sytuację.

Pojawiają się potencjalne rozwiązania. Projekt DCFlex EPRIktóry został uruchomiony zeszłej jesieni, bada, w jaki sposób centra danych, a nie tylko konsumenci, stają się zasobami sieciowymi. „Z przyjemnością ogłaszamy, że Anuja Ratnayake, Emerging Technology Executive w EPRI, powiedział: Podejście to łączy trzy czynniki elastyczności: obciążenie, które może przesuwać czas, system chłodzenia, który może modulować zużycie mocy, oraz generator kopii zapasowych, który może wysłać moc z powrotem do sieci.

Europa oferuje zupełnie inny model. Vincent Weynandt z Luxconnect, rządowy operator centrum danych w Luksemburgu, wskazuje na bardziej holistyczne podejście, które od samego początku podkreśla zrównoważony rozwój.

„Staramy się być tak zrównoważone, jak to możliwe, ale musimy być gotowi inwestować w tego rodzaju myślenie” – powiedział.

To podejście do planowania kontrastuje z miernikami reaktywnymi, które obecnie pojawiają się w Stanach Zjednoczonych. Niektóre miasta nakładają moratorium energetyczne I inni mają Wdrożono nowe wymagania dotyczące zrównoważonego rozwoju Od organów regulacyjnych. Limity odzwierciedlają rosnące obawy, że wzrost centrów danych przewyższa pojemność sieci i obciąża lokalne źródła energii.

Winanth powiedział, że różnice w podejściu odzwierciedlają głębszy podział filozoficzny. „USA zawsze były pierwszym podejściem biznesowym” – powiedział. „Jeśli możesz go zawęzić jak kolejny dolar, weź tego dolara”.

Prawdziwa bańka

Te dodatkowe zajęcia dolara napędzają to, co Cvengros JLL nazywa prawdziwą bańką w centrach danych i nie mają nic wspólnego z popytem AI.

„Masz wszystkich i matki, które próbują zaangażować się w tę grę w centrum danych” – powiedział. „Niezależnie od tego, czy jest to rolnik, ktoś, kto jest właścicielem ziemi, private equity, czy grupy, która składa ziemię na podstawie umowy, uderzy o to badanie mocy i spróbują sprzedać sześć razy, ile jest warte”.

To szaleństwo stworzyło rynek wtórny, na którym programiści nabywają witryny, dodają podstawowe badania mocy i przewracają je dużymi znacznikami. Każde badanie mocy generuje formalne wnioski o użyteczność pojemności sieciowej i tworzy lawinę aplikacji. Sytuacja jest tak zniekształcona, że ​​na użyteczność zobaczy wymagania władzy 30-100 gigawatów na poszczególnych rynkach. To daleko poza tym, co jest naprawdę dostępne.

Power Crunch zmusza narzędzia do wymagania dużych zobowiązań z góry. Cvengros powiedział, że na rynku, który patrzy na zapotrzebowanie na energię w wysokości 30-100 gigawatów, firmy muszą zdeponować od 10 do 30 milionów dolarów w składkach na połączenia z sieciami. Te duże depozyty użyteczności są zaprojektowane w celu zmniejszenia spekulacji, a nie tylko planowania energii elektrycznej.

„To bańka, która załamie się w ciągu najbliższych 12 lub 24 miesięcy” – powiedział Cvengros.

Tymczasem Hypers Schools z prawdziwymi modelami biznesowymi nadal unikają spekulantów tak bardzo, jak to możliwe i strategicznie budować. Kupują całą okolicę i płacą mieszkańcom znacznie powyżej opłat rynkowych za przeprowadzkę. Cvengros niedawno pomógł grupie zdobyć około 30 domów w jednej umowie i zniszczył je, aby zrobić miejsce na rozszerzenie centrum danych.

Coraz częściej dzieje się to w podstawowych lokalizacjach, takich jak Village Elk Grove w Chicago, gdzie centra danych osiągają fizyczne granice, w którym mogą pasować. Rozwiązanie jest raczej rozszerzające się niż wycofanie. Firmy znajdują się w kierunku takich miejsc takich jak Yorkville i Aurora w Illinois, lub zupełnie nowe rynki, takie jak Columbus i Minneapolis.

Ewolucja strategiczna

Przemysł wcześniej nawigował poważne zmiany technologiczne. Kiedy na początku 2000 roku wprowadzono wirtualizację, firmy były w stanie nagle zintegrować dziesiątki fizycznych serwerów z zaledwie kilkoma maszynami, znacznie zwiększając wydajność. Cvengros powiedział, że centra danych zbudowane w tej epoce nagle zdały sobie sprawę, że wykorzystali tylko 10% do 20% swoich śladów.

Podobne adaptacje mogą wystąpić w infrastrukturze AI, jeśli wydajność zwiększy wzrost użytkowania. Znacznie bardziej wydajne pojawienie się Modele AI, takie jak chińskie Kilka firm przemyśla skalę planowanych ekspansji, która już skłoniła debatę branżową na temat tego, czy potrzebne jest duże budowanie.

Jednak trajektoria technologii sugeruje, że tak nie jest. Nvidia (NVDA) Pokaz mapy drogowej Przyszłe stojaki serwerowe zużyją 600 kilowatów Każdy – 30 razy więcej zysków ze standardu 10-20 kilowatów w ciągu ostatnich 20 lat. Dyrektor generalny NVIDIA, Jensen Huang, pokazuje, że układy są bardziej wydajne, ale silniejsze i wymagają energii.

Zapotrzebowanie zmierza w kierunku wnioskowania, które uruchamiają modele AI dla użytkowników końcowych, a nie tylko szkolenie. W przeciwieństwie do szkolenia, które odbywa się z intensywnymi, ale ograniczonymi seriami do budowania modeli, wnioski są ciągle wykonywane za każdym razem, gdy ktoś używa chatgpt, pyta Siri lub pobiera wyniki wyszukiwania zasilanych AI. Ten wzorzec użytkowania może rosnąć wykładniczo, gdy aplikacje AI osiągają szersze przyjęcie i generują trwały popyt niż cykliczny popyt na moc obliczeniową.

Firmy, które z powodzeniem poruszają się w tym przejściu, nie są spekulantami gruntów, ale firmy z prawdziwymi modelami biznesowymi i głębokimi kieszeniami. „Zbliżamy się do 2% miejsc w całym kraju” – powiedział Cvengros. „Niekoniecznie widzę, jak bańka wyskakuje”.

Source link