Ponieważ ograniczenia siatki utrudniają nowe połączenia zasilania, operatorzy centrów danych i badacze pędzą, aby znaleźć najbardziej wydajne. Jednak niewielkie ulepszenia, takie jak systemy energii chłodzenia cieczy, mądrzejsze harmonogramy konserwacji i rozkład mocy wysokiego napięcia, przeciwdziała podstawowym problemom fizycznym i zachętom ekonomicznym, które nadają priorytetowe wyniki w zakresie zrównoważonego rozwoju. Pytanie brzmi, czy te przyrostowe zwycięstwo może dotrzymać kroku Wykładający apetyt na energię częściową na energię elektryczną.
„Mówimy o 10 punktach i setkach punktów” – powiedział Mallory. „Ale ma to ogromny wpływ na koszty operacyjne. Jeśli upuścisz Pue do dziesiątej punktu, możesz uzyskać 50 000 USD miesięcznie na megawat zużycia energii elektrycznej, z 1,4 do 1,3”.
Korzyści te stają się jeszcze ważniejsze, biorąc pod uwagę ogromną skalę budowy. North American Major Data Center Markets mają obecnie prawie 7000 megawatów, a ponad 6000 megawatów jest w budowie. Firma nieruchomości CBRE. Przez cały ten ślad nawet niewielka poprawa wydajności można przekształcić w znacznie większą zdolność obliczeniową AI bez dodatkowego obciążenia już przytłaczającej siatki elektrycznej.
Ale bez względu na to, jak doskonale umieszczone, każde centrum danych walczy z tą samą bitwą co ciepło.
Aby bardziej skutecznie obsługiwać duże obciążenia zasilania, centra danych musiały ulepszyć swoje systemy elektryczne. Aby bardziej skutecznie obsługiwać duże obciążenia zasilania, centra danych musiały ulepszyć swoje systemy elektryczne. Podczas gdy tradycyjne centra danych wykorzystywały rozkłady mocy niskiego napięcia, stojaki AI wymagają systemów wysokiego napięcia, a niektórzy operatorzy planują skoki o 400 woltów lub 800 woltów.
Centra danych potrzebują bardziej podstawowych rozwiązań, aby naprawdę rozwiązać problem ciepła. Właśnie dlatego łączność TE i inne firmy opracowały chłodzone cieczą systemy dystrybucji energii (zasadniczo chłodzone wodą kable elektryczne), które obsługują większą moc w tym samym śladzie co tradycyjne systemy, a jednocześnie skuteczniej eliminują ciepło.
Niezamierzone konsekwencje wydajności
Oprócz ulepszeń infrastruktury producenci chipów realizują własną unikalną poprawę wydajności. Firmy takie jak Zakłady na architekturę w skali stojaka Pozwoli to na 20-krotną efektywność energetyczną do 2030 r., Ale nowy projekt układu obsługuje niskoprecyzyjne obliczenia, które mogą znacznie zmniejszyć obciążenie obliczeniowe. Nvidia GPU Blackwell nowej generacji – i nawet liczby Nowa platforma Blackwell Ultra – Obiecuje unikalną poprawę wydajności. Dyrektor generalny NVIDIA, Jensen Huang, mówi, że GPU firmy jest zazwyczaj 20 razy więcej efektywności energetycznej Dla określonych obciążeń AI niż tradycyjne procesory.
Algorytmy napędzające AI wykazują jeszcze mniej postępów w wydajności. Naukowcy tacy jak Alistarh nadal pracują nad technologiami, które mogą zmniejszyć zużycie energii wygenerowanej AI, takie jak stosowanie prostszej matematyki, na przykład stosowanie mniejszej mocy obliczeniowej. Inne grupy badają zupełnie różne architektury, które mogą całkowicie zastąpić transformatory.
Firmy chcą budować energooszczędne modele, które osiągają wyższe wyniki w tych testach niż wydajne testy, które mogą pozostać w tyle za ich konkurentami. W rezultacie rankingi tabeli liderów optymalizują zrównoważony rozwój i poprawia wydajność, niezależnie od oszczędności kosztów, mają w najlepszym razie obawy wtórne.
Kilka raportów w tym artykule zostało przeprowadzonych w ramach rezydencji dziennikarskiej finansowanej przez Austriacki Instytut Nauki i Technologii.