Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124

Gdy sztuczna inteligencja staje się fundamentem cyfrowej gospodarki, a data center pochłaniają coraz więcej energii, branża IT zaczyna szukać sposobów na przebudowanie podstaw swojej efektywności. Jednym z najbardziej zaskakujących kierunków tej transformacji może być… głęboki chłód. Dosłownie.
Zespół naukowców z Forschungszentrum Jülich, RWTH Aachen, EPFL, TSMC i japońskich uczelni sugeruje, że znane od dziesięcioleci układy CMOS, napędzające praktycznie każdą elektronikę, mogą działać znacznie efektywniej w bardzo niskich temperaturach. Przy zastosowaniu odpowiednich materiałów i architektur, możliwe są – według badaczy – oszczędności energetyczne nawet do 80%.
To podejście, choć brzmi futurystycznie, wpisuje się w coraz bardziej palącą potrzebę radykalnego zwiększenia wydajności energetycznej w centrach danych.
Współczesne chipy projektowane są z myślą o pracy w temperaturze pokojowej. Generują one znaczne ilości ciepła, które trzeba skutecznie odprowadzać – co samo w sobie wymaga ogromnych nakładów energii. Według Międzynarodowej Agencji Energetycznej (IEA), zapotrzebowanie data center na energię elektryczną może podwoić się do 2030 roku, głównie za sprawą rozwoju AI i chmury.
Ale co, jeśli zamiast zarządzać ciepłem, należałoby go po prostu unikać? Obliczenia kriogeniczne, czyli prowadzone w temperaturach bliskich zera absolutnego, mogą umożliwić znaczące zmniejszenie napięcia potrzebnego do przełączania tranzystorów. A niższe napięcie to mniej strat, mniej ciepła i więcej wydajności.
W teorii, im niższa temperatura, tym bardziej „zdyscyplinowane” zachowanie elektronów i mniejsze napięcie progowe potrzebne do przełączania. W praktyce – przy temperaturze -196°C (77 K, osiąganej przy pomocy ciekłego azotu) można osiągnąć oszczędności rzędu 70%. W skrajnych przypadkach, przy chłodzeniu helem do poziomu 4 K, zyski energetyczne sięgają 80%.
Sęk w tym, że tradycyjne układy CMOS nie są zoptymalizowane do pracy w tak niskich temperaturach. Wchodzą tu w grę zjawiska fizyczne, które są pomijalne w warunkach „ciepłych”, ale dominują w chłodzie. Mowa o efektach opasmowego ogona, defektach materiałowych i zjawiskach kwantowych, takich jak tunelowanie elektronów.
Aby osiągnąć deklarowaną efektywność, konieczna jest więc zmiana nie tylko warunków pracy układów, ale i ich samej budowy. Zespół badawczy wskazuje na konkretne kierunki: wykorzystanie nanoprzewodów, struktur SOI, dielektryków o wysokiej przenikalności elektrycznej czy materiałów z wąską przerwą energetyczną. Wszystko po to, by stworzyć coś, co naukowcy nazywają „supertranzystorem dla zimna”.
To już nie tylko korekta architektury. To potencjalne otwarcie nowego rozdziału w projektowaniu elektroniki – dostosowanej nie do biurka inżyniera, lecz do wnętrza kriostatu.
Choć obliczenia kriogeniczne kojarzą się głównie z komputerami kwantowymi, ich potencjalne zastosowania są znacznie szersze. Chipy zoptymalizowane do pracy w niskich temperaturach mogą znaleźć zastosowanie w obrazowaniu medycznym, misjach kosmicznych i – co najważniejsze – w klasycznych data center. Tam, gdzie instaluje się tysiące procesorów i zużywa megawaty mocy, każda oszczędność energii przekłada się na konkretne miliony dolarów rocznie.
Warto przy tym podkreślić, że technologia nie jest w fazie czysto akademickiej. W badaniu bierze udział TSMC – największy producent chipów na świecie, dostarczający układy m.in. Apple, AMD i Nvidii. To sygnał, że temat nie jest już tylko naukową ciekawostką, ale realnym kierunkiem rozwoju branży półprzewodników.
Zimne chipy nie trafią jutro na rynek, ale długofalowo mogą okazać się odpowiedzią na kilka jednoczesnych wyzwań: ograniczenia prawa Moore’a, energetyczne potrzeby AI i rosnące koszty operacyjne centrów danych. Ich wdrożenie będzie wymagało nie tylko rewolucji materiałowej, ale i zmiany w projektowaniu infrastruktury IT – od chłodzenia po integrację elektroniki niskotemperaturowej.
Jednak warto obserwować ten kierunek z bliska. Bo jeśli obecne tempo wzrostu zapotrzebowania na moc obliczeniową się utrzyma, sektor IT będzie musiał sięgnąć po każde dostępne narzędzie, by ograniczyć swoją energochłonność – nawet jeśli oznacza to zejście do temperatur znanych dotąd głównie z laboratoriów fizyki kwantowej.