Der erhöhte Energiebedarf durch KI und komplexe IT-Anwendungen macht Energieeffizienz in Rechenzentren dringend erforderlich. | The increased energy demands of AI and complex IT applications make energy efficiency in data centers an urgent necessity. |
Künstliche Intelligenz (KI) ist ein noch größerer Ressourcenfresser als Krypto und es besteht Handlungsbedarf. Aktuellen Prognosen zufolge werden Rechenzentren bis 2030 für rund 3,2 Prozent des gesamten Stromverbrauchs in der EU verantwortlich sein. Im Vergleich zu 2018 entspricht dies einem Anstieg von 18,5 Prozent. Hauptgrund dafür ist die höhere Rechenleistung aufgrund komplexer Anwendungen in Bereichen wie KI, maschinelles Lernen (ML) oder Internet der Dinge (IoT). Dies macht die IT einerseits zu einem größeren Kostenfaktor. Andererseits behindert sie das Erreichen von Nachhaltigkeitszielen, die sich Unternehmen aufgrund gesetzlicher Vorgaben oder Versprechen gegenüber Aktionären und Kunden gesetzt haben. Der IT-Infrastrukturanbieter KAYTUS zeigt, mit welchen Schritten die Optimierung der IT-Infrastruktur helfen kann, den Energieverbrauch zu senken und damit Nachhaltigkeitsziele zu unterstützen.
Der Energiebedarf von Servern sowie die Leistungsdichte von Computerchips und Serverknoten steigen aufgrund komplexer Rechenanforderungen weiter an. Die Leistungsaufnahme von KI-Chips ist bereits von 500 Watt auf 700 Watt angestiegen und wird voraussichtlich bald 1000 Watt überschreiten. Diese Faktoren beeinflussen auch die Anforderungen an die Entwärmung der Gesamtsysteme. Da die IT zu einem immer wichtigeren Energiefaktor in Unternehmen wird, schreibt eine neue EU-Energieeffizienzrichtlinie vor, dass Rechenzentren jährlich einen Energieeffizienzbericht veröffentlichen müssen, wenn ihr IT-Strombedarf 100 Kilowatt übersteigt. Welche Schritte sind Unternehmen also zu empfehlen, um den Stromverbrauch von Rechenzentren zu minimieren und Green-Computing-Konzepte umzusetzen?
Ein großer Effekt, lässt sich durch eine sogenannte Kaltplatten-Flüssigkühlung (“Cold Plate Liquid Cooling”) erzielen. Diese eignet sich besonders für Komponenten mit hohem Stromverbrauch. Dazu zählen beispielsweise Prozessoren, Speicher und Spannungsregler, die meist für mehr als 80 Prozent des Stromverbrauchs im Rechenzentrum verantwortlich sind. Der Einsatz entsprechender Lösungen kann den Stromverbrauch auf der gesamten Serverebene effektiv reduziert, da moderne Flüssigkühlmodule mit einer Vielzahl gängiger Kühlungsanschlüsse kompatibel sind. Eine fortschrittliche Kaltplatten-Flüssigkühlung kann den Kühlbedarf eines 1000W-Chips abdecken und somit den Wärmeaustausch von 100 kW in einem einzigen Serverschrank ermöglichen. Rack-Systeme mit Flüssigkühlung erzielen so in der Regel neben einer höheren Rechendichte eine deutlich verbesserte Energieeffizienz. Je nach System kann im Vergleich zu Systemen mit herkömmlicher Luftkühlung eine um 50 Prozent höhere Wärmeableitungseffizienz sowie ein 40 Prozent niedrigerer Stromverbrauch erzielt werden. Moderne flüssigkeitsgekühlte Server unterstützen auch hohe Temperaturen der eintretenden Kühlflüssigkeit von bis zu 45°C, wobei der Primärkreislauf die Flüssigkeitszufuhr von Tower-Gehäusen mit natürlicher Zugluftkühlung erlaubt. Diese Systeme sind für einen effizienten Betrieb bei einer Umgebungstemperatur von bis zu 45 °C ausgelegt und reduzieren den Energieverbrauch im Rechenzentrumsbetrieb erheblich. Allerdings eignet sich Kaltplatten-Flüssigkühlung nicht für jede Systemumgebung. Es empfiehlt sich daher zunächst eine Prüfung der IT-Infrastruktur und je nach Gegebenheiten eine Mischung von Luft- und Flüssigkeitskühlung.
Eine Optimierung des strukturellen Designs von Hardware-Komponenten wie Radiatoren, Lüftern und Luftkanälen kann ebenfalls einen großen Beitrag dazu leisten, die Effizienz der Wärmeableitung zu verbessern. Verbesserte Front- und Heckeinlässe bei Lüftern können einen gleichmäßigeren und um bis zu 15 Prozent höheren Luftstrom erzielen. Auch die Motoreffizienz, die Materialien und die interne Struktur der Lüfter beeinflussen das Volumen des Luftstroms und damit die Kühlleistung. Ein geringerer Strömungswiderstand in den Luftkanälen stabilisiert den Luftstrom und erhöht die Effizienz. Damit kann die Wärmeableitungseffizienz um mehr als 30 Prozent verbessert werden. Die Wärmeableitungseffizienz eines kompletten Serversystems lässt sich durch den Einsatz spezieller Kühlkörper sowie Techniken wie eine optimierte oder T-förmige Wärmeableitung, eine Siphon-Wärmeableitung, Kaltplatten-Wärmeableitung, etc., um mehr als 24 Prozent verbessern.
Maßnahmen zum Energieeinsparen bei Software-Komponenten, beispielsweise die energie-basierte Steuerung einzelner Festplatten oder eine intelligente Geschwindigkeitsanpassung und Stromverbrauchsbegrenzung, können dazu beitragen, den Stromverbrauch von Servern um mehr als 15 Prozent zu senken. Durch eine automatische Anpassung einzelner Festplatten and die Wärmeableitungsstrategie, eine Steuerung für das Ein- und Ausschalten einzelner Festplatten über CPLD und eine Beschränkung des Systemdurchsatzes auf wenige, Festplatten – während andere in den Ruhezustand versetzt werden – können IT-Verantwortliche bis zu 70 Prozent des Stromverbrauchs einsparen. Eine Echtzeit-Auswertung der über Sensoren erfassten Temperaturinformationen sowie eine dezentrale intelligente Steuerungstechnologie können dabei helfen, die Lüftergeschwindigkeit in verschiedenen Luftkanälen anzupassen. So werden auch über Software und Datenanalyse eine energiesparende Regulierung der Lüftergeschwindigkeit und eine präzise Luftzufuhr unterstützt.
Um den Ressourcenverbrauch von Endanwendungen (“Applikationen”) zu senken, können IT-Teams die Arbeitslasten von Servern optimieren. Damit lässt sich die GPU/CPU-Auslastung erhöhen und eine Konsolidierung auf weniger Servern wird möglich. Für eine maximale GPU-Auslastung eignen sich Strategien für das Pooling von Rechenleistung und eine granulare Aufteilung von Rechenressourcen. Die Auslastung einer so optimierten Cluster-Rechenleistung kann auf über 70 Prozent steigen. Eine asynchrone Abfrage, mit der aktive Zyklen batteriebetriebener Geräte bei intermittierenden Datenübertragungen minimiert werden, ist eine weitere Strategie zur Ressourcenschonung. Auf diese Weise kann die aktive Kommunikationszeit minimiert und der Gesamtstromverbrauch – verglichen mit einer kontinuierlichen Abfrage in festen Intervallen – gesenkt werden. „Um eine höhere Effizienz der Rechenleistung – von der Erzeugung über die Übertragung bis hin zur Anwendung – zu erzielen, ist es notwendig, die Rechenzentrumsstruktur regelmäßig zu prüfen und zu verbessern. Es gibt dabei viele Ansatzpunkte für Green Computing, die idealerweise ineinandergreifen sollten“, erklärt Clark Li, Country Manager von KAYTUS für die DACH-Region. „Systemhersteller für IT-Infrastruktur können dazu beitragen, indem sie das Design ihrer Systemarchitektur, die Wärmeableitung und die Leistungsoptimierung ebenfalls kontinuierlich testen und verbessern. Damit kann die erzeugte Rechenleistung besser direkt auf der Anwendungsebene eingesetzt werden, um Rechenressourcen effizienter zu nutzen. Gleichzeitig lässt sich so der Energiebedarf der Server reduzieren. Das denkt die Energiekosten und trägt außerdem dazu bei, Nachhaltigkeitsziele umzusetzen und entsprechende Vorgaben einzuhalten.“ |
Artificial intelligence (AI) is an even bigger resource guzzler than crypto, and action is needed. According to current projections, data centers will account for approximately 3.2 percent of the EU’s total electricity consumption by 2030. Compared to 2018, this represents an increase of 18.5%. The main driver is the increased computing power required by complex applications in areas such as AI, machine learning (ML), and the Internet of Things (IoT). On the one hand, this makes IT a bigger cost factor. On the other hand, it hinders the achievement of sustainability goals that companies have set themselves due to legal requirements or promises to shareholders and customers. IT infrastructure vendor KAYTUS shows how optimizing IT infrastructure can help reduce energy consumption and support sustainability goals.
The energy requirements of servers and the power density of computer chips and server nodes continue to increase due to complex computing requirements. The power consumption of AI chips has already increased from 500 watts to 700 watts and is expected to exceed 1000 watts soon. These factors also influence the heat dissipation requirements of the overall systems. As IT becomes an increasingly important energy driver for businesses, a new EU Energy Efficiency Directive requires data centers to publish an annual energy efficiency report if their IT power consumption exceeds 100 kilowatts. So what steps should companies take to minimize data center power consumption and implement green computing concepts?
A great effect can be achieved with cold plate liquid cooling. This is especially useful for components that consume a lot of power. These include processors, memory and voltage regulators, which typically account for more than 80 percent of data center power consumption. The use of appropriate solutions can effectively reduce power consumption at the server level, as modern liquid cooling modules are compatible with a wide range of common cooling connections. Advanced cold plate liquid cooling can meet the cooling requirements of a 1000W chip, enabling 100kW of heat exchange in a single server rack. As a result, liquid-cooled rack systems typically achieve significantly improved energy efficiency in addition to higher compute density. Depending on the system, 50 percent higher heat dissipation efficiency and 40 percent lower power consumption can be achieved compared to conventional air-cooled systems. Modern liquid-cooled servers also support high incoming liquid temperatures of up to 45°C, with the primary circuit allowing liquid to be supplied from tower enclosures with natural draught cooling. These systems are designed to operate efficiently at ambient temperatures up to 45°C, significantly reducing energy consumption in data center operations. However, cold plate liquid cooling is not suitable for every system environment. It is therefore advisable to assess the IT infrastructure first and use a mix of air and liquid cooling as appropriate.
Optimizing the structural design of hardware components such as radiators, fans, and air ducts can also go a long way toward improving heat dissipation efficiency. Improved front and rear inlets on fans can provide more uniform airflow and increase airflow by up to 15 percent. The motor efficiency, materials and internal structure of fans also affect airflow and therefore cooling performance. Lower flow resistance in the air ducts stabilizes the airflow and increases efficiency. This can improve heat dissipation efficiency by more than 30 percent. The heat dissipation efficiency of a complete server system can be improved by more than 24 percent by using special heat sinks and techniques such as optimized or T-shaped heat dissipation, siphon heat dissipation, cold plate heat dissipation, etc.
Energy-saving measures in software components, such as power-based control of individual hard drives or intelligent speed control and power limiting, can help reduce server power consumption by more than 15 percent. By automatically adapting individual hard drives to the heat dissipation strategy, controlling the powering on and off of individual hard drives via CPLDs, and limiting system throughput to a few hard drives while others are in sleep mode, IT managers can save up to 70 percent of power consumption. Real-time evaluation of temperature information from sensors and distributed intelligent control technology can help adjust fan speeds in different air ducts. Software and data analytics also support energy-saving fan speed control and precise air delivery.
To reduce application resource consumption, IT teams can optimize server workloads. This increases GPU/CPU utilization and enables consolidation onto fewer servers. Strategies to maximize GPU utilization include compute power pooling and granular allocation of compute resources. The utilization of a cluster optimized in this way can increase to over 70 percent. Asynchronous polling, which minimizes the active cycles of battery-powered devices during intermittent data transfers, is another strategy for conserving resources. This can minimize active communication time and reduce overall power consumption compared to continuous polling at fixed intervals. „In order to achieve greater efficiency in computing power – from generation to transmission to application – it is necessary to regularly review and improve the data center structure. There are many starting points for green computing, which should ideally be interlinked,“ explains Clark Li, Country Manager of KAYTUS for the DACH region. „IT infrastructure vendors can help by continuously testing and improving the design of their system architecture, heat dissipation and performance optimization. In this way, the computing power generated can be better utilized directly at the application level to make more efficient use of computing resources. At the same time, the power requirements of the servers can be reduced. This reduces energy costs and also helps to achieve sustainability goals and comply with relevant regulations.” |
Arne Lehfeldt, Systems Engineer und CTO Ambassador bei Dell Technologies, erklärt im Podcast Security, Storage und Channel Germany mit Carolina Heyder, warum Unternehmen keine Angst vor KI haben sollten. | Arne Lehfeldt, Systems Engineer and CTO Ambassador at Dell Technologies, explains why companies shouldn’t be afraid of AI in the Security, Storage and Channel Germany podcast with Carolina Heyder. |

Dr. Jakob Jung ist Chefredakteur Security Storage und Channel Germany. Er ist seit mehr als 20 Jahren im IT-Journalismus tätig. Zu seinen beruflichen Stationen gehören Computer Reseller News, Heise Resale, Informationweek, Techtarget (Storage und Datacenter) sowie ChannelBiz. Darüber hinaus ist er für zahlreiche IT-Publikationen freiberuflich tätig, darunter Computerwoche, Channelpartner, IT-Business, Storage-Insider und ZDnet. Seine Themenschwerpunkte sind Channel, Storage, Security, Datacenter, ERP und CRM.
Dr. Jakob Jung is Editor-in-Chief of Security Storage and Channel Germany. He has been working in IT journalism for more than 20 years. His career includes Computer Reseller News, Heise Resale, Informationweek, Techtarget (storage and data center) and ChannelBiz. He also freelances for numerous IT publications, including Computerwoche, Channelpartner, IT-Business, Storage-Insider and ZDnet. His main topics are channel, storage, security, data center, ERP and CRM.
Kontakt – Contact via Mail: jakob.jung@security-storage-und-channel-germany.de