Springe auf Hauptinhalt Springe auf Hauptmenü Springe auf SiteSearch
Experten zu IT-Trends und zur Kühlung von Rechenzentren

Gutes Klima nicht nur für die Cloud

Kompakt informieren

  • Mit der digitalen Revolution wird der Bedarf an Rechenzentren in allen Größenklassen und damit der Bedarf an maßgeschneiderten Lösungen für die Kühlung der IT-Geräte deutlich zunehmen.
  • Künftige Anwendungen, gesetzliche Vorgaben und Sicherheitsaspekte führen dazu, dass neben sehr großen Rechenzentren auch viele kleine, dezentral verteilte Einheiten entstehen werden.
  • Aufgrund der sich wandelnden Anforderungen von IT-Geräten müssen TGA-Planer ihr Wissen kontinuierlich auf dem neuesten Stand halten und sollten bei der Beratung / Planung Trends berücksichtigen, beispielsweise mit Vorrüstungen.

Digitale Medien und soziale Netzwerke sind in der modernen Welt mit schwindelerregender Geschwindigkeit angekommen. Nach der industriellen ist die digitale Revolution der nächste einschneidende Umbruch unserer Gesellschaft. Ein Resultat dessen sind gigantische Datenautobahnen und neue, stetig wachsende globale Strukturen zum Informationsaustausch. Dafür arbeiten Rechner aller Größenordnungen rund um die Uhr. Die IT-Geräte fordern nicht nur eine sichere Netzanbindung und eine unterbrechungsfreie Stromversorgung, sondern erzeugen auch ständig Wärme, die mittels Kühlung abgeführt werden muss.

Ein Markt im Wandel

Das rasante Wachstum der IT-Branche hat auch zur Suche nach alternativen und energieeffizienten Klima- und Lüftungssystemen sowie Rückkühlwerken geführt, um Rechenzentren nachhaltig(er) zu temperieren. Denn es geht um immer größere Mengen dafür benötigten Stroms und um Abwärme, die entweder „vernichtet“ oder wenn möglich einer Verwendung zugeführt werden kann.

Neben den großen IT-Klimalösungen für Google, Facebook und Co. wird auch der Bedarf kleiner und mittlerer Betriebe in Gewerbe, Industrie, der Wissenschaft und bei der öffentlichen Hand immer größer. Dort sind aus vielfältigen Gründen interne Serverlösungen im Einsatz, wobei trotz der großen Bedeutung für den Geschäftsbetrieb nicht selten eine Abstellkammer oder ein Kellerraum der Standort der firmeneigenen IT ist.

Der Wandel im Markt für Informationstechnologien und Telekommunikation betrifft auch die TGA-Branche. Und die Geschwindigkeit ist atemberaubend. Drei Kenner und Experten beleuchten im Folgenden aus der Sicht eines Fachplaners, Geräteherstellers und Fachmedien-Marktbegleiters, was gerade passiert, sich abzeichnet und worauf die Branche sich einstellen muss, um bei der Kühlung von Rechenzentren nicht abgehängt zu werden.

Markus Betz ist technischer Geschäftsführer der T.P.I. Trippe und Partner Ingenieurgesellschaft mbH in Karlsruhe.

Dr. Peter Koch ist Vice President Solutions & Complexity Management Racks & Integrated Solutions, Europe, Middle East & Africa bei Vertiv in Arnsdorf bei München.

Dr. Jörg Schröper ist Chefredakteur der Fachzeitschrift LANline, Kaufering bei München.

Frommann: Wie sehen Sie generell die Entwicklung des Marktes für Rechenzentren und andere Facilities zur Datenspeicherung und -sicherung, vor allem in Deutschland?

Betz: Der Markt für Rechenzentren entwickelt sich sowohl in Deutschland als auch weltweit sehr dynamisch, mit deutlich überdurchschnittlichen Wachstumsraten.

Insbesondere für Colocation1)-Dienstleistungen werden massiv zusätzliche Rechenzentrumskapazitäten benötigt. Die Gründe dafür sind die steigenden IKT2)-Anforderungen und die Back-up-Datenspeicherung, allgemein stark steigende Datenmengen, ein Trend zum Outsourcing sowie das schnelle Wachstum von Cloud-Diensten.

Koch: Als Klimagerätehersteller und Lösungsgeber stecken wir in diesem Thema nicht ganz so tief drin. Einen Anhaltspunkt liefert aber der Umstand, dass der Anteil der Speicher am Energieverbrauch von Rechenzentren ansteigt. Das bestätigte unlängst das Fraunhofer IZM mit einer umfassenden Studie im Auftrag des BMWi3) Abb. 2. Außer der Tatsache, dass die Energieeffizienz für ein typisches Rechenzentrum deutlich besser wurde, sieht man, dass der Verbrauch für die IT angestiegen ist und innerhalb der IT der Anteil für die Speichersysteme sehr deutlich zugenommen hat.

Schröper: Der Markt boomt ganz eindeutig, und zwar in allen Größenausprägungen. Dies gilt trotz der Verlagerung vieler ehemals interner Rechenzentrumsaufgaben in die Umgebungen der sehr großen Dienstleister, wie etwa Google, Amazon oder Microsoft. Unter anderem aus juristischen Gründen wollen und müssen deutsche Unternehmen zum Beispiel personenbezogene Daten inhouse behalten. Dabei geht es dann um firmeneigene Rechenzentren traditioneller Größe, die aber auch besonders effizient sein müssen, weil sie mit den ganz großen Anbietern in Konkurrenz stehen.

Das Internet der Dinge und auch der autonome Verkehr werden nach Aussagen vieler Experten – zum Beispiel auf dem letzten Datacenter Symposium der LANline in Hanau – zu einem Bedarf an sehr vielen kleinen und in der Fläche verteilten Rechenzentren führen. Dabei geht es dann nicht um besonders große Datenmengen, sondern um minimale Latenz bei der Übertragung. Denn eine Drohne in der Landwirtschaft oder die Verkehrssteuerung selbst fahrender Autos kann nicht darauf warten, dass benötigte Daten aus einem entfernten Rechner zurückkommen.

Frommann: Wie lassen sich die Betreiber differenzieren und welche unterschiedlichen Anforderungen haben die einzelnen Gruppen?

Betz: Die Betreiber lassen sich etwa in folgende Kategorien einteilen: Industrie, Finanzdienstleistung, öffentliche Betreiber (z. B. Verwaltungen, Krankenhäuser), Colocation, Webhosting sowie Forschung und HPC (high-performance computing). Ebenso unterschiedlich wie die Betreiber selbst sind deren Anforderungen:

Industrie: Hohe bis sehr hohe Anforderungen an die Ausfallsicherheit, da ein Produktionsstopp infolge eines IT-Ausfalls schnell sehr hohe Kosten und finanzielle Schäden verursacht. Die Energieeffizienz ist der Betriebssicherheit untergeordnet.

Finanzdienstleistung: Hat sehr hohe Anforderungen an die Ausfallsicherheit, da ein IT-Ausfall sehr hohe finanzielle Schäden verursacht. Die Energieeffizienz ist der Betriebssicherheit untergeordnet.

Öffentliche Betreiber: Haben hohe Anforderungen an die Ausfallsicherheit, aber die Energieeffizienz rückt zunehmend in den Fokus, auch aufgrund politischer Vorgaben.

Colocation: Colocation-Dienstleister haben sehr hohe Anforderungen an die Ausfallsicherheit, aber gleichzeitig auch hohe Anforderungen an die Energieeffizienz, vor allem zur Energiekostenminimierung. Denn beides wird von Endkunden gleichermaßen gefordert.

Webhosting: Hat sehr hohe Anforderungen an die Ausfallsicherheit und gleichzeitig steigende Anforderungen an die Energieeffizienz. Allerdings sind im Webhosting-Bereich im Wesentlichen die Gesamtkosten (also die Summe aus Investitionskosten, Gesamtenergiekosten und Betriebskosten) relevant.

Zur Minimierung der Gesamtkosten weichen daher einzelne Webhosting-Betreiber mit einzelnen Rechenzentren ins Ausland aus, wo die Strompreise teilweise deutlich niedriger als in Deutschland sind.

Forschung und HPC: Beide haben hohe Anforderungen an die Ausfallsicherheit, aber tendenziell etwas geringere als in den anderen Bereichen, da die Forschungs- und Hochleistungs-Rechenanwendungen (HPC) eher nicht ununterbrochen laufen und bei einer Unterbrechung des Betriebs tendenziell geringere finanzielle Schäden entstehen.

Im Forschungs- und HPC-Bereich ist die Minimierung der Gesamtkosten ebenfalls sehr wichtig, ebenso wie eine möglichst kompakte und geringe Investitionskosten verursachende Bauweise der Rechenzentren, da solche Projekte dann einfacher und schneller umsetzbar und genehmigungsfähig sind.

Koch: Betreiber lassen sich grundsätzlich unterscheiden in solche, die IT als Geschäft betreiben (Colocation oder Cloud), und solche, die IT brauchen, um ihr Geschäft zu betreiben. Darum liegen die Prioritäten auf verschiedenen Schwerpunkten zwischen „höchste Verfügbarkeit, koste es, was es wolle“ (Banken), „möglichst geringes Investment und Betriebskosten, wir wollen so viele Rechner kaufen wie irgend möglich“ (wissenschaftlicher Supercomputer) und „sehr gute Verfügbarkeit bei günstigen Betriebskosten und guter flexibler Anpassbarkeit“ (Colocation).

Für jedes Unternehmen stellt sich die Frage, ob es seine IT im eigenen Unternehmen betreiben, IT-Leistungen aus einer Cloud beziehen oder mit seiner IT-Infrastruktur in Colocation gehen will. In vielen Fällen wird es ein Mix sein. Denn je nach Anforderung an die Verfügbarkeit kann die Forderung nach Redundanz bestehen. Das lässt sich gut über eine Kombination eines eigenen Rechenzentrums mit Colocation oder Cloud realisieren.

Für alle Betreiber stellt sich die Anforderung, ihre IT und die Infrastruktur weiterzuentwickeln und qualitativ zu verbessern. Sie sind getrieben durch die zunehmende Bedeutung der Digitalisierung von Geschäftsprozessen, durch die Notwendigkeit schneller Reaktion auf neue Anforderungen, gesetzliche Vorschriften, wie zum Beispiel zur Datensicherheit, durch wachsende Sicherheitsprobleme und neue Standards wie DIN EN 50 600.

Schröper: Eine leichte Antwort wäre: Ein Rechenzentrumskunde muss genau wissen und spezifizieren, was er will. Das ist natürlich nur eine andere Formulierung des Problems. Die Kriterien sind vielfältig, etwa die physische Sicherheit – es gibt Rechenzentren in alten Bunkern und Tresorgebäuden oder in der Nähe von Kraft- oder Umspannwerken und Windkraftanlagen, um eine besonders gute und redundante Stromversorgung garantieren zu können. Auch die Nähe zu großen Internet-Knotenpunkten kann von Bedeutung sein. Für die Entscheidung braucht ein Unternehmen im Zweifelsfall Hilfe von kompetenten Beratern. Am Ende stehen als wichtigster Punkt fast immer die Kosten zur Diskussion. Der Betreiber und Anbieter von Rechnerleistung wiederum muss sich seine Investitionen, beispielsweise in die Redundanz von Stromzuführung und Klimatisierung, bezahlen lassen, was ihn dazu zwingt, möglichst effiziente Systeme einzusetzen, um auf einem umkämpften Markt mit einem günstigen Angebot bestehen zu können.

Frommann: Wie bedeutend sind Kühlung bzw. Klimatisierung geworden und worauf sollten Fachplaner besonders achten, um Kunden nachhaltige Lösungen anzubieten?

Betz: Kühlung und Klimatisierung sind sowohl hinsichtlich des Energiebedarfs und der resultierenden Energiekosten als auch hinsichtlich des Betreiber- bzw. Wartungsaufwands wichtig. Heute sind Kühlung bzw. Klimatisierung bei den Kunden erfahrungsgemäß sehr stark in den Fokus gerückt. Sie überdecken teilweise sogar andere Energieeffizienzthemen, beispielsweise die Energieeffizienz von USV- und Netzersatzanlagen. Es besteht aber in der Regel ein hoher Beratungsbedarf bezüglich der Kühlung und Klimatisierung. Denn die Kunden kennen sich in elektrotechnischen Themen tendenziell besser als mit Kälte- und Klimatechnik aus.

Die optimale Klimatisierungslösung für ein Rechenzentrum ist immer individuell. Um Kunden nachhaltige Lösungen anzubieten, müssen verschiedene Varianten untersucht werden und für jede Variante gleichzeitig mehrere Aspekte berücksichtigt werden, wie:

  • Standort und Klimabedingungen
  • Anforderungen an die Betriebssicherheit und an die Redundanz
  • IT-Leistungsanforderungen
  • IT-Temperaturanforderungen
  • Investitionskosten der TGA-Anlagen (Mechanik und Elektro)
  • Investitionskosten des Gebäudes und des Innenausbaus
  • Elektrischer Energiebedarf
  • Aufwand (monetär und hinsichtlich eigenen Personalbedarfs) für Betrieb und Wartung
  • Gesamtkosten (TCO)

Koch: Die Klimatisierung im Sinne des Einhaltens niedriger Temperaturen und einer präzisen Regelung von Temperatur und Feuchte stehen nicht mehr im Vordergrund. Denn aktuelle IT-Geräte vertragen inzwischen relativ extreme Bedingungen.4) Aber es bleibt die Aufgabe, sehr große Wärmemengen abzuführen. Denn jede kWh elektrische Arbeit, die einem Rack zugeführt wird, muss als Wärme wieder hinaus. Deshalb ist heute eher vom „Thermal Management“ die Rede als von Kühlung. Das bleibt ein Dauerbrenner und wird die Branche beschäftigen, bis Technologien gefunden sind, die den Energieverbrauch der IT drastisch absenken. Und die Suche läuft. Vorerst haben wir es aber meistens mit luftgekühlten Geräten zu tun, die mit steigender Leistungsdichte warme oder heiße Luft hinausblasen.

Dem TGA-Fachplaner und Betreiber bietet sich heute eine verwirrende Fülle von Technologien und Systemen. Nun heißt es in diesem Zusammenhang auch, Ressourcen schonende und effiziente, also nachhaltige Lösungen zu erarbeiten. Vor allem aber heißt es, sich auf unbekannte Veränderungen in der Zukunft einzustellen. Zum Beispiel gibt es heute einen deutlichen Trend, immer höhere Ansaugtemperaturen zu akzeptieren, die Leistungsdichte je Rack zu erhöhen, eventuell nach und nach auf flüssigkeitsgekühltes IT-Equipment umzustellen. Und möglicherweise wird man künftig mit weniger Redundanz auskommen, weil IT-Anwendungen per Virtualisierung „beweglich“ werden, damit schnell auf andere Teile eines Rechenzentrums oder einen anderen Standort „umgezogen“ werden können.

Die Antwort auf die Frage nach der richtigen / passenden Rechenzentrumskühlung muss eine sorgfältige Analyse aller Faktoren sein. Und es bedarf einer Prognose über zukünftige Entwicklungen, am besten mit zwei oder drei verschiedenen Szenarien. Als Lösung sollte man auf jeden Fall ein modulares Konzept vorsehen – gleich ob einzelne Racks, Container, Räume oder ganze Gebäude die Module sind. Das ermöglicht einem, sich beim weiteren Ausbau an die jeweils veränderten Anforderungen anzupassen. Ein weiterer Vorteil ist, dass die nötigen Investitionen schrittweise und in Abhängigkeit vom Bedarf erfolgen. Und dass gut ausgelastete Module in aller Regel deutlich energieeffizienter sind als ein schlecht ausgelastetes monolithisches Großrechenzentrum.

Ein weiterer wichtiger Ansatz ist es, sich durch eine wenig aufwendige Vorrüstung auf mögliche Entwicklungen einzustellen. Zum Beispiel kann es eine gute Idee sein, unterhalb des Doppelbodens bereits die Anschlüsse für Kühlwasserleitungen vorzusehen, an die man später für höhere Leistungsdichten (nachrüstbare) Rücktür-Wärmeübertrager Abb. 3 oder direkt gekühlte Server anschließen kann.

Schröper: Der Markt bietet im Umfeld der Kälte- und Klimatechnik ein größeres Lösungsspektrum als je zuvor. Nachhaltigkeit ist nicht mehr allein ein ökologischer Faktor oder ein Imageaspekt. Anders formuliert: Was wenig Energie verbraucht und wenig Abfall erzeugt, ist auch ökonomisch attraktiv. Modellrechnungen zeigen immer wieder, dass es an vielen Standorten an vielen Tagen des Jahres zum Beispiel möglich ist, freie Kühlung einzusetzen und auf mechanische Komponenten zur Kälteerzeugung zu verzichten.

Die Standardmethoden, wie etwa die strikte Trennung von kalter und warmer Luft durch Einhausungen, sind ja bekannt und werden eingehalten. Zusätzlich sollte der Planer jedoch durchaus einmal Fantasie beweisen und auch unkonventionelle Ansätze einbeziehen, die im individuellen Fall womöglich besonders effizient und damit auch finanziell attraktiv sind. Die Einstellung „haben wir schon immer so gemacht“ ist ein unbrauchbarer Berater in einem umkämpften Markt. Schlussendlich zählen angesichts der Energiepreise heute immer die Betriebskosten und nicht so sehr die Erstinvestition.

Frommann: Vielen Dank für Ihre Expertisen.

Fußnoten

1) Colocation (auch Co-Location, Serverhousing oder Serverhoming) bezeichnet die Unterbringung und Netzanbindung eines Kundenservers im Rechenzentrum eines Internet-Service-Providers. Im Gegensatz zum Hosting wird die Hardware nicht vom Anbieter, sondern vom Kunden oder Mieter gestellt. Der Colocation-Anbieter stellt infrastrukturelle Dienstleistungen und Betriebsunterstützung bereit.

2) IKT: Informationstechnik und Telekommunikation; laut BMWi gehört die IKT-Branche neben den Branchen Maschinenbau, Automobilindustrie und Elektrotechnik-/Elektronikindustrie zu den größten Wirtschaftszweigen in Deutschland. Mit derzeit mehr als 1 Mio. Beschäftigten und einem weltweiten Umsatz von 223 Mrd. Euro beträgt der deutsche Anteil am weltweiten Markt für Informations- und Kommunikationstechnik rund 4,3 %. Damit ist Deutschland nach den USA, China, Japan und Großbritannien der fünftgrößte Ländermarkt weltweit und der bedeutendste Markt für IKT in Europa.

3) Entwicklung des IKT-bedingten Strombedarfs in Deutschland, Studie des Fraunhofer IZM, Berlin, in Zusammenarbeit mit dem Borderstep Institut; Abschlussbericht vom November 2015

" class="chapter-heading">Datacenter Symposium

Die LANline-Veranstaltung „Datacenter Symposium“ (DCS) bringt RZ-Spezialisten und -Verantwortliche praxisnah auf einen aktuellen Know-how-Stand. Hier kommen Experten, Brancheninsider und RZ-Betreiber zusammen. Dazu dienen hochklassige Fachvorträge und Workshops. Das nächste DCS findet am 17. und 18. Oktober 2017 in München statt. Mit dem VIP-Code 1017DCSmucPR ist für TGA-Leser eine kostenlose Anmeldung möglich unter: www.lanline-events.de

Jetzt weiterlesen und profitieren.

+ TGA+E-ePaper-Ausgabe – jeden Monat neu
+ Kostenfreien Zugang zu unserem Online-Archiv
+ Fokus TGA: Sonderhefte (PDF)
+ Weiterbildungsdatenbank mit Rabatten
+ Webinare und Veranstaltungen mit Rabatten
uvm.

Premium Mitgliedschaft

2 Monate kostenlos testen