Heim > Artikel > Technologie-Peripheriegeräte > Wie sind künstliche Intelligenz und maschinelles Lernen bereit, die Spielregeln für den Rechenzentrumsbetrieb zu verändern?
Rechenzentren stehen heute vor einer Herausforderung, die nahezu unlösbar scheint. Während der Rechenzentrumsbetrieb noch nie so ausgelastet war, stehen die Rechenzentrumsbetriebsteams unter dem Druck, den Energieverbrauch im Rahmen der CO2-Reduktionsziele des Unternehmens zu senken. Zudem setzen stark steigende Strompreise die Rechenzentrumsbetreiber unter Budgetdruck.
Da sich Rechenzentren auf die Unterstützung der wesentlichen Technologiedienste konzentrieren, die Menschen zunehmend für ihre Arbeit und ihr Leben benötigen, ist es kein Wunder, dass der Betrieb von Rechenzentren so anstrengend ist. Ohne Anzeichen einer Verlangsamung sehen wir einen erheblichen Anstieg der Datennutzung im Zusammenhang mit Video, Speicher, Computeranforderungen, intelligenter IoT-Integration und der Einführung der 5G-Konnektivität. Doch trotz zunehmender Arbeitsbelastung arbeiten viele der heutigen Rechenzentrumseinrichtungen leider nicht effizient genug.
Das ist nicht verwunderlich, wenn man bedenkt, dass die durchschnittliche Nutzungsdauer eines Rechenzentrums über 20 Jahre beträgt. Die Effizienz hängt immer von der ursprünglichen Auslegung der Rechenzentrumsanlage ab und basiert auf erwarteten, längst überschrittenen IT-Lasten. Gleichzeitig ist der Wandel ein ständiger Wandel, da sich Plattformen, Gerätedesigns, Topologien, Leistungsdichten und Kühlanforderungen mit der Weiterentwicklung neuer Anwendungen weiterentwickeln. Das Ergebnis ist, dass Rechenzentren auf der ganzen Welt oft Schwierigkeiten haben, aktuelle und geplante IT-Lasten mit ihrer kritischen Infrastruktur in Einklang zu bringen. Diese Situation wird sich mit zunehmender Nachfrage nach Rechenzentren noch verschärfen. Analystenprognosen zufolge wird die Arbeitslast in Rechenzentren bis 2025 weiterhin jährlich um etwa 20 % zunehmen.
Herkömmliche Rechenzentrumstechnologien und -methoden können diese sich wandelnden Anforderungen nur schwer erfüllen. Die Priorisierung der Verfügbarkeit geht größtenteils zu Lasten der Effizienz, da zu viel Arbeit immer noch auf der Erfahrung des Betriebspersonals und dem Vertrauen auf die Richtigkeit der Annahmen beruht. Leider gibt es Hinweise darauf, dass dieses Modell nicht mehr gilt. Untersuchungen des Fernüberwachungsanbieters EkkoSense zeigen, dass durchschnittlich 15 % der IT-Racks in Rechenzentren außerhalb der Temperatur- und Luftfeuchtigkeitsrichtlinien von ASHRAE betrieben werden und der Energieverbrauch für die Kühlung von Rechenzentren aufgrund von Ineffizienz bis zu 60 % beträgt. Dies stellt ein großes Problem dar, da das Uptime Institute schätzt, dass in Rechenzentren weltweit rund 18 Milliarden US-Dollar an verschwendeter Energie durch ineffiziente Kühlung und Luftstrommanagement verloren gehen. Dies entspricht einer Verschwendung von rund 150 Milliarden Kilowattstunden Strom.
Angesichts der Tatsache, dass 35 % der von der Rechenzentrumsinfrastruktur verbrauchten Energie für die Kühlung aufgewendet werden, ist klar, dass herkömmliche Methoden zur Leistungsoptimierung enorme Möglichkeiten zur Erzielung von Effizienzsteigerungen verpassen. Eine Umfrage von EkkoSense zeigt, dass ein Drittel der ungeplanten Ausfälle von Rechenzentren durch Überhitzungsprobleme verursacht werden. Es müssen verschiedene Wege zur Bewältigung dieses Problems gefunden werden, die den Rechenzentrumsbetriebsteams hervorragende Möglichkeiten bieten können, die Verfügbarkeit sicherzustellen und die Effizienz zu verbessern.
Leider überwachen und melden derzeit nur etwa 5 % der Betriebsteams die Temperaturen ihrer Rechenzentrumsgeräte pro Rack. Darüber hinaus können DCIM und herkömmliche Überwachungslösungen Trenddaten liefern und so eingerichtet werden, dass sie im Falle eines Ausfalls Warnungen auslösen, diese Maßnahmen reichen jedoch nicht aus. Ihnen fehlen die analytischen Fähigkeiten, um Einblicke in die Ursachen von Problemen zu gewinnen und zu erfahren, wie diese gelöst und in Zukunft vermieden werden können.
Betriebsteams sind sich bewusst, dass diese traditionelle Überwachungstechnologie ihre Grenzen hat, aber sie wissen auch, dass sie einfach nicht über die Ressourcen und die Zeit verfügen, um die vorhandenen Daten zu nutzen und aus deren Analyse aussagekräftige Erkenntnisse abzuleiten. Die gute Nachricht ist, dass es jetzt Technologielösungen gibt, die Rechenzentren bei der Lösung dieses Problems unterstützen.
Die Anwendung von maschinellem Lernen und künstlicher Intelligenz hat ein neues Paradigma für die Abwicklung des Rechenzentrumsbetriebs geschaffen. Anstatt mit zu vielen Leistungsdaten überschwemmt zu werden, können Betriebsteams jetzt maschinelles Lernen nutzen, um detailliertere Daten zu sammeln – was bedeutet, dass sie Echtzeitzugriff auf den Betrieb ihrer Rechenzentren erhalten können. Der Schlüssel liegt darin, sie zugänglich zu machen, und die Verwendung intelligenter 3D-Visualisierungen ist eine großartige Möglichkeit, den Rechenzentrumsteams die Interpretation von Leistung und Daten auf einer tieferen Ebene zu erleichtern: zum Beispiel durch die Anzeige von Änderungen und die Hervorhebung von Anomalien.
In der nächsten Phase werden maschinelles Lernen und Analysen der künstlichen Intelligenz eingesetzt, um umsetzbare Erkenntnisse zu liefern. Durch die Erweiterung von Messdatensätzen mit Algorithmen für maschinelles Lernen können Rechenzentrumsteams sofort von leicht verständlichen Erkenntnissen profitieren, die sie bei ihren Optimierungsentscheidungen in Echtzeit unterstützen. Die Kombination aus granularer Datenerfassung in Echtzeit und Analyse durch KI/maschinelles Lernen alle fünf Minuten ermöglicht es den Betriebsmitarbeitern, nicht nur zu sehen, was in ihren Rechenzentrumseinrichtungen passiert, sondern auch herauszufinden, warum und was dagegen getan werden sollte.
Durch KI und maschinelles Lernen unterstützte Analysen können auch die Erkenntnisse liefern, die erforderlich sind, um umsetzbare Änderungen in Schlüsselbereichen wie optimalen Sollwerten, Bodengitteranordnung, Kühlanlagenbetrieb und Anpassung der Lüftergeschwindigkeit zu empfehlen. Die thermische Analyse zeigt auch den besten Standort für die Installation des Racks. Und da KI Echtzeittransparenz ermöglicht, können Rechenzentrumsteams schnell sofortiges Leistungsfeedback zu allen implementierten Änderungen erhalten.
Angesichts des Drucks, CO2-Emissionen zu reduzieren und die Auswirkungen steigender Strompreise zu minimieren, müssen Rechenzentrumsteams ihre Zuverlässigkeits- und Effizienzziele erreichen, wenn sie dies tun Um ihre Ziele zu erreichen, bedarf es neuer Optimierungsunterstützung.
Der Einsatz der neuesten maschinellen Lern- und auf künstlicher Intelligenz basierenden Optimierungsmethoden für Rechenzentren kann durch die Reduzierung von Kühlenergie und -verbrauch sicherlich eine Wirkung erzielen – mit sofortigen Ergebnissen innerhalb von Wochen. Indem sie granulare Daten in den Vordergrund ihrer Optimierungspläne stellen, können Rechenzentrumsteams nicht nur das Risiko von Überhitzung und Stromausfällen eliminieren, sondern auch eine durchschnittliche Reduzierung der Kühlenergiekosten und CO2-Emissionen um 30 % gewährleisten. Es ist schwer zu ignorieren, welche Auswirkungen diese Art von Kosteneinsparungen haben kann, insbesondere in einer Zeit, in der die Strompreise schnell steigen. Vorbei sind die Zeiten, in denen Risiko und Verfügbarkeit für die Optimierung abgewogen wurden, und Technologien für künstliche Intelligenz und maschinelles Lernen werden im Rechenzentrumsbetrieb im Vordergrund stehen.
Das obige ist der detaillierte Inhalt vonWie sind künstliche Intelligenz und maschinelles Lernen bereit, die Spielregeln für den Rechenzentrumsbetrieb zu verändern?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!