GPU-gesteuerte Anwendungen erfordern eine stark optimierte Kühlung

GPU-gesteuerte Anwendungen erfordern eine stark optimierte Kühlung

Über Rahi Systeme

Rahi Systems ist ein globaler Rechenzentrum-Lösungsanbieter, der eine ganze Reihe von Produkten in physischer Infrastruktur, Speicherung, Berechnung und Vernetzung anbietet. Darüber hinaus bietet Rahi professionelle und Managed Services an, um Kunden bei der Logistik, Lieferung, Einrichtung und laufenden Unterstützung ihrer Rechenzentrumslösungen zu unterstützen.

Schnelle Fortschritte in der künstlichen Intelligenz (KI) werden durch die Grafikprozessoren (GPUs) Nvidia ermöglicht, die ursprünglich für den Videospielemarkt entwickelt wurden. Unternehmen, die die Fähigkeiten von Nvidia-GPUs nutzen möchten, müssen ihre Rechenzentren auf extreme Leistungsdichte und die damit verbundene Wärme vorbereiten.

Nvidia revolutionierte Computerspiele mit seiner GPU. Diese spezialisierten Schaltungen sind in der Lage, bei Videospielen sauberere, schnellere und sanftere Bewegungen zu erzeugen, indem sie mehrere mathematische Berechnungen gleichzeitig durchführen.

Dann, in 2007, ging Nvidia über den Gaming-Markt hinaus, als es das Konzept des "GPU-beschleunigten Computing" einführte. GPUs werden in massiv parallelen Verarbeitungsumgebungen mit herkömmlichen Computer-Verarbeitungseinheiten (CPUs) kombiniert, die rechenintensive Programme schneller ausführen. Diese Entwicklung lieferte den Verarbeitungs-Oomph, der erforderlich ist, um essentielle KI-Funktionen wie Deep Learning zu ermöglichen.

Deep Learning ist ein Computermodell, das die Art und Weise, wie das menschliche Gehirn mit Neuronen und Synapsen arbeitet, nachahmt. Nvidias GPUs werden verwendet, um so genannte "künstliche neuronale Netze" zu erzeugen, die eine große Anzahl von miteinander verbundenen Knoten verwenden, die gemeinsam große Datensätze analysieren. Dies gibt einer Maschine die Möglichkeit, Muster oder Trends zu entdecken und aus diesen Entdeckungen zu lernen. Dies ist die Essenz der künstlichen Intelligenz.

Wichtige architektonische Unterschiede zwischen einer CPU und Nvidias GPU machen dies möglich. Eine CPU hat einige Kerne mit viel Cache-Speicher, die gleichzeitig einige wenige Software-Threads verarbeiten können. CPUs sind auch für die sequentielle Verarbeitung optimiert - die Ausführung von Prozessen in der Reihenfolge, in der sie empfangen werden. GPUs haben Hunderte von Kernen, die Tausende von Threads verarbeiten und mehrere Prozesse gleichzeitig ausführen können.

GPU-beschleunigtes Computing kann einige Software 100 mal schneller als mit einer CPU allein ausführen. Das macht es perfekt für den Deep-Learning-Typ von Algorithmen, die eine Reihe von AI-Anwendungen antreiben.

GPUs stellen auch die Rechenzentrumsumgebung vor erhebliche Herausforderungen. Während CPUs immer energieeffizienter werden, verbrauchen GPUs viel Strom. Die Einführung von GPU-beschleunigten Berechnungen führt zu einer höheren Leistungsdichte im Rechenzentrum - in der Größenordnung von 30kW bis 40kW pro Rack nach einigen Schätzungen. Viele Hyper-Scale-Rechenzentren verbrauchen nur etwa 10kW pro Rack.

Leistungsdichten dieser Größenordnung bedeuten signifikant höhere Wärmebelastungen, auf die wenige Umgebungen vorbereitet sind. Hot-Aisle-Eindämmung ist unerlässlich, zusammen mit Kühlsysteme in Reihe die ihre Kapazität auf in der Nähe befindliche Ausrüstung konzentrieren. Kühlung in der Reihe erfasst und neutralisiert heiße Abluft bevor sie in das Rechenzentrum gelangen kann.

Kühlwasser-Kühlsysteme werden oft für GPU-beschleunigte Berechnungen empfohlen, da Wasser etwa die vierfache Wärmekapazität von Luft hat. Jedoch, In-row Kühlung bietet eine größere Effizienz durch Verkürzung des Luftstromweges und Reduzierung des zu kühlenden Raumvolumens.

Enconnex in Reihe Kühlung Einheiten geben Ihnen die Flexibilität, das Kühlmittel Ihrer Wahl zu wählen. Verfügbar in Kondenswasser-, Kaltwasser- und DX-Luft- und wassergekühlten Konfigurationen, Enconnex in Reihe Kühlung Geräte bieten mehr als 100kW Kühlleistung und passen dennoch problemlos in jede Rechenzentrumsumgebung.

Nvidia GPUs werden verwendet, um Hunderte von AI-gesteuerten Anwendungen für Anwendungen wie Quantenchemie, Fluiddynamik, Videobearbeitung und medizinische Bildgebung zu beschleunigen. Unternehmen, die von einer KI profitieren möchten, müssen sicherstellen, dass ihre Rechenzentrumsinfrastrukturen die von diesen leistungsstarken Chips erzeugte Wärme bewältigen können.

Rahi Systems stellt auf der Nvidia aus GPU-Technologie-Konferenz, März 26-29 in San Jose, Kalifornien. Besuchen Sie Booth #1225, um mehr über unsere Inline-Kühllösung zu erfahren und Ihr kostenloses Give-Away abzuholen!

 

Hinterlasse einen Kommentar