Skip to main content

Lösung

Machine Learning und GPU

Deep Learning

Welche grundlegenden Rechenoperationen sind für ML Anwendungen wichtig?

Für maschinelles Lernen (ML) sind vor allem folgende grundlegende Rechenoperationen wichtig:

1. Addition und Subtraktion für Datenanpassungen und Fehlerkorrekturen.
2. Multiplikation und Division zur Skalierung und Normalisierung von Daten.
3. Matrixmultiplikation für Operationen in neuronalen Netzwerken und für die Darstellung von Transformationen.
4. Gradientenabstieg (eine Methode zur Optimierung) nutzt Differentialrechnung, um das Minimum einer Funktion zu finden.
5. Faltungsoperationen in Faltungsnetzwerken für die Bild- und Signalverarbeitung.

Diese Operationen sind die Bausteine für komplexere Algorithmen und Modelle im Bereich des maschinellen Lernens und der künstlichen Intelligenz.

Wieso können ML Anwendungen so stark parallelisiert werden?

ML Anwendungen können stark parallelisiert werden, weil sie oft aus vielen unabhängigen Berechnungen bestehen, besonders bei Operationen wie Matrixmultiplikationen und Faltungsoperationen, die in neuronalen Netzen häufig vorkommen. Diese Unabhängigkeit ermöglicht es, Berechnungen gleichzeitig auf mehreren Prozessoren oder Rechenkernen auszuführen. Zudem sind Daten oft in kleine, verarbeitbare Blöcke unterteilbar, die parallel analysiert und verarbeitet werden können, was zu einer erheblichen Beschleunigung des Lernprozesses führt.

How GPU Computing Works | GTC 2021

Wie Unterscheiden sich GPUs von CPUs?

GPUs (Graphics Processing Units) und CPUs (Central Processing Units) unterscheiden sich hauptsächlich in ihrer Architektur und Verarbeitungsfähigkeit. CPUs sind mit wenigen, aber leistungsstarken Kernen ausgestattet, die auf effiziente sequenzielle Verarbeitung ausgelegt sind, was sie ideal für eine Vielzahl von allgemeinen Rechenaufgaben macht. GPUs besitzen hingegen tausende von kleineren Kernen, die für die parallele Ausführung von Aufgaben konzipiert sind, was sie besonders geeignet für spezialisierte Anwendungen macht, die eine hohe Rechenleistung erfordern, wie Grafikrendering, wissenschaftliche Simulationen und maschinelles Lernen. Diese strukturelle Differenz führt dazu, dass GPUs in der Lage sind, viele Berechnungen gleichzeitig durchzuführen, während CPUs sich auf die schnelle Ausführung einer kleineren Anzahl von Prozessen konzentrieren.

Wie ermöglichen GPUs die hohe parallele Ausführung von Berechnungen?

Cloud Computing

Wie ist der AWS Inferentia2 aufgebaut?

Der AWS Inferentia2 ist ein Beschleuniger für Deep-Learning-Inferenzen, der mit zwölf Geräten ausgestattet ist, die jeweils zwei NeuronCore-v2 Kerne enthalten. Die hohe Rechenleistung dieser Kerne wird durch einen hohen Bandbreitenspeicher mit signifikanter Bandbreite von 32 GiB unterstützt. Inferentia2 bietet erweiterte Funktionen für die Handhabung dynamischer Formen und Kontrollflüsse und unterstützt durch NeuronLink-v2 für optimierte Geräteverbindungen, um Datentransfers mit hoher Geschwindigkeit und Effizienz durchzuführen. Weitere Informationen finden Sie in der AWS Neuron Dokumentation. ​

Für welche Rechenoperationen ist der AWS Inferentia2 optimiert?

Der AWS Inferentia2 wurde entwickelt, um eine Vielzahl von Rechenoperationen wie INT8, FP16, BF16, cFP8, TF32 und FP32 zu unterstützen. Er bietet hohe Leistung für Deep-Learning-Inferenz-Aufgaben und wird durch spezialisierte Hardwarekomponenten wie NeuronCore-v2 Kerne, High-Bandwidth-Memory und NeuronLink-v2 unterstützt, um effiziente Geräteverbindungen zu gewährleisten. Inferentia2 kann aufgrund dieser Verbesserungen zahlreiche Machine-Learning-Modelle und Anwendungen effektiv unterstützen.

Wie unterscheiden sich die KI-Beschleuniger-Instanzen von herkömmlichen CPU-Instanzen?

Im Gegensatz zu herkömmlichen CPU-Instanzen bieten KI-Beschleuniger-Instanzen deutlich höhere Rechenleistungen bei solchen Anwendungen und sind speziell für KI- und ML-Aufgaben optimiert. Sie verwenden spezielle Hardware wie GPUs oder ASICs (wie Google TPUs oder AWS Inferentia), die für parallele Datenverarbeitung und spezifische Rechenoperationen entwickelt wurden, die in KI-Modellen häufig vorkommen. Im Vergleich zu CPU-Instanzen, die für eine breitere Palette von Anwendungen konzipiert sind, führt dies zu schnelleren Verarbeitungszeiten und effizienterem Ressourceneinsatz bei KI-Berechnungen, aber nicht so leistungsfähig bei spezialisierten KI-Aufgaben.

Wie sind die Preise für KI-Beschleuniger Instanzen?

AWS bietet eine Vielzahl von KI-Beschleuniger-Instanzen an, die speziell für Deep Learning-Inferenzen entwickelt wurden. Die Inf2-Instanzen sind bekannt für ihre Leistung und Kosteneffizienz. Sie ermöglichen die Bereitstellung von Modellen mit hunderten Milliarden Parametern und unterstützen dank der ultrahochgeschwindigen Verbindung zwischen ihnen verteilte Inferenzen auf mehreren Beschleunigern. Inf2-Instanzen sind bis zu 40% günstiger als vergleichbare EC2-Instanzen und bieten bis zu 4x höheren Durchsatz und bis zu 10x geringere Latenz. Durch die Integration des AWS Neuron SDKs können sie gängige ML-Frameworks und Bibliotheken unterstützen, was eine optimale Leistung für Modelle aus beliebten Repositories wie Hugging Face ermöglicht. Besonders leistungsfähig sind sie mit einer Rechenleistung von bis zu 2,3 Petaflops, bis zu 384 GB Hochbandbreitenspeicher für Beschleuniger und einer NeuronLink-Verbindung, die die schnelle Kommunikation zwischen Beschleunigern ermöglicht.

Ein Beispiel für die Preisgestaltung von Inf2-Instanzen in der AWS-Region US East (Nord-Virginia) zeigt, dass die Preise je nach Größe, Speicher und weiteren Konfigurationen variieren. In-Demand-Instanzen kosten zwischen 0,76 USD pro Stunde für eine inf2.xlarge-Instanz und 12,98 USD pro Stunde für eine inf2.48xlarge-Instanz. Es gibt auch Optionen für 1-Jahres- und 3-Jahres-Reserven, um Kosten zu senken. Kunden haben berichtet, dass die Verwendung von Inf1- und Inf2-Instanzen im Vergleich zu herkömmlichen GPU-basierten Instanzen zu erheblichen Kosteneinsparungen und Leistungssteigerungen geführt hat, einschließlich kürzerer Latenzzeiten und niedrigerer Kosten pro Inferenz.

Preise

Instance-Größe Inferentia2-Beschleuniger Beschleuniger
Arbeitsspeicher
(GB)
vCPU Arbeitsspeicher
(GiB)
Lokale
Speicherung
Inter-Beschleuniger
Interconnect
Netzwerk
Bandbreite
(Gbit/s)
EBS
Bandbreite
(Gbit/s)
On-Demand-Preise Reservierte Instance für 1 Jahr Reservierte Instance für 3 Jahre
inf2.xlarge 1 32 4 16 Nur EBS Bis zu 15 Bis zu 10 0,76 USD 0,45 USD 0,30 USD
inf2.8xlarge 1 32 32 128 Nur EBS Bis zu 25 10 1,97 USD 1,81 USD 0,79 USD
inf2.24xlarge 6 192 96 384 Nur EBS Ja 50 30 6,49 USD 3,89 USD 2,60 USD
inf2.48xlarge 12 384 192 768 Nur EBS Ja 100 60 12,98 USD 7,79 USD 5,19 USD