Dezember 23, 2024

BNA-Germany

Folgen Sie den großen Nachrichten aus Deutschland, entdecken Sie ausgefallene Nachrichten aus Berlin und anderen Städten. Lesen Sie ausführliche Funktionen, die Ihnen helfen, die Denkweise der Deutschen zu verstehen.

NVIDIA-Konsens deutet darauf hin, dass ein Bedarf an erheblicher KI-Leistung unmittelbar bevorsteht: Barclays von Investing.com

In einem aktuellen thematischen Investitionsbericht erörterten die Analysten von Barclays den Energiebedarf, der mit dem Aufstieg der KI-Technologien einhergehen wird, mit besonderem Schwerpunkt auf der Rolle von NVIDIA (NASDAQ:) in dieser Landschaft.

Analysten zufolge unterstreicht der erwartete Energiebedarf im Zusammenhang mit Fortschritten in der künstlichen Intelligenz einen entscheidenden Aspekt der Marktaussichten von NVIDIA.

Barclays Analytics geht davon aus, dass Rechenzentren bis 2030 mehr als 9 % des aktuellen US-Strombedarfs verbrauchen könnten, was größtenteils auf den Energiebedarf künstlicher Intelligenz zurückzuführen ist. Analysten stellten fest, dass „im NVIDIA-Konsens enthaltene künstliche Intelligenz“ einer der Hauptfaktoren für diese große Energieprognose ist.

Der Bericht stellt außerdem fest, dass sich die Effizienz der KI zwar mit jeder neuen GPU-Generation weiter verbessert, die Größe und Komplexität der KI-Modelle jedoch rasant zunimmt. Beispielsweise hat die Größe großer Sprachmodelle (LLMs) etwa um das 3,5-fache pro Jahr zugenommen.

Trotz dieser Verbesserungen wird erwartet, dass der Gesamtenergiebedarf aufgrund des wachsenden Umfangs von KI-Anwendungen steigen wird. Jede neue Generation von GPUs, wie beispielsweise die Hopper- und Blackwell-Serien von NVIDIA, ist energieeffizienter. Größere und komplexere KI-Modelle erfordern jedoch erhebliche Rechenleistung.

„Große Sprachmodelle erfordern enorme Rechenleistung, um Echtzeitleistung zu erzielen“, heißt es in dem Bericht. „Die Rechenanforderungen großer Sprachmodelle führen auch zu einem höheren Stromverbrauch, da immer mehr Speicher, Beschleuniger und Server benötigt werden, um diese Modelle anzupassen, zu trainieren und abzuleiten.“

„Organisationen, die LLM-Programme für Echtzeit-Schlussfolgerungen einsetzen wollen, müssen sich mit diesen Herausforderungen auseinandersetzen“, fügte Barclays hinzu.

Um das Ausmaß dieses Energiebedarfs zu veranschaulichen, geht Barclays davon aus, dass für die Stromversorgung von etwa 8 Millionen GPUs etwa 14,5 Gigawatt Leistung erforderlich sein werden, was etwa 110 Terawattstunden Energie entspricht. Diese Prognose geht von einem durchschnittlichen Auslastungsgrad von 85 % aus.

Es wird erwartet, dass etwa 70 % dieser GPUs bis Ende 2027 in den USA eingesetzt werden, was allein in den nächsten drei Jahren einem KI-Leistungs- und Energiebedarf von mehr als 10 GW und 75 TWh entspricht.

„Die Marktkapitalisierung von NVIDIA zeigt, dass dies erst der Anfang der Verbreitung der Energienachfrage durch künstliche Intelligenz ist“, sagten Analysten. Es wird erwartet, dass die kontinuierliche Entwicklung und Bereitstellung von GPUs durch den Chiphersteller den Stromverbrauch in allen Rechenzentren deutlich erhöhen wird.

Darüber hinaus unterstreicht die Abhängigkeit von Netzstrom für Rechenzentren, wie wichtig es ist, den Spitzenstrombedarf zu decken. Rechenzentren arbeiten kontinuierlich und benötigen eine ausgewogene Stromversorgung.

Der Bericht zitiert eine bemerkenswerte Aussage von Sam Altman, CEO von OpenAI, beim Weltwirtschaftsforum in Davos, in der er sagte: „Wir brauchen viel mehr Energie auf der Welt, als wir vorher dachten … Ich denke, wir brauchen immer noch.“ Es gibt viel mehr Energie auf der Welt, als wir vorher dachten… „Wir schätzen den Energiebedarf dieser Technologie nicht ab.“