September 8, 2024

BNA-Germany

Folgen Sie den großen Nachrichten aus Deutschland, entdecken Sie ausgefallene Nachrichten aus Berlin und anderen Städten. Lesen Sie ausführliche Funktionen, die Ihnen helfen, die Denkweise der Deutschen zu verstehen.

Apple gibt an, dass seine KI-Modelle auf benutzerdefinierten Google-Chips trainiert wurden

Apple gibt an, dass seine KI-Modelle auf benutzerdefinierten Google-Chips trainiert wurden

Sundar Pichai und Tim Cook

Quelle: Reuters; Kamel

Apfel Apple sagte am Montag, dass die Modelle der künstlichen Intelligenz, die sein KI-System antreiben, auf von Google entwickelten Prozessoren vorab trainiert wurden, ein Zeichen dafür, dass große Technologieunternehmen nach Alternativen suchen. Nvidia Wenn es um fortgeschrittenes KI-Training geht.

Apples Wahl Google Die lokale Tensor Processing Unit (TPU) für das Training ist detailliert beschrieben in Technisches Papier gerade veröffentlicht von Unabhängig davon hat Apple am Montag eine Vorschauversion von Apple Intelligence für einige Geräte veröffentlicht.

Die teuren Grafikprozessoren (GPUs) von Nvidia dominieren den Markt für High-End-KI-Trainingschips und waren in den letzten Jahren so stark nachgefragt, dass es schwierig war, sie in den erforderlichen Mengen zu kaufen. OpenAI, MicrosoftAnthropic und Nvidia verwenden beide GPUs von Nvidia in ihren Modellen, während andere Technologieunternehmen, darunter Google, darauf zurückgreifen tot, Inspiration Und Tesla Sie ziehen sie dazu an, KI-Systeme und Demos zu erstellen.

Letzte Woche gaben Mark Zuckerberg, CEO von Meta, und Sundar Pichai, CEO von Alphabet, Kommentare ab, in denen sie darauf hinwiesen, dass ihre Unternehmen und andere in der Branche möglicherweise zu viel in die KI-Infrastruktur investieren. Sie räumten jedoch ein, dass die Geschäftsrisiken, wenn sie anders vorgehen würden, zu hoch seien.

„Die Kehrseite des Zurückbleibens besteht darin, dass man im Hinblick auf die Technologie, die in den nächsten 10 bis 15 Jahren am wichtigsten ist, aus der Position geraten wird“, sagte Zuckerberg in einem Interview. Podcast Mit Emily Chang von Bloomberg.

Apple nannte Google oder Nvidia in seinem 47-seitigen Papier nicht namentlich, stellte jedoch fest, dass das Apple Foundation Model (AFM) und der AFM-Server auf „TPU-Cloud-Clustern“ trainiert sind. Das bedeutet, dass Apple für die Berechnungen Server von einem Cloud-Anbieter gemietet hat.

Siehe auch  Haak-Entwickler kündigt Xbox-Version und behauptet, Microsoft Partner Center habe sie zu einem „Albtraum“ gemacht

„Mit diesem System können wir AFM-Modelle effizient und skalierbar trainieren, einschließlich On-Device-AFM, AFM-Server und größerer Modelle“, sagte Apple in seinem Papier.

Vertreter von Apple und Google antworteten nicht auf Anfragen nach Kommentaren.

Apple enthüllte seine KI-Pläne später als viele seiner Konkurrenten, die generative KI kurz nach der Einführung von ChatGPT durch OpenAI Ende 2022 lautstark begrüßten. Am Montag stellte Apple Apple Intelligence vor. Das System umfasst mehrere neue Funktionen, wie zum Beispiel ein aktualisiertes Aussehen von Siri, eine bessere Verarbeitung natürlicher Sprache und KI-generierte Zusammenfassungen in Textfeldern.

Im Laufe des nächsten Jahres plant Apple die Einführung von Funktionen, die auf generativer KI basieren, darunter Bilderstellung, Emoji-Generierung und eine verbesserte Siri, die auf die persönlichen Daten eines Benutzers zugreifen und Aktionen innerhalb von Apps ausführen kann.

In einem Papier vom Montag sagte Apple, dass das AFM des Geräts auf einem einzigen „Chip“ von 2.048 zusammenarbeitenden TPU v5p-Chips trainiert wurde. Dies ist der fortschrittlichste TPU-Chipsatz, der erstmals im Dezember auf den Markt kam. Dem Papier zufolge wurde der AFM-Server auf 8.192 TPU v4-Chips trainiert, die so konfiguriert waren, dass sie als acht Chips über das Rechenzentrumsnetzwerk zusammenarbeiten.

Laut Google kosten die neuesten TPUs weniger als 2 US-Dollar pro Stunde und der Chip wird verwendet, wenn er drei Jahre im Voraus reserviert wird Zur Website von GoogleGoogle stellte seine TPUs erstmals 2015 für interne Workloads vor und stellte sie 2017 der Öffentlichkeit zur Verfügung. Sie gehören mittlerweile zu den ausgereiftesten maßgeschneiderten Chips, die für KI entwickelt wurden.

Allerdings ist Google einer der größten Kunden von Nvidia. Es nutzt die GPUs und Grafikprozessoren von Nvidia, um KI-Systeme zu trainieren, und verkauft außerdem den Zugriff auf die Technologie von Nvidia in seiner Cloud.

Siehe auch  Activision zieht sehr schöne, aber "gestohlene" Haut ab

Apple hatte zuvor erklärt, dass Inferenz, das heißt, ein vorab trainiertes KI-Modell zu nehmen und es auszuführen, um Inhalte zu generieren oder Vorhersagen zu treffen, teilweise auf Apple-Chips in seinen Rechenzentren erfolgen wird.

Dies ist nach einer allgemeineren Veröffentlichung im Juni das zweite technische Dokument zum KI-System von Apple. Apple sagte pünktlich Bei der Entwicklung seiner KI-Modelle wurden Thermoverarbeitungseinheiten (TPU) verwendet.

Apple wird seine Quartalsergebnisse voraussichtlich nach Handelsschluss am Donnerstag bekannt geben.

Verpassen Sie nicht diese Erkenntnisse von CNBC PRO

Wie der enorme Stromverbrauch generativer KI unser Netzwerk überfordert