Apple bestätigt Nutzung von Amazon-KI-Chips für Cloud-Dienste
Laut CNBC sprach Benoit Dupin, Senior Director of Machine Learning and Artificial Intelligence bei Apple, auf Amazons AWS re:Invent-Konferenz in Las Vegas darüber, wie Apple in vielen seiner Cloud-Dienste benutzerdefinierte KI-Chips von Amazon Web Services (AWS) nutzt. Apple prüft auch Amazons neueste KI-Chips für das Vortraining seiner Apple Intelligence-Modelle.
„Wir haben eine starke Beziehung und die Infrastruktur ist sowohl zuverlässig als auch in der Lage, unsere Kunden weltweit zu bedienen“, sagte Dupin.
Apples Teilnahme an Amazons Konferenz und die Übernahme der Chips des Unternehmens bedeuten eine starke Unterstützung von AWS, da es mit Microsoft Azure und Google Cloud um KI-Investitionen konkurriert. Apple nutzt diese konkurrierenden Cloud-Dienste ebenfalls.
Während der Veranstaltung betonte Dupin, dass Apple AWS-Chips wie Graviton und Inferentia seit über einem Jahrzehnt verwendet, um Dienste wie Siri, die Suche, den App Store, Apple Music, Apple Maps und mehr zu betreiben. Durch die Nutzung dieser Chips hat Apple eine 40-prozentige Effizienzsteigerung im Vergleich zu den x86-Chips von Intel und AMD erreicht.
Dupin bestätigte außerdem, dass Apple derzeit den neuesten KI-Trainingschip von AWS, Trainium2, testet. Er erklärte, dass Apple mit dem Trainium2-Chip „eine bis zu 50-prozentige Effizienzsteigerung durch Vortraining“ erwarte.
AWS-CEO Matt Garman erwähnte in einem Interview mit CNBC, dass Apple ein früher Anwender und Betatester der Trainium-Chips war.
„Apple kam auf uns zu und sagte: ‚Wie können Sie uns helfen, unsere generativen KI-Fähigkeiten zu verbessern? Wir brauchen eine Infrastruktur, um diese Vision umzusetzen‘“, sagte Garman zu Kate Rooney von CNBC. „Sie hatten eine klare Vision für die Entwicklung von Apple Intelligence.“
In diesem Herbst brachte Apple sein erstes großes generatives KI-Produkt auf den Markt, Apple Intelligence, eine Reihe von Diensten, die Benachrichtigungen zusammenfassen, E-Mails umschreiben und neue Emojis generieren können. Laut dem Unternehmen wird Apple Intelligence noch in diesem Monat in OpenAIs ChatGPT integriert, und Siri wird nächstes Jahr neue Funktionen für die App-Steuerung und natürliche Sprache erhalten.
Im Gegensatz zu führenden Chatbots wie ChatGPT von OpenAI, die auf großen Clustern von Nvidia-basierten Servern in der Cloud basieren, verfolgt Apple einen anderen Ansatz. Das Unternehmen verarbeitet so viel wie möglich auf lokalen Geräten wie iPhones, iPads oder Macs und delegiert komplexe Anfragen an von Apple betriebene Server, die von den proprietären Chips der M-Serie angetrieben werden.