Angriff auf Nvidia: Das ist Googles Geheimwaffe in der KI-Schlacht

Angriff auf NvidiaDas ist Googles Geheimwaffe in der KI-Schlacht

11.01.2026, 17:18 Uhr image (2)Von Hannes Vogel

FILE-PHOTO-The-Google-logo-is-seen-on-the-Google-house-at-CES-2024-an-annual-consumer-electronics-trade-show-in-Las-Vegas-Nevada-U-S-January-10-2024
Alphabet steckt riesige Summen in den Ausbau von Infrastruktur für künstliche Intelligenz. (Foto: REUTERS)

Nicht seine gigantischen Werbeeinnahmen oder Chatbots sind Googles größter Trumpf im KI-Wettlauf. Der Internet-Riese wandelt sich zum Chipgiganten. Seine Prozessoren könnten schon bald mehr wert sein als Gemini oder Drive – und Nvidia vom Thron stürzen.

Für die Anleger der Google-Mutter Alphabet gab es im vergangenen Jahr Anlass zu guter Laune. Um mehr als die Hälfte hat der Aktienkurs des Tech-Riesen aus Mountain View 2025 zugelegt. Doch der Grund für die billionenschwere Bewertung ist nicht nur die Euphorie der Börse über den rasanten KI-Ausbau. Hinter einem Großteil der Kursgewinne steckt die Hoffnung der Investoren auf die Transformation von einem der größten US-Tech-Konzerne: Der Online-Dominator Google wird auch zum Chipgiganten.

Schon vor zehn Jahren hat Google mit sogenannten TPUs (Tensor Processing Units) seine ersten eigenen KI-Chips an den Start gebracht, um seine Online-Suche zu beschleunigen und dabei den Stromverbrauch und die Kosten seiner gigantischen Rechenzentren zu senken. „Manche halten sie technisch sogar für gleichwertig oder Nvidia überlegen. Traditionell hat Google sie jedoch nur für interne Zwecke eingesetzt. Es gibt viele Spekulationen, dass Google den Zugang zu TPUs langfristig breiter öffnen könnte“, zitiert der US-Sender CNBC den Autor Chris Miller, der ein Buch über den weltweiten Kampf um Chip-Technologie geschrieben hat.

Im derzeitigen KI-Wettrüsten zwischen Alphabet, Amazon, Meta, OpenAI & Co. ist Rechenpower die digitale Feuerkraft, die alles entscheidet. Und die TPUs sind somit die Geheimwaffe, die Google den Sieg bringen könnte. Denn mit seinen gigantischen Investitionen in KI-Infrastruktur (mehr als 90 Milliarden Dollar allein im vergangenen Jahr), häuft der Online-Riese immer mehr dieser selbst entwickelten Spezialchips an, die er womöglich schon bald auch an andere Anbieter verkaufen könnte. Es winkt eine neue Goldgrube, die den Konzern noch mächtiger machen könnte als den Chiphersteller Nvidia, die nach Börsenwert größte Firma der Welt.

Noch macht Google mit seinem Kerngeschäft Suche und Anzeigen den Löwenanteil der Gewinne. Doch das könnte sich bald ändern. „Das Chip-Geschäft könnte am Ende mehr wert sein als Google Cloud“, zitiert Bloomberg den Analysten Gil Luria von der Finanzberatung DA Davidson. „Aber selbst wenn Google nie Chips extern verkaufen sollte, bedeuten bessere Chips eine bessere und effizientere Cloud.“

„Teil des Geheimrezepts“

Luria schätzt, dass Google in wenigen Jahren gut ein Fünftel des Markts für KI-Chips erobern könnte, falls sich der Konzern entschließt, sie auch extern zu verkaufen. Damit winkt aus dem Stand ein Geschäft von gut 900 Milliarden Dollar. „Google wird nicht den gesamten Markt kontrollieren, aber das ist Teil des Geheimrezepts für die Aktie“, sagt ein anderer Analyst zu der Finanzagentur. Experten gehen davon aus, dass Google die Produktion von TPUs bis 2028 mehr als verdoppeln wird.

Es wäre ein Frontalangriff auf den Platzhirsch Nvidia. Seine Chips gelten noch immer als Goldstandard. Die Grafikprozessoren (GPUs) von Jensen Huangs Konzern wurden eigentlich für interaktive Echtzeit-3D-Effekte bei Videospielen oder komplexe visuelle Simulationen entwickelt. Dabei müssen Millionen Pixel zugleich berechnet werden. Mit dem Beginn der KI-Revolution stellte sich heraus, dass diese parallele Chip-Architektur auch ideal geeignet ist, um die riesigen Datenmengen zu verarbeiten, die beim Training von KI-Modellen oder der Verarbeitung von Anfragen etwa bei ChatGPT anfallen.

Googles TPUs (Tensor Processing Units) dagegen sind sogenannte anwendungsspezifische integrierte Schaltungen (ASIC), die Google schon ab 2015 für sein Cloud-Geschäft entwickelt hat. Inzwischen sind diese Spezial-Chips laut Google für „das Trainieren großer und komplexer Deep-Learning-Modelle mit vielen Matrixberechnungen optimiert“, wie sie in neuronalen Netzwerken vorkommen. Das zeigt sich schon am Namen: Tensoren sind die multidimensionalen Datencontainer, mit denen KI-Modelle rechnen. Und die Spezial-Chips wurden nur dazu geschaffen, sie zu verarbeiten.

Googles TPUs sind zwar nicht so leistungsstark und flexibel programmierbar wie Nvidias GPUs: Ist die Anwendung einmal festgelegt, kann sie nicht mehr verändert werden. Sie sind kein Schweizer Taschenmesser, sondern ein Spezialwerkzeug, das nur eine bestimmte Aufgabe erfüllen kann. Aber dafür sind sie kleiner, schneller und deutlich energieeffizienter und günstiger. Denn TPUs sind darauf ausgelegt, KI-Arbeitslasten dynamisch zu skalieren, je nachdem, wie viel Leistung gerade gebraucht wird. Dafür schalten sich dann mehr oder weniger der Spezial-Chips über optische Leitungen zu Supercomputern der gewünschten Größe zusammen. Google setzt diese KI-Beschleuniger schon lange für seinen Chatbot Gemini und seine eigenen KI-gestützten Dienste wie Fotos oder Maps ein.

Kostentrumpf im KI-Wettrennen

Diese jahrelange Entwicklungsarbeit zahlt sich aus. Denn da sich Investoren zunehmend fragen, ob die gigantischen Kosten des KI-Ausbaus gerechtfertigt sind und sich selbst die Billionenkonzerne aus dem Silicon Valley zunehmend dafür verschulden müssen, hat Google mit seinen Chips einen entscheidenden Kostenvorteil.

Die Eigenentwicklung solcher Spezialchips kostet allerdings ein Vermögen, wodurch sich das nur Internetriesen leisten können. Aber es macht sie unabhängiger von Quasi-Monopolisten wie Nvidia. Nahezu alle großen KI-Anbieter werkeln daher daran: Nicht nur Google, auch Amazon baut längst seine eigenen KI-Spezialchips (Trainium), ebenso wie Meta (MTIA), Microsoft (Maia) und nun selbst OpenAI: Mit Broadcom will die KI-Schmiede in diesem Jahr Chips mit dem Codenamen „Titan“ entwickeln.

Doch Google liegt weit vorn: Amazon brachte seinen ersten Cloud-KI-Chip erst 2019 an den Start, Microsoft gar erst Ende 2023. „Unter den ASIC-Anbietern ist Google das einzige Unternehmen, das diese Technologie tatsächlich in riesigen Mengen eingesetzt hat“, zitiert CNBC Stacy Rasgon, eine Chip-Analystin bei Bernstein Research. „Sie sind unter den Hyperscalern am weitesten fortgeschritten.“

Zudem gehört TPUs potenziell die Zukunft. Denn inzwischen gibt es mit ChatGPT, Gemini, Claude oder Perplexity eine Menge starker KI-Modelle. Künftig dürfte daher das Training tendenziell an Bedeutung verlieren und die sogenannte Inferenz in den Vordergrund rücken: die Anwendung der Modelle durch Nutzer, um neue Inhalte zu generieren. Und dafür reichen eben auch weniger komplexe KI-Chips als GPUs – auch wenn Google trotzdem weiterhin Chips von Nvidia kauft, um sie seinen Kunden über die Cloud bereitzustellen.

Mit Ironwood hat Google Ende letzten Jahres überdies nicht nur sein bislang mächtigstes TPU-System der inzwischen siebten Generation herausgebracht. Sondern einen Mega-Deal verkündet: Die KI-Schmiede Anthropic lässt ihren Chatbot Claude künftig nicht nur auf Nvidia-GPUs und Amazon-Trainium-Chips, sondern auch auf einer Million Google-TPUs laufen. Auch Meta soll nach Medienberichten schon über TPU-Käufe im Wert von mehreren Milliarden Dollar verhandeln.

Quelle: ntv.de