Künstliche IntelligenzSo stellt Google sich die KI-Zukunft vor

Lesezeit: 4 Min.

Google zeigte auf seiner Entwicklerkonferenz auch dieses Bild, das dem Konzern zufolge mit seiner KI Veo erzeugt wurde.
Google zeigte auf seiner Entwicklerkonferenz auch dieses Bild, das dem Konzern zufolge mit seiner KI Veo erzeugt wurde. (Foto: Google)

Auf Googles Entwicklerkonferenz dreht sich alles um KI. Die Pläne schwanken zwischen fantastisch und dystopisch. Das sind die fünf wichtigsten Ankündigungen.

Von Simon Berlin, Berlin

Chatbots und die Websuche sind tot, lang lebe künstliche Intelligenz (KI). So lässt sich Googles Vision für das KI-Zeitalter zusammenfassen, die der Konzern auf seiner jährlichen Entwicklerkonferenz I/O vorgestellt hat. Ein halbes Dutzend Top-Manager um Google-Chef Sundar Pichai schwärmten auf der Bühne von Sprachmodellen, einer neuen Ära der Online-Suche und dem ultimativen Ziel: einem universellen KI-Assistenten, der bei jedem Problem und in jeder Lebenslage helfen soll.

Den Hang zu Superlativen hat sich Google offenbar von den iPhone-Gottesdiensten abgeschaut, die Apple regelmäßig feiert. Alle Produkte sind demnach die schnellsten, besten und intelligentesten, die Google je entwickelt hat. Bei Apple hält dieser Zustand immerhin ein Jahr, bei Google höchstens ein paar Monate. KI verändert sich schneller als iPhones, und manchmal fällt es schwer, den Überblick zu behalten.

„Jahrzehnte der Forschung werden jetzt zur Realität für Menschen auf der ganzen Welt“, sagte Pichai in einem Vorgespräch mit Journalistinnen und Journalisten. „Es sind mehr Intelligenz und Wissen verfügbar denn je. Wir befinden uns in einer neuen Phase der Nutzung von KI.“ Das sind die fünf wichtigsten Ankündigungen, die zeigen, wie Google sich diese Zukunft vorstellt.

1. Googeln war gestern

Vor genau einem Jahr führte Google den Überblick mit KI in den USA ein, im März wurde die Funktion auch in Deutschland freigeschaltet. Damit verwandelt sich die Suchmaschine Schritt für Schritt in eine Antwortmaschine, die bei vielen Fragen eine KI-generierte Zusammenfassung einblendet. Bei bestimmten Suchanfragen fasst Googles Sprachmodell Gemini die zentralen Aussagen unterschiedlicher Quellen zusammen. Den KI-Überblick zeigt Google ganz oben an, die traditionellen Links zu anderen Webseiten rutschen nach unten.

Jetzt geht Google einen Schritt weiter. Der sogenannte KI-Modus ersetzt Links komplett, stattdessen spuckt Gemini eine längere Zusammenfassung aus. Man kann komplexe Fragen stellen und sich mit der KI unterhalten wie mit einem Chatbot. Dadurch tritt die klassische Suche endgültig in den Hintergrund. Aus Information werde Intelligenz, so formuliert es Googles Such-Chefin Liz Reid, KI sei die Zukunft der Suche. Die Funktion ist zunächst nur in den USA verfügbar, weitere Länder sollen folgen.

So sieht Googles neuer KI-Modus aus.
So sieht Googles neuer KI-Modus aus. (Foto: Google)

2. Chatbots sind nur ein Zwischenschritt

Mit Chat-GPT prägte Open AI das Bild, das viele Menschen von generativer KI haben. Man tippt in ein kleines Textfenster, ein Sprachmodell spuckt eine Antwort aus. Der Chatbot wurde zum Überraschungserfolg, und fast alle Konkurrenten kopierten das Prinzip. Doch von Anfang an war klar, dass Unternehmen andere Möglichkeiten entwickeln würden, um mit KI zu interagieren. Im Netz dominieren Bilder, Audio und Video – warum sollte ausgerechnet KI dauerhaft auf Text beruhen?

Deshalb setzen Google und Open AI schon länger auf Multimodalität, also Modelle, die mit allen Formaten gleichzeitig umgehen können. Ab sofort fügt Google für alle Nutzerinnen und Nutzer eine weitere Dimension hinzu: Unterhaltungen in Echtzeit. Mit Gemini Live kann man Gespräche mit der KI führen, die stellenweise natürlich wirken.

Das Smartphone bekommt nicht nur Ohren, sondern auch Augen. Gewährt man Gemini Zugriff auf die Kamera, kann man ihm Fragen zur Umgebung vor der Linse stellen. Die KI soll damit zum Reiseführer und Dolmetscher, zur Lehrerin und Stylistin werden. Sie könnte auch viele Menschen arbeitslos machen, wenn alles so gut funktioniert, wie Google sich das vorstellt.

3. Google träumt von einem universellen KI-Assistenten

Sprachmodelle wie Gemini 2.5 und GPT-4o haben spezifische Stärken und Schwächen. Wenn man möchte, dass die KI bestimmte Aufgaben besonders effizient und verlässlich erledigt, muss man die Grundlagenmodelle darauf spezialisieren oder neue Modelle entwickeln. Forschende sind sich deshalb uneins, ob die Weiterentwicklung aktueller Sprachmodelle in einer Sackgasse mündet oder zu allgemeiner künstlicher Intelligenz (AGI) führt, die menschlichen Experten bei den meisten Aufgaben überlegen ist.

Glaubt man Googles KI-Chef Demis Hassabis, dann ist Gemini auf dem besten Weg, ein Universalmodell zu werden, das den Weg zur AGI ebnet. Das soll Google helfen, sein „ultimatives Ziel“ zu erreichen: jenen universellen KI-Assistenten, der einen im Alltag begleitet, Aufgaben plant und erledigt, komplexe Probleme löst und von sich aus vorschlägt, wo die KI Menschen helfen könnte.

Wer sich dabei eher gruselt, könnte mit Gemini oder Chat-GPT herumspielen, um sich zu beruhigen. Derzeit sind die Modelle recht weit von Googles Vision entfernt. Allerdings hat Hassabis auch recht, wenn er sagt: Vieles von dem, was Google gerade vorgestellt hat, hätte die Menschen vor zwei Jahren noch an Magie erinnert.

4. KI zieht in alle Google-Produkte ein

Im Wettbewerb mit Open AI hat Google einen großen Vorteil: Über Jahrzehnte ist ein riesiges Ökosystem aus Diensten und Produkten entstanden, von der Websuche und dem mobilen Betriebssystem Android über Gmail und Google Docs bis zum Chrome-Browser. Zum einen hat Google damit massenweise Daten von Milliarden Menschen gesammelt, auf deren Grundlage sich KI-Funktionen individualisieren lassen. Es ist kein Zufall, dass fast alle Google-Manager aus Anlass der Konferenz mehrfach betonten, wie wichtig Personalisierung sei.

Zum anderen kann Google KI direkt in die Produkte einbauen. Während Open AI in erster Linie auf Chat-GPT als Verbreitungsweg setzt, braucht Google nicht zwingend einen Chatbot, um allen Nutzerinnen und Nutzern KI vorzusetzen. Gemini schreibt bald personalisierte Antworten in Gmail, ist standardmäßig auf Android-Geräten verfügbar, hilft bei Texten und Tabellen und soll in Chrome künftig Webseiten zusammenfassen. Der Großteil dieser Funktionen startet zunächst in den USA und ist zahlenden Abonnenten vorbehalten.

5. KI wird zum Geschäftsmodell

Bislang ist generative KI eine gigantische Wette auf die Zukunft. Unternehmen wie Google, Open AI und Anthropic benötigen Dutzende Milliarden Dollar, um immer leistungsfähigere Modelle zu trainieren. Die Ausgaben übersteigen die Einnahmen noch um ein Vielfaches. Jede Antwort, die Gemini oder Chat-GPT geben, kostet Rechenleistung und Energie. Aktuelle Modelle sind zwar deutlich effizienter geworden, trotzdem müssen die Konzerne eines Tages auch Geld damit verdienen, damit sich die Investitionen lohnen.

Dafür gibt es drei Möglichkeiten. Sie können Werbung schalten lassen, die KI an Entwicklerinnen und andere Unternehmen verkaufen, oder Nutzer direkt bezahlen lassen. Google experimentiert bereits mit Anzeigen in den KI-Suchergebnissen und schnürt Pakete aus Cloud-Speicher, Google-Diensten und KI-Funktionen für Start-ups und Konzerne. Künftig sollen Abonnements zur dritten Einnahmesäule werden.

Gemini Pro ersetzt das bisherige Gemini Advanced und bietet für 22 Euro pro Monat Zugriff auf die meisten Funktionen und Modelle. Wer einen „VIP-Pass für KI“ möchte, wie Google es nennt, soll 275 Euro pro Monat zahlen. Damit erhält man frühen Zugang zu allen Produkten, kann neue Modelle fast unbegrenzt nutzen und bekommt obendrauf 30 TB Speicherplatz sowie Werbefreiheit auf Youtube. Da dürften die meisten Menschen noch ein paar andere Ideen haben, was sie mit 3300 Euro pro Jahr alles anstellen könnten.

© SZ - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: