Was ist GEO? Der Generative
Engine Optimization Guide (2026)

Zuletzt aktualisiert: 20.02.2026
ca. 25 Minuten Lesezeit

Die Suche nach Informationen verändert sich grundlegend. Immer mehr Nutzer wenden sich direkt an KI-Systeme und erwarten eine fertige Antwort statt einer Trefferliste.

Für Marken und Unternehmen bedeutet das neue Herausforderungen: Sichtbarkeit entsteht nicht mehr nur über Rankings, sondern darüber, ob Inhalte in KI-Antworten berücksichtigt werden.

SEO bleibt wichtig, reicht allein aber nicht mehr aus. Genau hier setzt Generative Engine Optimization (GEO) an.

Dieser Guide zeigt, was GEO bedeutet, wie KI-Systeme Inhalte auswählen und welche Hebel entscheidend sind, um in KI-Chats erwähnt oder als Quelle zitiert zu werden.

Überblick
  • Was ist GEO? GEO bezeichnet Maßnahmen, durch die Inhalte so aufbereitet werden, dass sie von KI-Suchsystemen und LLMs besser verstanden, zitiert und empfohlen werden.
  • Wie funktioniert ein LLM? Ein LLM (Large Language Model) ist ein KI-Modell, das Sprache statistisch verarbeitet. Es wurde mit sehr vielen Texten trainiert und erzeugt Antworten, indem es Wortfolgen vorhersagt, die zum Kontext passen.
  • Ist GEO das gleiche wie SEO? Nein. SEO zielt vor allem auf Rankings in klassischen Suchmaschinen ab. GEO zielt darauf ab, in KI-Antworten sichtbar zu werden und als Quelle oder Empfehlung aufzutauchen.
  • Welche Maßnahmen sind für GEO wichtig? Für GEO sind vor allem klar strukturierte Inhalte wichtig, die Nutzerfragen präzise beantworten und fachlich konsistent formuliert sind. Zusätzlich stärken belegbare Informationen, vertrauenswürdige Quellen sowie Autoritätssignale wie Expertise, Referenzen und Erwähnungen die Sichtbarkeit in KI-Antworten.

Was ist GEO?

GEO (Generative Engine Optimization) bezeichnet Strategien und Maßnahmen, die darauf abzielen, Marken, Unternehmen und Inhalte in den generierten Antworten von KI-Systemen wie ChatGPT, Gemini, Perplexity oder Google AI Overviews sichtbar zu machen.

Im Gegensatz zur Suchmaschinenoptimierung steht bei GEO nicht das klassische Ranking in einer Ergebnisliste im Mittelpunkt, sondern die direkte Erwähnung und Zitierung innerhalb der KI-Antwort selbst. GEO ist eine Teildisziplin von SEO, da viele klassische SEO-Maßnahmen auch bei GEO die notwendige Basis zur Optimierung von Websites bilden.

Mentions (Markennennung) VS. Citations (Quellennennung)

GEO verfolgt zwei unterschiedliche Ziele. Entweder wird eine Marke in der Antwort namentlich erwähnt (Mention) oder Inhalte der eigenen Website werden als Quelle zitiert (Citation).

Mentions wirken vor allem auf die Markenwahrnehmung. Citations positionieren Inhalte als verlässliche Wissensquelle für KI-Systeme.

Mentions vs Citations 1
Abb.: Beispiel Mentions und Citations in ChatGPT
Mentions vs Citations 2
Abb.: Beispiel Mentions und Citations in Google AI Mode

Warum GEO

… und nicht weiterhin einfach SEO?

SEO bleibt die Grundlage für Sichtbarkeit im Web. Allein reicht es jedoch nicht mehr aus. Während klassische Suchmaschinen Trefferlisten ausspielen, liefern KI-Systeme direkt formulierte Antworten. Genau hier setzt GEO an.

Der zentrale Unterschied liegt nicht in der Technik, sondern im Zielsystem und im Ergebnis.

Aspekt
SEO (Search Engine Optimization)
GEO (Generative Engine Optimization)
Zielsystem
Klassische Suchmaschinen
Generative KI-Systeme
Ziel
Rankings und Klicks auf Webseiten
Erwähnungen und Zitierungen in KI-Antworten
Eingabeform
Keywords und Suchanfragen
Natürliche Fragen und Prompts
Ergebnis
Trefferliste mit Links
Direkte, formulierte Antwort
Optimierungslogik
Relevanz, Autorität, Technik
Verständlichkeit, Struktur, Grounding-Tauglichkeit

SEO optimiert Inhalte für klassische Suchmaschinen. Ziel sind Rankings und Klicks auf Webseiten. Die Optimierung orientiert sich an Keywords, Suchanfragen sowie Faktoren wie Relevanz, Autorität und technischer Qualität.

GEO richtet sich an generative KI-Systeme. Ziel sind Markennennungen und Zitierungen innerhalb von KI-Antworten. Optimiert wird nicht auf einzelne Keywords, sondern auf natürliche Fragen, Prompts und Inhalte, die für Grounding geeignet sind. Entscheidend sind Verständlichkeit, klare Struktur und vertrauenswürdige Informationen.

GEO oder SEO? In diesem YouTube-Video erfährst du mehr über die Gemeinsamkeiten und Unterschiede:

Die Branche reagiert bereits auf diesen Wandel. Laut einer Umfrage von Search Engine Land wird GEO zunehmend als eigenständige Disziplin neben SEO wahrgenommen und eingesetzt.

Umfrage zu GEO
Abb.: Umfrage auf Search Engine Land – (Quelle: https://searchengineland.com/seo-geo-aso-new-era-brand-visibility-ai-research-464936)

Im Kontext von KI-Suche und generativen Systemen haben sich verschiedene Begriffe etabliert, die ähnliche Zielrichtungen beschreiben, aber unterschiedlich fokussiert sind:

  • AIO (Artificial Intelligence Optimization)
    Sammelbegriff für die Optimierung von Inhalten und Systemen für KI-Anwendungen insgesamt.
  • AEO (Answer Engine Optimization)
    Optimierung für Antwortsysteme mit Fokus auf direkte, kurze Antworten auf konkrete Fragen.
  • KI-SEO / AI-SEO
    Unscharfer Begriff, der klassische SEO-Ansätze mit KI-Bezug beschreibt, ohne klare Abgrenzung.
  • GAIO (Generative AI Optimization)
    Optimierung speziell für generative KI-Systeme, ähnlich zu GEO, jedoch weniger etabliert.
  • LLMO (Large Language Model Optimization)
    Fokus auf die Anpassung von Inhalten für Large Language Models selbst, unabhängig vom Ausgabesystem.

Unabhängig von der Begrifflichkeit gilt: SEO bleibt die Grundlage von GEO.

GEO ist keine Ablösung, sondern eine Unterdisziplin, die klassische Suchmaschinenoptimierung um die Anforderungen generativer KI-Systeme erweitert.

Mehr über GEO erfährst du hier…

Was ist ein LLM?

Ein LLM (Large Language Model) ist ein großes KI-Sprachmodell, das Texte versteht, verarbeitet und generiert. Beispiele dafür sind Modelle wie Gemini oder GPT-5.2.

Systeme wie ChatGPT oder Google AI Mode sind keine Modelle selbst, sondern sogenannte Generative Engines. Sie stellen die Schnittstelle dar, über die Nutzer mit einem LLM interagieren.

Das LLM ist das eigentliche KI-Modell im Hintergrund. ChatGPT oder Google AI Mode machen dieses Modell für Nutzer bedienbar.

Das LLM ist der Motor im Backend. Die Generative Engine ist die Karosserie und das Cockpit im Frontend.

Wie funktioniert ein LLM?

  1. Prompt (Eingabe)
    Der Prozess startet mit der Anfrage des Nutzers. Der Prompt definiert, welche Informationen die KI liefern soll.
  2. Tokenisierung (Übersetzung)
    Die KI zerlegt den Text in kleine Einheiten, sogenannte Tokens. So wird menschliche Sprache in ein mathematisches Format übersetzt, das das Modell verarbeiten kann.
  3. Analyse (Verstehen)
    Das neuronale Netzwerk analysiert Bedeutung und Kontext der Tokens. In diesem Schritt erkennt das Modell, ob Fakten, Empfehlungen oder kreative Inhalte gefragt sind.
  4. Grounding-Check (Recherche)
    Reichen die Trainingsdaten nicht aus, greifen viele KI-Systeme auf externe Quellen oder Websuchen zurück. Grounding reduziert Halluzinationen und ermöglicht Quellenangaben. Für GEO ist dieser Schritt entscheidend, da ohne Grounding keine Zitierungen oder belastbaren Markennennungen entstehen.
  5. Integration (Kontext-Update)
    Die gefundenen Inhalte werden in das Kontextfenster des Modells geladen. Sie bilden die faktische Grundlage für die folgende Antwort.
  6. Generierung (Next-Token-Prediction)
    Das Modell erzeugt die Antwort Wort für Wort auf Basis der geladenen Informationen. In diesem Schritt entscheidet sich, ob eine Marke erwähnt oder ein Inhalt als Quelle zitiert wird.

Exkurs: RAG – wie es funktioniert

RAG steht für Retrieval Augmented Generation und beschreibt eine technische Methode, mit der KI-Systeme externe Informationen gezielt in die Antwortgenerierung einbeziehen.

Vereinfacht läuft RAG in drei Schritten ab:

  1. Abrufen (Retrieval)
    Relevante Inhalte werden aus einer Wissensbasis, Datenbank oder aus dem Web gesucht.
  2. Kontext hinzufügen
    Die gefundenen Informationen werden dem Modell als zusätzlicher Kontext bereitgestellt und in das Kontextfenster geladen.
  3. Generieren
    Das LLM nutzt sowohl sein internes Wissen als auch die externen Inhalte, um die finale Antwort zu formulieren.

Der zentrale Nutzen von RAG liegt im Grounding. Durch den Zugriff auf überprüfbare Quellen entstehen faktenbasierte Antworten mit Quellenbezug. Gleichzeitig wird das Risiko von Halluzinationen deutlich reduziert.

Ein LLM ohne RAG generiert Antworten ausschließlich aus seinem Trainingswissen. Ein LLM mit RAG generiert Antworten auf Basis externer, aktueller Daten.

RAG erklärt
Abb.: Funktionsweise von RAG (Quelle https://blogs.nvidia.com/blog/what-is-retrieval-augmented-generation/

Verschiedene Arten von Generative Engines

Generative Engines unterscheiden sich danach, wie sie Informationen beziehen und wie Antworten erzeugt werden. Für GEO ist diese Unterscheidung entscheidend, da nicht jedes System gleich mit Quellen, Zitierungen oder Markennennung umgeht.

  1. Chatbasierte Generative Engines
    Diese Systeme generieren Antworten primär auf Basis des trainierten Modellwissens. Eine externe Suche ist standardmäßig nicht aktiv. Beispiele sind ChatGPT ohne Suche oder Gemini im Standard-Chatmodus.
  2. Suchbasierte Generative Engines
    Hier steht die Websuche im Vordergrund. Antworten basieren stark auf externen Quellen und sind häufig mit Zitierungen versehen. Typische Beispiele sind Perplexity, Google AI Overviews oder Google AI Mode.
  3. Hybride Generative Engines
    Diese Systeme kombinieren Modellwissen mit optionaler oder automatischer Websuche. Je nach Prompt werden externe Quellen einbezogen. Dazu zählen ChatGPT mit aktivierter Suche oder Gemini mit Suchfunktion.
  4. Content Generative Engines
    Der Fokus liegt auf der Erstellung von Texten oder visuellen Inhalten, nicht auf Recherche oder Quellenangaben. Typische Einsatzbereiche sind Marketing und Design. Beispiele sind Jasper, Copy.ai oder Ideogram.
  5. Agentische Generative Engines
    Diese Systeme arbeiten nicht nur antwortend, sondern führen eigenständig Aufgaben aus, planen Schritte und nutzen Werkzeuge. Dazu zählen AutoGPT oder OpenAI Agents.
  6. Domänenspezifische Generative Engines
    Sie sind auf einzelne Fachbereiche spezialisiert, etwa Medizin oder Recht. Die Antworten basieren auf kuratierten, domänenspezifischen Datenquellen.
  7. Multimodale Generative Engines
    Diese Systeme verarbeiten neben Text auch Bilder, Audio oder Video. Beispiele sind ChatGPT Multimodal oder Google Gemini Multimodal.

Nutzerverhalten & klassische Suchmaschinen im Vergleich

Laut einer Erhebung des Bitkom nutzt inzwischen rund die Hälfte der Internetnutzer KI-Chats, um Fragen zu beantworten oder Informationen zu recherchieren (Quelle). Besonders bei komplexen oder erklärungsbedürftigen Themen greifen Nutzer zunehmend auf KI-Systeme zurück, statt eine klassische Trefferliste zu durchsuchen.

Bitk Umfrage
Abb.: Umfrage von Bitkom – Immer mehr Menschen nutzen KI-Chats (Quelle: https://www.bitkom.org/Presse/Presseinformation/Internet-Suche-Wandel-Haelfte-nutzt-KI-Chats)

Auch weitere Studien zeigen diesen Wandel deutlich. KI-Chats werden nicht mehr nur für allgemeine Wissensfragen genutzt, sondern auch für sensible Bereiche wie Gesundheitsfragen oder Kaufentscheidungen. Nutzer erwarten dabei eine sofortige, verständliche Antwort, die Informationen zusammenfasst, einordnet und Handlungsempfehlungen liefert (Quelle).

Klassische Suchmaschinen verlieren damit nicht ihre Bedeutung, verändern aber ihre Rolle. Sie werden weiterhin intensiv genutzt und bleiben ein zentraler Zugang zu Informationen. Gleichzeitig dienen sie immer häufiger als Daten- und Quellenbasis im Hintergrund, während die eigentliche Interaktion über KI-Systeme stattfindet.

Der Wandel ist vergleichbar mit der Mediennutzung: Fernsehen, Radio und Zeitungen existieren parallel und erfüllen unterschiedliche Zwecke. Für Unternehmen bedeutet das, dass Sichtbarkeit nicht mehr ausschließlich über Rankings entsteht, sondern zunehmend dort, wo Antworten generiert und zusammengefasst werden.

Marktanteil von ChatGPT & Co.

Nach Schätzungen verarbeitet OpenAI mit ChatGPT rund 2,63 Milliarden Nachrichten pro Tag (Quelle Sistrix). Damit gehört ChatGPT bereits heute zu den meistgenutzten digitalen Informationssystemen weltweit.

Entscheidend für SEO und GEO ist jedoch nicht die reine Nutzung, sondern der Search Intent. Je nach Berechnungsmodell liegt der Anteil der Anfragen mit echtem Such- oder Informationsinteresse zwischen 22 und 50 Prozent. Das bedeutet, dass ein erheblicher Teil der Interaktionen funktional mit klassischen Suchanfragen vergleichbar ist.

Aus diesen Annahmen ergibt sich ein tägliches Volumen von etwa 0,57 bis 1,31 Milliarden suchrelevanter Anfragen. Damit erreicht ChatGPT zwar noch nicht das Niveau von Google, bewegt sich aber bereits in einer Größenordnung, die für Marken und Unternehmen strategisch relevant ist.

Parallel dazu holt Google Gemini spürbar auf. Aktuelle Nutzungszahlen und Traffic-Analysen zeigen, dass Gemini an Nutzerzahlen gewinnt.

AI Marktanteile
Abb: KI Marktanteile 2026 – Quelle: https://apptopia.com/en/blog/gen-ai-chatbots-february-2026-apptopia-data-brief/

Zusammengefasst lässt sich sagen:

  • ChatGPT & Co. verändert den Zugang zu Informationen und immer mehr nutzen es
  • Die klassische Suche wird weiterhin intensiv genutzt von vielen. Der organic Traffic den Websites 2025 erhalten haben, ist, trotz KI-Suchmaschinen, fast gleich geblieben (Quelle)
  • Web & KI: Eine Symbiose ähnlich der klassischen Medienlandschaft (TV, Radio, Zeitungen)

So wirst du in AI Searches gefunden

Eines vorweg: Es gibt nicht das eine KI-System! ChatGPT, Gemini, Google AI Mode, AI Overviews, Perplexity und weitere Generative Engines funktionieren unterschiedlich und liefern teils abweichende Ergebnisse.

Entsprechend reicht es nicht aus, Inhalte auf ein einzelnes System auszurichten. GEO bedeutet, systemübergreifend zu optimieren.

Prompts

In der KI-Suche stehen nicht mehr einzelne Keywords im Fokus, sondern Prompts, also natürlich formulierte Fragen und Anweisungen.

Entscheidend ist dabei ein Grundsatz: Ohne Grounding keine Citations.

Erst wenn ein KI-System auf externe Quellen zugreift, entstehen Zitierungen. Entsprechend sollten nur solche Prompts priorisiert werden, die eine Mention oder eine Citation auslösen können.

Bei jedem Prompt sollte vorab klar sein, welches Ziel verfolgt wird.

  1. Mentions: Soll die eigene Marke in der Antwort empfohlen oder genannt werden, steht der Markenaufbau im Vordergrund.
  2. Citations: Soll ein Inhalt als Quelle dienen, ist man primär Wissenslieferant.

Beide Varianten können wertvoll sein, verfolgen aber unterschiedliche Ziele und wirken unterschiedlich auf Leads. Für die Identifikation geeigneter Prompts eignen sich klassische SEO-Tools weiterhin sehr gut. W-Fragen lassen sich etwa über die Google-Suche:

SEO W Fragen
Abb.: Quelle W-Fragen finden mit der Google-Suche

oder Tools wie Sistrix analysieren:

SEO W Fragen mit Sistrix

Auch die Google Search Console bietet mit Regex-Filtern eine einfache Möglichkeit, typische Frageformulierungen zu identifizieren, zum Beispiel:

^(weshalb|welcher|welches|welchen|welchem|was|warum|wann|wo|wie|welche|wer|wieso|wieviel|woran|womit|wodurch|wessen|wovon|worüber|woraus|wohin|woher|ob|kann|dürfen|müssen|habe|hat|haben|seid)\b

Regex Befehl GSC
Abb.: Google Search Console – Fragen mit Regex-Befehl filtern

Wichtig ist jedoch, sich nicht nur auf W-Fragen zu konzentrieren. Auch Prompts mit vergleichendem oder transaktionalem Charakter können gezielt Citations auslösen, etwa bei Bestenlisten oder konkreten Kaufempfehlungen.

Beispiele für solche Prompts sind:

  •  „Zeige mir günstige Strandschuhe“
  •  „Nenne mir die beste SEO-Agentur für den Raum Düsseldorf“
  •  „Liste mir die fünf besten Schimmelentferner für das Bad auf“

Für GEO zählt daher die gezielte Auswahl von Prompts mit echtem Suchinteresse und klarer Zielsetzung.

Zur systematischen Ableitung geeigneter Prompts eignen sich auch spezialisierte Tools wie AlsoAsked. Sie helfen dabei, komplette Topic-Cluster abzudecken und zusammenhängende Fragestellungen sichtbar zu machen, die Nutzer in KI-Chats stellen.

alsoasked.com
Abb.: Alsoasked – https://alsoasked.com/

Query Fan Out

Ein zentrales Konzept in diesem Zusammenhang ist der Query Fan-out. Er beschreibt den Moment, in dem ein LLM einen einzelnen Nutzer-Prompt intern in mehrere Suchanfragen aufteilt, um alle relevanten Informationen für eine umfassende Antwort zu sammeln. KI-Systeme wie ChatGPT helfen damit indirekt, sinnvolle Folgefragen zu identifizieren.

Ein vereinfachtes Beispiel:

  • Ein Nutzer fragt: „Finde mir ein familienfreundliches Hotel auf Mallorca mit Rutschen unter 400 Euro pro Tag.“

Die KI erkennt mehrere Informationsbedürfnisse, etwa Ort, Zielgruppe, Ausstattung und Preis. Daraus entstehen im Hintergrund mehrere Sub-Queries, zum Beispiel:

  •  „Beste Familienhotels Mallorca 2025“
  •  „Hotels Mallorca Wasserrutschen Bewertung“
  •  „Hotelpreise Mallorca Juli Durchschnitt“
  •  „Sicherheit Kinderpools Mallorca Hotels“

Für GEO ist das entscheidend. Es gibt kein einzelnes Hauptkeyword mehr. Die KI sucht nicht nach einem Begriff, sondern nach Antworten auf Teilaspekte.

Die Trefferfläche erhöht sich nur dann, wenn Inhalte diese Sub-Queries konkret beantworten. Wer relevante Folgefragen nicht abdeckt, wird im Grounding-Prozess seltener als Quelle ausgewählt.

Prompt-Ideen lassen sich weiterhin sehr gut mit klassischen SEO-Tools wie Sistrix oder Ahrefs entwickeln und analysieren.

Prompts Sistrix
Abb.: Prompts Sistrix

Entscheidend ist jedoch die Bewertung dahinter: Wir optimieren auf Prompts mit klarem Search Intent, die entweder eine Mention oder eine Citation auslösen können. Dieser Search Intent muss getroffen werden.

Content für LLMs

Die Optimierung von Inhalten für GEO unterscheidet sich in der Basis nur unwesentlich vom klassischen SEO, verschiebt jedoch den Fokus: Während SEO primär für den menschlichen Leser optimiert, muss GEO-Content zusätzlich extrahierbar für die Maschine sein.

KI-Systeme lesen Texte nicht wie Menschen von oben nach unten. Sie scannen nach Mustern, Entitäten und Zusammenhängen. Erfolgreicher Content muss daher so aufbereitet sein, dass Crawler relevante Informationen („Content Chunks“) isolieren und neu zusammensetzen können.

Struktur und „Content Chunks“

KI-Modelle bevorzugen Inhalte, die modular aufgebaut sind. Lange Textwüsten ohne Unterbrechung erschweren es dem Algorithmus, die gesuchte Antwort präzise zu extrahieren.

  • Klare Hierarchien: Zwischenüberschriften (H2, H3) fungieren als Ankerpunkte. Sie sollten idealerweise so formuliert sein, dass sie selbst als Suchanfrage oder Prompt dienen könnten (z. B. „Wie hoch sind die Kosten?“ statt „Preise“).
  • Listen und Tabellen: Für Vergleiche, Prozessschritte oder Datenübersichten sind strukturierte Formate wie Bullet-Points oder HTML-Tabellen wichtig. KI-Systeme können diese Formate deutlich besser verarbeiten als Fließtext und nutzen sie bevorzugt für die direkte Antwortgenerierung.

Informationsdichte und faktische Sprache

Ein entscheidender Faktor für die Übernahme in KI-Antworten ist die Informationsdichte. Modelle wie GPT oder Gemini filtern „Rauschen“ heraus.

  • Faktische Sprache: Unnötige Füllwörter und rein werbliche Adjektive sollten vermieden werden. Der Schreibstil muss präzise, logisch und informativ sein.
  • Vermeidung von Thin Content: Inhalte ohne Substanz verwirren nicht nur klassische Suchmaschinen, sondern auch KI-Crawler. Sie bieten keinen Mehrwert für das Training oder das Grounding des Modells und werden ignoriert.

Content Freshness und Aktualität

Besonders bei suchbasierten Generative Engines (wie Perplexity oder Google AI Overviews), die RAG-Technologie nutzen, ist Aktualität ein hartes Ranking-Kriterium. Bei Themen, die sich dynamisch entwickeln, bevorzugen die Systeme die jüngste verlässliche Quelle.

Veraltete Informationen erhöhen das Risiko von Halluzinationen (Falschaussagen der KI) und werden daher im Auswahlprozess oft aussortiert.

Content-Strategie: Vom Allgemeinwissen zum Experten-Insight

Die Content-Optimierung für GEO verfolgt eine doppelte Logik: Wir wollen Citations erzwingen (für Traffic) und Mentions sichern (für das Branding).

Traffic entsteht primär dort, wo wir eine Wissenslücke (Data Gap) schließen. Solange eine KI eine Frage aus ihrem allgemeinen Trainingswissen beantworten kann, wird sie keine externe Quelle verlinken. Um eine Citation zu erhalten, müssen Inhalte so aktuell oder spezifisch sein, dass sie das Modell förmlich zum Nachschlagen zwingen.

Der Unterschied liegt in der Spezifität:

  • Ein generischer Artikel („Was ist eine PV-Anlage?“) bietet keinen Information Gain. Das Modell kennt die Antwort bereits und wird die Quelle ignorieren.
  • Ein „Preisvergleich von PV-Speichern 2026“ hingegen liefert exklusive Daten, die das Modell nicht kennen kann. Um die Frage korrekt zu beantworten, muss die KI die Quelle aufrufen und zitieren.
  • Dasselbe Prinzip gilt für komplexe Beratungssituationen. Nutzer stellen KIs oft sehr granulare Fragen, wie etwa: „Welcher Desktop-PC unter 1.500 € ist am besten für 4K-Auflösungen geeignet?“ Content muss exakt diese Szenarien abdecken. Wer hier nur allgemeine Hardware-Tipps liefert, fällt durch das Raster.

Anders verhält es sich bei Mentions (Markennennungen). Bei direkten Empfehlungsfragen („Welche SEO-Agentur ist empfehlenswert?“) zählt nicht die Neuheit der Information, sondern die Markenautorität in den Trainingsdaten. Hier ist das strategische Ziel, dass die KI die eigene Marke als De-facto-Standard abspeichert und als erste Empfehlung nennt.

Query Fan-out: Die Antizipation der Folgefrage

Wenn KI-Modelle eine komplexe Anfrage bearbeiten, zerlegen sie diese intern in mehrere Unterfragen (Query Fan-out). Eine GEO-Strategie muss diese „impliziten Fragen“ vorausahnen. Wer über ein Thema schreibt, muss auch die angrenzenden Aspekte abdecken:

  • „Was passiert, wenn…?“
  • „Wie unterscheidet sich X von Y?“ Nur wer das gesamte Themenfeld abdeckt, wird als autoritäre Quelle für die synthetisierte Antwort herangezogen.

Problemlösung statt Theorie

Nutzer verwenden KI-Systeme zunehmend als persönliche Assistenten. Sie suchen keine Definitionen, sondern Lösungen.

Generische Glossar-Artikel und Standard-Definitionen bieten hier keinen Mehrwert und werden von den Algorithmen ignoriert. Was im KI-Zeitalter zählt, ist echte Expertise. Tiefgreifendes Fachwissen und validierte menschliche Erfahrung (Human Experience) sind die einzigen Faktoren, die eine KI nicht simulieren kann.

Inhalte müssen daher weg von der Theorie und hin zur konkreten Problemlösung (Anleitungen, Case Studies, Handlungsempfehlungen).

Die Informationsarchitektur: Das „Inverted Pyramid“-System

Damit Inhalte von einer KI nicht nur gelesen, sondern als die Antwort erkannt werden, muss die Struktur der Informationsvermittlung vereinfacht werden.

Hierbei hat sich das aus dem Journalismus bekannte „Prinzip der umgekehrten Pyramide“ (Inverted Pyramid) als sinnvoll für GEO erwiesen.

Inverted Pyramid
Abb.: Inverted Pyramid

LLMs suchen nach der Definition und der Kern-Antwort an der prominentesten Stelle.

  • Die Antwort zuerst: Das wichtigste Fazit oder die direkte Antwort auf den Prompt gehört an den Anfang des Absatzes.
  • Einfache Sprache: Komplexe Schachtelsätze erschweren das Parsing. Eine klare Subjekt-Prädikat-Objekt-Struktur erhöht die Wahrscheinlichkeit einer korrekten Extraktion.
  • Logische Vertiefung: Erst nach der Kern-Antwort folgen Details, Hintergrundinformationen und Nuancen.

Wer seine Inhalte so strukturiert, liefert der KI den perfekten „Baukasten“ für die Antwortgenerierung.

Content Chunks und FAQs

FAQs eignen sich ideal für GEO. Da KI-Modelle komplexe Anfragen in Teilaspekte zerlegen (Query Fan-out), liefern FAQs die passenden, granularen Antworten („Content Chunks“). Jede Frage-Antwort-Kombination ist ein in sich geschlossenes Datenpaket, das von der KI extrahiert werden kann.

Der zentrale Erfolgsfaktor für GEO lässt sich auf einen Satz reduzieren:

Inhalte müssen so spezifisch und hochwertig sein, dass KI-Engines sie als primäre Quelle referenzieren müssen.

Solange ein Modell eine Frage aus seinem allgemeinen Trainingswissen beantworten kann, wird es keine externe Quelle verlinken. Erst wenn Inhalte eine Informationslücke schließen, entsteht die Notwendigkeit einer Zitation.

Warnung vor reinem KI-Content

Der ausschließliche Einsatz von KI zur Texterstellung verhindert meist Sichtbarkeit in KI-Antworten. Da Sprachmodelle auf Wahrscheinlichkeiten basieren, generieren sie den Durchschnitt aller Trainingsdaten. Wer KI-Texte veröffentlicht, bietet keinen Mehrwert und wird nicht zum Meinungsführer. Mentions und Citations erhalten nur Inhalte mit menschlicher Expertise, echten Daten und klarer Haltung.

Technik: Indexierbarkeit als Fundament

Was der Crawler nicht lesen kann, existiert für das Modell nicht. Da es (noch) keine „ChatGPT Search Console“ gibt, fehlt das direkte Feedback über Indexierungsprobleme.

  • Voller Fokus auf Indexierbarkeit
    Die klassische SEO-Hygiene ist für GEO unverzichtbar. Title-Tags, Meta-Descriptions und Schema-Daten liefern den KIs den nötigen Kontext, um Inhalte korrekt einzuordnen. Regelmäßige Überprüfungen mit Crawling-Tools sind Pflicht, um sicherzustellen, dass Bots den Inhalt erfassen können.
  • Keine Inhalte hinter JavaScript verstecken
    LLM-Crawler (wie der GPTBot) rendern Websites oft schlechter als der Googlebot. Inhalte müssen im HTML-Quellcode als reiner Text vorliegen. Websites, die stark auf Client-Side-Rendering setzen („Heavy JavaScript“), riskieren, dass die KI eine leere Seite sieht.
  • Crawl-Budget und Hygiene
    Ladezeiten sind kritisch: Antwortet der Server zu langsam, bricht der Crawler ab. Zudem gilt es, das „Rauschen“ zu minimieren. Ein „Frühjahrsputz“ (Content Pruning) hilft: Veraltete oder irrelevante Inhalte sollten gelöscht oder auf noindex gesetzt werden. Dies lenkt die begrenzten Ressourcen der Bots auf die wirklich relevanten Inhalte.
  • Robots.txt
    Der häufigste Fehler ist das versehentliche Aussperren der Zukunft. Wer Crawler wie GPTBot, CCBot (Common Crawl) oder Google-Extended in der robots.txt blockiert, entscheidet sich aktiv gegen eine Stattfindung in KI-Antworten. URL-Parameter und ständig wechselnde URLs sollten ebenfalls vermieden werden, um den Bots stabile Pfade zu bieten.
Anbieter Crawler / User-Agent Fokus / Zweck
OpenAI GPTBot Training für GPT-Modelle (ChatGPT)
ChatGPT-User Live-Webzugriff durch ChatGPT-Nutzer
OAI-SearchBot Suchindex für die OpenAI Suche
Google Google-Extended Opt-out für Gemini & Vertex AI Training
GoogleOther Diverse KI-Recherche-Aufgaben
Anthropic ClaudeBot Datenbeschaffung für Claude
Meta Meta-ExternalAgent Training für Llama & Facebook AI
Apple Applebot-Extended Kontrolle für Apple Intelligence (Siri)
Perplexity PerplexityBot Indexierung für die KI-Suchmaschine
Common Crawl CCBot Open-Source-Datensatz (Basis für fast alle KIs)
ByteDance Bytespider KI-Training für TikTok/Douyin (aggressiv)
Amazon Amazonbot Training für Alexa & AWS-KI-Dienste

Common Crawl und JavaScript

Viele LLMs trainieren ihre Modelle mit open source crawlern, wie dem Common Crawl. Diese Crawler sind technisch weit weniger leistungsfähiger als die Crawler von Google. Viele dieser open source Crawler führen JavaScript oft nicht komplett aus und scheitern an komplexen Client-Side-Rendering-Architekturen.

Wer zuviele Inhalte hinter JavaScript versteckt, ist für Google noch sichtbar, für das LLM-Training jedoch oft unsichtbar. Die technische Optimierung muss sich daher wieder auf absolute Basics konzentrieren:

  • HTML first: Relevante Inhalte müssen im Quelltext stehen.
  • Fehlerfreiheit: Technische Hürden (404-Fehler, Redirect-Ketten) wiegen hier schwerer. Der Einsatz von professionellen Audit-Tools wie Screaming Frog oder Seobility zur regelmäßigen Prüfung der Indexierbarkeit ist Pflicht.

Test: Wie sieht der Crawler deine Website?

Da es keine offizielle Vorschau für LLM-Crawler gibt, dient das Internet Archive (Wayback Machine) als bester Proxy. Da das Web Archive und Common Crawl ähnliche Technologien und Datenquellen nutzen, zeigt ein Blick in die „Wayback Machine“, was tatsächlich erfasst wurde.

Fehlen dort Bilder, Texte oder ganze Navigationselemente, ist davon auszugehen, dass diese auch in den Trainingsdaten der KI fehlen.

Beispiel-Check: Ein Blick auf den Snapshot der Farbentour-Kontaktseite zeigt, ob alle Informationen für den Crawler lesbar waren.

webarchive beispiel
Abb.: Beispiel unserer Kontatkseite auf Webarchive.org

Robots.txt und Cloudflare

Viele Administratoren blockieren aus Angst vor KI pauschal alle AI-Bots über die robots.txt. Wer Crawler wie GPTBot, CCBot oder anthropic-ai blockiert, entscheidet sich bewusst gegen eine Stattfindung in der KI-Suche.

Sicherheitsanbieter wie Cloudflare bieten Funktionen wie „Block AI Scrapers“ an. Diese sind oft standardmäßig oder sehr aggressiv eingestellt. Für eine GEO-Strategie müssen diese Firewalls so konfiguriert sein, dass sie legitime KI-Crawler passieren lassen.

Warnung: Eine Robots.txt, die alles blockiert, ist das Ende jeder GEO-Bemühung. Eine solche Konfiguration sorgt dafür, dass Marken aus dem digitalen Gedächtnis der KI gelöscht werden. Hier ein Negativ-Beispiel einer Blockade: https://github.com/ai-robots-txt/ai.robots.txt/blob/main/robots.txt

Robots txt KI Crawler blocken
Abb.: Negativbeispiel einer Robots.txt, die „alle“ KI Crawler blockt

LLM-Textfile

Die llms.txt ist ein vorgeschlagener Standard für Webseiten (siehe llmstxt.org). Ähnlich wie die robots.txt wird diese Datei im Root-Verzeichnis abgelegt. Sie soll KI-Crawlern gezielt Links zu markdown-optimierten Textdateien bereitstellen, um das Auslesen von Inhalten ohne HTML-Ballast zu ermöglichen.

LLM Txt File
Abb.: LLM.txt Beispiel

Derzeit hat die Implementierung keinen messbaren Einfluss auf GEO. Analysen zeigen, dass die relevanten Large Language Models und Generative Engines diesen Standard aktuell ignorieren (Quelle). Es gibt keinen empirischen Beleg für eine verbesserte Sichtbarkeit oder erhöhte Zitierhäufigkeit. Die Implementierung ist zum jetzigen Zeitpunkt nicht nötig.

Logfile-Analyse: Halluzinierte URLs identifizieren

Ein unterschätztes Problem bei KI-Bots sind halluzinierte URLs. Da LLMs auf Wahrscheinlichkeiten basieren, „erfinden“ sie gelegentlich URL-Pfade, die logisch klingen, aber nicht existieren. Versucht der Bot anschließend, diese aufzurufen, entstehen unnötige 404-Fehler, die das Crawl-Budget belasten.

Regelmäßige Analyse der Server-Logfiles (z. B. mit dem Screaming Frog Log File Analyser). Werden gehäuft 404-Zugriffe von KI-User-Agents auf unbekannte URLs festgestellt, sollten diese geprüft und gegebenenfalls via 301-Redirect auf die korrekten Inhalte umgeleitet werden.

Ladezeiten & Core Web Vitals

Während der Googlebot über massive Ressourcen verfügt und kleinere Latenzen gelegentlich verzeiht, arbeiten viele AI-Crawler und der Common Crawl mit deutlich begrenzteren Budgets.

Lädt eine Website nicht schnell genug, kann der Crawler den Prozess abbrechen. Der Inhalt wird gar nicht erst ausgelesen und indexiert. Der Fokus darf daher nicht nur auf der allgemeinen Ladezeit liegen. Die Core Web Vitals (LCP, INP, CLS) zu bestehen sind wichtig. Eine instabile oder langsame Seite signalisiert dem Bot minderwertige Qualität – und führt im schlimmsten Fall zum direkten Abbruch des Crawlings.

Strukturierte Daten

Strukturierte Daten (via JSON-LD) übersetzen „Content“ in maschinenlesbare Fakten.

Mit Schema diktieren wir die Interpretation: „Dies ist kein zufälliger Text, dies ist eine Anleitung“, „Dies ist ein Autor“. Diese semantische Auszeichnung erhöht die Wahrscheinlichkeit massiv, dass Informationen korrekt extrahiert und der richtigen Entität zugeordnet werden.

Analysen (siehe Sistrix: Der Weg zur AI-Citation) zeigen: KI-Modelle lesen Autoritätssignale bevorzugt direkt aus dem Quellcode aus (z. B. @type: Organization), anstatt sie mühsam aus dem Fließtext zu rekonstruieren.

Um als Entität verstanden zu werden, sind folgende Typen Pflicht:

  • Organization: Legitimiert das Unternehmen als Marke.
  • Person / Author: Verknüpft Inhalte mit Experten (E-E-A-T).
  • Article / NewsArticle: Hilft bei der zeitlichen Einordnung (Aktualität).
  • Product / Offer: Liefert harte Fakten für transaktionale Prompts.
  • FAQPage: Liefert perfekte „Content Chunks“ für direkte Antworten.
  • LocalBusiness: Verankert die Marke lokal.

Zur fehlerfreien Erstellung und Validierung des JSON-LD Codes empfiehlt sich der Schema Markup Generator von TechnicalSEO.

Praxis-Tipp: Du möchtest die GEO-Optimierungspotenziale deiner Website prüfen? Dann schau dir unser YouTube-Video zum Thema „GEO-Audit” an:

Entität und E-E-A-T

Eine Entität ist ein eindeutig identifizierbares Objekt (eine Marke, eine Person, ein Produkt), das die KI in ihrem semantischen Kontext versteht und zuordnen kann.

„In der KI-Suche geht es nicht mehr um das Ranking für Begriffe, sondern darum, dass deine Marke als eindeutige, vertrauenswürdige Entität (ein ‚Objekt‘ mit klaren Attributen) im Wissensnetz der KI existiert.“

Um dies zu erreichen, sind drei Faktoren entscheidend:

  1. Kontextuelle Relevanz: KI-Modelle wie ChatGPT, Gemini & Co. verstehen semantische Zusammenhänge. Content muss die Marke konsistent mit spezifischen Fachthemen verknüpfen. Wer heute über SEO schreibt und morgen über Zierfische, verwässert sein Entitäten-Profil.
  2. Digitaler Fußabdruck: Sichtbarkeit entsteht durch externe Validierung. Eine Entität wird für die KI erst dann relevant, wenn sie auf autoritativen Drittplattformen wie Wikipedia, LinkedIn, Trustpilot oder Fachportalen konsistent erwähnt wird.
  3. Zitierbarkeit: Um zur Primärquelle zu werden, muss die Website als „Faktenknoten“ dienen. Dies gelingt nur durch die Bereitstellung einzigartiger Daten oder tiefgreifender Analysen, auf die sich das Modell stützen kann.

E-E-A-T im KI-Zeitalter

Das E-E-A-T-Konzept (Experience, Expertise, Authoritativeness, Trustworthiness) ist jedem SEO bekannt. Da LLMs darauf trainiert sind, Falschinformationen zu minimieren, bevorzugen sie Quellen mit hohem Vertrauenswert.

  • Experience (Erfahrung): KI kann nichts erleben. Genau hier liegt der Vorteil menschlicher Autoren. KI-Modelle bevorzugen „echten Content von echten Menschen“. Persönliche Insights, Anekdoten und reale Case Studies sind Signale, die eine KI nicht simulieren kann.
  • Expertise (Fachwissen): Generische 08-15 Glossar-Texte sind wertlos. Sie müssen durch tiefgreifendes Expertenwissen ersetzt werden. Die KI erkennt Informationsdichte und fachliche Tiefe. Oberflächlicher Content wird ignoriert, Deep-Dives werden referenziert.
  • Authoritativeness (Autorität): Wer zitiert wird, gewinnt. Digital-PR und Gastbeiträge in Fachmedien signalisieren der KI, dass die eigenen Inhalte referenzwürdig sind. Je öfter eine Entität in etablierten Quellen genannt wird, desto höher ihr Gewicht im Modell.
  • Trustworthiness (Vertrauenswürdigkeit): Behauptungen müssen belegbar sein. Das Nennen von Quellen und das Bereitstellen harter Daten (Preise, technische Fakten) reduziert das Risiko von KI-Halluzinationen. Content, der überprüfbar ist, erhöht die eigene Zitierrate massiv.

Praxisbeispiel für Entität und EEAT

Wie wird eine Marke für die KI zur Autorität? Das lässt sich am besten anhand von drei zentralen Fragen klären, die ein LLM beantworten muss, um eine Entität korrekt einzuordnen.

  1. Die „Wer bist du?“-Frage (Identität & Entität)

In der KI-Suche geht es nicht mehr um das Ranking für einzelne Keywords. Das Ziel ist strategischer: Die KI muss die eigene Marke als die eine Experten-Entität abspeichern.

Dies geschieht nicht allein auf der eigenen Website, sondern durch Verlinkungen und Signale von externen Plattformen. Eine Marke muss dort stattfinden, wo die Trainingsdaten abgeleitet werden, wie z. B.:

  • Reddit & Communities
  • Gamer-Foren & Fachportale
  • YouTube (eigene Channels & Fremderwähnungen)
  • Social Media

Beispiel: Der PC-Hersteller Dubaro zeigt exemplarisch, wie Entitäten-Aufbau funktionieren kann. Die Marke hat sich nicht nur auf SEO verlassen, sondern eine massive Präsenz in der Community aufgebaut. Durch gezielte Kooperationen mit Influencern (z. B. HardwareDealz) und einer hohen Sichtbarkeit auf YouTube & Co. wird der Markenname permanent im Kontext von “Gaming PCs“ genannt.

Beispiel Dub 1
Abb.: Beispiel Dubaro.de in KI-Antworten (Quelle Geminin)
Beispiel Dub 2
Abb.: Beispiel Dubaro.de und Kooperationen (Quelle YouTube)
Beispiel Dub 3
Abb.: Dubaro.de hat eine enorme Präsenz in Social Media aufbauen können (Quelle Tiktok)

Die KI lernt durch diese tausendfachen Mentions und Signale: „Dubaro gehört zum semantischen Kern von Gaming-PCs.“ Wer heute eine KI nach PC-Empfehlungen fragt, kommt an dieser Entität kaum vorbei.

  1. Die „Was kannst du?“-Frage (Experience & Expertise)

Um als Quelle zitiert zu werden, reicht theoretisches Wissen nicht aus.

  • Experience & Expertise: Generische „Was ist…“-Texte müssen durch echte Tests, Unboxings und Meinungen ersetzt werden.
  • Authoritativeness: Autorität entsteht, wenn Dritte über die Expertise berichten. Backlinks und Mentions von Fachportalen signalisieren der KI: Diese Inhalte sind referenzwürdig.
  1. Die „Warum du?“-Frage (Trustworthiness & Transparenz)

LLMs bevorzugen Quellen, die transparent und belegbar sind.

  • Transparenz schaffen: Statt anonyme Produktbeschreibungen zu kopieren, müssen eigene Produkttests mit echten Autorennamen veröffentlicht werden.
  • Das Unternehmen greifbar machen: Eine „Über uns“-Seite darf kein Fülltext sein. Sie dient als Beleg für die Existenz echter Menschen und Expertise.

Beispiel: Ein Exempel für vertrauensbildende Maßnahmen liefert Liebscher & Bracht. Durch extrem detaillierte „Über uns“-Bereiche, die Vorstellung des Teams und explizite Qualitätsversprechen wird der abstrakte Firmenname zur greifbaren, vertrauenswürdigen Organisation. (Siehe: Das Team und Qualitätsversprechen)

Backlinks & Mentions: Von der Verlinkung zur Erwähnung

In der klassischen SEO ist der Backlink der primäre Rankingfaktor. Im GEO verschiebt sich der Fokus: LLMs „klicken“ sich nicht durch das Web, sie verarbeiten Informationen. Backlinks fungieren hierbei weniger als Pfad, sondern primär als Trust-Element. Entscheidend sind die Ankertexte: Eine Verlinkung von einem Fachportal signalisiert dem Modell, dass der verlinkte Inhalt autoritativ und zitierwürdig ist. Der Link ist der Beweis für die Relevanz.

Die Macht der Mentions

Noch wichtiger als der technische Link ist jedoch die bloße Mention (Erwähnung). Die Wahrscheinlichkeit, dass eine KI eine Marke empfiehlt, steigt mit der Häufigkeit ihrer Nennung in relevanten Kontexten. Je öfter eine Marke als Lösung für ein Problem genannt wird (auch ohne Link), desto stärker verknüpft das neuronale Netz die Entität mit dem Thema.

Aufbau von „Top-Listen“ (Listicles)

Daten von Ahrefs (Quelle: Best Lists Research) zeigen, dass strukturierte Listen („Die besten Tools für…“, „Vergleich 2026“) der wichtigste Hebel für GEO sind.

  • Dominanz: Listicles sind mit 43,8 % die häufigste Quellenart, die ChatGPT für Empfehlungen nutzt.
  • Positionierung: Es gibt eine klare Korrelation – je höher eine Marke in einer Liste platziert ist, desto höher ist die Sichtbarkeit in den KI-Antworten.
  • Aktualitäts-Zwang: KI-Engines bevorzugen „frischen“ Content. Über 79 % der zitierten Listen wurden im aktuellen Jahr aktualisiert. Historische Autorität wird von aktueller Relevanz geschlagen.

Warnung: Qualität vor Spam

Die Jagd nach Listenplätzen birgt Risiken. Google geht mittlerweile aggressiv gegen „Parasite SEO“ und minderwertige „Best-of“-Listen auf fachfremden Portalen vor (siehe Lily Ray: Google Crackdown). Was wie billiger Spam aussieht, wird abgestraft.

Listings sind nur wertvoll, wenn sie von thematisch passenden, extrem starken Websites stammen und organisch wirken. Alles, was nach „gekauftem Fake-Review“ aussieht, schadet der Entität langfristig mehr, als es nutzt.

YouTube: Relevanz vs. Scheinkorrelation

Die folgende Ahrefs-Studie zeigt eine starke Verbindung zwischen YouTube-Präsenz und Sichtbarkeit in KI-Antworten. Marken, die auf YouTube stark vertreten sind, werden häufiger von KIs empfohlen.

Ahrefs Studie AI Mentions
Abb.: Ahrefs Studie (Quelle: AI Brand Visibility Correlations)

Wichtig: Hier ist Vorsicht geboten vor Scheinkorrelationen. Es ist nicht garantiert, dass das Video selbst die Ursache ist. Wahrscheinlicher ist, dass starke Marken generell auf allen Kanälen (Text & Video) präsent sind. Dennoch: Video-Content füttert die Entität mit Kontext. Wer auf YouTube stattfindet, erhöht die Wahrscheinlichkeit, im „Weltwissen“ der KI verankert zu sein.

Die Dominanz der Vergleichslisten

Der größte Hebel für GEO sind laut den Daten jedoch textbasierte Listen.

  • Dominantes Format: 43,8 % der Quellen, die ChatGPT für Empfehlungen nutzt, sind Vergleichslisten („Die besten X für Y“).
  • Sichtbarkeit: Ohne Präsenz in solchen Listen existiert eine Marke in der Empfehlungslogik der KI faktisch nicht.
  • Ranking-Faktor: Die Position innerhalb der Liste entscheidet. Je weiter oben eine Marke in einer externen Liste steht, desto wahrscheinlicher wird sie von der KI als Top-Empfehlung übernommen.

Aktualitäts-Zwang (Freshness)

Historische Autorität verliert an Wert. KI-Modelle bevorzugen extrem aktuelle Daten.

  • 79 % der zitierten Quellen stammen aus dem laufenden Jahr.
  • Wer veraltete Listen hat oder in alten Artikeln gelistet ist, wird ignoriert.

Chance für Nischen-Player: Eigene Listen & Updates

Die Daten zeigen eine massive Chance für kleinere Websites: Relevanz schlägt Backlink-Stärke.

  • Inhalt vor Power: 35 % der zitierten Quellen haben eine geringe Domain Authority. Man muss kein Branchenriese sein, um zitiert zu werden – man muss nur die aktuellste Liste haben.
  • Eigene Listen: Auch selbst publizierte Bestenlisten („Unsere Top-Produkte“) fördern KI-Zitierungen, solange sie faktisch korrekt und strukturiert sind.
  • Update-Kultur: Der Schlüssel zum dauerhaften Status als KI-Quelle ist die Frequenz. Eine monatliche Aktualisierung von Daten und Listen signalisiert dem Crawler konstante Relevanz.

Strategie für mehr Mentions: Reverse Engineering

Wie findet man heraus, auf welchen Plattformen man stattfinden muss? Die Antwort ist banal: Man fragt die KI selbst. Statt blindlings Links aufzubauen, nutzen wir Reverse Engineering, um die exakten Quellen zu identifizieren, denen die KI vertraut.

Der Prozess:

  1. Der Prompt: Frage ChatGPT, Gemini oder Perplexity direkt: „Nenne mir die 5 besten Anbieter für [dein Service / Produkt].“
  2. Die Nachfrage: Sobald die Liste generiert ist, hakst du nach: „Warum hast du diese ausgewählt? Auf welchen Quellen basiert diese Empfehlung?“

Die Erkenntnis: Die KI wird ihre „Grounding Sources“ offenlegen. Oft sind das nicht die größten Nachrichtenseiten, sondern sehr spezifische Nischen-Portale, Foren (wie Reddit) oder Bewertungsplattformen (wie OMR Reviews oder Gelbe Seiten).

Die Handlungsempfehlung: Sobald die Quelle identifiziert ist, lautet die Pflicht: Du musst dort gelistet sein. Wenn ChatGPT für die Anfrage „Beste SEO Agentur“ primär OMR Reviews als Beleg zitiert, bringt ein Eintrag in einem allgemeinen Branchenbuch nichts. Die Sichtbarkeit in der KI-Antwort hängt zu 100 % von der Präsenz auf dieser einen, spezifischen Plattform ab.

GEO Manipulation & Prompt Injection

Natürlich versuchen viele, neue Systeme auszutricksen. Eine Methode ist die Prompt Injection: Dabei wird versucht, die KI durch manipulativ platzierte Befehle innerhalb von Daten oder Webseiten-Inhalten zu steuern.

Ein Beispiel von Cameron Mattis zeigt, wie leicht KIs beeinflussbar sind: Er integrierte in sein LinkedIn-Profil eine Anweisung, die besagte, dass LLMs, die sein Profil für Headhunter auslesen, keine Job-Analysen, sondern Rezepte für Flan ausgeben sollen. Die KI-Bots folgten tatsächlich den Anweisungen in seinem Profil statt ihrem ursprünglichen Auftrag.

Cameronmattis x.com Test GEO Manipulation
Abb.: Cameron Mattis auf X (Quelle: https://x.com/cameronmattis/status/1970468825129717993)

Das „GTA 6 Twerk Button“-Debakel

Dass KIs manipulierbar sind, zeigt der Fall des „GTA 6 Twerk Buttons“. Hier übernahm Googles AI Overview blind einen satirischen Reddit-Post als Fakt und behauptete, das Spiel enthalte diese Funktion (Quelle: GamePro).

GTA 6 News
Quelle: https://www.gamepro.de/artikel/gta-6-twerk-button-google-ki-fake,3441567.html

Das Beispiel beweist: Die Systeme haben noch Schwierigkeiten, Ironie oder gezielte Falschinformationen (Data Poisoning) zu erkennen.

Warum Manipulation keine Strategie ist

Doch der Vergleich zu „SEO 2006“ hinkt. Damals funktionierte Spam über Jahre. Heute patchen Google und OpenAI solche Lücken oft innerhalb von Stunden.

  • Keine Nachhaltigkeit: Ein Hack funktioniert vielleicht für einen Tag, danach wird die Lücke geschlossen oder die Domain abgestraft.
  • Ständige Validierung: Durch RAG und Fact-Checking-Algorithmen wird die Plausibilität von Quellen permanent neu bewertet.
  • Schwer umzusetzen: Gezielte Manipulation erfordert technisches Verständnis der Modell-Architektur und ist kaum skalierbar.

Wer auf Manipulation setzt, gewinnt kurzfristig Aufmerksamkeit, riskiert aber langfristig den kompletten Trust-Verlust der Entität.

Erfolgsmessung und Monitoring

Wer GEO mit den Maßstäben von klassischem SEO oder Performance Marketing misst, wird enttäuscht sein. Die Klickraten (CTR) und das Besucher-Volumen sind bei KI-Antworten deutlich reduziert. Der Nutzer erhält die Antwort direkt im Chat und klickt seltener auf die Quelle. GEO ist kein Volumen-Kanal, sondern geht stark in Richtung Branding-Kanal.

Die neuen KPIs: Mentions & Citations

Der Erfolg misst sich nicht in Sessions, sondern im „Share of Model“:

  • Wie oft werde ich als Marke empfohlen?
  • In wie vielen Antworten tauche ich als Experte auf?
  • Werde ich als Primärquelle zitiert?

Diese Mentions (Markennennungen) und Citations (Quellenverweise) sind die harte Währung. Sie müssen quantitativ erfasst werden.

Tracking-Setup & Tools

Für die Überwachung dieser neuen KPIs ist ein Mix aus klassischen SEO-Tools und manueller Analyse nötig:

  1. AI Overviews & Google: Hier liefern Tools wie Sistrix oder Ahrefs bereits sehr gute Daten zur Sichtbarkeit in AI Overviews und dem AI Mode.
  2. Traffic-Analyse: In Google Analytics 4 (GA4) sollten Referrer von KI-Systemen (z. B. chatgpt.com, bing.com, perplexity.ai) separat segmentiert werden. Ein Looker Studio Dashboard hilft, diese oft geringen, aber hochkonvertierenden Ströme sichtbar zu machen.
  3. Eigene Prompts überwachen: Für strategisch wichtige Suchanfragen („Beste Agentur für X“) empfiehlt sich ein manuelles Monitoring oder der Einsatz spezialisierter Skripte, um die Positionierung in den Antworten zu prüfen.

Warnung: Der „Tool-Blind-Spot“

Vorsicht bei automatisierten Tracking-Lösungen für ChatGPT & Co. Viele Anbieter crawlen Prompts über kostenlose, nicht eingeloggte API-Schnittstellen (meist GPT-4o „Clean Slate“). Die Realität beim Kunden sieht anders aus:

  • Echte Nutzer verwenden oft ChatGPT Plus, Claude oder Perplexity Pro.
  • Sie haben eine Chat-Historie (Memory), die die Ergebnisse personalisiert.

Dadurch entstehen massive Abweichungen zwischen dem, was das Tool meldet, und dem, was der potenzielle Kunde tatsächlich sieht. Tracking-Daten sind im GEO daher immer nur ein Indikator, keine absolute Wahrheit.

Praxis-Case: Onlineshop für Versandkartons

Dass GEO und SEO keine getrennten Silos sind, zeigt unser aktueller Case aus dem B2B-Bereich „Versandkartons“.

Das Ziel war die Marktführerschaft in beiden Welten: Maximale Sichtbarkeit in der klassischen Google-Suche und die Etablierung als die Standard-Empfehlung in KI-Chats.

Die Ergebnisse: Dominanz in Search & Chat

Die Zahlen belegen eine direkte Korrelation zwischen klassischer Optimierung und KI-Sichtbarkeit:

  • GEO-Wachstum: Die Erwähnungen (Mentions) in KI-Systemen stiegen von 600 auf über 1.769. Der Shop wird heute in zahlreichen Prompts als der führende Onlineshop für Verpackungsmaterial empfohlen.
  • SEO-Power: Parallel dazu wurden TOP-3-Rankings für die härtesten Money-Keywords erzielt („Kartons“, „Versandkarton“, „Maxibriefkarton“). Starke Konkurrenz wurde verdrängt.
AI Case Kartonshop
Abb.: Entwicklung Sichtbarkeit laut Sistrix

Die Maßnahmen: Was wir gemacht haben

Der Erfolg basiert auf einer Strategie, die technische Exzellenz mit gezieltem Entitäten-Aufbau verbindet.

  1. Technisches Fundament & UX (Crawlability)
  • Relaunch & Struktur: Die Website wurde komplett aufgeräumt. Ein modernes Design und eine intuitiv geführte Navigation sorgen dafür, dass sich Nutzer (und Bots) sofort zurechtfinden.
  • Speed & Code: Die Ladezeiten (Core Web Vitals) wurden massiv verbessert, um Crawler-Abbrüche zu verhindern. Umfassende Schema.org-Daten machen Produkte nun maschinenlesbar.
  1. Content mit Information Gain
  • Kein „KI-Bla-Bla“: Aufbau einer Experten-Sektion mit tiefgehenden Inhalten, geschrieben von Menschen.
  • Content Chunks & Basics: Integration von Kaufratgebern und FAQs in alle Kategorien liefert KIs die perfekten Häppchen für direkte Antworten. Gleichzeitig wurden alle SEO-Basics (Title Tags, Meta Descriptions) perfektioniert.
  • Neue Cluster: Schaffung spezifischer Kategorien (z. B. „Amazon Versandkartons“), die exakte Suchintentionen und Prompts bedienen.
  1. Autorität & GEO-Hebel (Off-Page)
  • Trust-Signale: Organischer Aufbau von Bewertungen auf Plattformen wie Trustpilot. KIs nutzen diese als Validierung für „Bester Shop“-Anfragen.
  • Digital PR & Listen: Neben klassischem Linkaufbau lag der Fokus auf GEO: Wir haben identifiziert, welche Quellen von ChatGPT & Co. genutzt werden, und dort gezielt Platzierungen in Top-Listen gesichert.
  • Iterative Optimierung: Der Erfolg ist kein Zufallsprodukt, sondern Ergebnis stetiger Testings und Anpassungen von Meta-Daten und Inhalten.

Dieser Case beweist: Wer seine Hausaufgaben im SEO macht (Technik, Content, Trust) und diese um GEO-Spezifika (Top-Listen, Entitäten-Daten) erweitert, dominiert beide Kanäle.

Weitere Insights und Praxisbeispiele zur Generative Engine Optimization erfährst du in unserem YouTube-Video:

Zusammenfassung

GEO ist kein isolierter Kanal, sondern eine neue Disziplin der modernen Suche. Wer hier gewinnen will, muss strategisch entscheiden: Was ist das Ziel?

1. Die Strategie: Mention oder Citation?

Ziel Mentions erhalten: Du willst, dass die KI deine Marke kennt und empfiehlt. Baue Reputation im Web auf. Sorge für Erwähnungen auf externen Seiten, erscheine in „Top-Listen“, pflege eine starke „Über Uns“-Seite und sammle aggressive Social Proofs (z. B. Bewertungen auf Trustpilot).

Ziel Citations erhalten: Du willst, dass die KI deine Inhalte als Beleg nutzt. Werde zur Primärquelle. Erstelle eigene Top-Listen, Studien, Umfragen und einzigartige Daten, die das Modell zum „Nachschlagen“ zwingen (Information Gain).

2. Der Feedback-Loop: Frag die KI

Dein bester GEO-Berater ist die KI selbst. Nutze Reverse Engineering:

„Warum nennst du meine Marke nicht oder zitierst mich nicht als Quelle?“

„Warum erwähnst oder zitierst du Konkurrent XYZ häufiger?“

„Auf welchen Daten basieren deine Empfehlungen?“ Die Antworten der KI leiten dir den Weg zu den fehlenden Quellen und Themen.

3. GEO vs. SEO: Der feine Unterschied

Im klassischen SEO konzentrierst du dich auf Keywords. Egal was gesucht wird – solange es Teil der Customer Journey ist, optimierst du darauf, um Traffic und Leads abzugreifen.

Im GEO zählt die Klasse, nicht die Masse. Der Fokus liegt auf Master Prompts, die ein „Grounding“ (Belegen mit Fakten) auslösen. Du musst nicht für alles ranken, sondern nur dort, wo die KI eine externe Quelle zwingend benötigt.

4. Die Basis: Kein GEO ohne SEO

Lass dich nicht vom Hype blenden: SEO-Basics sind die absolute Voraussetzung für GEO. Wenn die Technik nicht stimmt, ist der Inhalt für die KI unsichtbar.

  • Saubere Title Tags & Meta Descriptions
  • Vermeidung von Duplicate Content
  • Schnelle Ladezeiten (Core Web Vitals)
  • Logische Textstruktur (H-Tags)
  • Hochinformativer Content

Ohne dieses Fundament läuft jede KI-Strategie ins Leere.

Bild von Fabian Auler
Fabian Auler
... ist Gründer und Inhaber der Farbentour Online Marketing GmbH, Fachautor beim Springer Gabler Verlag und veröffentlicht regelmäßig Beiträge in Online-Publikationen. Zudem ist er Referent bei Fachkonferenzen wie den SCM Praxistagen, der Content World oder der (SEO) Campixx und wurde als TOP 100 SEO Influencer ausgezeichnet. Laut iBusiness.de zählt seine Agentur zu den 100 wichtigsten SEO-Dienstleistern.

Mehr Sichtbarkeit und Traffic erzielen

mit der Farbentour Online Marketing GmbH

SEO ist für viele Unternehmen eine echte Herausforderung. Wir von der Agentur Farbentour wissen, wie man Websites in den Suchmaschinen ganz nach vorne bringt – und das nachhaltig.

  • Mehr Sichtbarkeit durch gezielte SEO-Strategien
  • Professionelle SEO-Beratung für langfristige Erfolge
  • Persönliche Betreuung und transparente Optimierung
Neslin