Glossar zu GEO, LLMO
& KI-Sichtbarkeit
Alle Begriffe rund um Generative Engine Optimization, Large Language Model Optimization und KI-Reputationsanalyse. Praxisnah erklärt, ohne Fachjargon-Inflation.
A
AEO (Answer Engine Optimization)
Optimierung von Inhalten für Antwortmaschinen. Dazu zählen Google AI Overviews, ChatGPT, Perplexity und andere Systeme, die Nutzerfragen direkt beantworten statt Linklisten auszugeben. AEO fokussiert auf Position 0: die erste direkte Antwort.
AI Overviews
KI-generierte Zusammenfassungen, die Google seit 2024 in den Suchergebnissen anzeigt. Seit 2025 auch im DACH-Raum aktiv. Sie fassen Informationen aus mehreren Quellen zusammen und erscheinen oberhalb der klassischen Treffer.
Answer Engine
System, das Nutzerfragen direkt beantwortet statt Links aufzulisten. Beispiele: ChatGPT, Perplexity, Google AI Overviews. Verändert grundlegend, wie Nutzer nach Informationen suchen.
Attribution
Zuordnung einer Aussage zu einer konkreten Quelle. In der KI-Reputationsanalyse relevant, weil Modelle nicht immer offenlegen, woher eine Information stammt.
B
Bias
Systematische Verzerrung in der Antwort eines KI-Modells. Entsteht durch einseitige Trainingsdaten oder gewichtete Quellenauswahl. Kann dazu führen, dass bestimmte Perspektiven überproportional erscheinen.
C
Citation
Direkte Quellenangabe in einer KI-generierten Antwort. Perplexity zeigt Citations standardmässig an, ChatGPT nur selten. Für die Reputationsanalyse relevant, weil Citations Sichtbarkeit und Glaubwürdigkeit beeinflussen.
Content Gap
Themenlücke, die ein Modell nicht oder fehlerhaft abdeckt. Wenn ein Modell zu einem relevanten Thema keine Informationen hat, kann das auf fehlende oder unzureichend strukturierte Inhalte hinweisen.
D
Datenexport
Strukturierte Ausgabe von Analyseergebnissen für Weiterverarbeitung in eigenen Systemen. Formate wie CSV, JSON oder PDF-Reports, abhängig vom Anwendungsfall.
Delta
Veränderung eines Werts zwischen zwei Messzeitpunkten. In der KI-Reputationsanalyse: Wie hat sich die Sichtbarkeit oder Tonalität einer Marke zwischen Woche 1 und Woche 4 verschoben?
Domain
Quelladresse, die ein Modell in seiner Antwort referenziert. Welche Domains ein Modell bevorzugt, gibt Aufschluss über dessen Quellenhierarchie.
E
E-E-A-T
Experience, Expertise, Authoritativeness, Trustworthiness. Googles Qualitätskriterien für Inhalte. Diese Signale beeinflussen nicht nur das klassische Ranking, sondern auch, welche Quellen KI-Modelle bevorzugt heranziehen.
Embeddings
Numerische Darstellung von Texten im Vektorraum. Modelle nutzen Embeddings, um semantische Nähe zwischen Begriffen zu berechnen. Relevant für Retrieval-Systeme und Vektorsuche.
Entität
Klar identifizierbare Einheit wie eine Person, Firma, Produkt oder Ort. KI-Modelle ordnen Informationen anhand von Entitäten. Eine starke Entitätserkennung verbessert die Sichtbarkeit in KI-Antworten.
F
Fan-out Queries
Varianten einer Frage, um verschiedene Perspektiven eines Modells abzufragen. Beispiel: dieselbe Frage zu einem Produkt aus Sicht von Preis, Qualität und Alternativen stellen.
Frame
Perspektive oder Kontext, in dem eine Information präsentiert wird. Ein Modell kann dasselbe Unternehmen positiv, neutral oder kritisch framen, abhängig vom Prompt und den verfügbaren Quellen.
G
GEO (Generative Engine Optimization)
Optimierung von Inhalten für generative Suchsysteme und KI-Modelle. GEO geht über klassisches SEO hinaus: Statt nur für Suchmaschinen-Rankings zu optimieren, werden Inhalte so strukturiert, dass KI-Systeme sie als Quelle nutzen und korrekt wiedergeben.
Grounding
Verankerung einer KI-Antwort in verifizierbaren Quellen. Gut gegroundete Antworten lassen sich auf konkrete Dokumente oder Datenpunkte zurückführen. Fehlendes Grounding erhöht das Halluzinationsrisiko.
H
Halluzination
Sachlich falsche, aber plausibel klingende Aussage eines KI-Modells. Kann Rufschäden verursachen, wenn ein Modell falsche Informationen über eine Marke oder Person verbreitet. Erkennung und Monitoring sind Teil der KI-Reputationsanalyse.
K
KI-Sichtbarkeit
Wie häufig und in welchem Kontext eine Marke, ein Produkt oder eine Person in KI-generierten Antworten erscheint. KI-Sichtbarkeit wird zur neuen Kenngrösse neben klassischer Web-Sichtbarkeit.
Knowledge Cutoff
Stichtag, bis zu dem ein Modell Trainingsdaten kennt. Alles nach diesem Datum fehlt im internen Wissen des Modells, es sei denn, das System nutzt Websuche oder RAG als Ergänzung.
Kontextfenster
Maximale Textmenge, die ein Modell gleichzeitig verarbeiten kann. Gemessen in Tokens. Ein grösseres Kontextfenster bedeutet, dass das Modell mehr Information gleichzeitig berücksichtigen kann.
L
LLM (Large Language Model)
Grosses Sprachmodell wie GPT-4, Claude oder Gemini. LLMs sind die Basis hinter ChatGPT, Perplexity und Google AI Overviews. Sie generieren Antworten auf Basis von Trainings- und Abrufdaten.
LLM Listening
Systematisches Abfragen von LLMs, um deren Aussagen über eine Marke oder ein Thema zu erfassen. Vergleichbar mit Social Listening, aber für KI-Systeme. Teil der KI-Reputationsanalyse.
LLMO (Large Language Model Optimization)
Optimierung von Inhalten speziell für grosse Sprachmodelle. LLMO ist eng verwandt mit GEO, legt aber den Fokus stärker auf das Verhalten einzelner LLMs. In der Praxis werden GEO und LLMO häufig synonym verwendet.
llms.txt
Datei im Stammverzeichnis einer Website, ähnlich robots.txt. Sie informiert LLMs gezielt über den Inhalt und die Struktur einer Website. Noch kein Standard, aber zunehmend diskutiert.
M
Monitoring
Laufende Beobachtung von KI-Antworten über definierte Zeiträume. Zeigt, ob sich die Sichtbarkeit, Tonalität oder Quellenauswahl eines Modells verändert hat. Grundlage für datenbasierte Entscheide.
N
Narrativ
Erzählmuster, das KI-Modelle wiedergeben, wenn sie über ein Thema oder eine Marke sprechen. Narrative prägen die Wahrnehmung stärker als einzelne Fakten, weil sie Kontext und Bewertung liefern.
O
Overlap-Analyse
Vergleich mehrerer Modellantworten auf inhaltliche Übereinstimmung. Wo sich GPT-4, Claude und Gemini einig sind, liegt ein stabiles Narrativ vor. Abweichungen zeigen, wo die Quelllage unklar ist.
P
Prompt
Eingabefrage an ein KI-Modell. Die Formulierung des Prompts beeinflusst direkt, welche Antwort das Modell generiert. Präzise Prompts führen zu aussagekräftigeren Ergebnissen.
Prompt Audit
Systematische Prüfung, wie ein KI-Modell auf definierte Prompts zu einer Marke oder einem Thema antwortet. Zeigt Sichtbarkeit, Tonalität, Quellennutzung und mögliche Halluzinationen auf. Basis jeder KI-Reputationsanalyse.
Prompt-Set
Definierte Sammlung von Prompts für eine Analyse. Ein gutes Prompt-Set deckt verschiedene Perspektiven, Formulierungen und Use-Cases ab, um ein vollständiges Bild der KI-Reputation zu erhalten.
Q
Quellenlogik
Muster, nach denen ein Modell Quellen priorisiert und referenziert. Manche Modelle bevorzugen grosse Medienportale, andere wissenschaftliche Quellen. Die Quellenlogik zu verstehen ist zentral für GEO-Strategien.
Quellen-Diversität
Vielfalt der Quellen, die ein Modell für seine Antworten heranzieht. Hohe Diversität bedeutet, dass das Modell verschiedene Perspektiven berücksichtigt. Geringe Diversität kann zu einseitiger Darstellung führen.
R
RAG (Retrieval-Augmented Generation)
Ansatz, bei dem ein Modell vor dem Antworten relevante Dokumente abruft und in die Antwort einbezieht. Statt nur mit internem Wissen zu arbeiten, greift das Modell auf aktuelle externe Quellen zu.
Ranking / Gewichtung
Mechanismen, die bestimmen, welche Inhalte oder Quellen in der Antwort dominant erscheinen. Kann dazu führen, dass wenige Quellen das gesamte Narrativ prägen.
Reputationsanalyse (KI)
Systematische Untersuchung, wie KI-Systeme über ein Unternehmen, Produkt oder Thema sprechen. Erfasst Sichtbarkeit, Tonalität, Positionierung und Narrativmuster über mehrere Modelle und Zeitpunkte.
S
Schema.org (strukturierte Daten)
Markup-Standard, um Inhalte maschinenlesbar zu kennzeichnen. Beispiele: Organisation, Artikel, FAQ, Produkt. Strukturierte Daten helfen Suchmaschinen und KI-Systemen, Inhalte korrekt einzuordnen.
Scope
Festgelegter Rahmen einer Analyse: Welche Prompts, welche Modelle, welche Sprache, welcher Zeitraum, welche Vergleichslogik. Ein klar definierter Scope macht Ergebnisse reproduzierbar.
T
Temperature
Parameter, der steuert, wie variabel Antworten eines Modells ausfallen. Höhere Werte führen zu kreativeren, aber weniger vorhersagbaren Antworten. Niedrigere Werte machen Antworten konsistenter.
Token
Texteinheiten, mit denen Modelle rechnen. Ein Wort besteht aus einem oder mehreren Tokens. Relevant für Kontextfenster, Kosten und die maximale Länge von Eingabe und Antwort.
Traceability (Nachvollziehbarkeit)
Fähigkeit, Erkenntnisse sauber auf Aussagen, Quellen und Datenpunkte zurückzuführen. In der KI-Reputationsanalyse zentral, um Ergebnisse zu validieren und intern zu kommunizieren.
U
Use-Case
Konkreter Anwendungsfall einer Analyse. Beispiele: Wettbewerbsvergleich, Sicherheitswahrnehmung, Preis-Leistung, Migration. Use-Cases strukturieren das Prompt-Set und die Auswertung.
V
Vektorsuche
Semantische Suche über Embeddings, häufig in Retrieval-Systemen. Die Vektorsuche bestimmt, welche Inhalte als Grundlage in KI-Antworten gelangen. Beeinflusst die KI-Sichtbarkeit direkt.
Z
Zero-Click-Search
Suchanfrage, bei der die Antwort direkt in den Suchergebnissen erscheint, ohne dass der Nutzer auf eine Website klickt. Laut aktuellen Studien betrifft das rund 60% aller Google-Suchen. Für Unternehmen bedeutet das: Sichtbarkeit in der Antwort selbst wird wichtiger als der Klick.
Wie sprechen KI-Systeme
über Ihre Marke?
In einem kurzen Gespräch klären wir, welche dieser Begriffe für Ihre Situation relevant sind und wo Handlungsbedarf besteht.
Kostenlose Ersteinschätzung