Ein AI-Bot ist ein automatisiertes Programm, das Webseiten abruft und Informationen sammelt, meist nach festen Regeln (z. B. Crawling, Monitoring, Preisabgleich). Ein AI-Agent (KI-Agent) kombiniert dagegen Retrieval, Planung und Tool-Nutzung: Er zerlegt ein Ziel in Schritte, wählt Quellen, ruft APIs oder Browser-Aktionen auf und liefert ein Ergebnis. Kurz: Bot = Datensammlung; Agent = Aufgabenlösung mit Kontext, Entscheidungen und Aktionen. In SEO/GEO zählt wie gut Inhalte Daten und Endpunkte maschinenlesbar sind.
Ein KI-Agent arbeitet meist als Orchestrierung aus LLM + Tools. Typische Pipeline:
Agents respektieren robots.txt, interpretieren HTTP-Statuscodes, folgen Redirects und nutzen bei JS-Sites Headless-Rendering, um den DOM zu extrahieren. Für Websites heißt das: strukturierte Daten (Schema.org/JSON-LD), stabile Canonicals, saubere Sitemaps (inkl. lastmod) und Anker-IDs erleichtern die Passage-Adressierung. Niedrige Latenz, wenige 5xx und klare 301-Weiterleitungen reduzieren Retries und Abbrüche. Je konsistenter Entitäten, Produktattribute und Policies modelliert sind, desto sicherer kann der Agent Daten übernehmen und weiterverarbeiten.
Wenn AI-Agents Inhalte aus der „klassischen“ organischen Suche beziehen, wird SEO stärker zu einer Frage der technischen Verlässlichkeit und Datenqualität. Agents verhalten sich oft anders als klassische Crawler: Sie testen Pfade, vergleichen Varianten und springen zwischen Quellen, bis ein Task „fertig“ ist.
Praktischer Effekt: Selbst bei stabilem Ranking kann eine „agent-unfreundliche“ Seite an Sichtbarkeit verlieren, weil Agents Passagen nicht zuverlässig extrahieren oder Aktionen abbrechen (Timeouts, 403, kaputte Redirects). Wer dagegen maschinenlesbare Produktdaten (SKU/GTIN/MPN), konsistente Offers und klare Policy-Seiten liefert, wird häufiger als Quelle genutzt – und erhält qualifiziertere Klicks, wenn der Agent den Nutzer gezielt weiterleitet.
Wichtig: Bot-Schutz (WAF, Captcha) sollte differenzieren, sonst blockt ihr legitime Agent-Retrievals. Setzt Whitelists und Limits.
In AI Search bauen Agents Antworten aus Retrieval-Chunks, Knowledge-Graph-Signalen und ggf. Partnerdaten. Sichtbarkeit entsteht daher doppelt: (1) als zitierte Quelle in der Antwort und (2) als ausführbarer „Next Step“ (z. B. Produkt vergleichen, Termin buchen, Checkout starten).
Ergebnis: Auch ohne Klick kann eure Marke im Consideration-Set landen. Mit guten Datenendpunkten kann der Agent anschließend gezielt Traffic auf die passende Conversion-Seite schicken.
Für Shops ist „Freshness“ entscheidend: Preise/Bestände brauchen Timestamps, lastmod in Sitemaps und möglichst schnelle Updates (Feeds, Webhooks). Technische Stabilität (wenig 5xx, schnelle TTFB) erhöht die Chance, dass Retrieval überhaupt gelingt.