0gravity.ch Kostenlose Beratung

Warum langsame Websites in ChatGPT nie empfohlen werden

| 0gravity
KI Performance ChatGPT SEO

Die Art, wie Menschen Informationen finden, verändert sich grundlegend. Immer mehr Nutzer fragen nicht Google, sondern ChatGPT, Perplexity oder Claude. Diese KI-Agenten durchsuchen das Web, bewerten Websites und geben konkrete Empfehlungen — oft mit nur einem einzigen Ergebnis statt zehn blauen Links.

Das hat Konsequenzen. Wenn Ihre Website langsam ist, schlecht strukturiert oder schwer zugänglich, wird sie von diesen Systemen ignoriert. Nicht abgestraft — schlicht nicht wahrgenommen.

Wie KI-Crawler das Web sehen

KI-Agenten wie GPTBot (OpenAI), ClaudeBot (Anthropic) oder PerplexityBot arbeiten anders als klassische Suchmaschinen-Crawler. Sie besuchen Ihre Website, laden den HTML-Code und versuchen, den Inhalt zu verstehen. Dabei achten sie auf:

  • Ladegeschwindigkeit: Ein Crawler, der nach 3 Sekunden keine Antwort bekommt, zieht weiter. Er hat Millionen anderer Seiten zu besuchen.
  • Sauberes HTML: JavaScript-lastige Seiten, die ohne Browser-Rendering keinen Inhalt liefern, sind für die meisten KI-Crawler unsichtbar.
  • Strukturierte Daten: Schema.org-Markup, klare Überschriften-Hierarchien und semantisches HTML helfen Crawlern, den Inhalt korrekt einzuordnen.

Das bedeutet: Wenn Ihre Website auf clientseitiges JavaScript angewiesen ist, um Inhalte anzuzeigen, sieht ein KI-Crawler eine leere Seite. Wenn Ihr Server 4 Sekunden braucht, um zu antworten, wird Ihre Seite gar nicht erst gecrawlt.

Welche KI-Crawler gibt es und wie unterscheiden sie sich?

Nicht alle KI-Crawler arbeiten gleich. Hier ein Überblick über die wichtigsten Bots und ihre Besonderheiten:

  • GPTBot (OpenAI): Crawlt das Web für ChatGPT-Trainingsdaten und Browsing-Funktionen. Identifiziert sich über den User-Agent «GPTBot». Respektiert robots.txt und hat strenge Timeout-Grenzen.
  • ClaudeBot (Anthropic): Sammelt Informationen für Claudes Wissensbasis. Fokussiert sich auf qualitativ hochwertige, gut strukturierte Inhalte.
  • PerplexityBot: Crawlt in Echtzeit, um aktuelle Antworten zu liefern. Besonders zeitkritisch — langsame Seiten werden konsequent übersprungen.
  • Google-Extended: Googles Crawler für KI-Trainingsdaten, getrennt vom klassischen Googlebot. Wird für Gemini und AI Overviews eingesetzt.
  • Bingbot (erweitert): Microsoft nutzt Bing-Daten für Copilot. Websites, die bei Bing gut performen, haben auch bei Copilot einen Vorteil.

Wichtig für Schweizer Unternehmen: Prüfen Sie Ihre robots.txt-Datei. Viele Standard-WordPress-Setups blockieren versehentlich KI-Crawler. Stellen Sie sicher, dass GPTBot, ClaudeBot und PerplexityBot Zugang haben — sonst sind Sie für diese Systeme unsichtbar.

So bewertet ChatGPT die Geschwindigkeit Ihrer Website

Wenn ChatGPT mit aktivierter Browsing-Funktion eine Webseite aufruft, durchläuft es einen mehrstufigen Bewertungsprozess. Dieser unterscheidet sich fundamental von dem, was Google tut:

Schritt 1: Abruf und Timeout

ChatGPT sendet eine HTTP-Anfrage an Ihre Website. Wenn die Antwort nicht innerhalb weniger Sekunden kommt, wird die Seite verworfen und die nächste Quelle geprüft. Es gibt keinen zweiten Versuch. Es gibt keine «langsame Indexierung». Entweder Ihre Seite antwortet schnell genug — oder sie existiert für ChatGPT nicht.

Schritt 2: HTML-Parsing

Nach dem Abruf wird das HTML geparst. Hier trennt sich die Spreu vom Weizen: Seiten, die auf clientseitiges JavaScript angewiesen sind (React, Angular, Vue ohne SSR), liefern oft nur ein leeres <div id="root"></div>. Für ChatGPT ist das eine leere Seite.

Schritt 3: Relevanz-Bewertung

Der extrahierte Text wird mit der ursprünglichen Nutzeranfrage abgeglichen. Dabei bevorzugt ChatGPT Quellen, die:

  • Direkte, klare Antworten auf die gestellte Frage liefern
  • Durch strukturierte Daten als vertrauenswürdig markiert sind
  • Von anderen Quellen referenziert oder verlinkt werden

Schritt 4: Ranking und Zusammenfassung

Aus allen abgerufenen Quellen wählt ChatGPT die relevantesten aus und synthetisiert eine Antwort. Websites, die in Schritt 1 oder 2 gescheitert sind, kommen hier gar nicht erst in Betracht. Das ist der entscheidende Punkt: Geschwindigkeit ist keine Optimierung — sie ist die Eintrittskarte.

Der direkte Zusammenhang zwischen Core Web Vitals und KI-Sichtbarkeit

Googles Core Web Vitals — Largest Contentful Paint (LCP), Cumulative Layout Shift (CLS) und Interaction to Next Paint (INP) — sind längst mehr als ein Google-Ranking-Faktor. Sie sind ein allgemeiner Indikator für die Qualität einer Website.

KI-Systeme nutzen ähnliche Signale:

LCP unter 2.5 Sekunden bedeutet, dass der Hauptinhalt schnell verfügbar ist. Für einen Crawler heisst das: Die Seite reagiert zuverlässig und liefert Inhalte ohne unnötige Verzögerung.

Kein Layout Shift bedeutet stabilen, vorhersehbaren Inhalt. Crawler können den Text zuverlässig extrahieren, ohne sich mit dynamisch nachladenem Content auseinandersetzen zu müssen.

Schnelle Server-Antwort (TTFB) ist der wichtigste Faktor. Wenn der Server nicht innerhalb von wenigen hundert Millisekunden antwortet, ist die Seite für automatisierte Systeme schlicht zu langsam.

Studien zeigen, dass Websites mit einem Lighthouse Performance Score über 90 signifikant häufiger in KI-generierten Antworten auftauchen. Das ist kein Zufall — es ist die logische Konsequenz davon, wie diese Systeme das Web erfassen.

Reale Beispiele: Schnelle vs. langsame Websites in KI-Antworten

Um den Zusammenhang zwischen Geschwindigkeit und KI-Sichtbarkeit greifbar zu machen, betrachten wir konkrete Szenarien:

Beispiel 1: Lokaler Handwerker in Zürich

Fragen Sie ChatGPT: «Welcher Schreiner in Zürich hat gute Bewertungen?» Die KI durchsucht mehrere Quellen. Ein Schreinerbetrieb mit einer statischen Astro-Website (TTFB: 50ms, Lighthouse: 98) wird als Quelle herangezogen. Sein Konkurrent mit einer WordPress-Seite auf Shared Hosting (TTFB: 1’200ms, Lighthouse: 42) wurde vom Crawler übersprungen — zu langsam.

Das Ergebnis: Der erste Schreiner wird empfohlen. Der zweite nicht. Nicht wegen besserer Arbeit, sondern wegen einer besseren Website.

Beispiel 2: Vergleichsportale

Perplexity vergleicht bei einer Anfrage wie «Beste Krankenkasse Schweiz» mehrere Quellen. Portale mit schnellen, strukturierten Seiten (Comparis, Moneyland) werden zitiert. Kleinere Vergleichsseiten mit langsamen Ladezeiten werden ignoriert — selbst wenn ihr Inhalt qualitativ gleichwertig oder besser ist.

Beispiel 3: Restaurant-Empfehlungen

Wenn Claude nach «Bestes italienisches Restaurant in Bern» gefragt wird, bevorzugt es Quellen, die schnell antworten und strukturierte Daten (Schema.org Restaurant, Bewertungen, Öffnungszeiten) liefern. Eine gut optimierte Restaurant-Website hat hier einen massiven Vorteil gegenüber einem langsamen Baukasten-Auftritt.

Warum WordPress-Websites besonders betroffen sind

Die Mehrheit der Schweizer KMU-Websites läuft auf WordPress. Das Problem: eine typische WordPress-Installation lädt 30-50 HTTP-Requests, braucht 2-5 Sekunden für den ersten sichtbaren Inhalt und ist auf PHP-Server angewiesen, die unter Last langsamer werden.

Dazu kommen Plugins, die weiteres JavaScript nachladen, Render-Blocking-CSS und Fonts, die von externen CDNs gestreamt werden. Für einen menschlichen Besucher mit schnellem Internet mag das akzeptabel sein. Für einen Crawler, der Tausende von Seiten pro Minute verarbeitet, ist es ein Ausschlusskriterium.

Statische Websites hingegen — gebaut mit modernen Frameworks wie Astro — liefern vorgerendertes HTML in unter 100 Millisekunden. Kein PHP, kein Datenbank-Query, kein JavaScript, das erst geladen werden muss. Der Inhalt ist sofort da, für Menschen wie für Maschinen. Mehr zum Vergleich WordPress vs. Astro

So testen Sie, ob Ihre Website für KI sichtbar ist

Bevor Sie optimieren, sollten Sie den Ist-Zustand kennen. Hier eine Schritt-für-Schritt-Anleitung:

Test 1: Direkte KI-Abfrage

Öffnen Sie ChatGPT, Perplexity und Claude. Stellen Sie Fragen, die ein potenzieller Kunde stellen würde:

  • «Welcher [Ihre Branche] in [Ihrer Stadt] ist empfehlenswert?»
  • «Wer bietet [Ihre Dienstleistung] in der Schweiz an?»
  • «Was kostet [Ihr Produkt/Service] in [Ihrer Region]?»

Werden Sie erwähnt? Werden Ihre Konkurrenten erwähnt? Das ist der wichtigste Test überhaupt.

Test 2: robots.txt prüfen

Rufen Sie ihredomain.ch/robots.txt auf. Stellen Sie sicher, dass folgende User-Agents nicht blockiert sind:

  • GPTBot
  • ClaudeBot
  • PerplexityBot
  • Google-Extended

Falls dort «Disallow: /» für diese Bots steht, sind Sie für KI-Systeme komplett unsichtbar.

Test 3: Server-Antwortzeit messen

Nutzen Sie das Terminal oder ein Online-Tool, um Ihre TTFB (Time to First Byte) zu messen. Zielwert: unter 200 Millisekunden. Alles über 500ms ist problematisch. Über 1’000ms ist ein Ausschlusskriterium für die meisten KI-Crawler.

Test 4: JavaScript-Abhängigkeit prüfen

Deaktivieren Sie JavaScript in Ihrem Browser (Chrome DevTools → Settings → Disable JavaScript) und laden Sie Ihre Website. Sehen Sie den vollständigen Inhalt? Wenn nicht, sehen KI-Crawler ihn auch nicht.

Test 5: Strukturierte Daten validieren

Nutzen Sie Googles Rich Results Test, um zu prüfen, ob Ihre strukturierten Daten korrekt implementiert sind. KI-Systeme nutzen diese Daten, um Ihr Unternehmen einzuordnen.

Schritt-für-Schritt: Website für KI-Crawler optimieren

Hier ist ein konkreter Aktionsplan, sortiert nach Wirkung und Aufwand:

Phase 1: Quick Wins (1–2 Tage)

  1. robots.txt anpassen: KI-Crawler erlauben
  2. Bilder komprimieren: Alle Bilder auf WebP umstellen, Lazy Loading aktivieren
  3. Google Fonts ersetzen: Schriften selbst hosten statt von Google laden
  4. Meta-Descriptions optimieren: Klare, fragenbasierte Beschreibungen für jede Seite
  5. Sitemap einreichen: Bei Google Search Console und Bing Webmaster Tools

Phase 2: Technische Optimierung (1–2 Wochen)

  1. TTFB unter 200ms bringen: Hosting wechseln oder Caching einrichten
  2. Render-Blocking-Ressourcen eliminieren: Kritisches CSS inline, JS defer/async
  3. Schema.org-Markup implementieren: Organization, LocalBusiness, Service, FAQ
  4. Semantisches HTML sicherstellen: Korrekte Heading-Hierarchie, nav, article, main
  5. Core Web Vitals in den grünen Bereich bringen: LCP < 2.5s, CLS < 0.1, INP < 200ms

Phase 3: Strategische Massnahmen (laufend)

  1. Content-Strategie aufbauen: Regelmässige Blog-Artikel zu Ihren Kernthemen
  2. llms.txt-Datei erstellen: Eine maschinenlesbare Zusammenfassung Ihrer Website für KI-Crawler (Mehr dazu)
  3. FAQ-Bereiche erstellen: Fragen beantworten, die Nutzer an KI-Assistenten stellen
  4. Backlinks aufbauen: Von autoritativen Schweizer Quellen
  5. Konsistenz über alle Kanäle: Google My Business, LinkedIn, Branchenverzeichnisse aktuell halten

Schweizer Hosting im Vergleich: Was ist schnell genug für KI?

Die Wahl des Hostings hat einen direkten Einfluss darauf, ob KI-Crawler Ihre Website überhaupt vollständig erfassen können. Hier ein Vergleich gängiger Hosting-Optionen in der Schweiz:

Shared Hosting (Hostpoint, Infomaniak, cyon)

  • Typische TTFB: 300–1’500ms
  • Kosten: CHF 5–15/Monat
  • KI-Tauglichkeit: Problematisch. Unter Last steigen die Antwortzeiten, und KI-Crawler besuchen Websites nicht zu vorhersehbaren Zeiten.

Managed WordPress (Hostpoint Flex, Kinsta)

  • Typische TTFB: 200–600ms
  • Kosten: CHF 20–50/Monat
  • KI-Tauglichkeit: Akzeptabel, aber nicht optimal. Server-seitiges Caching hilft, aber die PHP-Grundlast bleibt.

Static Hosting / CDN (Vercel, Netlify, Cloudflare Pages)

  • Typische TTFB: 20–100ms
  • Kosten: CHF 0–20/Monat (viele kostenlose Tiers)
  • KI-Tauglichkeit: Ideal. Vorgerendertes HTML wird von Edge-Servern weltweit ausgeliefert. Keine Datenbank, kein PHP, keine Variabilität in der Antwortzeit.

Schweizer Cloud (Exoscale, Infomaniak Public Cloud)

  • Typische TTFB: 100–400ms
  • Kosten: CHF 10–30/Monat
  • KI-Tauglichkeit: Gut, besonders mit Caching-Layer. Vorteil: Daten bleiben in der Schweiz, was für manche Branchen relevant ist.

Unsere Empfehlung: Für maximale KI-Sichtbarkeit ist Static Hosting auf einem globalen CDN die beste Wahl. Kombiniert mit einem Framework wie Astro.js, das HTML zur Build-Zeit generiert, erreichen Sie Antwortzeiten, die kein PHP-basiertes System bieten kann.

Was Unternehmen jetzt tun können

Wenn Sie wollen, dass Ihre Website von KI-Agenten gefunden und empfohlen wird, müssen Sie an drei Hebeln drehen:

1. Performance optimieren

Reduzieren Sie die Ladezeit auf unter 1 Sekunde. Das bedeutet: statisches HTML, optimierte Bilder (WebP/AVIF), minimiertes CSS, keine Render-Blocking-Ressourcen. Messen Sie mit Google Lighthouse und streben Sie einen Score von 95+ an. Detaillierte Tipps finden Sie in unserem Artikel über Website-Performance und Umsatz.

2. Strukturierte Daten implementieren

Fügen Sie Schema.org-Markup hinzu: Organization, LocalBusiness, Service, FAQ, Article. Diese strukturierten Daten helfen KI-Systemen, Ihr Unternehmen korrekt einzuordnen — Standort, Leistungen, Preise, Öffnungszeiten. Erfahren Sie mehr über KI-optimierte Websites.

3. Semantisches HTML verwenden

Verwenden Sie korrekte Überschriften-Hierarchien (h1 bis h6), beschreibende Alt-Texte für Bilder, nav-Elemente für Navigation, article-Tags für Inhalte. Schreiben Sie für Menschen, aber strukturieren Sie für Maschinen.

4. Content für KI-Anfragen optimieren

Schreiben Sie Inhalte, die direkte Antworten auf häufige Kundenfragen geben. KI-Assistenten bevorzugen Quellen, die eine Frage klar und autoritativ beantworten. Formulieren Sie Überschriften als Fragen und liefern Sie die Antwort im ersten Absatz darunter.

5. Ihre KI-Sichtbarkeit regelmässig überprüfen

Testen Sie monatlich, ob KI-Assistenten Ihr Unternehmen empfehlen. Variieren Sie die Fragen, testen Sie verschiedene Plattformen (ChatGPT, Perplexity, Claude, Gemini). Dokumentieren Sie die Ergebnisse und passen Sie Ihre Strategie entsprechend an.

Die Zukunft ist hybrid

Die Trennung zwischen «SEO» und «KI-Optimierung» wird verschwinden. Websites, die heute für Suchmaschinen optimiert sind, werden morgen auch von KI-Agenten bevorzugt — vorausgesetzt, sie sind schnell, sauber strukturiert und inhaltlich relevant. Diesen kombinierten Ansatz nennt man GEO — Generative Engine Optimization.

Der entscheidende Unterschied: Bei Google konkurrieren Sie um Position 1-10. Bei ChatGPT gibt es oft nur eine Empfehlung. Wenn Sie nicht die schnellste, relevanteste Quelle sind, werden Sie nicht erwähnt.

Schweizer Unternehmen, die jetzt in Performance und Struktur investieren, sichern sich einen Vorteil, der in den kommenden Jahren exponentiell wachsen wird. Denn je mehr Menschen KI-Assistenten nutzen, desto wichtiger wird es, von diesen Systemen als vertrauenswürdige Quelle erkannt zu werden.

Die Frage ist nicht, ob KI die Art verändert, wie Kunden Sie finden. Die Frage ist, ob Ihre Website bereit dafür ist. Kontaktieren Sie uns für eine kostenlose Analyse Ihrer KI-Sichtbarkeit — oder informieren Sie sich über unsere SEO- und KI-Optimierungs-Leistungen.


Häufig gestellte Fragen (FAQ)

Kann ich meine Website für bestimmte KI-Crawler blockieren?

Ja, über die robots.txt-Datei können Sie einzelne KI-Crawler gezielt blockieren oder erlauben. Das ist sinnvoll, wenn Sie Ihre Inhalte schützen möchten. Aber bedenken Sie: Wenn Sie alle KI-Crawler blockieren, werden Sie in keiner KI-generierten Antwort erwähnt. Für die meisten Unternehmen ist das ein Nachteil.

Wie oft crawlen KI-Bots meine Website?

Das hängt von der Autorität und Aktualität Ihrer Website ab. Grosse, häufig aktualisierte Websites werden mehrmals täglich gecrawlt. Kleine Websites mit selten aktualisierten Inhalten vielleicht nur einmal pro Woche oder seltener. Regelmässige Content-Updates erhöhen die Crawl-Frequenz.

Reicht es, wenn meine Website nur auf Desktop schnell ist?

Nein. Viele KI-Crawler nutzen mobile User-Agents, um Websites abzurufen. Wenn Ihre mobile Version langsamer ist als die Desktop-Version, sehen die Crawler die langsamere Variante. Optimieren Sie immer Mobile-First — das hilft bei Google und bei KI gleichzeitig.

Welche strukturierten Daten sind am wichtigsten für KI-Sichtbarkeit?

Beginnen Sie mit Organization/LocalBusiness (wer sind Sie), Service (was bieten Sie an), FAQ (häufige Fragen) und Article (für Blog-Inhalte). Diese vier Schema-Typen decken die wichtigsten Informationen ab, die KI-Systeme benötigen, um Ihr Unternehmen korrekt einzuordnen und zu empfehlen.

Was ist eine llms.txt-Datei und brauche ich eine?

Eine llms.txt-Datei ist eine maschinenlesbare Zusammenfassung Ihrer Website, speziell für KI-Systeme. Sie enthält eine kompakte Beschreibung Ihres Unternehmens, Ihrer Dienstleistungen und Ihrer wichtigsten Inhalte. Noch ist sie kein Standard, aber immer mehr KI-Systeme unterstützen sie. Wir empfehlen, sie jetzt schon einzurichten. Mehr dazu in unserem llms.txt-Guide.

Wie unterscheidet sich KI-Sichtbarkeit von klassischem SEO?

Klassisches SEO optimiert für Google-Rankings (Position 1–10). KI-Sichtbarkeit optimiert dafür, als Quelle in KI-generierten Antworten zitiert zu werden. Die Grundlagen überlappen stark (schnelle Website, guter Content, strukturierte Daten), aber KI-Sichtbarkeit stellt höhere Anforderungen an Geschwindigkeit und Inhaltsstruktur. Lesen Sie unseren Vergleich GEO vs. SEO.

0g
0gravity

Schweizer Web-Agentur für ultraschnelle, KI-optimierte Websites. Wir bauen Websites, die Kunden bringen — nicht nur gut aussehen.

Bereit für eine schnellere Website?

Gratis Website-Check: Wir testen Ihre aktuelle Website und zeigen Ihnen, was möglich ist.

Oder direkt: hello@0gravity.ch

Gespräch buchen