Seite wird nicht indexiert: Ursachen finden und Indexierung sicherstellen
Wenn eine Seite nicht im Google-Index erscheint, existiert sie für potenzielle Kunden nicht. Egal wie gut Ihr Inhalt ist — ohne Indexierung kein Ranking, kein Traffic, keine Anfragen. In meiner täglichen Arbeit als SEO-Freelancer gehört die Analyse von Indexierungsproblemen zu den häufigsten Aufgaben. Die Ursachen sind vielfältig, aber fast immer lösbar.
Diese Anleitung führt Sie systematisch durch alle Ursachen und zeigt Ihnen, wie Sie Indexierungsprobleme Schritt für Schritt beheben.
Was Indexierung bedeutet und warum sie scheitert
Damit eine Seite in den Suchergebnissen erscheint, muss sie drei Phasen durchlaufen: Crawling (Googlebot entdeckt und besucht die URL), Indexierung (Google analysiert den Inhalt und nimmt die Seite auf) und Ranking (Google ordnet die Seite für Suchanfragen ein). Wenn Ihre Seite nicht indexiert wird, liegt das Problem in Phase 1 oder 2.
So prüfen Sie, ob Ihre Seite indexiert ist
Bevor Sie mit der Fehlersuche beginnen, stellen Sie sicher, dass die Seite tatsächlich nicht im Index ist:
site:-Operator
Geben Sie in die Google-Suche ein: site:ihredomain.de/seitenname. Erscheint die Seite in den Ergebnissen, ist sie indexiert. Erscheint nichts, liegt ein Problem vor.
URL-Prüfung in der Search Console
Das URL-Prüfung-Tool in der Google Search Console liefert die zuverlässigste Aussage. Geben Sie die vollständige URL ein und prüfen Sie den Status. Sie erhalten eine klare Aussage: „URL ist auf Google” oder den konkreten Grund, warum nicht.
Seiten-Bericht (Coverage)
Der Seiten-Bericht in der Search Console zeigt alle URLs Ihrer Website und ihren Indexierungsstatus. Hier sehen Sie auf einen Blick, welche Seiten nicht indexiert sind und warum.
Die häufigsten Ursachen und ihre Lösungen
1. robots.txt blockiert die Seite
Die robots.txt-Datei steuert, welche Bereiche Ihrer Website der Googlebot crawlen darf. Eine falsche Disallow-Regel kann wichtige Seiten blockieren, ohne dass Sie es bemerken.
So prüfen Sie es: Rufen Sie ihredomain.de/robots.txt im Browser auf. Suchen Sie nach Disallow-Regeln, die Ihre betroffene Seite einschließen könnten. Nutzen Sie zusätzlich den robots.txt-Tester in der Search Console.
Lösung: Entfernen oder korrigieren Sie die blockierende Regel. Beachten Sie: Eine Seite, die per robots.txt blockiert ist, kann trotzdem im Index erscheinen — aber ohne Inhalt. Wenn Sie Seiten aus dem Index entfernen möchten, nutzen Sie stattdessen ein noindex-Tag.
2. noindex-Meta-Tag
Ein <meta name="robots" content="noindex"> im HTML-Header verhindert die Indexierung gezielt. Manchmal wird dieses Tag versehentlich gesetzt — etwa durch CMS-Einstellungen, Plugins oder Staging-Konfigurationen, die nach einem Launch nicht zurückgesetzt wurden.
So prüfen Sie es: Öffnen Sie den Quelltext (Rechtsklick → Seitenquelltext anzeigen) und suchen Sie nach „noindex”. Prüfen Sie auch die HTTP-Header auf einen X-Robots-Tag.
Lösung: Entfernen Sie das noindex-Tag. Bei WordPress: Sichtbarkeitseinstellung unter Einstellungen → Lesen sowie Plugin-Einstellungen (Yoast, RankMath) prüfen.
3. Canonical-Tag zeigt auf eine andere URL
Wenn der Canonical-Tag Ihrer Seite auf eine andere URL verweist, behandelt Google diese andere URL als die bevorzugte Version. Ihre Seite wird dann als Duplikat eingestuft und nicht indexiert.
So prüfen Sie es: Suchen Sie im Quelltext nach <link rel="canonical". Der href-Wert sollte auf die Seite selbst verweisen (Self-Canonical).
Lösung: Korrigieren Sie den Canonical-Tag, sodass er auf die eigene URL zeigt. Bei CMS-Systemen finden Sie die Einstellung oft in den SEO-Plugin-Optionen der jeweiligen Seite.
4. Seite fehlt in der XML-Sitemap
Die XML-Sitemap ist Ihre Bestandsliste für Google. Seiten, die nicht darin enthalten sind, werden zwar nicht automatisch ignoriert — aber sie werden mit geringerer Priorität gecrawlt.
So prüfen Sie es: Öffnen Sie Ihre Sitemap (meist unter ihredomain.de/sitemap.xml) und suchen Sie nach der betroffenen URL.
Lösung: Fügen Sie die URL zur Sitemap hinzu und reichen Sie die aktualisierte Sitemap in der Search Console ein. Die meisten CMS-Systeme generieren Sitemaps automatisch — prüfen Sie, ob die Seite durch Einstellungen ausgeschlossen wird.
5. Mangelhafte interne Verlinkung
Seiten, die von keiner anderen Seite Ihrer Website verlinkt werden, sind für Google schwer zu entdecken. Diese sogenannten verwaisten Seiten (Orphan Pages) erhalten weder Crawl-Aufmerksamkeit noch Linkkraft.
So prüfen Sie es: Crawlen Sie Ihre Website mit Screaming Frog oder einem ähnlichen Tool und identifizieren Sie Seiten mit null oder sehr wenigen eingehenden internen Links.
Lösung: Verlinken Sie die betroffene Seite von thematisch passenden Unterseiten. Je wichtiger eine Seite ist, desto mehr interne Links sollte sie erhalten — idealerweise von Seiten, die selbst gut verlinkt sind.
6. Dünner oder minderwertiger Content
Google indexiert zunehmend nur Seiten mit echtem Mehrwert. Seiten mit wenig Inhalt, automatisch generiertem Text oder Inhalten, die anderswo besser abgedeckt sind, werden häufig nicht in den Index aufgenommen.
So prüfen Sie es: Bewerten Sie Ihren Inhalt ehrlich: Bietet die Seite einzigartige Informationen? Beantwortet sie eine Suchanfrage besser als bestehende Ergebnisse?
Lösung: Erweitern Sie den Inhalt um echten Mehrwert. Fügen Sie eigene Expertise, Erfahrungen, Daten oder praktische Anleitungen hinzu. Qualität schlägt Quantität — aber ein Minimum an Inhalt ist nötig.
7. Crawl-Budget-Probleme
Bei großen Websites mit tausenden Seiten kann das Crawl-Budget zum Engpass werden. Google crawlt pro Website nur eine begrenzte Anzahl von Seiten pro Zeitraum. Seiten, die tief in der Seitenarchitektur vergraben sind, werden seltener oder gar nicht gecrawlt.
So prüfen Sie es: Prüfen Sie in der Search Console unter „Einstellungen → Crawl-Statistiken”, wie häufig Google Ihre Seite besucht.
Lösung: Flache Seitenarchitektur anstreben — wichtige Seiten sollten mit maximal 3-4 Klicks von der Startseite erreichbar sein. Entfernen Sie unnötige Seiten aus dem Crawl-Pfad (z. B. Parameterseiten, leere Archivseiten).
8. Serverfehler beim Crawl
Wenn der Googlebot beim Zugriff auf Ihre Seite einen 5xx-Fehler erhält, kann er den Inhalt nicht lesen. Intermittierende Serverfehler führen dazu, dass Google die Seite als unzuverlässig einstuft.
So prüfen Sie es: Prüfen Sie die Crawl-Statistiken in der Search Console auf Serverfehler. Kontrollieren Sie Ihre Server-Logs auf 500er-Fehler.
Lösung: Beheben Sie die Serverprobleme. Häufige Ursachen sind überlastete Server, fehlerhafte Skripte oder Timeout-Probleme. Sprechen Sie bei Bedarf mit Ihrem Hosting-Anbieter.
9. Neue Website oder neue Seite
Frisch veröffentlichte Seiten sind nicht sofort im Index. Google muss die Seite erst entdecken, crawlen und bewerten. Das kann Stunden, aber auch Wochen dauern.
So prüfen Sie es: Nutzen Sie die URL-Prüfung in der Search Console und prüfen Sie, ob Google die Seite kennt.
Lösung: Nutzen Sie die Funktion „Indexierung beantragen” in der URL-Prüfung. Stellen Sie sicher, dass die Seite in der Sitemap enthalten und intern verlinkt ist. Haben Sie Geduld — bei neuen Domains kann die Erstindexierung länger dauern.
10. Duplicate Content
Wenn Google Ihre Seite als Duplikat einer anderen Seite einstuft, wird nur die bevorzugte Version indexiert. Ihre Seite wird dann herausgefiltert.
So prüfen Sie es: Die URL-Prüfung zeigt, ob Google Ihre Seite als Duplikat behandelt und welche URL stattdessen als kanonisch gilt.
Lösung: Machen Sie Ihren Inhalt einzigartig oder setzen Sie den Canonical-Tag bewusst auf die gewünschte Version. Vermeiden Sie identische Inhalte auf verschiedenen URLs.
„Discovered – currently not indexed” vs. „Crawled – currently not indexed”
Diese beiden Statusmeldungen in der Search Console verwirren viele Website-Betreiber. Der Unterschied ist aber entscheidend:
Discovered – currently not indexed: Google kennt die URL, hat sie aber noch nicht besucht. Das deutet auf Crawl-Budget-Probleme oder geringe Priorität hin. Lösung: Interne Verlinkung stärken, Sitemap aktualisieren.
Crawled – currently not indexed: Google hat die Seite besucht, sich aber gegen eine Indexierung entschieden. Das ist ein Qualitätssignal — Google stuft den Inhalt als nicht indexierungswürdig ein. Lösung: Inhalt verbessern, Mehrwert schaffen, Einzigartigkeit sicherstellen.
Der URL-Prüfung-Workflow
So nutzen Sie das Tool effektiv: URL eingeben, Live-Test durchführen, Status und Crawl-Ergebnis prüfen, HTML-Quellcode kontrollieren und bei Bedarf „Indexierung beantragen” klicken. Nach 1-2 Wochen erneut prüfen.
Wichtig: „Indexierung beantragen” ist kein Garant. Google entscheidet eigenständig, ob eine Seite indexiert wird. Die alte Google Indexing API für allgemeine Webseiten wurde eingestellt — sie funktioniert nur noch für Job-Postings und Livestream-Inhalte.
Checkliste: Indexierungsprobleme beheben
- site:-Operator in Google prüfen
- URL-Prüfung in der Search Console durchführen
- robots.txt auf blockierende Disallow-Regeln prüfen
- Quelltext auf noindex-Tag und X-Robots-Header kontrollieren
- Canonical-Tag auf Self-Referencing prüfen
- Seite in XML-Sitemap aufnehmen und Sitemap einreichen
- Interne Verlinkung analysieren und stärken
- Content-Qualität bewerten und verbessern
- Serverfehler in Crawl-Statistiken ausschließen
- Duplikat-Status in der URL-Prüfung kontrollieren
- Indexierung über URL-Prüfung beantragen
- Nach 2-4 Wochen erneut prüfen
Wann professionelle Hilfe sinnvoll ist
Einzelne Seiten können Sie mit dieser Anleitung meist selbst in den Index bringen. Professionelle Unterstützung empfehle ich, wenn:
- Das Problem viele Seiten gleichzeitig betrifft
- Die Ursache nach systematischer Analyse unklar bleibt
- Ihre Website nach einem Relaunch großflächige Indexierungsprobleme zeigt
- „Crawled – currently not indexed” bei wichtigen Seiten dauerhaft bestehen bleibt
- Sie ein Crawl-Budget-Problem bei einer großen Website vermuten
- Die Seiten technisch korrekt sind, aber trotzdem nicht indexiert werden
Komplexe Indexierungsprobleme erfordern eine Analyse der gesamten technischen Infrastruktur — von der Serverantwort über die Seitenarchitektur bis zum Content.
Ihre wichtigen Seiten werden nicht indexiert und Sie finden die Ursache nicht? Kontaktieren Sie mich für ein SEO-Audit — ich identifiziere die Blockade und sorge dafür, dass Ihre Seiten in den Google-Index gelangen.
Brauchen Sie Unterstützung bei der Umsetzung?
Als SEO-Freelancer mit über 20 Jahren Erfahrung helfe ich Ihnen, technische SEO-Maßnahmen professionell umzusetzen — fair, direkt und ohne Vertragsbindung.
Über den Autor
Christian SynoradzkiSEO-Freelancer
Mehr als 20 Jahre Erfahrung im digitalen Marketing. Fairer Stundensatz, keine Vertragsbindung, direkter Ansprechpartner.