Allein in den letzten 24 Stunden haben über ein Dutzend Menschen Variationen der Frage „warum wird meine Website bei Google nicht gefunden" eingegeben. Die Suchanfragen reichen von „website wird nicht gefunden" über „meine homepage wird nicht gefunden" bis zu „seite nicht gefunden 404". Was sie eint: Frustration. Die eigene Website ist online, sieht gut aus, aber Google ignoriert sie. Wer nach dem Firmennamen sucht, findet im besten Fall den Facebook-Auftritt, im schlimmsten Fall einen Konkurrenten.
Wir haben in zehn Jahren Fernwartung und SEO-Audits sieben Ursachen identifiziert, die in 95 Prozent aller Fälle dahinterstecken. Dieser Artikel führt Sie durch alle sieben – mit konkreten Prüfschritten, Befehlen und Tools. Am Ende wissen Sie, ob Sie das Problem selbst beheben können oder ob Sie professionelle Hilfe brauchen.
Vorab: Wie Google überhaupt eine Seite indexiert
Damit Sie verstehen, an welchen Stellen Probleme entstehen können, hier in zwei Sätzen die Mechanik. Erstens: Der Googlebot besucht Ihre Seite, lädt den Quelltext herunter und folgt allen internen und externen Links. Zweitens: Die heruntergeladenen Inhalte werden bewertet und – wenn alles passt – in den Index aufgenommen, der dann bei Suchanfragen durchsucht wird.
Wenn eines der beiden Schritte fehlschlägt – Googlebot kommt nicht durch oder die Inhalte werden nach Bewertung ignoriert – tauchen Sie bei Suchen nicht auf. Die sieben Ursachen verteilen sich auf beide Phasen.
Die 7 häufigsten Ursachen
noindex-Tag falsch gesetzt
Das ist der Klassiker und mit Abstand häufigste Grund. Im Quelltext jeder Seite kann eine Zeile stehen, die Google explizit anweist, die Seite NICHT zu indexieren: <meta name="robots" content="noindex">. Dieser Tag wird oft beim Aufbau einer Website gesetzt, damit Testversionen nicht im Index landen – und dann beim Live-Gehen vergessen.
Bei WordPress-Installationen ist die häufigste Falle eine Checkbox in den Einstellungen mit dem Text „Suchmaschinen davon abhalten, diese Website zu indexieren". Diese Checkbox aktiviert für die gesamte Seite den noindex-Tag. Sie wird beim Setup oft eingeschaltet und beim Live-Gang vergessen.
robots.txt blockiert den Crawler
Die Datei robots.txt liegt im Wurzelverzeichnis Ihrer Domain und gibt Crawlern Anweisungen, welche Bereiche sie besuchen dürfen. Eine versehentlich falsch konfigurierte robots.txt kann Google komplett aussperren. Der berüchtigte Eintrag dafür sieht so aus:
User-agent: *
Disallow: /
Diese zwei Zeilen sagen: Alle Crawler, blockiere alles. Sie sehen sie häufig auf Staging-Servern. Wird die Datei beim Deployment auf den Live-Server mitkopiert, ist die Indexierung tot.
Eine weitere Falle: WordPress mit dem SEO-Plugin Rank Math oder Yoast kann eine robots.txt dynamisch erzeugen. Wenn dort etwas schiefgeht, kann auch ohne physische Datei eine restriktive robots.txt ausgeliefert werden.
https://ihre-domain.de/robots.txt im Browser. Wenn dort „Disallow: /" steht, ist das das Problem. Korrekt für die meisten Websites:User-agent: *
Allow: /
Sitemap: https://ihre-domain.de/sitemap.xmlSitemap fehlt, ist veraltet oder fehlerhaft
Die Sitemap ist eine XML-Datei, die Google eine Liste aller indexierbaren Seiten Ihrer Website liefert. Ohne Sitemap muss Google Ihre Seiten allein durch Verfolgen interner Links finden – das funktioniert bei kleinen Seiten meist, bei größeren oder schlecht verlinkten Strukturen verschlechtert es die Indexierungsgeschwindigkeit dramatisch.
Drei häufige Probleme: Erstens, die Sitemap existiert nicht (404 beim Aufruf von /sitemap.xml). Zweitens, sie ist veraltet und enthält noch URLs, die längst gelöscht sind. Drittens, sie ist nicht in der Google Search Console eingereicht – Google weiß also nichts von ihr, auch wenn sie existiert.
https://ihre-domain.de/sitemap.xml. Wenn Sie XML mit URL-Listen sehen, ist das gut. Wenn Sie 404 oder eine HTML-Fehlerseite sehen, fehlt die Sitemap. In der Search Console unter „Sitemaps" muss sie zudem als „Erfolg" geführt sein.Domain ist zu jung – Sandbox-Effekt
Google hat einen informellen Mechanismus, mit dem brandneue Domains für die ersten Wochen oder Monate gedrosselt werden. Das soll Spam-Domains, die schnell hochgezogen und ausgenutzt werden, im Ranking benachteiligen. Für ehrliche Geschäftsleute mit einer neuen Firmenwebsite bedeutet es: Sie warten 4 bis 12 Wochen, bis Google überhaupt anfängt, die Domain ernst zu nehmen.
Beschleunigen lässt sich das nicht direkt. Aber Sie können die Wartezeit nutzen, um die anderen Hausaufgaben zu machen: Sitemap einrichten, in Google Search Console anmelden, lokale Branchenbucheinträge anlegen, sauberen Content aufbauen. Wenn die Sandbox-Phase endet, schießen Sie dann nicht aus dem Stand auf Position 50, sondern starten bereits mit grundsoliden technischen Voraussetzungen.
Manuelle Maßnahme von Google
Wenn Google Ihre Website wegen schwerwiegender Verstöße gegen die Webmaster-Richtlinien manuell sanktioniert, wird sie aus dem Index entfernt oder massiv heruntergestuft. Häufige Gründe: gekaufte Backlinks, Doorway-Pages, versteckter Text, automatisch generierte Inhalte ohne Mehrwert, oder Hacking-Vorfall mit Spam-Inhalten.
Das Tückische: Wenn Sie die Website von einer Agentur übernommen haben, die in der Vergangenheit fragwürdige SEO-Methoden angewandt hat, erben Sie deren Strafe. Wir sehen das öfter, wenn neue Inhaber eine alte Domain reaktivieren.
Schlechter EAT-Score oder Thin Content
EAT steht für Expertise, Authoritativeness, Trustworthiness – die Qualitätsbewertung, die Google seit 2018 bei jeder Seite anlegt. Wenn Ihre Inhalte zu kurz sind („Thin Content"), generisch wirken, oder Sie als Autor nicht als Experte erkennbar sind, wird die Seite zwar indexiert, aber praktisch nie ausgespielt. Das ist kein technisches Problem – Sie sehen die Seite in der Search Console mit „Indexiert", aber sie taucht bei keiner Suche auf.
Symptome: Viele indexierte Seiten, sehr wenig Impressionen, fast keine Klicks. Eine Seite zu „Webseitenbau" mit 200 Wörtern Allgemeinplätzen wird im Wettbewerb mit anderen 1.500-Wort-Seiten verlieren. Das ist keine Strafe, sondern einfach die Auswahl-Logik der Suchmaschine.
Konkurrenz auf Brand-Name oder gleicher Name in besseren Positionen
Wenn Sie nicht einmal auf den eigenen Firmennamen ranken, kann es daran liegen, dass eine andere Firma gleichen Namens stärker ist. „Müller Heizungsbau" gibt es in jeder Stadt – wenn der Müller in Hamburg eine 20 Jahre alte Domain mit hunderten Backlinks hat und Sie in München eine neue Domain, dominiert der Hamburger die Suchergebnisse, auch für Münchner Suchende, sofern Google Ihren Standort nicht eindeutig erkennt.
Lösung: Eindeutige Markenbildung. Statt „Müller Heizungsbau" eher „Müller Heizungsbau München" oder „Müller Heizung & Sanitär GmbH". Plus: lokale Signale ausbauen – Google Business Profile, lokale Branchenbücher, lokale Backlinks.
Selbsttest in 7 Schritten
Wenn Sie die obigen Ursachen einzeln durchgegangen sind und nicht weiterkommen, hier eine systematische Diagnose-Reihenfolge. Sie brauchen dafür nichts außer einem Browser und einem Google-Konto. Zeitaufwand: rund 30 Minuten.
Site-Operator-Test
Öffnen Sie Google und geben Sie ein: site:ihre-domain.de. Was Sie sehen, ist alles, was Google von Ihnen kennt. Leer? Sie sind gar nicht indexiert. Liste vorhanden? Sie sind drin, aber ranken nicht.
Google Search Console anmelden
Gehen Sie auf search.google.com/search-console, melden Sie sich an, fügen Sie Ihre Domain hinzu, verifizieren Sie sie (DNS-Eintrag oder HTML-Datei). Ohne Search Console ist alles weitere Stochern im Nebel.
Manuelle Maßnahmen prüfen
In der Search Console links: „Sicherheit & manuelle Maßnahmen" > „Manuelle Maßnahmen". Wenn dort etwas steht, ist das Ihre höchste Priorität. Beheben, Antrag stellen, warten.
URL-Inspektion einer wichtigen Seite
Oben in der Search Console gibt es die URL-Inspektion. Geben Sie eine wichtige Seite ein. Sie sehen, ob sie indexiert ist, wann sie zuletzt gecrawlt wurde und ob es Probleme gibt. Wenn Sie „Indexierung nicht zulässig" oder „Crawling-Fehler" sehen, haben Sie die Diagnose.
robots.txt direkt prüfen
Aufruf: https://ihre-domain.de/robots.txt. Wenn dort „Disallow: /" steht, ist das das Problem. Korrektur: Die Zeile entfernen oder auf erlaubte Bereiche begrenzen.
Sitemap prüfen und einreichen
Aufruf: https://ihre-domain.de/sitemap.xml. Sollte XML mit URL-Liste zurückgeben. In der Search Console unter „Sitemaps" einreichen, falls noch nicht geschehen. Status muss „Erfolg" sein.
Quelltext der Startseite prüfen
Strg+U auf der Startseite. Suche nach „noindex" – darf nicht vorkommen. Suche nach „<title>" – sollte einen aussagekräftigen Titel zeigen. Suche nach „<meta name='description'" – sollte einen aussagekräftigen Beschreibungstext zeigen. Wenn Title oder Description fehlen, ranken Sie deutlich schlechter.
Wenn Sie alles geprüft haben und immer noch nichts hilft
Dann gibt es typischerweise drei verbleibende Ursachen, die schwerer zu finden sind: Erstens, ein technischer Hinderungsgrund, der nur unter bestimmten Umständen greift – z.B. JavaScript-Rendering, das den Googlebot ausschließt, oder Server-Header, die Crawler blockieren. Zweitens, eine schleichende Domainvorbelastung, die nicht offiziell als „Manuelle Maßnahme" geführt wird, sondern als Mistrauen-Score im Hintergrund. Drittens, schlechte Linkstruktur, sodass Googlebot tiefe Seiten nicht erreicht.
An diesem Punkt lohnt sich eine professionelle Analyse. Wir laufen mit Tools wie Screaming Frog, Sitebulb und der Google Search Console im Detail durch Ihre Seite, prüfen Server-Logs auf Googlebot-Aktivität, vergleichen die Performance mit Mitbewerbern und erstellen einen schriftlichen Maßnahmenplan. Nicht jede Domain ist zu retten – manchmal ist ein Domainwechsel nach drei Jahren erfolgloser Versuche ehrlicher und schneller als weitere SEO-Investitionen.
Die Service-Seite zum Thema
Wir machen Ihre Seite bei Google wieder sichtbar – Diagnose, Behebung und laufende Betreuung. Konkrete Maßnahmen statt Worthülsen, ab 29 Euro pro halbe Stunde, monatliche Betreuung ab 79 Euro.
Service-Seite ansehenWas Sie nicht tun sollten
Keine Backlinks kaufen. Egal wie sehr Anbieter „garantierte Top-10-Rankings" versprechen – gekaufte Links sind ein klarer Verstoß gegen die Webmaster-Richtlinien. Sie riskieren manuelle Maßnahmen, die Ihre Domain für Jahre verbrennen.
Keine SEO-Texte aus dem KI-Generator ohne Bearbeitung. Google erkennt mittlerweile recht zuverlässig generierten Text ohne Mehrwert. Solche Inhalte werden als „Spam" eingestuft und schaden mehr als sie nutzen. KI-Texte als Ausgangspunkt sind ok, aber sie müssen mit echtem Wissen und Beispielen angereichert werden.
Keine fünf SEO-Plugins parallel installieren. Bei WordPress sehen wir oft, dass Yoast, Rank Math, AIOSEO und SEOPress gleichzeitig aktiv sind. Sie überschreiben sich gegenseitig, erzeugen widersprüchliche Meta-Tags und kaputte Sitemaps. Wählen Sie eines, deinstallieren Sie die anderen vollständig.
Keine täglichen Änderungen ohne Wirkung abzuwarten. SEO braucht Geduld. Eine Title-Änderung wirkt nach 2 bis 4 Wochen, Content-Änderungen nach 4 bis 12 Wochen. Wer alle drei Tage neue Strategien probiert, sieht nie, was wirklich gewirkt hat.
Fazit
In 95 Prozent der Fälle ist „meine Website wird bei Google nicht gefunden" auf eine der sieben oben beschriebenen Ursachen zurückzuführen. Mit dem Selbsttest in sieben Schritten finden Sie das Problem typisch innerhalb einer Stunde – und in vielen Fällen ist die Behebung in fünf Minuten erledigt (eine vergessene Checkbox, eine falsche robots.txt, eine fehlende Sitemap).
Wenn Sie alle Schritte durchgegangen sind und immer noch ratlos sind, liegt es an einem der schwerer fassbaren Probleme – und dann lohnt es sich, jemanden hinzuzuziehen, der das beruflich macht. Wir helfen gern, ehrlich und ohne Versprechen, die wir nicht halten können.