Deine Website lädt gefühlt ewig. Google findet Seiten nicht. Mobile Nutzer springen ab. Und du fragst dich: Warum zum Teufel ranke ich nicht? Die Antwort liegt meist nicht im Content – sondern tief im technischen Fundament deiner Website. Dort, wo die meisten gar nicht hinschauen.
Ein technisches SEO-Audit ist wie ein Gesundheitscheck für deine Website. Nur dass hier kein Arzt nachsieht, sondern du selbst zum Diagnostiker wirst. Und ehrlich? Die meisten Websites haben mehr technische Baustellen als eine Großbaustelle in Berlin. Das Gute: Wenn du weißt, wo du suchen musst, findest du die Fehler. Und behebst sie.
Inhaltsverzeichnis
ToggleWas ein technisches SEO-Audit eigentlich will
Ein technisches Audit hat ein klares Ziel: Alle technischen Hindernisse aufspüren, die zwischen deiner Website und guten Rankings stehen. Klingt simpel, ist aber verdammt vielschichtig.
Du checkst dabei nicht nur, ob deine Seiten schnell laden. Du gräbst tiefer. Kann Google deine Inhalte überhaupt crawlen? Sind deine URLs sauber strukturiert? Gibt es Weiterleitungsketten, die Crawler in die Irre führen? Ist deine mobile Version genauso stark wie die Desktop-Variante?
Die Bereiche, die du typischerweise unter die Lupe nimmst: Crawlability und Indexierung, technische Fehler wie 404er oder Broken Links, Ladezeiten und Performance-Metriken, JavaScript-Rendering, Mobile-Freundlichkeit, Sicherheitsaspekte wie HTTPS und Header-Konfigurationen. Und dann noch die Frage: Wie gut ist deine interne Verlinkung wirklich?
Mir ist kürzlich aufgefallen, wie viele Websites ich sehe, die auf den ersten Blick professionell wirken – aber unter der Haube ein technisches Desaster sind. Seiten, die nie indexiert wurden. Bilder, die Ladezeiten in die Höhe treiben. Canonical Tags, die auf die falsche URL zeigen. Das ist wie ein Auto mit polierter Karosserie, aber ohne Motor.
Die Werkzeugkiste – Welche Tools du wirklich brauchst
Ohne die richtigen Tools stocherst du im Nebel. Mit den richtigen? Hast du Röntgenblick.
Screaming Frog ist der Klassiker. Ein Desktop-Crawler, der deine Website durchforstet wie Google es tun würde – nur dass du die Ergebnisse direkt siehst. Broken Links? Redirect-Ketten? Fehlende Meta Descriptions? Screaming Frog spuckt dir alles aus. Die kostenlose Version reicht für kleinere Sites, aber wenn du mehr als 500 URLs scannen willst, brauchst du die Lizenz.
Sitebulb ist die elegantere Alternative. Visualisiert Probleme besser, erstellt automatisch Berichte und gibt dir priorisierte Handlungsempfehlungen. Fühlt sich moderner an, kostet aber auch entsprechend.
Google Search Console ist Pflicht. Zeigt dir, welche Seiten Google tatsächlich indexiert hat, wo Crawling-Fehler auftreten und wie deine Core Web Vitals performen. Das Tool ist kostenlos und liefert Daten direkt von der Quelle – Google selbst.
PageSpeed Insights und Lighthouse messen deine Performance. Ladezeiten, Core Web Vitals, Mobile-Optimierung – alles dabei. PageSpeed nutzt echte Nutzerdaten, Lighthouse simuliert verschiedene Bedingungen. Beide zusammen geben dir ein vollständiges Bild.
Für fortgeschrittene Analysen kommen noch GTmetrix oder WebPageTest ins Spiel. Und wenn du internationale Sites prüfst, hilft dir der hreflang Tags Testing Tool von Aleyda Solis weiter.
Apropos… du brauchst nicht alle Tools gleichzeitig. Starte mit Search Console und Screaming Frog. Der Rest kommt, wenn du tiefer eintauchst.
Crawlability und Indexierbarkeit – Deine erste große Baustelle
Google kann nur ranken, was Google auch findet. Logisch, oder? Trotzdem sperren unzählige Websites sich selbst aus – ohne es zu merken.
Die robots.txt ist deine erste Anlaufstelle. Ein einziges fehlplatziertes robots.txt‑Disallow kann ganze Verzeichnisse aus dem Index halten – die Datei muss im Domain‑Root liegen, syntaktisch korrekt sein und nur die Bereiche ausschließen, die wirklich nicht gecrawlt werden sollen. Diese kleine Textdatei sagt Crawlern, welche Bereiche sie besuchen dürfen und welche tabu sind. Problem: Ein falsches „Disallow“ und wichtige Seiten werden komplett ignoriert. Ich hab schon Sites gesehen, die ihre komplette Blog-Sektion versehentlich geblockt haben. Monatelang. Prüf deine robots.txt unter deinedomain.de/robots.txt
und checke kritisch: Blockiere ich hier gerade etwas, das indexiert werden sollte?
Meta Robots Tags arbeiten auf Seitenebene. <meta name="robots" content="noindex, nofollow">
bedeutet: Google, bleib weg. Manchmal macht das Sinn – etwa bei Danke-Seiten oder internen Suchseiten. Oft ist es aber ein Versehen. Screaming Frog zeigt dir alle Seiten mit noindex-Tag. Geh die Liste durch. Penibel.
Deine XML-Sitemap ist die Schatzkarte für Google. Sie listet alle URLs auf, die indexiert werden sollen. Aber viele Sitemaps sind Müll. Enthalten 404-Seiten. URLs mit noindex. Oder zehn verschiedene Varianten derselben Seite. Eine saubere Sitemap enthält nur indexierbare, relevante URLs. Und sie ist in der Search Console eingereicht. Wenn du mehrere Sitemaps hast – etwa für Blog, Produkte, Kategorien – nutze eine Sitemap-Index-Datei.
Prüf auch die URL-Struktur deiner Site. Können Crawler von der Homepage aus alle wichtigen Seiten erreichen? Oder gibt es verwaiste Seiten, die nur über die Sitemap auffindbar sind? Interne Verlinkung ist hier entscheidend. Mehr dazu findest du übrigens in unserem Guide zur internen Verlinkung.
Technische Fehler aufspüren – Die Schatzsuche nach kaputten Links
Broken Links und Statuscode-Fehler sind wie Schlaglöcher auf einer Autobahn. Einzelne sind ärgerlich, zu viele machen die Fahrt zur Qual.
404-Fehler bedeuten: Seite nicht gefunden. Passiert, wenn URLs gelöscht wurden oder jemand sich vertippt hat. Screaming Frog zeigt dir alle internen Links, die ins Leere führen. Externe Broken Links – also Links zu anderen Websites, die nicht mehr existieren – schaden deinem Ranking weniger, sehen aber unprofessionell aus.
Die Lösung? Entweder den Link korrigieren oder eine 301-Weiterleitung einrichten. Die leitet Nutzer und Crawler permanent zur richtigen Seite um. Wichtig: Vermeide Weiterleitungsketten. Also URL A → URL B → URL C. Das kostet Ladezeit und verwässert Link-Equity. Jede Weiterleitung sollte direkt zum Ziel führen.
500-Fehler sind Server-Probleme. Heißt: Deine Website ist nicht erreichbar. Temporäre 500er passieren. Häufige oder dauerhafte? Sprich mit deinem Hoster.
Soft 404s sind besonders fies. Die Seite existiert technisch, liefert aber keinen relevanten Content – und gibt trotzdem einen 200-Status zurück statt eines 404ers. Google erkennt das oft und ignoriert die Seite. Prüf deine Search Console unter „Abdeckung“ auf Soft-404-Meldungen.
Ein weiterer Klassiker: Canonicals, die auf 404-Seiten zeigen. Oder Canonical Tags, die in Redirect-Ketten münden. Beides verwirrt Google und verschenkt Ranking-Potenzial. Screaming Frog hat einen separaten Report für Canonical-Probleme – nutze ihn.
Ladezeit und Performance – Wo jede Millisekunde zählt
Langsame Websites verlieren Besucher. Und Rankings. Google hat das glasklar gemacht: Core Web Vitals sind ein Rankingfaktor.
Die drei Metriken, die zählen:
LCP (Largest Contentful Paint) misst, wann das größte Element im sichtbaren Bereich geladen ist. Ideal: unter 2,5 Sekunden. Alles darüber? Verbesserungswürdig. Häufige Übeltäter: riesige Hero-Images, langsame Server-Antwortzeiten, render-blocking JavaScript.
FID (First Input Delay) misst die Reaktionszeit. Wie schnell reagiert deine Seite, wenn jemand klickt oder tippt? Sollte unter 100 Millisekunden liegen. Schweres JavaScript blockiert hier oft.
CLS (Cumulative Layout Shift) misst visuelle Stabilität. Springt dein Content beim Laden herum? Etwa weil Bilder ohne Größenangaben nachgeladen werden oder Werbebanner sich reinschieben? Das nervt Nutzer und kostet Punkte. Ziel: unter 0,1.
PageSpeed Insights zeigt dir diese Werte – sowohl für Mobile als auch Desktop. Aber Achtung: Die Lab-Daten (simuliert) und Field-Daten (echte Nutzer) können stark abweichen. Die Field-Daten sind die, die zählen.
Konkrete Performance-Killer:
- Unoptimierte Bilder. Nutze WebP statt JPEG, komprimiere, implementiere Lazy Loading. Unser Guide zur Bildoptimierung für Suchmaschinen zeigt dir genau, wie’s geht.
- Zu viele HTTP-Requests. Jede externe Ressource – Fonts, Skripte, Stylesheets – kostet Zeit.
- Kein Browser-Caching. Wiederkehrende Besucher sollten nicht alles neu laden müssen.
- Server-Antwortzeit (TTFB) über 600ms. Kann an schlechtem Hosting, fehlenden CDN oder aufgeblähten Datenbanken liegen.
Tools wie GTmetrix geben dir einen Wasserfall-Report. Der zeigt genau, welche Ressourcen wie lange brauchen. Pure Goldmine für Optimierungen.
JavaScript-Rendering – Die unsichtbare Hürde
Moderne Websites nutzen oft JavaScript-Frameworks wie React, Vue oder Angular. Problem: Google muss JavaScript erst rendern, bevor der Content sichtbar wird. Und das klappt nicht immer reibungslos.
Teste mit der Mobile-Friendly Test von Google oder der URL-Prüfung in der Search Console. Beide zeigen dir, wie Google deine Seite sieht – also das gerenderte HTML. Wenn wichtige Inhalte fehlen, hast du ein Rendering-Problem.
Lösungsansätze:
Server-Side Rendering (SSR) oder Static Site Generation (SSG) liefern fertiges HTML aus. Frameworks wie Next.js (für React) machen das relativ einfach. Alternativ: Prerendering für statische Seiten nutzen.
Dynamic Rendering ist der Kompromiss. Du servierst Crawlern fertiges HTML, echten Nutzern die JavaScript-Version. Google erlaubt das explizit – solange beide Versionen identischen Content zeigen.
Prüf auch, ob kritisches JavaScript im <head>
deine Seite blockiert. Nutze defer
oder async
Attribute, um die Ladepriorität zu steuern.
Mobile-Freundlichkeit – Weil deine Nutzer unterwegs sind
Google nutzt Mobile-First Indexing. Heißt: Die mobile Version deiner Site ist die, die zählt. Wenn die schlecht ist, rankt auch deine Desktop-Version schlechter.
Der Mobile-Friendly Test ist dein Freund. Gibt dir einen schnellen Überblick, ob Google deine Seite als mobiloptimiert einstuft. Aber geh tiefer: Teste selbst auf verschiedenen Geräten. Sind Buttons groß genug? Ist Text lesbar ohne Zoomen? Funktionieren alle Interaktionen?
Häufige Mobile-Fehler:
- Viewports nicht gesetzt.
<meta name="viewport" content="width=device-width, initial-scale=1">
ist Pflicht. - Content breiter als der Bildschirm. Horizontales Scrollen = Tod.
- Zu kleine Schrift oder Links. Mindestens 16px Schriftgröße, 48x48px Touch-Targets.
- Interstitials oder Pop-ups, die den Content verdecken. Google hasst das.
Wenn du Responsive Design nutzt (solltest du), prüf mit Screaming Frog, ob Desktop und Mobile identischen Content ausliefern. Bei separaten URLs (m.domain.de) musst du sicherstellen, dass beide Versionen korrekt verlinkt sind – via rel="canonical"
und rel="alternate"
.
Sicherheit – HTTPS, Mixed Content und Header
Google bevorzugt sichere Websites. HTTPS ist seit Jahren Rankingfaktor. Wenn deine Site noch auf HTTP läuft… Mann, echt jetzt?
Die Umstellung ist mittlerweile Standard. Hol dir ein SSL-Zertifikat (oft kostenlos via Let’s Encrypt), implementiere es, richte 301-Weiterleitungen von HTTP auf HTTPS ein. Fertig.
Mixed Content ist die nächste Falle. Passiert, wenn deine HTTPS-Seite Ressourcen über HTTP lädt – Bilder, Skripte, Stylesheets. Browser blockieren das oder warnen Nutzer. Screaming Frog zeigt dir alle gemischten Inhalte. Ändere die URLs auf HTTPS oder nutze relative Pfade.
Security Header sind das nächste Level. Schützen vor Angriffen und verbessern die Sicherheit:
- HSTS (HTTP Strict Transport Security) zwingt Browser, nur HTTPS zu nutzen.
- CSP (Content Security Policy) verhindert XSS-Angriffe, indem sie definiert, welche Ressourcen geladen werden dürfen.
- X-Frame-Options schützt vor Clickjacking.
Tools wie securityheaders.com analysieren deine Header und geben konkrete Empfehlungen. Das ist zwar kein direkter Rankingfaktor, aber Google mag sichere Sites. Und deine Nutzer auch.
Audit-Ergebnisse dokumentieren – Vom Datenchaos zur Strategie
Du hast jetzt Hunderte von Fehlern gefunden. Herzlichen Glückwunsch. Und was jetzt?
Dokumentation ist Key. Erstelle eine strukturierte Übersicht aller Probleme. Ich nutze meist ein Google Sheet mit folgenden Spalten:
- Problem (z. B. „47 Seiten mit Duplicate Title Tags“)
- Schweregrad (kritisch, hoch, mittel, niedrig)
- Betroffene URLs
- Empfohlene Maßnahme
- Aufwand (Stunden oder Story Points)
- Impact (erwarteter Effekt aufs Ranking)
- Status (offen, in Arbeit, erledigt)
Priorisierung nach Impact vs. Aufwand: Kritische Fehler mit hohem Impact und niedrigem Aufwand zuerst. 404-Fehler auf wichtigen Seiten? Sofort fixen. Fehlende Alt-Texte auf 500 Bildern? Kannst du schrittweise angehen.
Manche Probleme sind Quick Wins. Canonical Tags korrigieren dauert Minuten, bringt aber sofort Klarheit für Google. Andere – etwa Performance-Optimierung – sind Marathons.
Erstelle einen Maßnahmenplan mit klaren Verantwortlichkeiten und Deadlines. Und kommuniziere die Ergebnisse verständlich. Nicht jeder im Team spricht SEO-Fachsprache. Visualisierungen helfen. Screenshots aus Tools, Vorher-Nachher-Vergleiche, einfache Diagramme.
Den Audit-Prozess verankern – Einmal ist keinmal
Ein einmaliges Audit bringt kurzfristig was. Langfristig? Brauchst du Routine.
Technische Probleme entstehen laufend. Jemand ändert die Robots.txt. Ein Plugin verbaut die Ladezeit. Ein Relaunch führt zu Weiterleitungsfehlern. Ohne regelmäßige Checks merkst du es erst, wenn das Ranking schon im Keller ist.
Mein Vorschlag:
Wöchentlich: Search Console durchsehen. Neue Fehler? Indexierungsprobleme? Core Web Vitals verschlechtert?
Monatlich: Crawl mit Screaming Frog. Vergleiche mit dem Vormonat. Neue 404er? Seiten, die plötzlich nicht mehr indexierbar sind?
Quartalsweise: Vollumfängliches Audit. Alle Bereiche durchgehen. Performance, Mobile, Security, alles.
Automatisierung hilft. Tools wie Sitebulb oder Oncrawl können regelmäßige Crawls planen und dich bei Anomalien warnen. Google Search Console bietet Benachrichtigungen für kritische Probleme.
Und: Binde technisches SEO in deine Entwicklungsprozesse ein. Jedes Feature, jedes Update sollte einen SEO-Check durchlaufen, bevor es live geht. Klingt aufwändig, spart aber Reparaturarbeit.
Technische SEO ist keine Einmalaktion. Es ist Wartung. Wie beim Auto: Regelmäßig checken, kleine Probleme früh beheben, dann läuft der Motor rund. Ignorierst du es, stehst du irgendwann am Straßenrand und fragst dich, warum niemand mehr auf deine Website kommt.
Die Tools hast du jetzt. Die Methodik auch. Jetzt fehlt nur noch eins: Machen. Deine Website wartet nicht. Google auch nicht.