SEOs lieben Tools. SEOs (inklusive ich selbst) nutzen unzählig viele Tools. Es gibt jedoch Aspekte in der Suchmaschinenoptimierung, welche man ganz ohne oder mit kostenlosen Tools prüfen kann.
Inhaltsverzeichnis
1 – Crawling
Fangen wir mit dem Grundlegendsten an: Wenn Suchmaschinen unsere Seiten nicht crawlen können, lassen sie sich auch nicht indexieren und ranken und so wird niemals ein Nutzer auf unsere Inhalte aufmerksam. Ein schneller Test, ob die Suchbots Zugang haben, erfolgt über das robots text file (roBots.txt). Um diese Datei einzusehen, tippt man im Browser nach der Domain einfach “/robots.txt” und drückt Enter.
https://www.beispieldomain.com/robots.txt
In dieser Datei ist festgelegt, welcher Bot Zugang zu welchen Bereichen der Website hat. Standardmässig erhält jeder Bot die Erlaubnis, alle URLs zu crawlen. Die robots text file dient primär zum Ausschluss von Bots, wenn diese bestimmt Bereiche der Website nicht sehen sollen. Schliesst man Suchmaschinen jedoch aus Versehen komplett aus, wäre dies ein Desaster. Der Eintrag dafür würde so aussehen:
User-agent: *
Disallow: /
Die erste Zeile sagt: “betrifft alle Bots”
Die zweite Zeile sagt: “Zutritt ist komplett verweigert”
Um Inhalte der Webseite für z.B. Google auffindbar zu machen, sollte so ein Eintrag unbedingt entfernt werden. Zusätzlich sollte man darauf achten, dass die die XML Sitemap in der roBots text file erwähnt wird. Eine XML Sitemap dient als “Landkarte” für Bots und ermöglicht das schnelle Erkunden der wichtigsten Inhalte der Website.
Ist in der roBots.txt alles in Ordnung, sollte man als nächstes nach der/ den Sitemap/s schauen. Diese findet man, indem man nach der Domain “/sitemap.xml” eingibt.
https://www.beispieldomain.com/sitemap.xml
Hier sollte nun eine Liste der wichtigsten URLs erscheinen. Bots werden diese URLs crawlen und somit schnell und einfach zu den verschiedenen Webpages gelangen. Ist in diesem Pfad nichts hinterlegt, sollte dies unbedingt nachgeholt werden, um ein effizienteres Crawling zu ermöglichen. Sehr grosse Websites können auch mehrere Sitemaps haben und diese in einem Sitemap-Index zusammenfassen. Zum Beispiel empfiehlt sich eine separate Sitemap je Sprache.
2 – Indexierung
Crawling ist jedoch nur die halbe Miete. Um von Suchmaschinen gerankt zu werden, muss zunächst noch die Indexierung ermöglicht werden. Dies wird mittels dem x-robots Tag und den Meta Tags gesteuert. Beide Tags können die gleichen Anweisungen für Bots enthalten, werden jedoch unterschiedlich eingesetzt. Das x-robots Tag wird genutzt, um bestimmte Dateien wie PDFs von der Indexierung auszuschliessen. Das Meta Tag wiederum nutzt man, um ausgewählte Webpages zu de-indexieren.
Typische Werte für den Tag sind:
- index
- noindex
- follow
- nofollow
- noimageindex
Wert | Bedeutung |
index | ermöglicht die Indexierung |
noindex | blockiert die Indexierung |
follow | erlaubt, Links auf der Seite zu folgen (und diese zu crawlen) |
nofollow | verweigert, Links auf der Seite zu folgen (und diese zu crawlen) |
noimageindex | blockiert das Indexieren von Bildern auf der Seite |
Es gibt noch einige andere Werte, aber zur Steuerung der Indexierung und des Crawlings sind diese ausschlaggebend.
Im HTML Code sieht das Meta Tag dann beispielsweise so aus:
<meta name="robots" content="index,follow" />
Die hier verwendeten Werte weisen Suchmaschinen an, diese Seite zu indexieren und den Links auf der Seite zu folgen, um diese auch zu crawlen und ggf. zu indexieren.
Im Idealfall sind alle wichtigen Pages einer Webseite mit dem index-, follow-Wert im Meta Tag versehen. Es empfiehlt sich nicht, index und nofollow zusammen zu nutzen. Wenn man interne Links auf weitere Webpages setzt, möchte man, dass Menschen und Maschinen diesen Links folgen, um weiter durch die Website zu navigieren und mehr Inhalte zu finden. Der Wert “nofollow” sagt jedoch das Gegenteil aus. Linkt man zu externen Quellen und möchte nicht, dass Suchmaschinen diesen Links folgen, muss man das Linkattribut rel=”nofollow” nutzen. Dieses befindet sich direkt im Anker <a> Element und sollte nicht im Meta Tag der Page stehen.
Um zu prüfen, ob man hier alles richtig eingestellt hat, kann man entweder den HTML Code der Seite(n) untersuchen, Browser Extensions nutzen oder in der Google Search Console nachsehen.
Google bietet in der Search Console zwei Möglichkeiten, die Indexierung zu prüfen:
A) URL Inspection Tool
Hier kann man einzelne URLs einfügen und prüfen. Sollten URLs fälschlicherweise nicht indexiert sein, kann man (maximal 10-mal pro Tag) eine Indexierung beantragen.
B) Index Coverage Report
Der Abdeckungsreport gibt Aufschluss darüber, wie viele und welche Seiten Fehler oder Warnungen aufweisen, gültig sind oder gar vom Index ausgeschlossen sind. Man sieht hier ein Diagramm und darunter eine Tabelle der einzelnen Fehler einschliesslich Beispiel-URLs.
3 – SSL-Zertifikat
Hast du dich schon mal gewundert, was das für ein kleines Schloss im Adressfeld im Browser ist? Es zeigt eine sichere Datenübermittlung an. Ist ein geschlossenes Schloss vor der URL zu sehen, zeigt dies an, dass die Website über ein gültiges SSL-Zertifikat verfügt und die HTTPS-Verschlüsselung nutzt. Klickt man auf das Symbol, erhält man weitere Informationen zum Zertifikat und dessen Gültigkeit. Sichere Datenverbindungen sind seit Jahren immer wieder Thema in der SEO-Community. Bereits 2014 hat Google eingeräumt, dass HTTPs eine Rolle im Google-Algorithmus spielt. Heute gehört es zum Standard für professionelle Internetauftritte.
4 – Structured Data
Strukturierte Daten (engl. “structured data”) helfen Suchmaschinen, Inhalte von Webpages besser zu verstehen und somit besser zu kategorisieren. Man spricht hierbei auch von Markups. Onlineshops zeichnen damit z.B. Produktinformationen gezielt aus oder Blogger stellen so maschinenlesbare Daten zu Rezepten, Bewertungen oder Content-Formen wie Videos zur Verfügung. Dies alles funktioniert jedoch nur, wenn die Markups fehlerfrei und im richtigen Format hinterlegt sind. Oft übernehmen Content-Management-Systeme oder Plugins die Erstellung der Skripte. Dennoch sollte man sicher gehen und selbst testen, ehe man etwas falsch online stellt. Dazu gibt es den Rich-Snippet Test von Google und den Validator von Schema.org. Beide kann man kostenfrei nutzen.
5 – Mobile Friendliness und PageSpeed
Die meisten Menschen nutzen heutzutage mobile Geräte, um im Netz zu surfen und möchten möglichst schnell das Gesuchte finden. Daher verwundert es nicht, dass Suchmaschinen diese Nutzererfahrungen als Signale in Ihren Algorithmen verwenden. Ob eine Website für mobile Geräte optimiert ist und wie gut oder schlecht die Ladezeiten der Website sind, kann man mit kostenlosen Tools von z.B. Google testen. Zum einen bietet die Google Search Console Reports zum Thema Mobile- und PageSpeed bzw. Core Web Vitals an, zum anderen gibt es separate Tools wie Lighthouse, PageSpeed Insights und den Mobile-Friendly Test. Diese Tools messen bestimmte Metriken und geben ausserdem Vorschläge zur Verbesserung der Werte, sofern diese unter dem Optimum liegen.
Fazit
Zu einem vollständigen technischen SEO-Audit gehören noch sehr viel mehr als diese fünf Punkte. Besonders bei grossen Websites kommt man um den Einsatz von Tools nicht herum. Diese können zwar mehrere Tausend Franken pro Jahre kosten, sie ermöglichen jedoch auch die umfangreiche Analyse der gesamten Website und ermöglichen eine Kontrolle, wie sich der Zustand der Website im Laufe der Zeit verändert. Fängt man gerade erst an oder hat (noch) kein grosses Budget, um Tools einzukaufen, kann man sich, bis zu einem gewissen Grad, mit kostenlosen Hilfsmitteln behelfen.