marketing.ch Logo

Login

Search
Close this search box.

René Petry erklärt: Technisches SEO – klingt unsexy, macht deine Website aber attraktiv

Source: businessinsider.com

Content, Keywords, Links, Suchintention, User Experience, SERPs – das ist nur ein Bruchteil der Rankingfaktoren, die bei SEO eine Rolle spielen. Es gibt mehr als 200, die direkt oder indirekt beeinflussen, wie gut eine Website am Ende gefunden wird. Da fällt es natürlich schwer, den Überblick zu behalten beziehungsweise den Anfang zu finden. Meine These lautet allerdings: Das Fundament jedes SEO bildet das technische SEO. Verglichen mit dem Bau eines Hauses bildet es die tragenden Wände – ohne die, salopp gesagt, nichts geht und nichts steht. Das ist auch im Hinblick auf SEO nicht anders.  

Während es in der Vergangenheit, gerade zu Beginn von SEO, so war, dass es ausreichte, ein paar Keywords sinnvoll einzusetzen, um von Google weit oben gerankt zu werden, hat die Komplexität im Laufe der Jahre immer weiter zugenommen. Google verfeinert und optimiert seine Rankingfaktoren permanent, der Konkurrenzdruck ist deutlich größer geworden, weil auch andere Unternehmen die Relevanz von SEO für deine Sichtbarkeit erkannt haben. Auch dem technischen SEO ist hierbei eine immer wichtigere Funktion zugekommen. Dieser Teilbereich umfasst das, was für den User nicht sichtbar, für Google aber von grosser Bedeutung ist: Kann die Suchmaschine ohne Probleme auf die Website zugreifen, sie crawlen und identifizieren? Gelingt dies nicht – und hier kommen wir wieder zu meiner Ausgangsthese, wonach das technische SEO das Fundament ist – sind auch alle anderen Bemühungen hinsichtlich der Suchmaschinenoptimierung nahezu umsonst. Denn erst durch das technische SEO schaffst du die Grundvoraussetzungen dafür, dass alle anderen Massnahmen greifen können.

Im Bereich des technischen SEO können ganz unterschiedliche Massnahmen getroffen werden, die die Seite sowohl für Crawler als auch für Nutzer optimal verwendbar machen:

1. Wahl der URL

Die URL, also die Uniform Resource Locator, erfüllt verschiedene Funktionen. Sie soll dem Nutzer auf möglichst kurze Art und Weise einen Überblick darüber geben, was ihn auf der Website erwartet. Sie stellt ein Abbild der Verzeichnisstruktur dar und sie ist perfekt geeignet, um das wichtigste Keyword aufzugreifen. Das ist deswegen eine besondere Herausforderung, weil sich eine gute URL auch durch ihre Kürze auszeichnet. Ein hierarchischer Aufbau ist dabei empfehlenswert, so dass die User nachvollziehen können, auf welcher Ebene sie welche Inhalte finden.

Dabei sollte man auch immer Bedenken, dass die Verzeichnisstruktur gewichtet wird: Inhalte, die sich näher am Inhalt der Hauptseite befinden, sind dem entsprechend wertvoller. Um die Übersichtlichkeit zu bewahren, sollten es maximal drei Verzeichnisse in der Tiefe sein – das ist für den User angenehmer und hat einen positiven Einfluss auf den Crawler. Dabei scheint es meines Erachtens sinnvoll, sich immer in die Denkweise des Users und damit des potenziellen Kunden hineinzuversetzen: Was ist logisch, wie ist die Erwartungshaltung des Users, können eventuell Missverständnisse entstehen?

2. Struktur der Website

Übersichtlich und nachvollziehbar soll die Struktur einer Website sein. Das klingt in vielen Fällen einfacher als es in der Realität ist. Deswegen solltest du dich im Vorfeld intensiv damit auseinandersetzen, wie du deine Website logisch aufbaust, damit der User dort eine möglichst lange Verweildauer hat. Denn diese signalisiert Google beziehungsweise den Algorithmen: Der Nutzer hat das gefunden, was er gesucht hat.

Eine Seitenstruktur ist dann gut, wenn sie thematisch/logisch aufgebaut wird, wenn der Nutzer sich schnell zurechtfindet und das findet, wonach er sucht, ohne dass er dazu viele Klicks tätigen muss. Das ist vor allem dann der Fall, wenn die Verschachtelung der Unterseiten möglichst flach ist. Im Umkehrschluss sind organische Rankings mit einem Onepager kaum realistisch machbar. Wünschenswert ist es sicherlich auch mit dieser meist guten Usability auf Keywords Ranking zu erhalten. Aus der sehr flachen Informationsarchitektur des Onepager ergibt sich allerdings nur ein Fokuskeyword.

3. Verwendung strukturierter Daten

Bei strukturierten Daten handelt es sich um eine Markup-Auszeichnung von Websites. Diese sorgt dafür, dass Suchmaschinen die Inhalte einer URL besser verstehen und schneller auswerten können. Und das wiederum führt dazu, dass dem User auch Rich Results zusätzlich zu den Ergebnissen in den SERPs angezeigt werden. Dazu zählen unter anderem Jobs, Bewertungen oder Terminhinweise, aber auch Rezepte oder FAQ. Denn bei den strukturierten Daten handelt es sich um ein standardisiertes Format, mit dessen Hilfe du dem Nutzer Zusatzinformationen liefern kannst. Anzeigen in den Rich Snippets und der sogenannten Position 0 wiederum mündet darin, dass Nutzer deine Seite eher besuchen.

Es ist sicherlich sinnvoll, sich im Vorfeld Gedanken darüber zu machen, welche strukturierten Daten verwendet werden sollen. Es gibt hier verschiedene Schemata, je nachdem, ob es sich um einen Onlineshop oder beispielsweise um einen lokalen Dienstleister handelt. Grundsätzlich gilt: Je mehr Markup-Auszeichnungen, desto besser. Die Inhalte werden zwar nicht zwangsläufig als Rich Snippet angezeigt, sie helfen den Crawlern der Suchmaschinen aber, die Inhalte besser und schneller zu verstehen. Websites, schnell zu crawlen spart Zeit. Zeitersparnis spart wiederum Kosten bei der Suchmaschine. Das wiederum wirkt sich nachvollziehbar positiv auf das Ranking aus. Zur Implementierung der strukturierten Daten stehen verschiedene Tools zur Verfügung.

4. Anpassung der 404-Seite

Es kommt immer wieder vor, dass eine URL ins Leere läuft – weil die Seite gelöscht wurde oder die URL geändert wurde. Auch Broken Links, also fehlerhafte Weiterleitungen, können dazu führen, dass eine Seite nicht angezeigt wird. Dann führt der Weg des Users auf die benutzerdefinierte Fehlerseite. Das soll verhindern, dass der User abgefangen wird, bevor er sich abwendet.

Deswegen ist es wichtig, die 404-Seite hinsichtlich der URL entsprechend anzupassen. Sie sollte die gleiche Struktur und Navigationspunkte wie die Website haben. Zudem sollte dem User auf einen Blick und verständlich erklärt werden, dass die Seite nicht mehr verfügbar ist und ihm entsprechend eine Alternative anzubieten. Zudem sollte die Navigation zur vorherigen Seite problemlos möglich sein. Gerne sind hier auch kreative Ideen vom Vorteil.

5. Kontrolle der robots.txt

Beim der robot.txt handelt es sich um eine Textdatei. Vereinfacht gesagt, zeigt diese den Suchmaschinen auf, welche Seiten sie crawlen dürfen. Denn bevor die Bots Ergebnisse auflisten, schauen sie zunächst darauf, welche Seiten vom Suchmaschinencrawling ausgeschlossen sind. Etwa, weil diese sensible oder irrelevante Inhalte enthalten. Deswegen ist wichtig, ob das Crawling einzelner Seiten durch robot.txt blockiert wird. In der Regel sind bei CMS-Websites diese zwar schon so voreingestellt, dass keine Justierung mehr vonnöten ist, dennoch ist es sinnvoll, die Website diesbezüglich zu prüfen – schließlich kann es sich unmittelbar auf das Ranking auswirken.

6. Hinzufügen von Breadcrump-Menüs

Das Breadcrumb-Menü ist nichts anderes als ein Link, der auf einer Website oben und/oder unten platziert ist und der dem User die Möglichkeit gibt, mit einem Klick auf die vorherige Seite zurückzukehren. Das erspart das Zurückgehen über den Browser. Der hierarchische Aufbau der Informationsarchitektur wird im Breadcrumb sichtbar. Und ist somit auch proof of concept ob dieser dem logischen Aufbau der Website-Thematik entspricht. Das Breadcrumb-Menü bietet aber nicht nur dem Nutzer einen hohen Mehrwert, sondern wirkt sich gleichzeitig positiv im Hinblick auf SEO aus. Denn die Crawler erkennen dadurch zusätzlich den Aufbau der Seite.

Es gäbe an dieser Stelle noch zahlreiche weitere Beispiele dafür, was mit technischem SEO alles möglich ist. Oft ist dieser Bereich der, mit dem sich die Programmierer der Website beschäftigen und der zum täglichen Geschäft gehören sollte. Dennoch sind hier oft die grössten Probleme verankert, welche eine Website unsichtbar halten. Und wie bei einem bestehenden Haus, ist das Ändern der Statik im Nachhinein mit hohem Aufwand verbunden. Mit einem guten Fundament hast du die Grundvoraussetzung geschafft, damit auch deine Website sichtbar wird.

René Petry

Diese Artikel könnten dich auch interessieren

Sponsored by