Skip to main content

Am 21.02. fand die diesjährige Online SEO Konferenz des OMT-Clubs statt. Einen kleinen Rückblick möchten wir euch dazu liefern. Da wir enorm viel Input erhalten haben, werden wir den Rückblick in mehrere Beiträge splitten, um euch die vielen interessanten Informationen zu präsentieren. Zu einigen Themen werden wir uns in Zukunft auch noch einmal mit eigenen Ideen äußern, da wir die Beiträge der Speaker wie immer sehr inspirierend empfanden. Ein dickes Lob an die Teilnehmer der Online-Konferenz und vielen Dank für eure Einblicke!

Malte Landwehr: Ranking Faktoren in Zeiten von Deep Learning

Malte geht hier sehr speziell auf ein paar wenige übliche SEO-Rankingfaktoren ein und untersucht deren Auswirkungen auf die Rankings. Dabei lässt sich absehen, dass auch in Zukunft und vor allem in Hinblick auf RankBrain die semantischen Phrasen eine immer größere Rolle spielen werden.

Unserer eigenen Erfahrung nach spielen Keywords z.B. im Seitentitel noch eine größere Rolle, gerade aber für mobile Anfragen die über Voice oder Longtails gestellt werden, zeigt sich, dass die Bedeutung des einzelnen Keywords im Seitentitel abnimmt.

Im Hinblick auf Informationsstrukturen und schnelle Beantwortung von lösungsorientierten Fragen haben sich laut seiner Auswertungen ebenso Checklisten mit vergleichsweise vielen Punkten auch in den Rankings durchgesetzt und zeugen von leichter erfassbaren und damit beliebteren Inhalten.

Gute und vor allem aussagekräftige Einblicke finden wir auch für die Unterschiede zwischen lösungsorientierten (schnelle Antworten durch bild- und videobehaftete Inhalte) oder informationsbehafteten (mehr Text und Informationen zu komplexeren Themengebieten) Suchanfragen. Es existieren je nach Anfrage, Anforderung des Suchenden und Inhalte der Webseite sehr dynamische Rankingfaktoren, die abhängig von der Zielgruppe und deren Bedürfnissen eruiert werden müssen.

Zu diesen Rankingfaktoren zählen beispielsweise auch:

  • der Ort
  • die Art der Seite (E-Commerce weist bspw. sehr hohe Anzahl an interner Verlinkung auf)
  • Verwendung von HTTPS
  • TLD für den jeweiligen Standort des Suchenden → erweckt mehr Vertrauen
  • Inhalte above the fold
  • mobile Suchanfragen, die vermehrt mit W-Fragen erzeugt werden

Jens Fauldraht: OnPage SEO – Maßnahmen und Erfolgsbetrachtung

Hier erfahren wir weniger was zu den Maßnahmen sondern vielmehr was zur Erfolgsmessung. Da SEO Fixkosten verursacht, ist die Erfolgskontrolle umso wichtiger. Vielen Dank an Jens, dass er uns hierzu einige Aufschlüsse mitgibt.

Wie lässt sich Erfolg also messen? Darüber entscheidet nicht nur der SEO, sondern auch sein Kunde, der für ihn relevante Erfolge verbuchen möchte. Unabhängig davon, welche Erfolge der Kunde sehen möchte, sind daher folgende Schritte essentiell:

  • Eine Hypothese (z.B. anhand eines Ziels oder einer anvisierten Änderung des Marketingplans) muss benannt und aufgestellt werden.
  • Die Ziele der Hypothese müssen mit dem Klienten festgelegt werden. Was soll das Konzept letztendlich bringen?
  • Die Messung muss sichergestellt werden. Dazu zählt auch, sich über die richtige Messmethode im Klaren zu sein, um sie für SEO und Klienten
    gleichermaßen nachvollziehbar zu machen.
  • Die Umsetzung erfolgt.
  • Ergebnisse und auch Fehleinschätzungen müssen abgeklärt werden, auch im Hinblick auf kommende Theorien und Konzepte.

Hierzu hatte Jens noch einige Beispiele vorgebracht, wobei wir nur näher auf die Indexbereinigung eingehen möchten.

Anhand der These, dass schlecht performende Seiten aus dem Index entfernt werden, können wir im Webinar die Entwicklung der Sichtbarkeit nach oben verfolgen.

Der Ausschluss dieser Seiten – seien es Paginierungsseiten, Produktvarianten, abgelaufene News oder ähnlich irrelevante Unterseiten – führte zu einer offensichtlich besseren Sichtbarkeit, da die schlechten Signale dieser Seiten abhängig von Klicks, Impressionen und Seitenaufrufen die guten Signale der gefragten Seiten quasi nicht mehr in der Gesamtbewertung negieren.

Die Entwicklung ist dabei wesentlich stärker in den Top 100 statt in den Top 10 spürbar, wo der Konkurrenzkampf natürlich stärker tobt; langfristig können diese Bewegungen in den Top100 jedoch auch die Performance in den Top10 verbessern.

Michael Janssen: Dein Google Analytics belügt Dich – 9 Fehler und die passenden Lösungen

Michael Janssen arbeitet als Datenanalyst mit einer 10-jährigen Erfahrung als Unternehmer. Er ist Berater – spezialisiert auf Datenerfassung und Webanalyse und hält Vorträge und Seminare. Außerdem ist er für den Blog zedwoo.de verantwortlich.

Michael begann sein Webinar mit einem groben Aufbau der Webanalyse. Dabei teilt er den Workflow in 3 Bereiche:

1. die Implementierung, welche das technische Fundament bildet
2. die Berichte und Dashboards, wo die Daten einlaufen
3. die Analyse, durch welche dann Marketing-Maßnahmen abgeleitet werden

Er weist darauf hin, dass die meisten schon auf dem Weg sind, Ihre Daten zu analysieren. Allerdings haben Sie Defizite bei der Implementierung und bei der Einrichtung der Dashboards. Fazit: Kein analysieren ohne korrekte technische Implementierung.

Um effektiv mit den Daten aus Google Analytics arbeiten zu können, führt er im Folgenden 9 Fehler auf:

1. „Ich weiß schon alles“

Unter Punkt 1 betont Michael, dass die Einstellung bzw. die Meinung, dass man schon alles im Bereich Webanalyse weiß, einen selbst schon bei der Analyse der eigen Daten behindert. Denn regelmäßig begegnet man neuen Problemen oder Meinungen, mit denen man sich auseinandersetzen sollte. Die Lösungen sollte man in seine Arbeit aufnehmen oder die eigene Strategie neu ausrichten.

2. Werte in Analytics werden nicht hinterfragt

Man sollte stets seine Werte hinterfragen. Machen diese Sinn? Hat man beispielsweise eine Absprungrate von annähernd 0 Prozent, sollte man stutzig werden. Schon Absprungraten unter 30% sollten zumindest dazu anregen, sein Webtracking-System zu überprüfen.

Derartige Fehler können entstehen, wenn man sein Tracking Code zweimal auf die URL implementiert. Denn dadurch werden beim Besuch einer URL zwei Page Views ausgelöst und es springt niemand ab.

3. AnonymizeIp funktioniert nicht!

In Deutschland ist es Pflicht Webtracking-Tools datenschutzkonform zu verwenden. Die wichtigsten Punkte, die hier beachtet werden sollen, sind:

1. Vertrag zur Auftragsdatenverarbeitung mit Google schließen
2. Es sind nur pseudonymisierte Daten erlaubt
3. In der Datenschutzerklärung muss auf die Verwendung von Google Analytics hingewiesen werden
4. Der User muss die Möglichkeit haben, dem Tracking zu widersprechen
5. Die IP-Adresse muss anonymisiert werden

Für die Anonymisierung der IP-Adressen muss im Tracking-Script einfach eine Zeile ergänzt werden. Mit dem Befehl ga(‘set’, ‘anonymizeIp’, true); wird bei der Übertragung der IP-Adresse das letzte Oktett verschlüsselt übertragen (z.B. 192.168.12.xxx). Dadurch lässt sich zwar noch analysieren, aus welchem Ort der User auf die Seite zugegriffen hat, aber eine Lokalisierung der Straße oder des Straßenzugs ist nicht mehr möglich.

Allerdings tritt bei der Implementierung dieser Funktion immer wieder ein Fehler auf. Häufig wird der zusätzliche Befehl im Tracking Script einfach unter die Zeile gesetzt, die den Page View auslöst. Dadurch wird der Page View samt vollständiger IP vorher schon an GA gesendet und danach greift erst die Anonymisierung, die aber ins Leere läuft. Um diesen Fehler vorher schon zu umgehen, muss die Zeile einfach über dem Befehl eingetragen werden, die den Page View schickt.

4. Zu viele Direktbesuche

Oftmals ist der Direct-Channel der trafficstärkste Channel im Vergleich zu den anderen. Direkter Traffic kommt aber nur durch direkte Eingabe der URL oder durch den Aufruf eines Bookmarks zustande. Wie kann es dann sein, dass dieser Kanal so trafficstark sein kann? Bei dieser Trafficquelle ist einfach zu beachten, dass es sich um ein Auffangbecken für jeden „nicht zuordenbaren Traffic“ handelt.

Ursachen für den direkten Traffic:

  • Links aus Emails in z.B. Outlook
  • Zugriffe aus mobilen Apps
  • Links aus Dokumenten (PDF, Word, Excel, Powerpoint)
  • Besuche durch JavaScript-fähige Bots (z.B. Kommentarspam-Bot)
  • 302 Redirect, wenn der Redirect-Server keine Referrer-Informationen übergibt
  • Weiterleitungen durch manche Shortener-Dienste (serverseitige Weiterleitungen ohne Referrer)
  • Unvollständiges Tagging mit Parametern (z.B in Newslettern, welche nicht mit Kampagnen-Parametern ausgestattet sind)
  • Unterdrückung des Referrers in geschützten Web-Umgebungen (z.B. Sprung von https zu http)
  • Weiterleitungen durch Ad-Server, die den Referrer löschen um die genaue Herkunft zu verbergen

Dieses Phänomen kommt zustande, da bei der Übertragung aus diesen Quellen die Referrer-Infomation gelöscht wird.

Als interessantes Beispiel führt Michael die Übertragung von einer HTTPS-Seite zu einer HTTP-Seite an. Dabei geht der Verweis bzw. die Referrer-Information verloren. Aus diesem Grund rät er dringend dazu, seine Domain komplett auf HTTPS umzustellen. Damit lässt sich direkter Traffic reduzieren.

5. Ich kenne nur Google!

Unter diesem Punkt wird thematisiert, dass es nicht nur Google als Suchanbieter gibt, sondern eben auch bing, yahoo oder duckduckgo. Doch dieser Traffic landet nicht im Kanal „Organic“, sondern läuft unter „Akquisition → Alle Zugriffe → Verweise“ ein. Das ist natürlich nicht korrekt, denn diese Daten gehören zum Suchmaschinen-Traffic.

Um den Traffic der Suchmaschinen korrekt zuzuweisen, ist Folgendes umzusetzen:

Man zieht sich aus den Verweisen der eigene Domain alle Suchmaschinen heraus. Dann wechselt man in die Verwaltung unter die Property-Einstellungen und trägt die Suchmaschinen dann bei den Tracking-Informationen und „Quellen der organischen Suche“ ein. Hier muss man den Namen der Suchmaschine, den Domain-Namen und den Suchparameter eingeben.

Danach werden diese Sitzungen dem organischen Traffic zugerechnet.

6. Die eigenen Besuche werden nicht ausgeschlossen

Dieser Fehler kommt zustande, da Mitarbeiter oder Agenturen, mit denen das Unternehmen zusammenarbeitet, natürlich auch die eigene Unternehmensseite aufrufen müssen. Zum Beispiel Redakteuere, die für einen Blogbereich zuständig sind. Dies verfälscht natürlich die Zugriffe auf die Domain.

Die Lösung für dieses Problem lautet wie folgt:

Es wird eine HTML-Webseite für interne Mitarbeiter angelegt, über die ein Cookie gesetzt wird. Dieses bewirkt, dass sie von GA nicht erfasst werden. Hier sollte darauf geachtet werden, dass die URL über das Meta Robots Tag auf „noindex“ sitzt.

Dazu wird eine „benutzerdefinierte Dimension“ (Verwaltung → Property → benutzerdefinierte Definition → benutzerdefinierte Dimension) angelegt mit dem Umfang „Nutzer“ und die Checkbox sollte „aktiv“ sein.

Wenn man diese Dimension erneut aufruft, erhält man die Information, um welche Dimension es sich handelt, z.B. „dimension1“.

Auf der internen Webseite wird dann das Tracking Script um die Zeile „ga(‘set’, ‘dimension1’, ‘internal’);“ über dem Page View Befehl eingefügt.

Danach muss noch ein Filter erstellt werden. Dazu einen Filternamen vergeben, zum Beispiel „Eigene Besuche“, den Filtertyp auf „Benutzerdefiniert“ setzen und dann das Filtermuster „internal “ ausschließen.

Und nun wird jeglicher interner Traffic ausgeschlossen.

7. Adwords-Brand-Bidding klaut mir die Conversion

Unter diesem Punkt wird das Aufsplitten des Adwords-Traffic in Brand-Paid-Search und Generic Paid Search beschrieben. Dieser Traffic unterscheidet sich durch die Click Through Rates und Costs per Clicks. Durch die folgende Anleitung ist eine differenzierte Betrachtung der Kanäle möglich.

Dazu muss man unter den Einstellungen zur Datenansicht zum Punkt „Channel Einstellungen“ und “Channelgruppierung” wechseln. Hier werden nun zwei neue Channel angelegt. Der Brand-Paid-Search-Kanal gruppiert sowohl Paid Search als auch Brand Traffic unter sich. Der Generic Paid Search-Kanal gruppiert dagegen Paid Search-Traffic, der zudem generisch ist.

Nun kann unter „Akquisition → Channels“ das Verhalten der beiden Traffic-Typen untersucht werden.

8. Daten der Search Console mit Analytics kombinieren

Die Daten dieser beiden Tools sollten niemals kombiniert werden. Das ist darin begründet, das die Datengrundlage eine völlig andere ist.
So sind Clicks und Sitzungen komplett unterschiedliche Messwerte. Weiterhin gibt es in der Search Console eine Limitierung auf 1000 URLs und Filter werden nicht berücksichtigt.

9. Ziele

Der Fehler in diesem Bereich liegt darin, dass keine Ziele verwendet werden. Wenn Analytics ohne Zielvorhaben verwendet wird, benötigt man eigentlich keine Datenerhebung. Die Ziele, die hier definiert werden sollten, richten sich im besten Fall nach den Zielen des Unternehmens, die es mit der Webseite erreichen möchte.

Im zweiten Teil des Rückblickes werden wir dann über die Themen Republishing – die vielleicht beste SEO-Strategie von Eric Kubitz sowie Marketing Automation und Content Marketing von Julian Dziki berichten.



Ähnliche Beiträge


Keine Kommentare vorhanden


Du hast eine Frage oder eine Meinung zum Artikel? Teile sie mit uns!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*
*