Skip to main content

Screaming Frog 4.0 – Jetzt mit Analytics und mehr – Teil 2

  • SEO-Küche Logo


PDF herunterladen

In Teil 1 des Beitrages, „Screaming Frog 4.0 – Jetzt mit Analytics und mehr – Teil 1„, haben wir uns mit der Integration von Analytics in den Screaming Frog beschäftigt. Dieses Mal beschäftigen wir uns genauer mit der ebenfalls neuen Funktion „Custom Extraction“.

Was ist Custom Extraction, und wo finde ich es?

Dieses nette neue Feature erlaubt die Sammlung aller nur erdenklichen Daten direkt aus dem HTML-Code der gecrawlten Seiten. Wichtig dabei ist, die Einstellung noch vor dem eigentlichen Crawl vorzunehmen, damit die Wunschinfos auch mitgenommen werden. Zu finden ist diese Funktion unter: Configuration -> Custom -> Extraction. #Wer hätte damit gerechnet? 😉

SF_GA1

Wie verwende ich Custom Extraction?

Bevor wir uns an die Einrichtung machen, sollten wir uns überlegen was wir überhaupt wissen wollen. Es kann jeder Wert abgefragt werden, der einem in den Sinn kommt und im Quellcode vorhanden ist. Als Beispiel ziehen wir aus unserem ersten Beitrag den Open Graph Title, das Veröffentlichungsdatum, und zu guter Letzt den Ankertext des ersten Links im Text.

Öffnen wir oben beschriebenen Menüpunkt, sehen wir eine sehr schlichte Eingabemaske. Hier vergeben wir zuerst einen Namen für unseren Export und wählen die Art, wie wir den Inhalt schnappen wollen. Wir können dabei zwischen CSSPath, XPath und RegEx wählen.

SF_GA2

Custom Extraction Praxis Beispiel

Für die Extraktion des OG Title verwenden wir RegEx, da wir nur den Wert und nicht das komplette „Konstrukt“ wollen. In unserem Fall kopieren wir uns aus dem Quellcode der Seite einfach den kompletten Tag und ersetzen den auszugebenden Wunschpart mit (.*?) . Das Ergebnis hier ist

<meta property=“og:title“ content=“(.*?)“ /> .

Schön ist, dass Screaming Frog am Ende der Zeile direkt anzeigt, ob der Code zulässig ist. Haben sich Syntax Fehler eingeschlichen, wird dort ein rotes X angezeigt. Ist alles in Ordnung, erstrahlt ein grünes Checkmark. (Wer mehr über RegEx und dessen Verwendung erfahren will, unter http://www.lmdfdg.com/?q=RegEx gibt es jede Menge hilfreiches Material.)

SF_GA3

Als nächstes suchen wir uns das Veröffentlichungsdatum heraus. Da wir den Inhalt innerhalb eines DIV Container auslesen wollen, bietet sich hier XPath an. Er wird ähnlich wie unser Ergebnis aussehen:

/html/body/div[1]/div[3]/div/div[1]/div[1]/div/p/span[1]

TIPP:

Wer keine dutzenden Unterpfade abzählen und eintippen will, kann sich diese mithilfe von Browserplugins, wie z.B. Firebug für Firefox (), schnell und einfach kopieren. Einfach auf das gewünschte Objekt rechts klicken, Element mit Firebug untersuchen und nochmals per Rechtsklick den XPath kopieren.

SF_GA4

Zu guter Letzt haben wir die Wahl zwischen Extract „InnerHTML, HTML Element, Text“

InnerHTML: Exportiert Text und Code, der innerhalb des Containers steht.
HTML Element: Exportiert den Container selbst und alles was in ihm steht.
Text: Exportiert ausschließlich den plain Text, der innerhalb des Containers steht.

Uns interessiert nur der tatsächliche Inhalt. Etwaige Formatierungen usw. wollen wir nicht haben, wir wählen also „Extract Text“.

SF_GA5

Um unseren Wissensdurst zu stillen, holen wir jetzt noch den ersten Ankertext aus dem Text. Wie vorher geht das am einfachsten per XPath. Das Ergebnis sieht entsprechend ähnlich aus:

/html/body/div[1]/div[3]/div/div[1]/div[1]/div/div/p[1]/strong/a

Auch CSSPath wäre möglich. Da dieser aber deutlich unübersichtlicher ist und oft mit einem zusätzlichen Attribut genauer identifiziert werden müsste, bevorzuge ich XPath. Nachfolgend noch einmal alle Beispiele und Funktionen auf einen Blick.

SF_GA6

Ergebnis der Custom Extraction

Sind wir schlussendlich glücklich mit unserer Konfiguration, können wir den Crawl starten.

TIPP:

Probiert eure Konfiguration zuerst an ein paar wenigen Seiten aus und passt sie nochmals an, sollte das Ergebnis nicht wie erhofft aussehen. Das spart Zeit.

Die fertige Auswertung nennt sich „Custom“ und findet sich kurz vor dem Reiter „Analytics“. Auch wichtig, setzt den Filter unbedingt auf „Extraction“. Ansonsten seht ihr andere oder auch keine Werte.

SF_GA7

Weitere Anwendungsmöglichkeiten

Oben sind natürlich nur Beispiele genannt, wie ihr die Funktion verwenden könnt. Eurer Fantasie sind fast keine Grenzen gesetzt. So könnte man beispielsweise auch Infos ziehen wie:

Welche Sprachen sind verlinkt? Fehlen manchmal hreflang Tags?
Welche Mikrodaten/Itemtypes werden verwendet?
Welche Analytics ID wird verwendet? Ist es stets die richtige?
Wer ist der Autor eines Beitrages? Wie viele hat jeder geschrieben?

Welche Funktion gefällt euch oder findet ihr besonders interessant? Was habt ihr dadurch herausgefunden? Wir sind gespannt auf eure Kommentare!

Keine Kommentare vorhanden


Hast du eine Frage oder Meinung zum Artikel? Schreib uns gerne etwas in die Kommentare.

Ihre E-Mail Adresse wird nicht veröffentlicht

Jetzt den SEO-Küche-Newsletter abonnieren

Ähnliche Beiträge

Roboter im Büro, der an einem Laptop arbeitet und mit einer Hand winkt.

Mit KI-Assets und Automatisierung mehr Anfragen statt Streuverlust

  • Luisa Losereit, Online-Marketing-Beraterin (Onpage)
  • von Luisa Losereit
  • 12.01.2026

Konventionelles Online-Marketing verliert durch steigende Kosten pro Klick (CPC) und gesättigte Märkte zunehmend an Rentabilität. Das Problem bei der Markansprache ist heute nicht mehr der Mangel an Kanälen, sondern der massive Streuverlust. Folglich fließt zu viel Budget nach dem Gießkannen-Prinzip in eine irrelevante Ansprache, während hochwertige Leads in der Informationsflut […]

Illustration von KI-Chatbots im Austausch mit einem Menschen, um komplexe Fragen zu beantworten, unterstützt durch Symbole wie Werkzeuge und Sprechblasen

Gefunden in KI-Antworten – Inhalte, die komplexe Fragen beantworten!

  • Oliver Lindner / Gründer und Geschäftsführer
  • von Oliver Lindner
  • 05.01.2026

Die Websuche hat sich grundlegend verändert, denn die Zeiten, in denen Nutzer durch zehn blaue Links scrollen mussten, sind längst vorbei. Wer heute komplexe Fragen zu spezifischen Themen stellt, erhält meist sofort eine detaillierte Antwort kurz, sachlich und perfekt zusammengefasst. Diese sogenannten „KI-Antworten“, bekannt als Google AI Overviews (AIOs), Bing […]

Digitales Dashboard mit verschiedenen Heatmaps: Scroll-, Mausbewegungs- und Klick-Heatmaps zur Analyse des Nutzerverhaltens auf einer Webseite

CRO-Entscheidungen anhand von Daten und Heatmaps treffen

  • Luisa Losereit, Online-Marketing-Beraterin (Onpage)
  • von Luisa Losereit
  • 17.12.2025

In der Conversion-Optimierung führen Entscheidungen, die auf dem reinen Bauchgefühl basieren, selten zum Erfolg. Das Ziel ist es, die Effizienz des bereits auf die Webseite geleiteten Traffics systematisch zu steigern. Dies gelingt nur, wenn CRO-Entscheidungen auf Basis von Daten getroffen werden, die auf quantitativen Messungen und visuellen, qualitativen Beweisen beruhen. […]

Symbolische Darstellung von datengetriebenem Content-Marketing mit Diagrammen und Zielvisualisierungen auf einem Laptop

Datengetriebenes Content-Marketing: Was funktioniert?

  • Luisa Losereit, Online-Marketing-Beraterin (Onpage)
  • von Luisa Losereit
  • 15.12.2025

Durch die stetig wachsende Menge an Content ist der Markt gesättigt, dadurch wird es für Unternehmen immer schwieriger, ihre Zielgruppe effektiv zu erreichen. Das zentrale Problem im traditionellen Content-Marketing ist der Mangel an Relevanz, da Strategien oft auf Bauchgefühl, Erfahrung und „Trial-and-Error“ basieren, doch diese Ansätze bergen erhebliche Risiken und […]

Schild mit der Aufschrift "Internship - Next Exit", das symbolisch auf eine Gelegenheit für ein Praktikum hinweist

Mein Erasmus+ Praktikum in Spanien

  • aliyah
  • von Aliyah Prößdorf
  • 11.12.2025

Im Rahmen des Erasmus+ Praktikum Programms durfte ich im 3. Lehrjahr meiner Ausbildung zur Kauffrau für Büromanagement bei der SEO-Küche ein dreiwöchiges Praktikum in Spanien machen. Ich nehme euch mit auf meine Reise nach Barcelona. Was ist eigentlich Erasmus+? Erasmus+ ist ein EU-Förderprogramm, das Schülern, Studenten und Auszubildenden hilft, wertvolle […]

Grafik mit Symbolen für Automatisierung im SEA

Automatisierung im SEA und intelligente Gebotsstrategien

  • Luisa Losereit, Online-Marketing-Beraterin (Onpage)
  • von Luisa Losereit
  • 08.12.2025

Im Suchmaschinenmarketing (SEA) hat sich das Umfeld der Kampagnensteuerung grundlegend verändert. Die Zeiten, in denen SEA-Manager Tausende von Gebotsanpassungen pro Tag manuell vornehmen mussten, sind vorbei. Durch die steigende Nutzerzahl sowie die Geschwindigkeit und Komplexität der digitalen Auktionen ist eine Automatisierung der Gebotsstrategien essenziell, um erfolgreiche Kampagnen zu schalten. Kern […]