Skip to main content

Suchmaschinen von A-Z erklärt

suchmaschinen-im-jahr-2022-einfach-erklaert

Was ist eine Suchmaschine?

Eine Suchmaschine ist ein Programm mit dem sich große Datenbestände nach Schlagworten, sogenannten Keywords durchsuchen lassen. Als Datengrundlage dienen Dokumente, welche die Suchmaschine indexiert, d.h. ausliest und im sogenannten Index speichert, also indiziert hat. Im Netz stellt ein solches Dokument in der Regel eine Webseite dar. Die indizierten Inhalte sind dann veröffentlichte Texte, Bilder aber auch Verlinkungen. Die ersten Suchmaschinen wurden im Bibliothekswesen eingesetzt. Theoretische Grundlage aller Suchmaschinen ist das “Information Retrieval” (Informationsrückgewinnung oder Informationsbeschaffung), welche sich mit der computergestützten Suche nach komplexen Begriffen beschäftigt.

Was ist das übergeordnete Ziel einer Suchmaschine?

Die Suchmaschine Google hat als eigenes Ziel definiert immer den besten, das heißt relevantesten Inhalt oder Antwort auf eine Suchanfrage präsentieren zu wollen. Damit dies gelingt, setzt die Suchmaschine auf einen Algorithmus, welcher über 200 Faktoren je gefundener Seite bewertet und in ein Verhältnis setzt. Außerdem geht darum nützlichen Inhalt am schnellsten zu präsentieren. Auch diese Faktoren bilden sich im Algorithmus und damit den Rankingfaktoren ab.  Die Suchmaschine Bing zum Beispiel möchte sich (Stand Juli 2020) als Suchmaschine für den Online-Handel etablieren. Die ursprüngliche Suchmaschine Yahoo hingegen ist inzwischen nicht mehr als ein Webportal, das zwar eine Suchoption hat, diese wird jedoch von Bing mit Suchergebnissen befüllt.

Wie durchsuchen Suchmaschinen das Internet?

Suchmaschinen speichern Dokumente aus einer Datenquelle ab. Wird nun eine Anfrage an die Suchmaschine gesendet, wird also ein Keyword eingegeben, durchsucht die Suchmaschine alle gespeicherten Dokumente ihres Datenbestandes nach diesem Keyword. Mithilfe verschiedenster Algorithmen, also komplexere Berechnungsformeln, wird die Relevanz jedes Dokumentes für das Keyword bestimmt und anschließend in eine Reihung (SERP), gebracht. Das angezeigte Ergebnis ist also das Ranking von Webseiten in Bezug auf ein bestimmtes Keyword. Oftmals wird ein kleiner Auszug des Inhaltes mitgeliefert, sogenannte Meta-Angaben.  Neben der Indizierung von Webseiten haben Suchmaschinen zudem auch Verzeichnisse in aller Welt zugänglich gemacht, so etwa Literatur, Branchenbücher oder Nachrichtenarchive.

Wie gelangen Websites in den Index von Suchmaschinen?

Zum einen indizieren, also erfassen Bots, sogenannte Crawler die Webseiten und deren Inhalt. Das ist ein vollautomatischer Prozess und macht es möglich, dass die Suchmaschinen der ständig wachsenden Zahl von Webseiten begegnen können. Zum anderen ist es weiterhin möglich, in der Search Console von Google, Webseiten händisch zum Indizieren zu geben. Das ist insbesondere dann von Vorteil, wenn es durch technische Fehlkonfiguration keine Indizierung gab oder ein Inhalt auf einer Webseite neu gecrawlt werden soll.

Historische Entwicklung / Zeitgeschichtlicher Hintergrund

1990 wurde die erste Suchmaschine für das Internet, “Archie”, an der McGill Universität in Montreal entwickelt. 1991 folgten “Veronica” und “WAIS”. In den 90igern des 20.Jh., folgte eine regelrechte Explosion verschiedener Suchmaschinen (Quelle: Geschichte der Suchmaschinen). Mittlerweile hat sich das Feld der Suchmaschinen differenziert. Google ist weltweit der Marktführer, gefolgt von Bing. Yahoo!, (wie schon erwähnt, ist das eigentlich eine Bing-Suche auf dem Webportal), Baidu und Yandex Metrica. Außerdem gibt es inzwischen Duck Duck Go und Ecosia, Wolfram Alpha, Ask, Qwant, Startpage und viele mehr. Daneben gibt es eine Reihe von Spezialsuchmaschinen.

Wie funktionieren Suchmaschinen im Detail?

Ein Leben ohne Suchmaschinen ist heute kaum mehr vorstellbar. Ob Börsenkurse, Wetteraussichten, Rezepte oder Nachrichten – Suchdienste wie Bing, Google & Co. helfen uns zu Hause, im Büro und unterwegs in Sekundenschnelle die gewünschten Informationen zu finden. Doch wie kommen die Ergebnisse in der Suche überhaupt zustande und wie halten es die Suchmaschinen mit dem Tracking der persönlichen Daten ihrer Nutzer? In diesem Kapitel werfen wir einen genaueren Blick auf Funktion von Google & Co. und werden diese und andere spannende Fragen rund um die Arbeitsweise von Suchmaschinen genauer beleuchten.

Webcrawler von Suchmaschinen

Um neue Websites zu entdecken und deren Inhalte wie Bilder, Texte oder auch Videos analysieren und indexieren zu können, nutzen Suchmaschinenanbieter wie Google oder Bing Webcrawler (auch Spider, Robot oder kurz Bot genannt). Dabei handelt es sich um spezielle Softwareprogramme, deren Aufgabe es ist, das Internet nach neuen Inhalten zu durchsuchen und diese einem Suchindex hinzuzufügen. Der bekannteste Vertreter ist der Googlebot von Suchmaschinenbetreiber Google.

Wie funktioniert ein Webcrawler?

Startpunkt für einen Webcrawler ist in der Regel eine Liste mit URLs und Vorgaben, die auch „Crawl-Frontier“ genannt wird. Während des Webcrawls ruft der Robot jede in der Liste aufgeführte URL wie in einem Browser auf, analysiert den Inhalt der Seite und folgt den enthaltenen Links. Es sei denn, er wird durch den Ausschluss in einer „robots.txt“ oder „.htaccess“, das Meta-Tagnoindex“ oder das Linkattribut „nofollow“ explizit davon abgehalten. Die ersten drei Varianten können Webmaster nutzen, um die Indexierung von Bildern oder Seiten durch die Webcrawler von Suchmaschinen zu verhindern.

Neue URLs, die der Robot während seines Crawls entdeckt, fügt er dem Suchindex hinzu. Anschließend kopiert er deren Inhalte und speichert sie im Index ab. Ist eine URL bzw. Seite bereits im Index vorhanden, vergleicht der Webcrawler die beiden Varianten. Hat sich der Inhalt geändert oder eine Weiterleitung auf eine neue URL eingerichtet, aktualisiert der Robot die im Suchindex gespeicherte Version. Existiert eine dem Crawler bekannte und im Index vorhandene URL nicht mehr, merkt er sie zum Löschen vor. Mit der nächsten Aktualisierung des Suchindex verschwindet die URL dann aus den Suchergebnissen. Gibt es auf einer Website keine weiteren Inhalte oder URLs zu entdecken, endet für den Robot der Crawl.

Lässt sich die Crawling-Frequenz einer Website erhöhen/reduzieren?

Wie häufig eine Website durch einen Robot gecrawlt wird (Crawling-Frequenz), legt in der Regel der Suchmaschinenbetreiber fest. Google beispielsweise nutzt für das Ermitteln der idealen Frequenz einen komplexen Algorithmus, der unter anderem mit einbezieht, wie häufig eine Website aktualisiert wird und wie gut die Performance des Servers ist. Über die „Search Console“ von Google haben Webmaster jedoch die Möglichkeit, die Crawling-Frequenz für ihre Website zu beeinflussen. Unter anderem lassen sich hier die Anforderungen durch den Crawler beschränken. Dies ist dann hilfreich, wenn die Leistung des Servers stark unter den Webcrawls leidet.

Ist es möglich die “Crawlability” einer Website zu optimieren?

Damit ein Webcrawler wie der Googlebot eine Website regelmäßig besuchen und vollständig indexieren kann, ist es enorm wichtig, dass die einzelnen Unterseiten gut miteinander verlinkt sind. Eine gängige Lösung ist eine Sitemap im XML- oder HTML-Format, die der Webcrawler herunterladen kann, um den einzelnen Links zu folgen und die dazugehörigen Seiten zu indizieren. Als eher nachteilig für die „Crawlability“ gelten reine JavaScript-Websites, wobei der Googlebot in den vergangenen Jahren große Fortschritte gemacht hat und JavaScript mittlerweile rendern und indexieren kann. Für das Ranking ist es jedoch wichtig, die einzelnen Seiten mit einzigartigen und aussagekräftigen Titeln und Snippets zu beschreiben.

Lässt sich ein Webcrawler daran hindern, eine Website zu indexieren?

Wie bereits oben erwähnt, gibt es mehrere Möglichkeiten, die Indexierung von Inhalten durch den Webcrawler zu beschränken oder ganz zu verhindern. Eine davon ist die robots.txt. In dieser lässt sich der Zugang zu einzelnen Verzeichnissen für bestimmte Webcrawler wie den Googlebot beschränken oder ausschließen. Eine Garantie, dass die Inhalte einer Website aufgrund der robots.txt nicht im Suchindex landen, gibt es allerdings nicht. Hierzu ist es erforderlich, die Seiten, die nicht in der Suche landen sollten, mit einem „noindex“ in den Meta-Tags auszustatten. Auf diese Weise besuchen Crawler wie der Googlebot die Seite weiterhin und folgen auch den darauf enthaltenen Links, nehmen sie jedoch nicht mehr in den Suchindex auf.

Welche Suchmaschinen-Webcrawler gibt es?

Die Anzahl reiner Suchmaschinen-Bots hat sich in den vergangenen Jahren reduziert. Unter anderem, weil frühere Suchmaschinen wie Yahoo! keinen eigenen Index mehr pflegen und stattdessen Ergebnisse von Google und Bing präsentieren. Aktuell (Stand 05/2022) sind vor allem die folgenden Webcrawler aktiv:

  • Baidu-Spider (Baidu)
  • Bingbot (Bing)
  • DuckDuckBot (DuckDuckGo)
  • Googlebot (Google)
  • Googlebot-Image (Google Bildersuche)
  • Googlebot-Mobile (Google Mobilsuche)
  • Googlebot-Video (Google Videosuche)
  • Qwantify (Qwant)
  • YandexBot (Yandex)

Schon gewusst? Die Bezeichnung Webcrawler geht auf die 1994 gestartete und erste öffentlich erreichbare Suchmaschine mit Volltextindex „WebCrawler“ zurück.

Index von Suchmaschinen

Die Datenbank, in der Suchmaschinen die URLs und Informationen zu einzelnen Websites speichern, nennt sich Index oder Suchindex. Dieser wird permanent durch Crawler bzw. Bots, die das Internet nach neuen Inhalten durchsuchen, gefüllt. Das Prinzip ist einfach erklärt: Ähnlich wie bei einem Stichwortverzeichnis in einem Buch legen Crawler für jedes auf Websites gefundene Wort einen Eintrag im Suchindex an. Beim Indexieren einer neuen Website wird diese nun sämtlichen Einträgen für Wörtern hinzugefügt, die auf ihr vorkommen. So kann diese bei einer Suchanfrage durch einen Nutzer für das jeweilige Wort gefunden und auf der Ergebnisseite (auch kurz SERP für „Search Engine Results Page“ genannt) ausgegeben werden.

Wie gelangt eine Website in den Suchindex?

Heute reicht es in der Regel aus, eine neue Website oder Unterseite von einer externen Quelle zu verlinken, um den Crawler auf sie aufmerksam zu machen und sie indexieren zu lassen. Eine weitere Möglichkeit eine Website durch Googlebot & Co. crawlen und in den Index aufnehmen zu lassen, ist eine Sitemap (im XML- oder HTML-Format) anzulegen und diese über die „Webmaster Tools“ von Bing oder die „Search Console“ von Google an die jeweilige Suchmaschine zu übermitteln.

Lässt sich überprüfen, ob eine URL bereits im Suchindex ist?

Ja, durch die Abfrage „site:domain.de“ ist es möglich, den Index von Suchmaschinen wie Google und Bing gezielt nach einer URL zu durchsuchen. Wird zu der Anfrage ein Ergebnis angezeigt, hat der Crawler die Domain bereits besucht und erfolgreich in den Index aufgenommen. Diese Abfrage funktioniert nicht nur für den Hauptindex, sondern auch für die Bilder-, News- und Video-Suche der Suchmaschinen.

Gibt es Suchmaschinen ohne eigenen Index?

Neben Suchmaschinen wie Baidu, Bing, Google und Yandex, die einen eigenen Suchindex besitzen, gibt es auch Suchdienste, die für ihre Suchergebnisse auf fremde Ergebnisse zurückgreifen. Dabei handelt es sich um sogenannte Proxy-, Hybrid- und Meta-Suchmaschinen. Proxy-Suchmaschinen wie Startpage oder Yahoo leiten die Suchanfragen von Nutzern an Partner wie Bing oder Google weiter und zeigen die Ergebnisse aus deren Index auf ihren eigenen Websites an.

Metasuchmaschinen wie MetaGer sind hingegen unabhängig und greifen parallel auf die Indexe mehrerer Suchdienste zu. Dabei übernehmen sie zunächst das Ranking der Quell-Suchmaschinen und gewichten dieses für die Anzeige auf ihren SERPs nach eigenen Kriterien neu. Zudem sind Metasuchmaschinen in der Lage, bestimmte Ergebnisse aus eigenen Sperrlisten oder Websites, die nicht den Qualitätskriterien des Suchdienstes entsprechen, aus den Suchergebnissen auszublenden.

Suchindex in Zahlen: Laut Google umfasst der Suchindex des Marktführers mehrere Hundert Milliarden Webseiten, erstreckt sich über Tausende von Servern und ist rund 100.000.000 Gigabyte (oder 100 Petabyte) groß.

Tracking von Suchmaschinen

Für Suchmaschinen wie Bing und Google, die neben der Suche auch reichweitenstarke Werbeplattformen und andere Dienste betreiben, ist das Nutzungsverhalten ihrer User von besonderem Interesse. Deshalb sammeln die beiden Marktführer überall da, wo es der rechtliche Rahmen erlaubt, die Daten ihrer Nutzer.

Diese Daten helfen den Anbietern einerseits dabei, ihre Dienste immer weiter zu verbessern und benutzerfreundlicher zu gestalten, haben andererseits aber auch den Zweck, Werbung möglichst zielgerichtet auf das Geschlecht, die Altersgruppe und Hobbys, den Beruf oder Standort des Nutzers auszuspielen. Durch die starke Personalisierung ist die Wahrscheinlichkeit für einen Klick auf eine Werbeanzeige und den Kauf eines Produkts deutlich höher als bei nicht personalisierten Anzeigen.

Welche Informationen tracken Suchmaschinen?

Suchmaschinen tracken eine Vielzahl von Daten, die viel über den jeweiligen Nutzer preisgeben. Dazu zählen zum Beispiel Suchanfragen und Klicks auf Ergebnisse, die Marktführer Google in einer komplexeren Suchhistorie speichert. Weitere Daten wie den aktuellen Standort von Nutzern gewinnt Google über seine Pixel-Smartphones und Mobilfunkgeräte mit „Android“-Betriebssystem.

Mithilfe seines Bezahldienstes „Google Pay“ erfährt der Branchenprimus außerdem, wo, wann und wofür Nutzer Geld ausgeben. So weiß Google, welche Online- und Offline-Shops ein Nutzer bevorzugt und über welches Budget er in etwa für Einkäufe verfügt. Weitere Datenlieferanten sind zum Beispiel Dienste wie die Videoplattform „YouTube“, der E-Mail-Service „Gmail“, und die News-Plattform „Google News“ oder auch der in Smartphones und Smart Home Devices enthaltene „Google Assistent“. Alle geben viel über die persönlichen Interessen von Nutzern preis und ermöglichen es der Suchmaschine so, Dinge wie den Bildungs- oder Familienstand, die Zufriedenheit im Job oder auch das Haushaltseinkommen zu schätzen.

Lässt sich das Tracking durch Suchmaschinen verhindern?

Bing, Google & Co. bieten Nutzern die Möglichkeit, das Aufzeichnen von Daten zu deaktivieren oder zumindest einzuschränken. Diese Funktionen sind jedoch oftmals versteckt und für normale Gelegenheitsnutzer nur schwer zu finden. Speziell für Google finden sich diese Einstellungsmöglichkeiten im Google Account unter „Daten und Datenschutz“. Hier können Nutzer unter anderem das Tracking von Web- & App-Aktivitäten wie der Nutzung von „Google Chrome“, „Google Shopping“ oder „Google Play“, den Standortverlauf ihrer Mobilgeräte oder auch ihren YouTube-Verlauf einsehen, bei Bedarf löschen und für die Zukunft deaktivieren. Auch das Personalisieren von Werbeanzeigen lässt sich so ausschalten.

Welche Suchmaschinen verzichten auf Tracking?

Für Nutzer, die sich bei ihrer Onlinesuche mehr Privatsphäre wünschen, gibt es mittlerweile einige Alternativen zu Google & Co., die auf Tracking verzichten.

DuckDuckGo

Die amerikanische Suchmaschine DuckDuckGo greift für ihren Suchindex auf Bing und mithilfe ihres eigenen Crawlers gesammelte Daten zurück. Laut eigenen Angaben speichert das Unternehmen weder die IP-Adressen seiner Nutzer, noch legt es Suchhistorien an oder gibt Daten an verlinkte Websites weiter. Somit bleiben Suchanfragen immer anonym. Auch bei der innerhalb der SERPs geschalteten Werbung findet DuckDuckGo zufolge keine Nachverfolgung der Nutzer statt, sodass auch hier keine sensiblen Daten in die Hände Dritter gelangen.

MetaGer

Die deutsche Metasuchmaschine MetaGer garantiert Nutzern auf ihrer Website absolute Privatsphäre. Laut eigenen Angaben setzt der von einem gemeinnützigen Verein betriebene Suchdienst kein IP-Tracking ein und legt auch keine Suchprofile für Nutzer an. Darüber hinaus bietet MetaGer mit der „Anonym öffnen“-Funktion ein kostenfreies Feature an, mit dessen Hilfe Nutzer Ergebnisse in den SERPs über einen anonymisierenden Proxy aufrufen können.

Qwant

Die französische Suchmaschine Qwant wirbt auf ihrer Homepage mit dem Slogan „die Suchmaschine, die Ihre Privatsphäre respektiert.“ Laut den Angaben auf der Website des Suchdienstes speichert Qwant keinerlei Daten seiner Nutzer und platziert keine Werbe-Cookies. Außerdem gibt die Suchmaschine an, die in der EU geltende Datenschutzgrundverordnung (DSGVO) „rigoros“ anzuwenden und die Grundrechte seiner Nutzer ohne Einschränkungen zu respektieren.

Werbung in Suchmaschinen

Um ihren Betrieb zu finanzieren und darüber hinaus Gewinne zu erwirtschaften, schalten Suchmaschinen wie Google und Bing Werbeanzeigen innerhalb ihrer Suchergebnisseiten (auch „Search Engine Advertising“ oder kurz „SEA“ genannt). Dabei handelt es sich in der Regel um Textanzeigen, die in unterschiedlicher Anzahl über, unter oder auch seitlich neben den organischen Suchergebnissen erscheinen. Neben den Textanzeigen gibt es auch Sonderformate wie Produkt-Anzeigen. Diese enthalten neben Text auch ein Bild des jeweiligen Produkts und werden in den SERPs oder direkt in den Shopping-Suchen von Google und Bing ausgeliefert.

Die eingeblendeten Werbeanzeigen sind Keyword-bezogen. Das heißt, sie werden nur zu Suchbegriffen ausgeliefert, die der Werbetreibende zuvor festgelegt hat. Für diesen Zweck bieten die beiden Marktführer Google und Bing mit „Google Ads“ (ehemals „Google AdWords“ und „Microsoft Advertising“ (ehemals „Bing Ads“) eigene Werbenetzwerke an. Über diese Systeme können Werbetreibende eigene Anzeigen erstellen und sie zu den gewünschten Keywords in das System einzubuchen.

Wie funktioniert Werbung in Suchmaschinen?

Um Suchmaschinenwerbung schalten zu können, müssen sich Werbetreibende zunächst kostenlos bei der jeweiligen Werbeplattform registrieren. Hier können sie eigene Kampagnen mit verschiedenen Anzeigen erstellen und festlegen, zu welchen Keywords diese in den SERPs ausgeliefert werden sollen. Die Abrechnung erfolgt dabei per Klick (auch „Cost-per-Click“ oder „CPC“). Die exakten Preise unterscheiden sich je nach Popularität des Keywords und beruhen auf einem Auktionsverfahren.

Als Werbetreibender, der seine Anzeigen beispielsweise zu dem Keyword „Hausverkauf“ schalten möchte, hat man die Möglichkeit, einen Maximalpreis pro Klick festzulegen. Wie teuer dieser Klick am Ende tatsächlich ist, hängt von verschiedenen Faktoren wie der Konkurrenz, der Tageszeit und der Qualität der Anzeige ab. Die Qualität der Anzeige bemisst sich vor allem daran, wie relevant Anzeigentext und Landingpage für das gebuchte Keyword sind und wie die Kombi performt (Verhalten der Nutzer nach dem Klick). Bei guter Performance sinkt der Klickpreis, bei schlechter wird die Anzeige pro Klick teurer und im ungünstigsten Fall gar nicht mehr ausgeliefert.

Wichtig: Damit sich die Werbekosten stets in einem überschaubaren Rahmen bewegen, ist es für Werbetreibende sinnvoll, von Beginn an ein maximales Tages- oder Monatsbudget festzulegen. Sobald dieses Budget aufgebraucht ist, wird die Werbeauslieferung bis zum nächsten Tag/Monat gestoppt.

Erscheint die Werbung nur in den Suchergebnissen?

Werbetreibende können selbst festlegen, ob ihre Werbeanzeigen ausschließlich innerhalb der Suchergebnisse oder – wie im Falle von Google Ads – auch darüber hinaus in Apps und auf anderen Websites erscheinen sollen. Google bietet hierfür das sogenannte „Google Displaynetzwerk“ an, in dem weltweit Millionen Websites, aber auch Google-eigene Dienste wie „Gmail“ oder „YouTube“ für Werbetreibende zur Anzeigenschaltung zur Verfügung stehen.

Neben Text-Ads ist es hier auch möglich, grafische Banner und Video-Ads zu schalten. Darüber hinaus lassen sich Anzeigen im Google Displaynetzwerk nicht nur auf Klickbasis, sondern auch auf TKP/CPM-Basis („Cost-per-1000-Impressions) buchen. Gleiches gilt für das Werbenetzwerk von Microsoft, mit dem sich über das „Microsoft Audience Network“ (das Pendant zu Googles Displaynetzwerk) ebenfalls Anzeigen außerhalb der Bing-SERPs schalten lassen. Hier erscheinen die Anzeigen unter anderem auf Websites wie „MSN Sport“ oder „LinkedIn“ sowie innerhalb der Suchergebnissen von Yahoo!

Schon gewusst? Ein wichtiger Teil von Googles Displaynetzwerk ist „Google AdSense“. Über das Werbesystem können Websitebetreiber ihre Online-Angebote monetarisieren, indem sie kontextbasierte (zum Inhalt der Website passende) oder auf die Interessen der Nutzer zugeschnittene (personalisierte) Anzeigen einbinden. Diese enthalten Werbung, die Werbetreibende über Google Ads einstellen können.

Welche Targeting-Möglichkeiten gibt es bei Suchmaschinen-Werbung?

Mithilfe von Targeting lässt sich die Gruppe der Personen, die die Anzeige in den Suchergebnissen oder auch im Displaynetzwerk zu Gesicht bekommen, eingrenzen. Anbieter wie Google und Bing bieten in ihren SEA-Plattformen hierzu viele Optionen. Unter anderem erlauben sie Werbetreibenden ein Targeting nach demografischen Merkmalen (z. B. Geschlechter, Alter, Einkommen), der Kaufbereitschaft (frühere Käufe über Anzeigen) oder Lebensereignissen (z. B. Hauskauf, Renovierung, neues Haustier, Hochzeit, Jobwechsel oder Umzug) zu filtern.

Bei letzterer Option lässt sich wählen, ob die Nutzer „kurz vor“ oder „kurz nach“ dem Ereignis stehen. Zudem bieten die SEA-Plattformen die Option des Remarketings, wodurch sich Nutzer, die zuvor mit einer App oder einer Website interagiert haben, erneut ansprechen lassen, was die Conversion-Rate in vielen Fällen deutlich erhöhen kann.

Gibt es weitere Suchmaschinen mit eigenen SEA-Plattformen?

Google und Microsoft bieten sich vor allem an, um deutsch- und englischsprachige Kunden zu erreichen. In Ländern wie China oder Russland haben die westlichen Marktführer hingegen nur vergleichsweise geringe Marktanteile. Wer auch diese Kunden mit einer SEA-Kampagne ansprechen möchte, kann dies bezogen auf den chinesischen Markt über die Werbeplattform von „Baidu“ tun. Die Suchmaschine hat in China einen Marktanteil von rund 80 Prozent, während Google hier gerade einmal auf rund 3 Prozent kommt (Stand 05/2022). Die SEA-Plattform von Baidu nennt sich „Baidu Tuigang“ und bietet neben klassischen Search Ads in den SERPs auch die Möglichkeit, Display Ads auf weiteren chinesischen Plattformen zu schalten. Einzige Voraussetzung: Eine bestehende Firmenadresse in China oder Ost-Asien.

Auf dem russischen Markt dominiert Suchmaschinenanbieter Yandex vor Google. Mit „Yandex.Direct“ bietet das Unternehmen eine eigene SEA-Plattform an, die (vor den Sanktionen im Rahmen der Ukraine-Krise im Jahr 2022) für Unternehmen aus aller Welt zugänglich war. Ähnlich wie bei Bing und Google ist bzw. war es auch bei Yandex.Direct möglich, neben Search Ads in den Suchergebnissen sogenannte Display Ads zu buchen, die im Netzwerk des Suchmaschinenbetreibers erscheinen.

Suchanfragen in Suchmaschinen

Um einen bestimmten Inhalt im Index einer Suchmaschine zu finden, können Nutzer eine Suchanfrage stellen. Diese kann aus einem einzelnen Begriff oder aus einem Satz bzw. einer Phrase bestehen. Die Eingabe des Suchbegriffs kann direkt über die Suchleiste auf der Website der Suchmaschine, die Adresszeile eines Webbrowsers (z. B. „Google Chrome“) oder auch per Sprachsuche (auch „Voice Search“ genannt) über ein Smartphone oder ein anderes Smart-Device erfolgen. Nach dem Absenden der Suchanfrage führt die Suchmaschine zunächst eine Wortanalyse durch. Diese dient dazu, die Bedeutung der Wörter in der Suchanfrage besser zu verstehen und in eine Kategorie einordnen zu können. Enthält eine Suchanfrage zum Beispiel Wörter wie „Bild“ oder „Rezension“, liefert das der Suchmaschine wichtige Hinweise darauf, was der Nutzer möchte und wonach sie in ihrem Index suchen muss.

Hat die Suchmaschine die Suchanfrage analysiert, beginnt sie in ihrem Index nach übereinstimmenden Websites zu suchen. Eine wichtige Rolle spielt dabei der immer mehr auf Machine Learning und Künstliche Intelligenz basierende Such-Algorithmus der Suchmaschine, der die Relevanz einer Website für eine bestimmte Suchanfrage anhand Hunderter Kriterien überprüft. Unter anderem werden dabei Spam-Websites oder Websites, die unlautere Methoden für das Ranking nutzen (z. B. Linkkauf) weitestgehend ausgefiltert. Passt ein Set von Websites zur Suche, prüft die Suchmaschine, ob die Sprache zu der des Nutzers passt und liefert die nach den Kriterien des Algorithmus gerankten Suchergebnisse auf den SERPs („Search Engine Ranking Pages“ oder zu deutsch „Suchergebnisseiten“) aus.

Schon gewusst? Trotz vieler Milliarden Dokumente, die Suchmaschinen wie Bing und Google durchsuchen müssen, vergeht zwischen der Eingabe der Suchanfrage und der Auslieferung des Ergebnisses oft weniger als eine halbe Sekunde. Möglich ist das durch das komplexe Design des Indexes, das einen schnellen Zugriff auf die gewünschten Informationen ermöglicht.

Welche Arten von Suchanfragen gibt es?

Sowohl beim Search Engine Advertising als auch bei der Suchmaschinenoptimierung wird zwischen den folgenden vier Arten von Suchanfragen unterschieden:

Informative Suchanfragen (informational)

Wie der Name vermuten lässt, sind die Suchenden bei dieser Art von Suchanfrage auf der Suche nach einer bestimmten Information. Die Suchphrasen enthalten deshalb häufig Wörter wie „Wie“, „Was“, „Wo“, „Wann“ oder auch „Tutorial“ oder „Tipps“. Typische Suchanfragen mit informativem Hintergrund sind zum Beispiel „Wann wird die Uhr auf Sommerzeit umgestellt?“ oder „Wie bereite ich Grünen Tee richtig zu?“.

Navigations-Suchanfragen (navigational)

Navigationssuchen dienen dazu, mithilfe der Suche zu einem bestimmten Webangebot zu gelangen. Sie ersetzen somit das manuelle Eintippen der Website-URL in die Browserzeile. Navigations-Suchanfragen bestehen meist nur aus dem Namen eines Dienstes oder einer Website wie zum Beispiel „Facebook“, „Instagram“ oder „Pinterest“.

Transaktions-Suchanfragen (transactional)

Hinter Transaktions-Suchanfragen steht meist die Absicht des Nutzers, ein Produkt zu kaufen oder einen Service in Anspruch nehmen. Transaktions-Suchanfragen enthalten deshalb nahezu immer Aktionswörter wie „Abonnieren“, „Bestellen“, „Buchen“, „Downloaden“ „Kaufen“, „Reservieren“. Typische Suchanfragen sind zum Beispiel „Tisch Italiener Köln reservieren“ oder „Sportschuhe kaufen“.

Suchanfragen in Zahlen

Täglich verzeichnet Marktführer Google weltweit rund 8,5 Milliarden Suchanfragen (Stand 05/2022). Rund die Hälfte davon erfolgt über mobile Geräte wie Smartphones oder mittels Sprachsuche über Smart Home Devices wie „Nest Audio“ oder „Nest Mini“. Bing kommt im Vergleich dazu auf überschaubare 90 Millionen Suchanfragen pro Tag (Stand 05/2022). Der Großteil davon entfällt auf Desktop-Suchen, die über Microsofts Betriebssystem „Windows“ erfolgen.

Können Suchmaschinen Suchanfragen vorhersehen?

Um sich auf dem Markt zu behaupten, sind Suchmaschinen stets bestrebt, ihre Nutzer möglichst schnell an ihr gewünschten Ziel zu bringen. Eine wichtige Rolle spielt bei Bing und Google dabei die sogenannte Autocomplete-Funktion (bei Google auch „Suggest“ genannt), die direkt unterhalb des Eingabefelds erscheint. Mit ihr versuchen die Suchmaschinen schon während der Eingabe eines Suchbegriffs durch den Nutzer die endgültige Suchanfrage vorherzusagen.

Das soll Zeit sparen und die Suche auf mobilen Geräten wie Smartphones und Tablets komfortabler machen. Für ihre Vorhersagen greifen die Suchmaschinen unter anderem auf das Suchverhalten sowie aktuelle Suchtrends zurück. Auch die Standortdaten und die Suchhistorie des Nutzers fließen in die Vorschläge ein. Tippt ein Nutzer beispielsweise häufiger den Namen eines bestimmten Sportteams ein, ist es wahrscheinlich, dass Google & Co. beim Eintippen von „Ergebnisse“ direkt „Ergebnisse Teamname“ als Suchanfrage vorschlagen oder das Ergebnis innerhalb des Autocomplete-Fensters anzeigen.

Suchergebnisse in Suchmaschinen

Nach einer Suchanfrage liefern Suchmaschinen meist innerhalb einer Sekunde passende Suchergebnisse zurück. Diese Treffer werden untereinander auf den SERPs dargestellt und können je nach Suchmaschine neben organischen auch bezahlte Ergebnisse enthalten. Während die bezahlten Suchergebnisse bei Bing, Google & Co. über eine Anzeigenauktion in die SERPs eingespielt werden, sind die organischen Suchergebnisse das Ergebnis komplexer Suchmaschinen-Algorithmen. Sie bewerten Websites anhand vieler Hundert Kriterien und legen so ihre Relevanz für eine bestimmte Suchanfrage fest. Auf dieser Basis werden die Suchergebnisse anschließend gerankt, angefangen bei der höchsten Relevanz ganz vorne.

Welche Kriterien gelten für das Ranking der Suchergebnisse?

Gute Rankings (Platzierungen in den vordersten Suchergebnissen) sind für Websites essentiell, um von Nutzern gefunden zu werden. Ob eine Seite zu einem Suchbegriff in den Suchergebnissen weit vorne gelistet wird, hängt davon ab, ob sie die Ranking-Kriterien der jeweiligen Suchmaschine erfüllt. Im Fall von Google sind es weit mehr als 200 Faktoren, die für die Position in den Suchergebnissen ausschlaggebend sind. Zwar sind die genauen Rankingfaktoren von Google ein gut gehütetes Geheimnis. Doch viele der Kriterien, die eng mit guten Positionierungen verbunden sind, sind heute bekannt.

Dazu gehören vor allem gute und einzigartige Inhalte, die die Suchintention des Nutzers befriedigen, sinnvoll und übersichtlich strukturiert sind und problemlos von den Crawlern der Suchmaschine erfasst werden können. Der zweite wichtige Faktor sind Backlinks (Links von anderen Websites), die ähnlich wie ein Votum für die Website in deren Ranking einfließen. Wichtig ist, dass die Links von relevanten Websites stammen und weder gekauft noch getauscht, sondern natürlich entstanden sind. Weitere Rankingfaktoren bei Marktführer Google sind die sogenannten „Core Web Vitals“, die anhand unterschiedlicher Metriken die User-Experience bzw. die Nutzerfreundlichkeit von Websites bewerten.

Laut Google gehört auch „RankBrain“ zu den wichtigen Rankingfaktoren. Dabei handelt es sich um einen 2015 eingeführten Bestandteil des Algorithmus, der maschinelles Lernen und künstliche Intelligenz nutzt, um die relevantesten Suchergebnisse für eine Suchanfrage zu finden. So ist RankBrain in der Lage, die Suchintention des Nutzers herauszufinden und ihm passende Ergebnisse zu liefern. Und das vor allem bei neuen Suchanfragen, die zum Beispiel neue Wortschöpfungen oder Trendwörter enthalten, die die Suchmaschine zuvor noch nie gesehen hat.

Suchergebnisse sind nicht statisch

Im Gegensatz zu früheren Zeiten, in denen die Suchergebnisse von Google nahezu statisch waren und es lediglich bei monatlichen Aktualisierungen wie dem „Google Dance“ zu spürbaren Änderungen kam, befinden sich diese heute in einem stetigen Wandel. So kann die Suche zweier Nutzer für ein und dasselbe Keyword zu völlig unterschiedlichen Ergebnissen führen. Ein Grund dafür ist die Personalisierung der Suchergebnisse. Ein Faktor, der die Suchergebnisse erheblich beeinflusst, ist zum Beispiel der Standort des Nutzers. Sucht beispielsweise ein Nutzer in München und ein anderer in Berlin bei Bing oder Google nach einer Autowerkstatt, erhalten beide mit hoher Wahrscheinlichkeit lokalisierte Ergebnisse aus ihrer Nähe.

Ein weiterer Faktor ist, ob der Nutzer bei der Suchmaschine angemeldet und gerade eingeloggt ist. In diesem Fall werden die getätigten Suchanfragen und Besuche von Websites in einer Suchhistorie gespeichert und die Suchergebnisse anhand dieser personalisiert. Häufig in den Suchergebnissen angeklickte Websites werden so zum Beispiel höher gelistet. Nicht zuletzt spielt auch das Endgerät, von dem aus Nutzer die Suchanfrage tätigen, eine Rolle bei der Zusammenstellung der Suchergebnisse. So werden in den Suchergebnissen auf Smartphones bevorzugt Websites angezeigt, die für mobile Endgeräte optimiert sind und für eine positive Nutzererfahrung sorgen, während dieser Faktor bei Suchen an Desktop-PCs weniger zum Tragen kommt.

Suchergebnisse werden immer vielfältiger

Nicht nur die Dynamik, sondern auch die Vielfalt in der Gestaltung und Zusammensetzung der Suchergebnisse hat in den vergangenen Jahren stark zugenommen. Während die SERPs Ende der 1990er- und zu Beginn der 2000er-Jahre noch ausschließlich aus Snippets (kurzen Textauszügen und Links zu den Suchtreffern) bestanden, werden diese heute im Zuge der „Universal Search“ durch Suchtreffer aus der Bilder-, Video- und Shoppingsuche sowie Infoboxen ergänzt. Im Falle von Google ist hierfür unter anderem der 2012 eingeführte „Knowledge Graph“ verantwortlich. Dabei handelt es sich um eine Wissensdatenbank, die Beziehungen zwischen einzelnen Einträgen herstellen und diese bei der Suche nach bestimmten Keywords strukturiert in der Suche anzeigen kann.

So wird zum Beispiel bei einer Suche nach „Schauspieler Harry Potter“ eine Übersicht der Besetzung der Filme inklusive Namen, Fotos und weiterführenden Informationen angezeigt. Generell sind Suchmaschinen wie Google bestrebt, die meisten Fragen ihrer Nutzer bereits innerhalb der Suchergebnisse zu beantworten und diese so möglichst lange auf der eigenen Seite zu halten. Hierzu dienen im Fall von Google zum Beispiel die „Featured Snippets“, die in einer Box oberhalb der organischen Suchergebnisse auf viele Fragen eine Antwort in Form eines Auszugs einer Website präsentieren. Dabei kann es sich je nach Frage um Fließtext, Tabellen, Listen oder auch Videos handeln. Ein weiteres Element sind die ähnlichen Fragen, die an verschiedenen Stellen und in unterschiedlicher Anzahl in den SERPs erscheinen können und – wie die Featured Snippets – passende Auszüge von anderen Websites enthalten.

Lokale Suchergebnisse

Bei ortsbezogenen Suchanfragen wie „Friseur Hamburg“, „Rechtsanwalt Köln“ oder „Griechisches Restaurant Berlin“ liefern Google & Co. zusätzlich zu den normalen Suchergebnissen lokale Suchtreffer aus. Google zeigt hierfür über den organischen Treffern das sogenannte „Local Pack“ an. Diese enthält eine Maps-Karte sowie eine Liste mit Unternehmen in der Nähe des gesuchten Ortes, die zur Suchanfrage passen. Neben dem Namen erscheinen im Local Pack Adresse, Öffnungszeiten, Telefonnummer, angebotene Services und Google Bewertungen des jeweiligen Unternehmens, sodass Nutzer direkt Kontakt aufnehmen können.

Hat der Nutzer seinen Standort freigegeben, ziehen die Suchmaschinen die IP zur Lokalisierung heran. In diesem Fall reicht es aus, ein Suchwort wie „Tischlerei“ oder „Pizzeria“ ohne Ort einzugeben, um lokale Suchergebnisse zu erhalten. Die Ergebnisse in den lokalen Suchergebnisse basieren auf kostenlosen Einträgen in die Dienste „Google My Business“, „Bing Places for Business“ und „Apple Maps“. Über diese haben Unternehmen die Möglichkeit, die Darstellung ihres Eintrags anzupassen und zum Beispiel um Fotos oder wichtige Informationen zu ergänzen. Auch das Ranking im Local Pack lässt sich durch Optimierung des Eintrags, das Generieren von Bewertungen und Citations (Erwähnungen) verbessern.

Suchmaschinenoptimierung vs. Suchmaschinen

Anfang der 0er-Jahre des 21. Jahrhunderts, hat sich die professionelle “Suchmaschinenoptimierung” (SEO) entwickelt. Diese versucht die Ergebnisse der Suchmaschine zu „manipulieren“, in dem die indexierten Dokumente in besonderer Art und Weise gestaltet werden. Dazu gehören verschiedenste technische aber auch strukturelle und inhaltliche Faktoren.

Mittlerweile ist die Suchmaschinenoptimierung ein wichtiges Hilfsmittel für Suchmaschinen selber, da die SEO-Experten eine Webseite technisch und inhaltlich „sauber“ gestalten können. In Anbetracht der immensen Menge an Daten und Angebote im Netz und der begrenzten Rechen- und Speicherkapazität der Suchmaschinen, sorgen SEOs für eine reibungslosere und schnellere Indexierung von Webseiten. Auf diese Weise erklärt sich auch, warum große Suchmaschinen wie Google bei bevorstehenden Updates Hinweise an Internetseitenbetreiber geben. Weiter zum Artikel Suchmaschinenoptimierung.

Die Zukunft der Suchmaschinen – Wo geht die Reise hin?

Alle Suchmaschinen, ob Google oder Spezialsuchmaschine versuchen immer besser die Sprache zu verstehen und den Algorithmen beizubringen. Genutzt wird dazu unter anderem künstliche Intelligenz und neuronale Netze welche auch entferntere Zusammenhänge zwischen Worten und Ausdrücken und zum Beispiel Umgangssprache lernen und verstehen können.

Auch die gesprochenen Anfragen werden immer weiter analysiert, damit auch bei Umgangsgeräuschen und Dialekt die Trefferquote besser wird. Zudem trainiert zum Beispiel Google seine Bots im Erkennen von Bildern bzw. relevanten Bereichen auf Grafiken, Fotografien und dergleichen mehr.  Es wird spannend zu beobachten sein, was aus den Erkenntnissen dieser Lernprozesse für Services oder Updates sich generieren. Fest steht nur, die Suchmaschinen werden auch in Zukunft sich im stetigen Wandel und Weiterentwicklung befinden.

FAQ zum Thema Suchmaschinen

Welche Alternativen zu Google gibt es?

Zu der sehr bekannten Suchmaschine Google hat sich zunächst Yahoo! und Bing als Alternative gebildet. Zwischenzeitlich gab es auch Altavista (geschlossen 2013), Lycos (noch aktiv, aber in Deutschland inzwischen wenig bekannt). Etwas Aufsehen gab es bei der Einführung von Duck Duck Go, das eine bessere Privatsphäre versprach und pünktlich zum NSA-Skandal auf der Bildoberfläche erschien. Auch gern genutzt in der sich stets verändernden Internetuser-Gemeinde wird Ecosia, eine Suchmaschine, welche verspricht Bäume zu pflanzen, wenn man diese nutzt. Ein genauer Blick auf die Alternativen zu Google finden Sie in dem folgenden Erfahrungsbericht verschiedener Suchmaschinen: Jenseits von Google – Alternative Suchmaschinen im Test.

Warum nutzen User alternative Suchmaschinen im Internet?

Nicht erst seit dem NSA-Skandal werden sich Nutzer im Internet Ihren Spuren und den damit verbundenen Risiken immer bewusster. Tracking, Cookies, Datenschutz sind auch die Themen, die einige der alternativen Suchmaschinen propagieren, beziehungsweise ihren andersartigen Umgang mit Daten als der Branchenriese. Da Internetuser sich den Wert Ihrer Daten immer mehr bewusstwerden, entscheiden sich entsprechend auch immer mehr für die alternativen Suchmaschinenangebote.

Auch die Tendenz “grüne Entscheidungen” also welche mit möglichst geringem Schaden für Umwelt oder sogar positivem Einfluss auf Umwelt und Menschen zu treffen, nimmt immer mehr zu. Auf diesen Aspekt arbeitet zum Beispiel die alternative Suchmaschine Ecosia hin. Die neben einem erhöhten Datenschutz zudem anbietet Bäume zu pflanzen – also direkt Gutes zu tun. Es bleibt abzuwarten wie die großen Suchmaschinen auf diese Strömungen reagieren und welche Anzahl von Menschen die alternativen Suchmaschinen nutzen. Bisher ist der Branchenprimus nach wie vor deutlich Google.

Allgemeine und spezielle Suchmaschinen

Allgemeine Suchmaschinen versuchen einen möglichst großen Index aufzubauen und in diesem interne Ordnung vornehmen. Beispiele für solche Suchmaschinen sind Google, Yahoo!, Bing, Baidu oder Yandex. Spezialsuchmaschinen konzentrieren sich von vornherein auf einen abgegrenzten thematischen Index. So gibt es spezielle Suchmaschinen für bestimmte Themengebiete, wie Steuern, Recht, Medizin oder Sport. Auch die Suchsoftware mancher Bibliotheken gehört zu den speziellen Suchmaschinen, da sie einen exakt definierten Datenbestand haben.

Intranet Suchmaschinen werden häufig bei Unternehmen und Organisationen eingesetzt. Der Zugriff ist in der Regel beschränkt und die Datenquellen spiegeln interne Server oder Festplatten wider. Desktopsuchmaschinen durchsuchen die Daten einer Rechners (PC oder MAC). Erfahrungsbericht verschiedener Suchmaschinen: Jenseits von Google – Alternative Suchmaschinen im Test. Suchmaschinen sind für den Nutzer in der Regel kostenlos. Unternehmen, die für bestimmte Keywords gut platziert sein wollen, es aber nicht sind, können bezahlte, als Werbung markierte Positionierungen kaufen. Bei Google nennt sich dies Google Ads (SEA), bei Bing “Microsoft Advertising”. Andere Suchmaschinen haben vergleichbare Angebote.