Skip to main content

Suchmaschinen von A-Z erklärt

Inhaltssektionen

Um einen besseren Überblick zu gewähren, unterteilen wir die Seite in vier Sektionen, welche die einzelnen Themenbereiche weiter untergliedern.

Basiswissen

In dieser Sektion beleuchten wir Suchmaschinen aus der Vogelperspektive und geben einen Einblick in die Grundlagen, sowie in die Vorgehensweise von Suchmaschinen bei der Indexierung von Websites.

Search-Enginge-Marketing

In diesem Teil werden die Möglichkeiten von Werbung dargestellt. Zudem wird auf die Arten von Suchanfragen eingegangen und über die darauffolgenden Suchergebnisse berichtet.

Unterteilung

Dieser Bereich geht im Detail auf die verschiedenen Gattungen von Suchmaschinen ein und beschreibt die Nutzen und Funktionen der einzelnen Anbieter für Nutzer.

Zukunft & häufige Fragen

Zum einen behandelt diese Sektion das ständige Kräftemessen von SEO und Suchmaschine, zum anderen enthält sie Thesen über das künftige Dasein von Suchmaschinen, sowie die Beantwortung häufig gestellter Fragen.

suchmaschinen-im-jahr-2022-einfach-erklaert

Was ist eine Suchmaschine?

Eine Suchmaschine ist ein Programm mit dem sich große Datenbestände nach Schlagworten, sogenannten Keywords durchsuchen lassen. Als Datengrundlage dienen Dokumente, welche die Suchmaschine indexiert, d.h. ausliest und im sogenannten Index speichert, also indiziert hat. Im Netz stellt ein solches Dokument in der Regel eine Webseite dar. Die indizierten Inhalte sind dann veröffentlichte Texte, Bilder aber auch Verlinkungen. Die ersten Suchmaschinen wurden im Bibliothekswesen eingesetzt. Theoretische Grundlage aller Suchmaschinen ist das “Information Retrieval” (Informationsrückgewinnung oder Informationsbeschaffung), welche sich mit der computergestützten Suche nach komplexen Begriffen beschäftigt.

Was ist das übergeordnete Ziel einer Suchmaschine?

Die Suchmaschine Google hat als eigenes Ziel definiert immer den besten, das heißt relevantesten Inhalt oder Antwort auf eine Suchanfrage präsentieren zu wollen. Damit dies gelingt, setzt die Suchmaschine auf einen Algorithmus, welcher über 200 Faktoren je gefundener Seite bewertet und in ein Verhältnis setzt. Außerdem geht darum nützlichen Inhalt am schnellsten zu präsentieren. Auch diese Faktoren bilden sich im Algorithmus und damit den Rankingfaktoren ab.  Die Suchmaschine Bing zum Beispiel möchte sich (Stand Juli 2020) als Suchmaschine für den Online-Handel etablieren. Die ursprüngliche Suchmaschine Yahoo hingegen ist inzwischen nicht mehr als ein Webportal, das zwar eine Suchoption hat, diese wird jedoch von Bing mit Suchergebnissen befüllt.

Wie durchsuchen Suchmaschinen das Internet?

Suchmaschinen speichern Dokumente aus einer Datenquelle ab. Wird nun eine Anfrage an die Suchmaschine gesendet, wird also ein Keyword eingegeben, durchsucht die Suchmaschine alle gespeicherten Dokumente ihres Datenbestandes nach diesem Keyword. Mithilfe verschiedenster Algorithmen, also komplexere Berechnungsformeln, wird die Relevanz jedes Dokumentes für das Keyword bestimmt und anschließend in eine Reihung (SERP), gebracht. Das angezeigte Ergebnis ist also das Ranking von Webseiten in Bezug auf ein bestimmtes Keyword. Oftmals wird ein kleiner Auszug des Inhaltes mitgeliefert, sogenannte Meta-Angaben.  Neben der Indizierung von Webseiten haben Suchmaschinen zudem auch Verzeichnisse in aller Welt zugänglich gemacht, so etwa Literatur, Branchenbücher oder Nachrichtenarchive.

Wie gelangen Websites in den Index von Suchmaschinen?

Zum einen indizieren, also erfassen Bots, sogenannte Crawler die Webseiten und deren Inhalt. Das ist ein vollautomatischer Prozess und macht es möglich, dass die Suchmaschinen der ständig wachsenden Zahl von Webseiten begegnen können. Zum anderen ist es weiterhin möglich, in der Search Console von Google, Webseiten händisch zum Indizieren zu geben. Das ist insbesondere dann von Vorteil, wenn es durch technische Fehlkonfiguration keine Indizierung gab oder ein Inhalt auf einer Webseite neu gecrawlt werden soll.

Historische Entwicklung / Zeitgeschichtlicher Hintergrund

1990 wurde die erste Suchmaschine für das Internet, “Archie”, an der McGill Universität in Montreal entwickelt. 1991 folgten “Veronica” und “WAIS”. In den 90igern des 20.Jh., folgte eine regelrechte Explosion verschiedener Suchmaschinen (Quelle: Geschichte der Suchmaschinen). Mittlerweile hat sich das Feld der Suchmaschinen differenziert. Google ist weltweit der Marktführer, gefolgt von Bing. Yahoo!, (wie schon erwähnt, ist das eigentlich eine Bing-Suche auf dem Webportal), Baidu und Yandex Metrica. Außerdem gibt es inzwischen Duck Duck Go und Ecosia, Wolfram Alpha, Ask, Qwant, Startpage und viele mehr. Daneben gibt es eine Reihe von Spezialsuchmaschinen.

Wie funktionieren Suchmaschinen im Detail?

Ein Leben ohne Suchmaschinen ist heute kaum mehr vorstellbar. Ob Börsenkurse, Wetteraussichten, Rezepte oder Nachrichten – Suchdienste wie Bing, Google & Co. helfen uns zu Hause, im Büro und unterwegs in Sekundenschnelle die gewünschten Informationen zu finden. Doch wie kommen die Ergebnisse in der Suche überhaupt zustande und wie halten es die Suchmaschinen mit dem Tracking der persönlichen Daten ihrer Nutzer? In diesem Kapitel werfen wir einen genaueren Blick auf Funktion von Google & Co. und werden diese und andere spannende Fragen rund um die Arbeitsweise von Suchmaschinen genauer beleuchten.

Webcrawler von Suchmaschinen

Um neue Websites zu entdecken und deren Inhalte wie Bilder, Texte oder auch Videos analysieren und indexieren zu können, nutzen Suchmaschinenanbieter wie Google oder Bing Webcrawler (auch Spider, Robot oder kurz Bot genannt). Dabei handelt es sich um spezielle Softwareprogramme, deren Aufgabe es ist, das Internet nach neuen Inhalten zu durchsuchen und diese einem Suchindex hinzuzufügen. Der bekannteste Vertreter ist der Googlebot von Suchmaschinenbetreiber Google.

Wie funktioniert ein Webcrawler?

Startpunkt für einen Webcrawler ist in der Regel eine Liste mit URLs und Vorgaben, die auch „Crawl-Frontier“ genannt wird. Während des Webcrawls ruft der Robot jede in der Liste aufgeführte URL wie in einem Browser auf, analysiert den Inhalt der Seite und folgt den enthaltenen Links. Es sei denn, er wird durch den Ausschluss in einer „robots.txt“ oder „.htaccess“, das Meta-Tagnoindex“ oder das Linkattribut „nofollow“ explizit davon abgehalten. Die ersten drei Varianten können Webmaster nutzen, um die Indexierung von Bildern oder Seiten durch die Webcrawler von Suchmaschinen zu verhindern.

Neue URLs, die der Robot während seines Crawls entdeckt, fügt er dem Suchindex hinzu. Anschließend kopiert er deren Inhalte und speichert sie im Index ab. Ist eine URL bzw. Seite bereits im Index vorhanden, vergleicht der Webcrawler die beiden Varianten. Hat sich der Inhalt geändert oder eine Weiterleitung auf eine neue URL eingerichtet, aktualisiert der Robot die im Suchindex gespeicherte Version. Existiert eine dem Crawler bekannte und im Index vorhandene URL nicht mehr, merkt er sie zum Löschen vor. Mit der nächsten Aktualisierung des Suchindex verschwindet die URL dann aus den Suchergebnissen. Gibt es auf einer Website keine weiteren Inhalte oder URLs zu entdecken, endet für den Robot der Crawl.

Lässt sich die Crawling-Frequenz einer Website erhöhen/reduzieren?

Wie häufig eine Website durch einen Robot gecrawlt wird (Crawling-Frequenz), legt in der Regel der Suchmaschinenbetreiber fest. Google beispielsweise nutzt für das Ermitteln der idealen Frequenz einen komplexen Algorithmus, der unter anderem mit einbezieht, wie häufig eine Website aktualisiert wird und wie gut die Performance des Servers ist. Über die „Search Console“ von Google haben Webmaster jedoch die Möglichkeit, die Crawling-Frequenz für ihre Website zu beeinflussen. Unter anderem lassen sich hier die Anforderungen durch den Crawler beschränken. Dies ist dann hilfreich, wenn die Leistung des Servers stark unter den Webcrawls leidet.

Ist es möglich die “Crawlability” einer Website zu optimieren?

Damit ein Webcrawler wie der Googlebot eine Website regelmäßig besuchen und vollständig indexieren kann, ist es enorm wichtig, dass die einzelnen Unterseiten gut miteinander verlinkt sind. Eine gängige Lösung ist eine Sitemap im XML- oder HTML-Format, die der Webcrawler herunterladen kann, um den einzelnen Links zu folgen und die dazugehörigen Seiten zu indizieren. Als eher nachteilig für die „Crawlability“ gelten reine JavaScript-Websites, wobei der Googlebot in den vergangenen Jahren große Fortschritte gemacht hat und JavaScript mittlerweile rendern und indexieren kann. Für das Ranking ist es jedoch wichtig, die einzelnen Seiten mit einzigartigen und aussagekräftigen Titeln und Snippets zu beschreiben.

Lässt sich ein Webcrawler daran hindern, eine Website zu indexieren?

Wie bereits oben erwähnt, gibt es mehrere Möglichkeiten, die Indexierung von Inhalten durch den Webcrawler zu beschränken oder ganz zu verhindern. Eine davon ist die robots.txt. In dieser lässt sich der Zugang zu einzelnen Verzeichnissen für bestimmte Webcrawler wie den Googlebot beschränken oder ausschließen. Eine Garantie, dass die Inhalte einer Website aufgrund der robots.txt nicht im Suchindex landen, gibt es allerdings nicht. Hierzu ist es erforderlich, die Seiten, die nicht in der Suche landen sollten, mit einem „noindex“ in den Meta-Tags auszustatten. Auf diese Weise besuchen Crawler wie der Googlebot die Seite weiterhin und folgen auch den darauf enthaltenen Links, nehmen sie jedoch nicht mehr in den Suchindex auf.

Welche Suchmaschinen-Webcrawler gibt es?

Die Anzahl reiner Suchmaschinen-Bots hat sich in den vergangenen Jahren reduziert. Unter anderem, weil frühere Suchmaschinen wie Yahoo! keinen eigenen Index mehr pflegen und stattdessen Ergebnisse von Google und Bing präsentieren. Aktuell (Stand 05/2022) sind vor allem die folgenden Webcrawler aktiv:

  • Baidu-Spider (Baidu)
  • Bingbot (Bing)
  • DuckDuckBot (DuckDuckGo)
  • Googlebot (Google)
  • Googlebot-Image (Google Bildersuche)
  • Googlebot-Mobile (Google Mobilsuche)
  • Googlebot-Video (Google Videosuche)
  • Qwantify (Qwant)
  • YandexBot (Yandex)

Schon gewusst? Die Bezeichnung Webcrawler geht auf die 1994 gestartete und erste öffentlich erreichbare Suchmaschine mit Volltextindex „WebCrawler“ zurück.

Index von Suchmaschinen

Die Datenbank, in der Suchmaschinen die URLs und Informationen zu einzelnen Websites speichern, nennt sich Index oder Suchindex. Dieser wird permanent durch Crawler bzw. Bots, die das Internet nach neuen Inhalten durchsuchen, gefüllt. Das Prinzip ist einfach erklärt: Ähnlich wie bei einem Stichwortverzeichnis in einem Buch legen Crawler für jedes auf Websites gefundene Wort einen Eintrag im Suchindex an. Beim Indexieren einer neuen Website wird diese nun sämtlichen Einträgen für Wörtern hinzugefügt, die auf ihr vorkommen. So kann diese bei einer Suchanfrage durch einen Nutzer für das jeweilige Wort gefunden und auf der Ergebnisseite (auch kurz SERP für „Search Engine Results Page“ genannt) ausgegeben werden.

Wie gelangt eine Website in den Suchindex?

Heute reicht es in der Regel aus, eine neue Website oder Unterseite von einer externen Quelle zu verlinken, um den Crawler auf sie aufmerksam zu machen und sie indexieren zu lassen. Eine weitere Möglichkeit eine Website durch Googlebot & Co. crawlen und in den Index aufnehmen zu lassen, ist eine Sitemap (im XML- oder HTML-Format) anzulegen und diese über die „Webmaster Tools“ von Bing oder die „Search Console“ von Google an die jeweilige Suchmaschine zu übermitteln.

Lässt sich überprüfen, ob eine URL bereits im Suchindex ist?

Ja, durch die Abfrage „site:domain.de“ ist es möglich, den Index von Suchmaschinen wie Google und Bing gezielt nach einer URL zu durchsuchen. Wird zu der Anfrage ein Ergebnis angezeigt, hat der Crawler die Domain bereits besucht und erfolgreich in den Index aufgenommen. Diese Abfrage funktioniert nicht nur für den Hauptindex, sondern auch für die Bilder-, News- und Video-Suche der Suchmaschinen.

Gibt es Suchmaschinen ohne eigenen Index?

Neben Suchmaschinen wie Baidu, Bing, Google und Yandex, die einen eigenen Suchindex besitzen, gibt es auch Suchdienste, die für ihre Suchergebnisse auf fremde Ergebnisse zurückgreifen. Dabei handelt es sich um sogenannte Proxy-, Hybrid- und Meta-Suchmaschinen. Proxy-Suchmaschinen wie Startpage oder Yahoo leiten die Suchanfragen von Nutzern an Partner wie Bing oder Google weiter und zeigen die Ergebnisse aus deren Index auf ihren eigenen Websites an.

Metasuchmaschinen wie MetaGer sind hingegen unabhängig und greifen parallel auf die Indexe mehrerer Suchdienste zu. Dabei übernehmen sie zunächst das Ranking der Quell-Suchmaschinen und gewichten dieses für die Anzeige auf ihren SERPs nach eigenen Kriterien neu. Zudem sind Metasuchmaschinen in der Lage, bestimmte Ergebnisse aus eigenen Sperrlisten oder Websites, die nicht den Qualitätskriterien des Suchdienstes entsprechen, aus den Suchergebnissen auszublenden.

Suchindex in Zahlen: Laut Google umfasst der Suchindex des Marktführers mehrere Hundert Milliarden Webseiten, erstreckt sich über Tausende von Servern und ist rund 100.000.000 Gigabyte (oder 100 Petabyte) groß.

Tracking von Suchmaschinen

Für Suchmaschinen wie Bing und Google, die neben der Suche auch reichweitenstarke Werbeplattformen und andere Dienste betreiben, ist das Nutzungsverhalten ihrer User von besonderem Interesse. Deshalb sammeln die beiden Marktführer überall da, wo es der rechtliche Rahmen erlaubt, die Daten ihrer Nutzer.

Diese Daten helfen den Anbietern einerseits dabei, ihre Dienste immer weiter zu verbessern und benutzerfreundlicher zu gestalten, haben andererseits aber auch den Zweck, Werbung möglichst zielgerichtet auf das Geschlecht, die Altersgruppe und Hobbys, den Beruf oder Standort des Nutzers auszuspielen. Durch die starke Personalisierung ist die Wahrscheinlichkeit für einen Klick auf eine Werbeanzeige und den Kauf eines Produkts deutlich höher als bei nicht personalisierten Anzeigen.

Welche Informationen tracken Suchmaschinen?

Suchmaschinen tracken eine Vielzahl von Daten, die viel über den jeweiligen Nutzer preisgeben. Dazu zählen zum Beispiel Suchanfragen und Klicks auf Ergebnisse, die Marktführer Google in einer komplexeren Suchhistorie speichert. Weitere Daten wie den aktuellen Standort von Nutzern gewinnt Google über seine Pixel-Smartphones und Mobilfunkgeräte mit „Android“-Betriebssystem.

Mithilfe seines Bezahldienstes „Google Pay“ erfährt der Branchenprimus außerdem, wo, wann und wofür Nutzer Geld ausgeben. So weiß Google, welche Online- und Offline-Shops ein Nutzer bevorzugt und über welches Budget er in etwa für Einkäufe verfügt. Weitere Datenlieferanten sind zum Beispiel Dienste wie die Videoplattform „YouTube“, der E-Mail-Service „Gmail“, und die News-Plattform „Google News“ oder auch der in Smartphones und Smart Home Devices enthaltene „Google Assistent“. Alle geben viel über die persönlichen Interessen von Nutzern preis und ermöglichen es der Suchmaschine so, Dinge wie den Bildungs- oder Familienstand, die Zufriedenheit im Job oder auch das Haushaltseinkommen zu schätzen.

Lässt sich das Tracking durch Suchmaschinen verhindern?

Bing, Google & Co. bieten Nutzern die Möglichkeit, das Aufzeichnen von Daten zu deaktivieren oder zumindest einzuschränken. Diese Funktionen sind jedoch oftmals versteckt und für normale Gelegenheitsnutzer nur schwer zu finden. Speziell für Google finden sich diese Einstellungsmöglichkeiten im Google Account unter „Daten und Datenschutz“. Hier können Nutzer unter anderem das Tracking von Web- & App-Aktivitäten wie der Nutzung von „Google Chrome“, „Google Shopping“ oder „Google Play“, den Standortverlauf ihrer Mobilgeräte oder auch ihren YouTube-Verlauf einsehen, bei Bedarf löschen und für die Zukunft deaktivieren. Auch das Personalisieren von Werbeanzeigen lässt sich so ausschalten.

Welche Suchmaschinen verzichten auf Tracking?

Für Nutzer, die sich bei ihrer Onlinesuche mehr Privatsphäre wünschen, gibt es mittlerweile einige Alternativen zu Google & Co., die auf Tracking verzichten.

DuckDuckGo

Die amerikanische Suchmaschine DuckDuckGo greift für ihren Suchindex auf Bing und mithilfe ihres eigenen Crawlers gesammelte Daten zurück. Laut eigenen Angaben speichert das Unternehmen weder die IP-Adressen seiner Nutzer, noch legt es Suchhistorien an oder gibt Daten an verlinkte Websites weiter. Somit bleiben Suchanfragen immer anonym. Auch bei der innerhalb der SERPs geschalteten Werbung findet DuckDuckGo zufolge keine Nachverfolgung der Nutzer statt, sodass auch hier keine sensiblen Daten in die Hände Dritter gelangen.

MetaGer

Die deutsche Metasuchmaschine MetaGer garantiert Nutzern auf ihrer Website absolute Privatsphäre. Laut eigenen Angaben setzt der von einem gemeinnützigen Verein betriebene Suchdienst kein IP-Tracking ein und legt auch keine Suchprofile für Nutzer an. Darüber hinaus bietet MetaGer mit der „Anonym öffnen“-Funktion ein kostenfreies Feature an, mit dessen Hilfe Nutzer Ergebnisse in den SERPs über einen anonymisierenden Proxy aufrufen können.

Qwant

Die französische Suchmaschine Qwant wirbt auf ihrer Homepage mit dem Slogan „die Suchmaschine, die Ihre Privatsphäre respektiert.“ Laut den Angaben auf der Website des Suchdienstes speichert Qwant keinerlei Daten seiner Nutzer und platziert keine Werbe-Cookies. Außerdem gibt die Suchmaschine an, die in der EU geltende Datenschutzgrundverordnung (DSGVO) „rigoros“ anzuwenden und die Grundrechte seiner Nutzer ohne Einschränkungen zu respektieren.

Werbung in Suchmaschinen

Um ihren Betrieb zu finanzieren und darüber hinaus Gewinne zu erwirtschaften, schalten Suchmaschinen wie Google und Bing Werbeanzeigen innerhalb ihrer Suchergebnisseiten (auch „Search Engine Advertising“ oder kurz „SEA“ genannt). Dabei handelt es sich in der Regel um Textanzeigen, die in unterschiedlicher Anzahl über, unter oder auch seitlich neben den organischen Suchergebnissen erscheinen. Neben den Textanzeigen gibt es auch Sonderformate wie Produkt-Anzeigen. Diese enthalten neben Text auch ein Bild des jeweiligen Produkts und werden in den SERPs oder direkt in den Shopping-Suchen von Google und Bing ausgeliefert.

Die eingeblendeten Werbeanzeigen sind Keyword-bezogen. Das heißt, sie werden nur zu Suchbegriffen ausgeliefert, die der Werbetreibende zuvor festgelegt hat. Für diesen Zweck bieten die beiden Marktführer Google und Bing mit „Google Ads“ (ehemals „Google AdWords“ und „Microsoft Advertising“ (ehemals „Bing Ads“) eigene Werbenetzwerke an. Über diese Systeme können Werbetreibende eigene Anzeigen erstellen und sie zu den gewünschten Keywords in das System einzubuchen.

Wie funktioniert Werbung in Suchmaschinen?

Um Suchmaschinenwerbung schalten zu können, müssen sich Werbetreibende zunächst kostenlos bei der jeweiligen Werbeplattform registrieren. Hier können sie eigene Kampagnen mit verschiedenen Anzeigen erstellen und festlegen, zu welchen Keywords diese in den SERPs ausgeliefert werden sollen. Die Abrechnung erfolgt dabei per Klick (auch „Cost-per-Click“ oder „CPC“). Die exakten Preise unterscheiden sich je nach Popularität des Keywords und beruhen auf einem Auktionsverfahren.

Als Werbetreibender, der seine Anzeigen beispielsweise zu dem Keyword „Hausverkauf“ schalten möchte, hat man die Möglichkeit, einen Maximalpreis pro Klick festzulegen. Wie teuer dieser Klick am Ende tatsächlich ist, hängt von verschiedenen Faktoren wie der Konkurrenz, der Tageszeit und der Qualität der Anzeige ab. Die Qualität der Anzeige bemisst sich vor allem daran, wie relevant Anzeigentext und Landingpage für das gebuchte Keyword sind und wie die Kombi performt (Verhalten der Nutzer nach dem Klick). Bei guter Performance sinkt der Klickpreis, bei schlechter wird die Anzeige pro Klick teurer und im ungünstigsten Fall gar nicht mehr ausgeliefert.

Wichtig: Damit sich die Werbekosten stets in einem überschaubaren Rahmen bewegen, ist es für Werbetreibende sinnvoll, von Beginn an ein maximales Tages- oder Monatsbudget festzulegen. Sobald dieses Budget aufgebraucht ist, wird die Werbeauslieferung bis zum nächsten Tag/Monat gestoppt.

Erscheint die Werbung nur in den Suchergebnissen?

Werbetreibende können selbst festlegen, ob ihre Werbeanzeigen ausschließlich innerhalb der Suchergebnisse oder – wie im Falle von Google Ads – auch darüber hinaus in Apps und auf anderen Websites erscheinen sollen. Google bietet hierfür das sogenannte „Google Displaynetzwerk“ an, in dem weltweit Millionen Websites, aber auch Google-eigene Dienste wie „Gmail“ oder „YouTube“ für Werbetreibende zur Anzeigenschaltung zur Verfügung stehen.

Neben Text-Ads ist es hier auch möglich, grafische Banner und Video-Ads zu schalten. Darüber hinaus lassen sich Anzeigen im Google Displaynetzwerk nicht nur auf Klickbasis, sondern auch auf TKP/CPM-Basis („Cost-per-1000-Impressions) buchen. Gleiches gilt für das Werbenetzwerk von Microsoft, mit dem sich über das „Microsoft Audience Network“ (das Pendant zu Googles Displaynetzwerk) ebenfalls Anzeigen außerhalb der Bing-SERPs schalten lassen. Hier erscheinen die Anzeigen unter anderem auf Websites wie „MSN Sport“ oder „LinkedIn“ sowie innerhalb der Suchergebnissen von Yahoo!

Schon gewusst? Ein wichtiger Teil von Googles Displaynetzwerk ist „Google AdSense“. Über das Werbesystem können Websitebetreiber ihre Online-Angebote monetarisieren, indem sie kontextbasierte (zum Inhalt der Website passende) oder auf die Interessen der Nutzer zugeschnittene (personalisierte) Anzeigen einbinden. Diese enthalten Werbung, die Werbetreibende über Google Ads einstellen können.

Welche Targeting-Möglichkeiten gibt es bei Suchmaschinen-Werbung?

Mithilfe von Targeting lässt sich die Gruppe der Personen, die die Anzeige in den Suchergebnissen oder auch im Displaynetzwerk zu Gesicht bekommen, eingrenzen. Anbieter wie Google und Bing bieten in ihren SEA-Plattformen hierzu viele Optionen. Unter anderem erlauben sie Werbetreibenden ein Targeting nach demografischen Merkmalen (z. B. Geschlechter, Alter, Einkommen), der Kaufbereitschaft (frühere Käufe über Anzeigen) oder Lebensereignissen (z. B. Hauskauf, Renovierung, neues Haustier, Hochzeit, Jobwechsel oder Umzug) zu filtern.

Bei letzterer Option lässt sich wählen, ob die Nutzer „kurz vor“ oder „kurz nach“ dem Ereignis stehen. Zudem bieten die SEA-Plattformen die Option des Remarketings, wodurch sich Nutzer, die zuvor mit einer App oder einer Website interagiert haben, erneut ansprechen lassen, was die Conversion-Rate in vielen Fällen deutlich erhöhen kann.

Gibt es weitere Suchmaschinen mit eigenen SEA-Plattformen?

Google und Microsoft bieten sich vor allem an, um deutsch- und englischsprachige Kunden zu erreichen. In Ländern wie China oder Russland haben die westlichen Marktführer hingegen nur vergleichsweise geringe Marktanteile. Wer auch diese Kunden mit einer SEA-Kampagne ansprechen möchte, kann dies bezogen auf den chinesischen Markt über die Werbeplattform von „Baidu“ tun. Die Suchmaschine hat in China einen Marktanteil von rund 80 Prozent, während Google hier gerade einmal auf rund 3 Prozent kommt (Stand 05/2022). Die SEA-Plattform von Baidu nennt sich „Baidu Tuigang“ und bietet neben klassischen Search Ads in den SERPs auch die Möglichkeit, Display Ads auf weiteren chinesischen Plattformen zu schalten. Einzige Voraussetzung: Eine bestehende Firmenadresse in China oder Ost-Asien.

Auf dem russischen Markt dominiert Suchmaschinenanbieter Yandex vor Google. Mit „Yandex.Direct“ bietet das Unternehmen eine eigene SEA-Plattform an, die (vor den Sanktionen im Rahmen der Ukraine-Krise im Jahr 2022) für Unternehmen aus aller Welt zugänglich war. Ähnlich wie bei Bing und Google ist bzw. war es auch bei Yandex.Direct möglich, neben Search Ads in den Suchergebnissen sogenannte Display Ads zu buchen, die im Netzwerk des Suchmaschinenbetreibers erscheinen.

Suchanfragen in Suchmaschinen

Um einen bestimmten Inhalt im Index einer Suchmaschine zu finden, können Nutzer eine Suchanfrage stellen. Diese kann aus einem einzelnen Begriff oder aus einem Satz bzw. einer Phrase bestehen. Die Eingabe des Suchbegriffs kann direkt über die Suchleiste auf der Website der Suchmaschine, die Adresszeile eines Webbrowsers (z. B. „Google Chrome“) oder auch per Sprachsuche (auch „Voice Search“ genannt) über ein Smartphone oder ein anderes Smart-Device erfolgen. Nach dem Absenden der Suchanfrage führt die Suchmaschine zunächst eine Wortanalyse durch. Diese dient dazu, die Bedeutung der Wörter in der Suchanfrage besser zu verstehen und in eine Kategorie einordnen zu können. Enthält eine Suchanfrage zum Beispiel Wörter wie „Bild“ oder „Rezension“, liefert das der Suchmaschine wichtige Hinweise darauf, was der Nutzer möchte und wonach sie in ihrem Index suchen muss.

Hat die Suchmaschine die Suchanfrage analysiert, beginnt sie in ihrem Index nach übereinstimmenden Websites zu suchen. Eine wichtige Rolle spielt dabei der immer mehr auf Machine Learning und Künstliche Intelligenz basierende Such-Algorithmus der Suchmaschine, der die Relevanz einer Website für eine bestimmte Suchanfrage anhand Hunderter Kriterien überprüft. Unter anderem werden dabei Spam-Websites oder Websites, die unlautere Methoden für das Ranking nutzen (z. B. Linkkauf) weitestgehend ausgefiltert. Passt ein Set von Websites zur Suche, prüft die Suchmaschine, ob die Sprache zu der des Nutzers passt und liefert die nach den Kriterien des Algorithmus gerankten Suchergebnisse auf den SERPs („Search Engine Ranking Pages“ oder zu deutsch „Suchergebnisseiten“) aus.

Schon gewusst? Trotz vieler Milliarden Dokumente, die Suchmaschinen wie Bing und Google durchsuchen müssen, vergeht zwischen der Eingabe der Suchanfrage und der Auslieferung des Ergebnisses oft weniger als eine halbe Sekunde. Möglich ist das durch das komplexe Design des Indexes, das einen schnellen Zugriff auf die gewünschten Informationen ermöglicht.

Welche Arten von Suchanfragen gibt es?

Sowohl beim Search Engine Advertising als auch bei der Suchmaschinenoptimierung wird zwischen den folgenden vier Arten von Suchanfragen unterschieden:

Informative Suchanfragen (informational)

Wie der Name vermuten lässt, sind die Suchenden bei dieser Art von Suchanfrage auf der Suche nach einer bestimmten Information. Die Suchphrasen enthalten deshalb häufig Wörter wie „Wie“, „Was“, „Wo“, „Wann“ oder auch „Tutorial“ oder „Tipps“. Typische Suchanfragen mit informativem Hintergrund sind zum Beispiel „Wann wird die Uhr auf Sommerzeit umgestellt?“ oder „Wie bereite ich Grünen Tee richtig zu?“.

Navigations-Suchanfragen (navigational)

Navigationssuchen dienen dazu, mithilfe der Suche zu einem bestimmten Webangebot zu gelangen. Sie ersetzen somit das manuelle Eintippen der Website-URL in die Browserzeile. Navigations-Suchanfragen bestehen meist nur aus dem Namen eines Dienstes oder einer Website wie zum Beispiel „Facebook“, „Instagram“ oder „Pinterest“.

Transaktions-Suchanfragen (transactional)

Hinter Transaktions-Suchanfragen steht meist die Absicht des Nutzers, ein Produkt zu kaufen oder einen Service in Anspruch nehmen. Transaktions-Suchanfragen enthalten deshalb nahezu immer Aktionswörter wie „Abonnieren“, „Bestellen“, „Buchen“, „Downloaden“ „Kaufen“, „Reservieren“. Typische Suchanfragen sind zum Beispiel „Tisch Italiener Köln reservieren“ oder „Sportschuhe kaufen“.

Suchanfragen in Zahlen

Täglich verzeichnet Marktführer Google weltweit rund 8,5 Milliarden Suchanfragen (Stand 05/2022). Rund die Hälfte davon erfolgt über mobile Geräte wie Smartphones oder mittels Sprachsuche über Smart Home Devices wie „Nest Audio“ oder „Nest Mini“. Bing kommt im Vergleich dazu auf überschaubare 90 Millionen Suchanfragen pro Tag (Stand 05/2022). Der Großteil davon entfällt auf Desktop-Suchen, die über Microsofts Betriebssystem „Windows“ erfolgen.

Können Suchmaschinen Suchanfragen vorhersehen?

Um sich auf dem Markt zu behaupten, sind Suchmaschinen stets bestrebt, ihre Nutzer möglichst schnell an ihr gewünschten Ziel zu bringen. Eine wichtige Rolle spielt bei Bing und Google dabei die sogenannte Autocomplete-Funktion (bei Google auch „Suggest“ genannt), die direkt unterhalb des Eingabefelds erscheint. Mit ihr versuchen die Suchmaschinen schon während der Eingabe eines Suchbegriffs durch den Nutzer die endgültige Suchanfrage vorherzusagen.

Das soll Zeit sparen und die Suche auf mobilen Geräten wie Smartphones und Tablets komfortabler machen. Für ihre Vorhersagen greifen die Suchmaschinen unter anderem auf das Suchverhalten sowie aktuelle Suchtrends zurück. Auch die Standortdaten und die Suchhistorie des Nutzers fließen in die Vorschläge ein. Tippt ein Nutzer beispielsweise häufiger den Namen eines bestimmten Sportteams ein, ist es wahrscheinlich, dass Google & Co. beim Eintippen von „Ergebnisse“ direkt „Ergebnisse Teamname“ als Suchanfrage vorschlagen oder das Ergebnis innerhalb des Autocomplete-Fensters anzeigen.

Suchergebnisse in Suchmaschinen

Nach einer Suchanfrage liefern Suchmaschinen meist innerhalb einer Sekunde passende Suchergebnisse zurück. Diese Treffer werden untereinander auf den SERPs dargestellt und können je nach Suchmaschine neben organischen auch bezahlte Ergebnisse enthalten. Während die bezahlten Suchergebnisse bei Bing, Google & Co. über eine Anzeigenauktion in die SERPs eingespielt werden, sind die organischen Suchergebnisse das Ergebnis komplexer Suchmaschinen-Algorithmen. Sie bewerten Websites anhand vieler Hundert Kriterien und legen so ihre Relevanz für eine bestimmte Suchanfrage fest. Auf dieser Basis werden die Suchergebnisse anschließend gerankt, angefangen bei der höchsten Relevanz ganz vorne.

Welche Kriterien gelten für das Ranking der Suchergebnisse?

Gute Rankings (Platzierungen in den vordersten Suchergebnissen) sind für Websites essentiell, um von Nutzern gefunden zu werden. Ob eine Seite zu einem Suchbegriff in den Suchergebnissen weit vorne gelistet wird, hängt davon ab, ob sie die Ranking-Kriterien der jeweiligen Suchmaschine erfüllt. Im Fall von Google sind es weit mehr als 200 Faktoren, die für die Position in den Suchergebnissen ausschlaggebend sind. Zwar sind die genauen Rankingfaktoren von Google ein gut gehütetes Geheimnis. Doch viele der Kriterien, die eng mit guten Positionierungen verbunden sind, sind heute bekannt.

Dazu gehören vor allem gute und einzigartige Inhalte, die die Suchintention des Nutzers befriedigen, sinnvoll und übersichtlich strukturiert sind und problemlos von den Crawlern der Suchmaschine erfasst werden können. Der zweite wichtige Faktor sind Backlinks (Links von anderen Websites), die ähnlich wie ein Votum für die Website in deren Ranking einfließen. Wichtig ist, dass die Links von relevanten Websites stammen und weder gekauft noch getauscht, sondern natürlich entstanden sind. Weitere Rankingfaktoren bei Marktführer Google sind die sogenannten „Core Web Vitals“, die anhand unterschiedlicher Metriken die User-Experience bzw. die Nutzerfreundlichkeit von Websites bewerten.

Laut Google gehört auch „RankBrain“ zu den wichtigen Rankingfaktoren. Dabei handelt es sich um einen 2015 eingeführten Bestandteil des Algorithmus, der maschinelles Lernen und künstliche Intelligenz nutzt, um die relevantesten Suchergebnisse für eine Suchanfrage zu finden. So ist RankBrain in der Lage, die Suchintention des Nutzers herauszufinden und ihm passende Ergebnisse zu liefern. Und das vor allem bei neuen Suchanfragen, die zum Beispiel neue Wortschöpfungen oder Trendwörter enthalten, die die Suchmaschine zuvor noch nie gesehen hat.

Suchergebnisse sind nicht statisch

Im Gegensatz zu früheren Zeiten, in denen die Suchergebnisse von Google nahezu statisch waren und es lediglich bei monatlichen Aktualisierungen wie dem „Google Dance“ zu spürbaren Änderungen kam, befinden sich diese heute in einem stetigen Wandel. So kann die Suche zweier Nutzer für ein und dasselbe Keyword zu völlig unterschiedlichen Ergebnissen führen. Ein Grund dafür ist die Personalisierung der Suchergebnisse. Ein Faktor, der die Suchergebnisse erheblich beeinflusst, ist zum Beispiel der Standort des Nutzers. Sucht beispielsweise ein Nutzer in München und ein anderer in Berlin bei Bing oder Google nach einer Autowerkstatt, erhalten beide mit hoher Wahrscheinlichkeit lokalisierte Ergebnisse aus ihrer Nähe.

Ein weiterer Faktor ist, ob der Nutzer bei der Suchmaschine angemeldet und gerade eingeloggt ist. In diesem Fall werden die getätigten Suchanfragen und Besuche von Websites in einer Suchhistorie gespeichert und die Suchergebnisse anhand dieser personalisiert. Häufig in den Suchergebnissen angeklickte Websites werden so zum Beispiel höher gelistet. Nicht zuletzt spielt auch das Endgerät, von dem aus Nutzer die Suchanfrage tätigen, eine Rolle bei der Zusammenstellung der Suchergebnisse. So werden in den Suchergebnissen auf Smartphones bevorzugt Websites angezeigt, die für mobile Endgeräte optimiert sind und für eine positive Nutzererfahrung sorgen, während dieser Faktor bei Suchen an Desktop-PCs weniger zum Tragen kommt.

Suchergebnisse werden immer vielfältiger

Nicht nur die Dynamik, sondern auch die Vielfalt in der Gestaltung und Zusammensetzung der Suchergebnisse hat in den vergangenen Jahren stark zugenommen. Während die SERPs Ende der 1990er- und zu Beginn der 2000er-Jahre noch ausschließlich aus Snippets (kurzen Textauszügen und Links zu den Suchtreffern) bestanden, werden diese heute im Zuge der „Universal Search“ durch Suchtreffer aus der Bilder-, Video- und Shoppingsuche sowie Infoboxen ergänzt. Im Falle von Google ist hierfür unter anderem der 2012 eingeführte „Knowledge Graph“ verantwortlich. Dabei handelt es sich um eine Wissensdatenbank, die Beziehungen zwischen einzelnen Einträgen herstellen und diese bei der Suche nach bestimmten Keywords strukturiert in der Suche anzeigen kann.

So wird zum Beispiel bei einer Suche nach „Schauspieler Harry Potter“ eine Übersicht der Besetzung der Filme inklusive Namen, Fotos und weiterführenden Informationen angezeigt. Generell sind Suchmaschinen wie Google bestrebt, die meisten Fragen ihrer Nutzer bereits innerhalb der Suchergebnisse zu beantworten und diese so möglichst lange auf der eigenen Seite zu halten. Hierzu dienen im Fall von Google zum Beispiel die „Featured Snippets“, die in einer Box oberhalb der organischen Suchergebnisse auf viele Fragen eine Antwort in Form eines Auszugs einer Website präsentieren. Dabei kann es sich je nach Frage um Fließtext, Tabellen, Listen oder auch Videos handeln. Ein weiteres Element sind die ähnlichen Fragen, die an verschiedenen Stellen und in unterschiedlicher Anzahl in den SERPs erscheinen können und – wie die Featured Snippets – passende Auszüge von anderen Websites enthalten.

Lokale Suchergebnisse

Bei ortsbezogenen Suchanfragen wie „Friseur Hamburg“, „Rechtsanwalt Köln“ oder „Griechisches Restaurant Berlin“ liefern Google & Co. zusätzlich zu den normalen Suchergebnissen lokale Suchtreffer aus. Google zeigt hierfür über den organischen Treffern das sogenannte „Local Pack“ an. Diese enthält eine Maps-Karte sowie eine Liste mit Unternehmen in der Nähe des gesuchten Ortes, die zur Suchanfrage passen. Neben dem Namen erscheinen im Local Pack Adresse, Öffnungszeiten, Telefonnummer, angebotene Services und Google Bewertungen des jeweiligen Unternehmens, sodass Nutzer direkt Kontakt aufnehmen können.

Hat der Nutzer seinen Standort freigegeben, ziehen die Suchmaschinen die IP zur Lokalisierung heran. In diesem Fall reicht es aus, ein Suchwort wie „Tischlerei“ oder „Pizzeria“ ohne Ort einzugeben, um lokale Suchergebnisse zu erhalten. Die Ergebnisse in den lokalen Suchergebnisse basieren auf kostenlosen Einträgen in die Dienste „Google My Business“, „Bing Places for Business“ und „Apple Maps“. Über diese haben Unternehmen die Möglichkeit, die Darstellung ihres Eintrags anzupassen und zum Beispiel um Fotos oder wichtige Informationen zu ergänzen. Auch das Ranking im Local Pack lässt sich durch Optimierung des Eintrags, das Generieren von Bewertungen und Citations (Erwähnungen) verbessern.

Welche Alternativen zu Google gibt es?

Zu der sehr bekannten Suchmaschine Google hat sich zunächst Yahoo! und Bing als Alternative gebildet. Zwischenzeitlich gab es auch Altavista (geschlossen 2013) und Lycos (noch aktiv, aber in Deutschland inzwischen wenig bekannt). Etwas Aufsehen gab es bei der Einführung von DuckDuckGo, welches eine bessere Privatsphäre versprach und pünktlich zum NSA-Skandal auf der Bildoberfläche erschien. Auch gern genutzt in der sich stets verändernden User-Gemeinde wird Ecosia, eine Suchmaschine, welche bei jeder Suchanfrage einen Baum pflanzt. Ein genauer Blick auf die Alternativen zu Google finden Sie in dem folgenden Erfahrungsbericht verschiedener Suchmaschinen: Jenseits von Google – Alternative Suchmaschinen im Test.

Welche Arten von Suchmaschinen gibt es?

Allgemeine und spezielle Suchmaschinen

Allgemeine Suchmaschinen versuchen, einen möglichst großen Index aufzubauen und in diesem eine interne Ordnung vorzunehmen. Beispiele für solche Suchmaschinen sind Google, Yahoo!, Bing, Baidu oder Yandex. Spezialsuchmaschinen hingegen konzentrieren sich von vornherein auf einen abgegrenzten thematischen Index. So gibt es spezielle Suchmaschinen für bestimmte Themengebiete, wie Steuern, Recht, Medizin oder Sport. Auch die Suchsoftware mancher Bibliotheken gehört zu den speziellen Suchmaschinen, da sie einen exakt definierten Datenbestand haben.

Intranet-Suchmaschinen werden häufig bei Unternehmen und Organisationen eingesetzt. Der Zugriff ist in der Regel beschränkt und die Datenquellen spiegeln interne Server oder Festplatten wider. Desktopsuchmaschinen durchsuchen die Daten eines Rechners (PC oder MAC). Erfahrungsbericht verschiedener Suchmaschinen finden Sie hier: Jenseits von Google – Alternative Suchmaschinen im Test.

Suchmaschinen sind für den Nutzer in der Regel kostenlos. Unternehmen, die für bestimmte Keywords gut platziert sein wollen, es aber nicht sind, können bezahlte, als Werbung markierte Positionierungen kaufen. Bei Google nennt sich dies Google Ads (SEA), bei Bing “Microsoft Advertising”. Andere Suchmaschinen haben vergleichbare Angebote.

Indexbasierte Suchmaschinen

Indexbasierte Suchmaschinen wie Bing und Google greifen bei Suchanfragen auf einen eigenen Suchindex zurück. Diesen bilden die Suchdienste mithilfe sogenannter Web-Crawler (manchmal auch Spider, Suchmaschinen-Bots oder einfach nur Bots genannt). Dabei handelt es sich um automatisierte Programme, die das Web ständig nach neuen Inhalten wie Websites und Bildern durchforsten, eine Kopie von diesen erstellen und sie in die gigantischen Datenbanken der Suchmaschinen einsortieren. Dieser Prozess wird auch als Indexierung bezeichnet. Eine wichtige Maßnahme ist dabei das Kategorisieren der neu entdeckten Inhalte nach zum Beispiel enthaltenen Schlüsselwörtern, Kategorien oder Entitäten. Nur so kann die Suchmaschine bei einer Suche schnell die vom Nutzer gewünschten Inhalte im Index finden.

Der Suchvorgang läuft bei indexbasierten Suchmaschinen in mehreren Schritten ab. Im ersten Schritt versucht die Suchmaschine mithilfe eines Algorithmus zu verstehen, nach welcher Art von Information der Nutzer sucht bzw. was seine Intention ist. Dazu analysiert sie die Bedeutung der Suchwörter und ermittelt, in welcher Sprache diese verfasst sind. Im Anschluss daran gleicht sie die bei der Suche verwendeten Wörter mit dem Suchindex ab und wählt ein Set mit Webseiten aus, die zu der Suchanfrage passen. Im dritten Schritt legt die Suchmaschine mit dem Ranking der Ergebnisse die Reihenfolge fest, in der diese auf den Suchergebnisseiten erscheinen.

Für das Ranking nutzen indexbasierte Suchmaschinen wie Bing und Google einen mathematischen Algorithmus, der die Suchtreffer anhand vieler Kriterien wie zum Beispiel ihrer Link-Popularität (Anzahl eingehender Links auf eine Webseite), den Inhalten oder den technischen Aspekten (Optimierung für Mobilgeräte, Länge der Ladezeit) bewertet. Die meisten dieser Rankingkriterien sind ebenso wie ihre Gewichtung ein gut gehütetes Geheimnis der Suchmaschinen, um sich vor Manipulation und Suchmaschinenspam zu schützen.

GOOGLE

indexbasierte-suchmaschine-google-logo-png

Google ist die bekannteste und mit einem Marktanteil von derzeit über 90 Prozent auch die mit Abstand meistgenutzte Suchmaschine mit eigenem Index in Europa und den USA. Entwickelt wurde der Suchdienst im Jahr 1997 von den beiden damaligen Informatik-Studenten Larry Page und Sergey Brin. Als Basis diente der zuvor von Page und Brin an der Standford Universität entwickelte Suchdienst „BackRub“.

Die Besonderheit von Google war bzw. ist der sogenannte PageRank-Algorithmus. Dieser bewertet die Dokumente im Suchindex anhand der Anzahl und Qualität der Links, die von externen Webseiten auf sie gesetzt sind, auf einer Skala von 0 bis 10. Hier galt lange: Je mehr Links eine Seite bzw. ein Dokument auf sich vereint, desto wichtiger ist es in den Augen von Google und umso besser wird es in den SERPs gelistet. Durch die hohe Anfälligkeit für Manipulation und den florierenden Handel mit PageRank-Links hat der Algorithmus jedoch an Bedeutung für das Ranking verloren. Hinzu kommt, dass Google den früher für Website-Betreiber über Browser-AddOns und Tools sichtbaren PageRank abgestellt hat. Somit lässt sich nicht mehr nachvollziehen, welchen internen PageRank eine Seite im Google-Index hat.

Mittlerweile setzt Google beim Ranking seiner Websites auf eine Vielzahl unterschiedlicher Rankingkriterien, die von Website-Betreibern und SEOs weniger leicht beeinflussbar sind und somit einer Manipulation des Suchindex und der SERPs vorbeugen sollen. Darüber hinaus führt Google regelmäßig Updates am Algorithmus durch. Für ihre großen Auswirkungen auf den Suchindex und somit das Ranking von Websites bekannt sind zum Beispiel Updates wie „Google Panda“, das Websites mit dünnen Inhalten und minderer Qualität schlechter listen soll, oder auch „Google Penguin“, das sich gezielt gegen überoptimierte Websites richtet.

Statt bei einer Suche nur Ergebnisse in Form einer Liste mit Snippets aus Hyperlinks auszugeben, entwickelte sich Google immer mehr zur Antwortmaschine. Hierfür setzt die Suchmaschine unter anderem auf den Knowledge-Graph. Mit diesem versucht der Suchdienst, die Intention hinter Suchanfragen zu verstehen und die gewünschten Inhalte oder Antworten schon innerhalb der Suche zu präsentieren. Dabei kann es sich um lokale Suchergebnisse wie Restaurants in der Nähe handeln, aber auch um die Namen der Schauspieler eines Films oder die Inhaltsstoffe eines Lebensmittels.

BING

indexbasierte-suchmaschine-bing-logo-png

Nach Google ist Bing die am häufigsten genutzte Suchmaschine weltweit. Obwohl sie durch ihre späte Veröffentlichung im Jahr 2009 noch recht jung ist, liegt ihr Anteil am Suchmarkt in Deutschland bei ganzen 4 Prozent, international bei 2,6 Prozent.

Microsoft, das Unternehmen hinter Bing, möchte den Nutzern den Entscheidungsprozess erleichtern. Ähnlich der Google-Funktion “Auf gut Glück!” verfügt Bing über die Funktion “Bing & decide”, die dabei helfen soll, den heutigen Informationsüberfluss zu begrenzen und dem Nutzer so eine besser durchdachte, auf das Wesentliche konzentrierte Entscheidung zu ermöglichen.

ASK

indexbasierte-suchmaschine-ask-logo-png

Die Suchmaschine Ask gibt es bereits seit 1996 und sie zeichnete sich durch das “Frage-Antwort-Prinzip” in ganzen Sätzen aus. Trotz eigenem Index und Webcrawler war sie nicht so erfolgreich, wie ursprünglich erhofft. Der Marktanteil in den USA lag 2016 nur bei 1,4 Prozent mit fallender Tendenz.

Das “Frage-Antwort-Prinzip”, ursprünglich das Alleinstellungsmerkmal, wurde mit der Zeit beinahe eliminiert und an Google angepasst. Nachdem aber Google auch die Antworten in vollständigen Sätzen anbot, wurde Ask noch weiter an den Rand der Suchmaschinenstatistiken gedrängt. Die SERPs werden nun in klassischer Listenansicht dargestellt.

YANDEX

indexbasierte-suchmaschine-yandex-logo-png

Bei Yandex handelt es sich um eine Suchmaschine, die in kyrillischer Sprache agiert. Hinter der Suchmaschine steht ein gleichnamiges Unternehmen mit Sitz in Moskau und Amsterdam, das bereits 1997 gegründet wurde und eine Vielzahl von Leistungen anbietet, wobei es aber besonders durch die Suchmaschine Bekanntheit erlangte. Es dominiert den russischen Markt bezüglich der Internetsuche mit 60 Prozent. Auch andere Länder Osteuropas greifen oft auf Yandex als präferierte Suchmaschine zurück. Yandex bietet neben der Funktion als Suchmaschine auch zahlreiche weitere Services an, darunter den Yandex Browser, Yandex Translate, Yandex Maps, Yandex Mail sowie Clouddienste und einen App Store.

BAIDU

indexbasierte-suchmaschine-baidu-logo-png

Was Google für Deutschland ist, ist Baidu für China. Diese Suchmaschine existiert seit dem Jahr 2000 und zeichnet sich unter anderem dadurch aus, dass sie nur auf Mandarin verfügbar ist. Neben der klassischen Suche verfügt Baidu auch über eine Enzyklopädie, ähnlich Wikipedia, und ist durchaus in einigen Aspekten vergleichbar mit Google, sei es durch Tools wie Baidu Maps, Baidu News oder Baidu Tieba. Auf dem chinesischen Markt hat Google weniger Erfolg als in anderen Ländern, was größtenteils an der Sprachbarriere, aber auch der Zensur liegt. Die Entwickler in Peking erkannten frühzeitig die Notwendigkeit einer Suchmaschine in ihrer Muttersprache, was dazu führte, dass Baidu in China einen Marktanteil von mehr als 70 Prozent hat und damit unangefochten die Nummer 1 der im China verwendeten Suchmaschinen darstellt.

SOGOU

indexbasierte-suchmaschine-sogou-logo-png

Sogou ist die zweitgrößte Suchmaschine, die den chinesischen Markt beherrscht, insbesondere im Bereich der mobilen Anwendungen. Warum? Weil sie als Standard-Suchmaschine in den bekanntesten chinesischen Kommunikationsplattformen hinterlegt ist, nämlich WeChat und QQ.

Außerdem besteht eine Zusammenarbeit zwischen Sogou und dem Wissensforum Zhihu, was die Reichweite dieser Suchmaschine noch verstärkt.

Der Sogou Ranking Index präsentiert dem Nutzer ein übersichtliches SERP Layout, zumal Sogou Widgets, Produktbilder und Links dank des individuellen Algorithmus selbst gestalten kann. Kleine Unternehmen und Marken können dadurch schneller sichtbar werden und steigern damit ihre Chance auf Erfolg auf dem chinesischen Markt.

DUCKDUCKGO

indexbasierte-suchmaschine-duckduckgo-logo-png

DuckDuckGo nimmt zwar international nur einen sehr kleinen Marktanteil von 0,54 Prozent ein, doch hat einen entscheidenden Vorteil gegenüber anderen Suchmaschinen, der sehr viel Sympathie beschert: DuckDuckGo speichert keine personenbezogenen Nutzerdaten. Das Image dieser Suchmaschine ist damit äußerst positiv, insbesondere nach diversen Datenlecks der Konkurrenz und dem Prozess um Edward Snowden.

QWANT

indexbasierte-suchmaschine-qwant-logo-png

Bei Qwant handelt es sich um eine französisch-deutsche Suchmaschine, die sich auf den strikten Schutz der Privatsphäre von Nutzern konzentriert sowie die Anzeige von gewaltfreien Suchergebnissen zum Schutz der Kinder. Das Unternehmen sieht es als seine Mission an, eine ernsthafte Alternative zum dominierenden Marktführer zu verkörpern statt eine schlechtere Kopie von diesem.

Qwant verzichtet auf Cookies, Tracking sowie die Aufzeichnung jeglicher Art von personenbezogenen Daten, wodurch die Reihenfolge der Suchergebnisse neutral erfolgt und nicht abhängig vom Nutzerprofil. Die Suchmaschine möchten damit das Vertrauen der Nutzer gewinnen und stärken. Seit 2013 steht Qwant dem Nutzer zur Verfügung und ist heute in 13 Sprachen und in 35 Ländern zugänglich.

Besonders interessant für Eltern dürfte Qwant Junior sein, der kindgerechte Ableger von Qwant. Hier werden gewaltbetonte und sexuelle Inhalte von Vornherein nicht in den Suchergebnissen angezeigt. Seiten, die solche Inhalte verbreiten und unterstützen, werden von dieser Suchmaschine gesperrt. Qwant Junior hat daher durchaus bemerkenswerte Vorteile, durch die endlich eine kinderfreundliche Onlineumgebung entstehen kann.

FASTBOT

indexbasierte-suchmaschine-fastbot-logo-png

Diese deutsche Suchmaschine, entwickelt in Hamburg von der Agentur Pagedesign, war weltweit die erste Suchmaschine, die über eine Sprachausgabe verfügte.

Fastbot dokumentiert die gestellten Nutzeranfragen und konstruiert daraufhin anonyme Nutzerprofile. Dank der Profile können die Suchergebnisse priorisiert werden, die am ehesten dem Profil des Nutzers entsprechen. Die Basis dafür ist ein Datenbanksystem, welches Kategorien für die besuchten Websites aufstellt und diese dem Nutzerprofil zuordnet, um später möglichst individuell passende Informationen auszugeben.

MOJEEK

indexbasierte-suchmaschine-mojeek-logo-png

Mojeek ist eine Suchmaschine, die in Großbritannien entwickelt wurde. Auch Mojeek legt besonderen Wert auf die Privatsphäre der Nutzer, weshalb keinerlei Tracking-Maßnahmen verwendet werden.

BRAVESEARCH

indexbasierte-suchmaschine-bravesearch-logo-png

Bei Bravesearch handelt es sich um eine amerikanische Suchmaschine, die von Browserhersteller Brave Software Inc. entwickelt wurde. Tracking und Werbung werden hier rigoros abgelehnt mit dem Ziel, die Privatsphäre der Nutzer zu schützen. Brave nutzt zudem einen eigenen Index zur Ausgabe der Suchergebnisse.

Da Brave noch recht neu auf dem Markt ist, ist es derzeit nur in englischer Sprache verfügbar. Dafür können Nutzer die Suchmaschine sowohl am Desktop als auch in einer mobilen Variante benutzen.

SEARCH.CH

indexbasierte-suchmaschine-search-ch-logo-png

Search.ch ist eine Suchmaschine, die speziell für die Schweiz entwickelt wurde. So enthält sie ein Telefonbuch, in dem die Nummern schweizerischer Bürger, Ämter und Firmen aufgelistet sind, eine Wetterkarte für die 27 Kantone inklusive Schneevorhersagen für Wintersport, einen Routenplaner für Fahrten durch das Land, alle Fahrpläne des Schweizer ÖPNV sowie das aktuelle Kino- und Fernsehprogramm.

Die Suchmaschine Search.ch ist sowohl als Desktop-Version als auch in einer mobilen Variante verfügbar, wobei besonders die mobile Variante statistisch gesehen sehr erfolgreich ist.

NONA

indexbasierte-suchmaschine-nona-logo-png

Die deutsche Suchmaschine Nona wurde in Köln entwickelt und zeichnet sich besonders dadurch aus, dass sie großen Wert auf Datenschutz sowie den Schutz der Privatsphäre legt. Außerdem verzichtet sie auf Werbeanzeigen und verfügt über ein sehr nutzerfreundliches, übersichtliches Layout.

Der effektive Datenschutz ist allerdings nicht gratis: Nach 3 kostenlosen Testmonaten werden 2 Euro pro Monat fällig, um Nona weiterhin nutzen zu können.

ALTAVISTA

indexbasierte-suchmaschine-altavista-logo-png

Altavista war eine Suchmaschine, die von 1995 bis 2013 verfügbar war. Dabei war sie zu Beginn wirklich erfolgreich, da sie bis 1999 die populärste Volltext-Suchmaschine war und entsprechend häufig genutzt wurde. Mit dem beginnenden Siegeszug von Google wurde es für Altavista jedoch zunehmend schwerer, sich zu behaupten.

Im Jahr 2000 entwickelte Altavista eine weitere Suchmaschine, Raging Search. Hier wurde ein Algorithmus angewandt, der Google ähnelte, doch der Erfolg war nur mäßig. Altavista gehörte seit 2003 zu Yahoo, das 7 Jahre später beschloss, diesen Suchdienst einzustellen.

EXALEAD

indexbasierte-suchmaschine-exalead-logo-png

Exalead ist eine französische Suchmaschine, die seit 2000 online verfügbar ist. Sie ist Teil von Quaero, einem Forschungsprojekt zur Funktion von Suchmaschinen. Das deutsch-französische Projekt lief von 2005 bis 2013 und hatte es sich zum Ziel gesetzt, die Dominanz der englischen Sprache im Internet zu minimieren. Insbesondere sollte Exalead eine Alternative zur Google Book Search darstellen.

Seit 2010 ist Exalead in das französische Softwareentwicklungsunternehmen Dassault Systèmes integriert und bis heute als Suchmaschine verfügbar. Exalead überzeugt durch ein übersichtliches Suchinterface, zumal die direkte Suche in Wikipedia durchaus seine Vorteile hat.

Allerdings verfügt diese französische Suchmaschine über sehr wenige indexierte Seiten und eine Bilder- oder Videosuche ist auch nicht möglich.

GIGABLAST

indexbasierte-suchmaschine-gigablast-logo-png

Gigablast ist eine amerikanische Open Source- Suchmaschine, die 2000 in New Mexico entwickelt wurde. Laut dem Unternehmen selbst sind sie einer der Vorreiter für saubere Energie: 90 Prozent der notwendigen Energieressourcen stammen aus der Windenergie. Gigablast ist unabhängig und keiner anderen Firma unterstellt.

Gigablast verfügt über ein übersichtliches Interface, eine Blog-Suchfunktion und ist zahlreichen Sprachen zugänglich.

TIGER.CH

indexbasierte-suchmaschine-tiger-ch-logo-png

Tiger.ch ist eine neue Suchmaschine aus der Schweiz. Sie ist seit 2016 online und laut eigener Aussage gänzlich unabhängig von Google. Wie das geht? Indem Tiger.ch selbst indexiert, und das mit einer Geschwindigkeit von etwa 2 Millionen Websites pro Tag. Außerdem ist diese Suchmaschine anonym und verweigert die Sammlung von Nutzerdaten, was der Privatsphäre der Nutzer zugutekommt.

Meta-Suchmaschinen

Meta-Suchmaschinen verfügen im Gegensatz zu indexbasierten Suchmaschinen in der Regel über keinen eigenen Suchindex. Stattdessen leiten sie Suchanfragen von Nutzern im Hintergrund (meist über eine API) an originäre Suchmaschinen wie Bing oder Google weiter. Die Suche bei einer Meta-Suchmaschine dauert dadurch etwas länger, da sie auf die Suchtreffer aller abgefragten Suchdienste warten muss. Diese werden anschließend im Hintergrund gesammelt und vor ihrer endgültigen Ausgabe in den SERPs von doppelten Treffern und ggf. unerwünschten Inhalten bereinigt. In welcher Reihenfolge die Suchergebnisse ausgegeben werden bzw. nach welchen Kriterien das Ranking der Treffer erfolgt, legt die Meta-Suchmaschine selbst fest.

Keine der indexbasierten Suchmaschinen wie Bing oder Google ist derzeit in der Lage, das gesamte Internet zu erfassen und in den Suchergebnissen abzubilden. Bei der Recherche zu einem Thema ist es daher von Vorteil, eine Meta-Suchmaschine zu nutzen und so die Datenbanken mehrerer Suchdienste parallel abzufragen. Anbieter wie die deutsche Meta-Suchmaschine MetaGer bieten Nutzern hierzu die Option, in den Sucheinstellungen einzelne Suchdienste in die Suche einzubeziehen oder sie abzuwählen und so explizit davon auszuschließen.

Mit einer Metasuche können sich Nutzer ein vollständigeres Bild zu einem Thema verschaffen und Inhalte entdecken, die ihre gewohnte Suchmaschine möglicherweise nicht kennt oder die sehr weit hinten in den SERPs gelistet sind und ihnen dadurch verbogen bleiben. Zudem bietet die Nutzung einer Meta-Suchmaschine gerade bei intensiven Recherchen eine große Zeitersparnis, da nicht jeder Suchdienst einzeln aufgerufen und die Suchanfrage neu gestellt werden muss.

Ein häufiger Kritikpunkt bei Meta-Suchmaschinen ist, dass bei einer Suchanfrage nicht die gleichen Suchoptionen wie bei der originären Suchmaschine zur Verfügung stehen. Die Ergebnisse lassen sich so eventuell nicht in dem gleichen Umfang filtern, wie es bei einer direkten Suche bei Bing, Google & Co. der Fall wäre. Darüber hinaus bereitet es einigen Meta-Suchdiensten nach wie vor Probleme, die Syntax von sehr komplexen Suchanfragen für jede Ziel-Suchmaschine korrekt zu übersetzen. Die Dauer einer Suchanfrage fällt hingegen bei den meisten Meta-Suchdiensten dank technischer Weiterentwicklungen nicht mehr negativ auf.

METAGER

meta-suchmaschine-metager-logo-png

MetaGer (Meta für Meta-Suche, Ger für Deutschland) ist die dienstälteste und technisch ausgereifteste Meta-Suchmaschine im deutschsprachigen Raum. Der Suchdienst wurde 1996 vom Regionalen Rechenzentrum Niedersachsen (RRZN) der Leibniz Universität in Hannover entwickelt. Zur damaligen Zeit entstanden gerade mit Altavista, Hotbot, Infoseek, Lycos & Co. die ersten indexbasierten Suchmaschinen, die jedoch jeweils nur einen kleinen Teil des Internets abbildeten. Wollten sich Nutzer zu einem Thema umfassender informieren, blieb ihnen nichts anderes übrig, als alle Suchdienste nacheinander abzufragen. Dies wollte MetaGer mit seiner Meta-Suche vereinfachen. Mit einer auf Basis der Programmiersprache Perl selbstentwickelten Software schuf MetaGer die Möglichkeit, eine Suchanfrage gleichzeitig an mehrere Suchmaschinen zu stellen. Die Ergebnisse speicherte MetaGer ab, fasste sie zusammen und gab sie nach eigenen Rankingkriterien sortiert aus. Zeitweise konnten Nutzer auf diese Weise bis zu 50 Suchdienste gleichzeitig durchsuchen.

Heute (Stand 05/2022) ist die Websuche von MetaGer auf die Suchmaschinen Bing, Yahoo, Yandex und Scopia beschränkt. Direkt von Google stammende Ergebnisse liefert die Meta-Suchmaschine nicht, da der Suchmaschinenbetreiber Nutzern seiner API nicht gestattet, das Ranking der Ergebnisse zu verändern. Darüber hinaus bietet MetaGer Nutzern die Möglichkeit, nach Bildern, wissenschaftlichen Artikeln, News und Produkten zu suchen. Hierzu greift MetaGer unter anderem auf die Daten von Diensten wie Ebay, Bing Bilder, BASE, TUBdok, OneNewspage und Netluchs zu.

Nutzer der MetaGer-Suche können in den SERPs auf einen Blick erkennen, aus welcher Quelle ein bestimmtes Ergebnis stammt und die Zielseite wahlweise normal oder anonym über einen Proxy von MetaGer öffnen. Letzterer schützt die Identität des Nutzers, indem er sämtliche Informationen wie die IP-Adresse oder die Herkunft anonymisiert. Seit 2012 ist die Meta-Suchmaschine Teil des gemeinnützigen Vereins SUMA-EV, der sich für einen freien Wissenszugang einsetzt und MetaGer in Kooperation mit dem ursprünglichen Betreiber, der Universität Hannover, fortführt.

T-ONLINE

meta-suchmaschine-t-online-logo-png

Durch seine hohe Anzahl an Kunden für DSL-Leistungen wies der im September 1995 gegründete Internet-Schauplatz der Deutschen Telekom, “t-online.de”, stets ein großes Volumen an Nutzern auf und galt zwischenzeitlich als eine der meistbesuchten Webseiten in Deutschland. Mittlerweile, seit im November 2015, gehört die Internetseite zur Ströer Digital Publishing GmbH. Die Ergebnisse der Suche innerhalb von t-online werden von der Meta-Suchmaschine Google bereitgestellt.

WEB

meta-suchmaschine-web-de-logo-png

Das durch seine Gratis-E-Mail-Dienste bekannte Internet-Portal “web.de” wurde im Jahr 1995 ins Leben gerufen und weist dank seiner kostenlosen Dienste und Nachrichten-Updates nach wie vor eine hohe Beliebtheit in Deutschland auf. Ähnlich wie die Suchmaschine von t-online bietet auch diese Webseite eine Suchfunktion an. Die Seite wurde zwischenzeitlich von der 1&1 Mail & Media GmbH, bekannt als “1&1” aufgekauft. Die Suchergebnisse werden von Google bereitgestellt.

AOL

meta-suchmaschine-aol-logo-png

AOL wurde 1985 unter dem Namen “Quantum Computer Services” ins Leben gerufen. Im Jahr 1988 änderte sich der Name in das heute bekannte AOL (America Online). AOL stellte seinen Nutzern anfänglich nur den Zugang zum Internet, im weiteren Verlauf kam eine eigene Suchmaschine hinzu. AOL wurde in den Anfängen durch die “AOL-CDs” mit Freiminuten für das Internet bekannt. Die CDs erfreuten sich so starker Beliebtheit, dass es in Amerika eine Gegen-Kampagne gab. Im Moment arbeitet die AOL-Suchmaschine mit der Bing-Technologie für die Bereitstellung von Suchergebnissen.

DOGPILE

meta-suchmaschine-dogpile-logo-png

Die Meta-Suchmaschine Dogpile nahm ihren Betrieb genau wie die Anbieter “web.de” und “t-online.de” im Jahr 1995 auf. Die Suchmaschine von Dogpile fasst die Suchergebnisse von bekannten Suchmaschinen wie Google, Bing und Yandex zusammen. Über die gängige Website-Suche hinausgehend kann in der Suchmaschine von Dogpile nach Bildern, Videos, Shopping-Ergebnissen sowie Nachrichten gesucht werden.

METACRAWLER

meta-suchmaschine-metacrawler-logo-png

Die Suchmaschine MetaCrawler nimmt unter den Meta-Suchmaschinen einen besonderen Platz ein, denn sie war die weltweit erste Meta-Suchmaschine überhaupt. Die Suchmaschine von MetaCrawler startete ihren Dienst im am 07.07.1995. Die Suchergebnisse von MetaCrawler fassen die Ergebnisse aus dem World Wide Web, Videos, Bilder sowie News zusammen.

LEXIQUO

LexiQuo stellt seinen Nutzern eine Suche mit integrierter linguistischer Analyse bereit. Den Nutzern wird hierbei die Auswahl verschiedener Suchmaschinen wie unter anderem Google, Bing und Wikipedia zur Verfügung gestellt. Ebenfalls kann auf die Suchergebnisse des französischen Suchmaschinen-Anbieters “Qwant” zurückgegriffen werden. Gemäß den Nutzerrichtlinien von LexiQuo werden durch die Nutzung der Suchmaschine keinerlei persönliche Daten im Rahmen von Suchen gespeichert und der Dienst kann gänzlich anonym verwendet werden.

IXQUICK

meta-suchmaschine-ixquick-logo-png

Die Meta-Suchmaschine IxQuick wurde im Jahre 1998 gegründet und hat sich im Jahre 2006 dem absoluten Datenschutz seiner User verschrieben. Im Jahr 2016 wurden IxQuick und Startpage zu einer gemeinsamen “Datenschutz-Suchmaschine” zusammengefasst. Startpage gilt laut Website als die diskreteste Suchmaschine im World Wide Web.

GMX

Die im Jahr 1997 ins Leben gerufene E-Mail-Anbieter-Seite “GMX.net” greift für seine Suchergebnisse ebenfalls auf die Ergebnisse aus der Meta-Suchmaschine Google zurück. Genau wie auch die E-Mail-Anbieter-Seite “Web.de” wurde die Seite von der 1&1 Mail & Media GmbH aufgekauft.

OSCOBO

meta-suchmaschine-oscobo-logo-png

Oscobo ist eine britische Suchmaschine und brüstet sich ähnlich wie StartPage mit einem besonders hohen Datenschutz ihrer Nutzer. Laut der Website werden keinerlei personenbezogenen Daten im Rahmen der Nutzung der Suchmaschine erhoben oder gar mit anderen geteilt. Anstatt Werbung auf Basis personenbezogener Interessen auszuspielen, werden dem Nutzer Werbeanzeigen anhand des eingetippten Suchbegriffs ausgespielt. Die Suchergebnisse der britischen Suchmaschine werden von Bing bereitgestellt. Die Suchmaschine wird vorwiegend von englischen Usern verwendet.

Proxy-Suchmaschinen

Proxy-Suchmaschinen verfügen über keinen eigenen Suchindex, aus dem sie Suchanfragen bedienen. Stattdessen leiten sie Suchen von Nutzern im Hintergrund an eine originäre, indexbasierte Suchmaschine weiter und stellen die Ergebnisse auf ihrer eigenen Seite dar. Die Gründe, warum Proxy-Suchdienste wie „AOL“, „Ecosia“, „Fireball“, „Lycos“ oder „Yahoo!“ auf einen eigenen Index verzichten und stattdessen auf die Technologie anderer Suchmaschinen zurückgreifen, sind unterschiedlich. Ein häufiger Grund ist, dass die Plattformen anderweitig spezialisiert sind und die Suchfunktion nur als ergänzendes Angebot anbieten oder sich, wie die nachhaltige Proxy-Suchmaschine Ecosia, die Ergebnisse von Microsofts Bing ausliefert, mit den Einnahmen aus Suchanzeigen für den Umweltschutz engagieren.

In anderen Fällen wie bei AOL, Fireball, Lycos oder Yahoo!, sind die seit dem Dotcom-Boom zu Beginn der 2000er-Jahre zurückgegangenen Nutzerzahlen der Grund, warum die einst eigene Suchtechnologie gegen eine Proxy-Suche ersetzt wurde. Auf diese Weise kann verbliebenen Nutzern, die zum Beispiel noch andere Dienste wie E-Mail nutzen, weiterhin eine Suchfunktion angeboten werden, die über die innerhalb der SERPs geschalteten Suchanzeigen Einnahmen generiert.

YAHOO

proxy-suchmaschine-yahoo-logo-png

Das 1994 von den Informatik-Studenten Jerry Yang und David Filo gegründete Yahoo! startete ursprünglich als Web-Directory auf den Servern der Universität Stanford. In dem auch als „Yahoo! Directory“ bekannten Web-Katalog listeten die beiden Gründer zunächst nur Websites auf, die sie selbst gerne nutzten oder als hilfreich ansahen. Später konnten auch andere Nutzer Websites für den Katalog vorschlagen. Ein Jahr später, 1995, führte Yahoo! eine Suchfunktion ein, mit der Nutzer jedoch zunächst nur den Katalog durchsuchen konnten. Erst im Jahr 2000 bot Yahoo! eine Websuche an, deren Ergebnisse jedoch vom Mitbewerber Google geliefert wurden.

Im Hintergrund arbeitete Yahoo! mit Hochdruck daran, eine eigene Websuche auf die Beine zu stellen. 2002 kaufte das Unternehmen für diesen Zweck Softwareentwickler „Inktomi“ und kurz darauf den Advertising-Experten „Overture Services Inc.“, zu dem auch die Suchmaschinen „AltaVista“ und „AlltheWeb“ gehörten. Mit diesem Know-how entwickelte Yahoo! eine eigene indexbasierte Websuche, die 2004 als „Yahoo! Search“ an den Start ging. Den kometenhaften Aufstieg von Google konnte man damit jedoch nicht aufhalten. Im Gegenteil: Mit dem Umstieg von Google auf die eigene Suche sank der Marktanteil von Yahoo! konstant. 2009, bei einem Marktanteil von 8 Prozent, gab Yahoo! seine Suchmaschinenambitionen schließlich auf und ging mit dem Mitbewerber Microsoft eine Allianz ein. Im Rahmen der Kooperation stampfte Yahoo! seine eigene Suchtechnologie ein und fungierte fortan als Proxy-Suchmaschine mit Suchergebnissen von Bing. Ziel des Deals war es, durch den Zusammenschluss der hinsichtlich ihres Marktanteils auf Platz zwei und drei liegenden Suchen dem Marktführer Google Paroli bieten zu können. Das ist jedoch bis heute nicht gelungen.

STARTPAGE

proxy-suchmaschine-startpage-logo-png

Die Suchergebnisse von Startpage werden aus einer Kombination aus Google-Ergebnissen und einem besonderen Privatsphären-Schutz geliefert. Infolgedessen werden keine Nutzerdaten abgespeichert und somit auch nicht an Werbekunden verkauft. Im Rahmen von allgemeinen und unabhängigen Suchen kann Startpage verwendet werden, um die Filterblase (personalisierte Suche) von Google zu umgehen. Seinen Sitz hat das Suchmaschinen-Unternehmen in den Niederlanden.

DISCONNECT SEARCH

proxy-suchmaschine-disconnect-search-logo-png

Die Suchmaschine von Disconnect startete ihren Dienst im Jahre 2011. Das vorrangige Ziel von Disconnect ist der absolute Schutz der Privatsphäre von Menschen, welche im Internet suchen. Neben der Suchmaschine bietet Disconnect verschiedene Produkte an, darunter eine VPN-Software, um ihr primäres Ziel zu untermauern. Unter Einhaltung des bedingungslosen Schutzes persönlicher Daten können User im Rahmen der Suche auf Disconnect zwischen den zwei bekannten Suchmaschinen “Bing” und “DuckDuckGo” auswählen.

FIREBALL

proxy-suchmaschine-fireball-logo-png

FireBall stellt die erste deutschsprachige Suchmaschine dar, welche im Jahre 1996 in der Technischen Universität Berlin vom Fachbereich Informatik entwickelt wurde. Im Laufe der Zeit gingen die Entwickler zahlreiche Kooperationen ein, unter anderem mit den Suchmaschinen Google, Yahoo wie auch Altavista. Im Jahr 2000 verzeichnete FireBall in Deutschland einen Marktanteil von satten 22 Prozent, welcher jedoch anschließend im weiter abnahm, da ein der Großteil der Nutzer zum Klassiker Google wechselte. Im Jahre 2001 lag der prozentuale Marktanteil dann bei rund 10 Prozent und bis im Jahre 2005 sank der Anteil auf unter 0.5 Prozent. Die Nutzerzahlen der Fireball Suchmaschine sind im direkten Vergleich zu den Big Players wie Google und Yahoo heute sehr gering.

ECOSIA

proxy-suchmaschine-ecosia-logo-png

Die Ecosia GmbH mit Sitz in Berlin wurde am 07.12.2009 gegründet. Die Ergebnisse in der Suche von Ecosia werden von Bing bereitgestellt. Gemäß der Ecosia Privacy werden im Rahmen der Suchen keine persönlichen Daten gespeichert. Die Einnahmen aus Werbeanzeigen werden von Ecosia dafür genutzt, neue Bäume zu pflanzen. Laut eigener Aussage konnte Ecosia mittlerweile mehr als 141 Millionen Bäume pflanzen lassen, wobei die Zahl im Minutentakt wächst. Laut eines Auszugs von Wikipedia fließen rund 80 Prozent des Einnahmenüberschusses in Projekte von Naturschutzorganisationen und werden gespendet.

GEXSI

proxy-suchmaschine-gexsi-logo-png

Gexsi ist eine im Jahr 2018 ins Leben gerufene Suchmaschine mit deutscher Herkunft. Auf den ersten Blick erinnert die Suchmaschine an Google – Die übersichtlichen Ergebnisse und die gängige Form von Werbeanzeigen lässt auf eine simple Alternative schließen. Doch das stimmt nicht ganz. Gexsi weist keinen eigenen Katalog für Suchen auf, sondern greift bei der Auslieferung von Suchergebnissen auf die Ergebnisse von Google und Bing zurück. Mit den Einnahmen aus Werbeanzeigen werden gemeinnützige und nachhaltige Projekte auf der ganzen Welt finanziert und unterstützt.

SWISSCOWS

proxy-suchmaschine-swisscows-logo-png

SwissCows stellt eine Suchmaschine der Schweizer Hulbee AG dar. Der Fokus des Unternehmens liegt auf dem Datenschutz ihrer Nutzer, dem Jugendschutzfilter sowie der semantischen Suche als solche. Über die gängigen Suchergebnisse hinaus probiert die Suchmaschine bei einer Suchanfrage, weitere relevante Suchbegriffe in Form einer Schlagwörter-Bubble auszuspielen. Neben der normalen Website-Suche kann in der Suche von SwissCows zudem nach Bildern, Videos, Produkten sowie Musik gesucht werden.

AUSTRONAUT

proxy-suchmaschine-austronaut-logo-png

Austronaut.at galt in den Anfängen des Internets als die größte Suchmaschine im World Wide Web. Sie wurde jedoch nach und nach von den heutigen Platzhirschen vom Markt verdrängt. Heute steht diese österreichische Website als Spar-Suchmaschine und als Vergleichsportal für Tarife jeglicher Art zur Verfügung. Ziel der Betreiber ist es, vorrangig den Usern in Österreich eine Suchmaschine zur Verfügung zu stellen, in welcher alle möglichen Einsparungsmöglichkeiten wie beispielsweise Internet-Tarife, Mobilfunk-Tarife, Breitbandinternet uvm. auf einen Blick zu finden sind. Von Aktionen im nächsten Supermarkt über Auto-Versicherungen bis hin zu Rabatt-Codes in Online-Shops verspricht die Suchmaschine, das beste Angebot zu finden.

Semantische Suchmaschinen

Anders als rein keywordbasierte Suchdienste, die Wörter einer Suchanfrage lediglich mit dem vorkommenden Text auf einer Website abgleichen, versuchen semantische Suchmaschinen, die inhaltliche Bedeutung einer Suchanfrage zu verstehen und bereits innerhalb der Suche eine Lösung zu präsentieren. Dazu berücksichtigen semantische Suchmaschinen unter anderem die Beziehungen zwischen Entitäten. Dabei kann es sich um Objekte aus der realen Welt handeln wie Orte, Personen oder Produkte, doch genauso können abstrakte Dinge im Fokus stehen. Allen Entitäten gemein ist, dass sie einzigartig sind und sich dadurch eindeutig identifizieren lassen.

Semantische Suchmaschinen ermöglichen es den Nutzern, ihre Suchanfragen in natürlicher Sprache zu stellen. Beispiel: Die Suchanfrage „Position der ISS“ bei der semantischen Suchmaschine „WolframAlpha“ liefert als Antwort eine Weltkarte, auf der die gegenwärtige Position der Weltraumstation ISS eingezeichnet ist sowie die aktuellen Koordinaten.

Auch Suchmaschinen-Marktführer Google hat in den letzten Jahren mit Updates wie „Hummingbird“, dem „Knowledge Graph“, „Rankbrain“ und „BERT“ verstärkt in die semantische Suchfunktion investiert und ist in der Lage, die Suchintention von Nutzern zu verstehen, Zusammenhänge zwischen Entitäten zu erkennen und zu vielen Anfragen bereits innerhalb der SERPs Ergebnisse zu liefern. Beispiel: Zu der Suchanfrage „Final Countdown Interpret“ liefert Google als korrekte Antwort noch über den organischen Suchergebnissen „Europe“ inklusive einiger Bilder und Informationen zu der Band. Ein weiteres Beispiel: Bei der Suchanfrage „Hat eine Pizza viel Fett?“ liefert die Google-Suche über den organischen Treffern eine Box mit dem durchschnittlichen Fettgehalt einer Pizza pro 100 Gramm.

WOLFRAMALPHA

semantische-suchmaschine-wolframalpha-logo-png

Wolfram Alpha (auch: Wolfram|Alpha) ist eine von dem britischen Physiker, Informatiker und Mathematiker Stephan Wolfram entwickelte Suchmaschine, die auf die semantische Suche spezialisiert ist. Wolfram bezeichnet den Suchdienst auch als „computational knowledge engine“, was übersetzt „rechenbasierte Wissensmaschine” bedeutet. Das beschreibt die Funktion von Wolfram Alpha sehr treffend, denn statt einer Liste mit Suchergebnissen und Hyperlinks, wie sie Bing, Google und andere Suchdienste auf eine Suchanfrage liefern, versucht Wolfram Alpha, die Antwort in Form von aufbereiteten Bildern, Listen, Grafiken oder Karten zu geben.

Ein Beispiel: Bei der Suche nach „Apple“ versteht Wolfram Alpha, dass sowohl das Unternehmen als auch das Obst gemeint sein kann. Bei der Suche nach dem Obst liefert die Suche bei Wolfram Alpha als Ergebnis eine ausführliche Nährwerttabelle, einen Vergleich der in Äpfeln enthaltenen Fructose und Ballaststoffe mit anderen Lebensmitteln, eine Übersicht der Kalorien und weitere Informationen wie die Dichte, das Gewicht oder auch das Volumen von Äpfeln.

Der Ansatz der Suchmaschine ist also wissenschaftlicher Natur. Dazu passt auch, dass Wolfram Alpha keine Anzeigen oder Werbung in anderer Form einbindet. Zudem bietet die Suche noch eine Reihe weiterer Funktionen, die wissenschaftlichen Zwecken dienen, etwa sehr komplexe Rechenoperationen. Auch Bild- und Dateianalysen oder sehr ausführliche Vergleiche (z. B. „Apple vs. Pear“ oder „Superman vs. Spiderman“) sind mit dem einst von den Medien als „Google-Killer“ gehandelten semantischen Suchdienst möglich.

GOPUBMED

GoPubMed gilt als wissensbasierte Suchmaschine für Texte zum Thema Biomedizin. Die Gene Ontology war als Inhaltsverzeichnis genutzt worden, um die siebenstellige Anzahl an Artikeln der Datenbank MEDLINE übersichtlich bereitzustellen. GoPubMed machte es möglich, schneller die richtigen Suchergebnisse zu identifizieren. Die Technologie hinter GoPubMed war generischer Natur und kann im Prinzip für jegliche Textinhalte und Wissensbasen zum Einsatz kommen. GoPubMed hat 2009 den “red dot: best of the best” Award in der Kategorie “communication design – graphical user interfaces and interactive tool” mit nach Hause genommen.

SWOOGLE

Swoogle war eine Website für das semantische Web und stellte ein Forschungsprojekt der ebiquity-Forschungsgruppe der Fakultät für Informatik und Elektrotechnik der Universität in Maryland dar. Swoogle war eine Suchmaschine für Dokumente, Daten und Begriffe im semantischen Web. Swoogle crawlte RDF-Dokumente und HTML-Ergebnisse, welche eingebettete RDF-Inhalte aufwiesen. Die Ergebnisse wurden mithilfe von Algorithmen unter Berücksichtigung der Ordnungsstruktur des semantischen Webs aufgeschlüsselt. Das Swoogle-Projekt wurde 2010 eingestellt.

SEMAGER

semantische-suchmaschine-semager-logo-png

Semager.de bietet sowohl eine klasssiche Web- und Shopping-Suche als auch eine semantische Suche an. Unter der Rubrik “Verwandte Wörter” stellt die Suche von Semager einen inhaltlichen Zusammenhang zwischen mehreren Begrifflichkeiten dar, welche nach eingetippten Schlagwörtern sucht, im Zuge dessen aber auch jene Begrifflichkeiten in die Suche miteinbezieht, die mit hoher Wahrscheinlichkeit semantisch sind. Die Wahrscheinlichkeits-Berechnung basiert hierbei auf Algorithmen sowie mathematischen Methoden. Zudem gibt es die Möglichkeit, einen Suchbegriff zusammen mit verwandten Schlagwörtern in Form einer MindMap anzeigen zu lassen.

ASKWIKI

semantische-suchmaschine-askwiki-logo-png

AskWiki wurde am 27 Januar im Jahre 2012 offiziell gestartet. AskWiki war eine als Android-App zur Verfügung stehende semantische Suchmaschine. Die App hatte versucht, eine sprachlich formulierte Anfrage zu interpretieren und daraufhin eine dazu passende Antwort zu finden. Anders als bei den klassischen Suchmaschinen, fand man in AskWiki direkte Antworten als Ergebnisse vor. Das Ziel der App war es, die Nutzerfahrungen auszuwerten und die angewandte Methodik auch für andere Anwendungsfelder zu verwenden. Gegen Ende des Jahres 2013 wurde die Entwicklung eingestellt die App wurde vom Markt genommen.

Suchmaschinen für Kinder

Wenn Kinder ihre ersten Gehversuche im Internet machen, raten viele Pädagogen, eine Suchmaschine für Kinder als Ausgangspunkt zu verwenden. Im Gegensatz zu herkömmlichen Suchmaschinen wie Bing oder Google listen die auf Kinder zwischen etwa 6 und 14 Jahren zugeschnittenen Suchplattformen wie „FragFinn“, „Blinde Kuh“ oder „Helles Köpfchen“ nur geprüfte und für kindgerecht befundene Inhalte. Anbieter von für Kinder geeigneten Inhalten haben die Möglichkeit, ihre Website bei den Suchmaschinen anzumelden. Diese werden anschließend von einer internen Redaktion geprüft und gegebenenfalls manuell in den Suchindex aufgenommen. Neben der Suche nach Bildern und Websites bieten viele Suchmaschinen für Kinder auch einen eigenen Unterhaltungsbereich mit Online-Spielen, kindgerecht aufgearbeiteten News, unterhaltsam gestalteten Lern-Quizzen und Videos.

BLINDEKUH

suchmaschine-fuer-kinder-blindekuh-logo-png

Blinde-kuh.de ist seit 1997 im Internet zu finden und stellt damit die älteste deutsche und speziell für Kinder ausgerichtete Suchmaschine dar. Die Suchmaschine BlindeKuh sammelt, verlinkt und durchsucht Seiten, welche für Kinder geeignet sind. Der Index von BlindeKuh umfasst mehr als 30.000 Websites. Die Besonderheit dieser Kindersuchmaschine ist, dass für jedes Suchergebnis ein Miniaturbild mit einem Beschreibungstext sowie einer empfohlenen Altersangabe angezeigt wird. Die Suchmaschine ist auf Kinder im Alter von 6-14 Jahren ausgerichtet.

FRAGFINN

suchmaschine-fuer-kinder-fragfinn-de-logo-png

FragFinn.de ist eine von der Initiative „Ein Netz für Kinder“ ins Leben gerufene Suchmaschine, die einen geschützten Surfraum für Kinder zwischen 6 und 14 Jahren bietet. Die Basis für die Suchmaschine bildet die FragFinn-Whitelist, in der aktuell rund 4.000 geprüfte und für jugendfrei befundene Web-Angebote gelistet sind. Kinder können diese Inhalte über das Web oder die für Android, iOS und Fire OS verfügbare FragFinn-App nach Text-, Bild- und Videoinhalten durchsuchen. Neue Inhalte können Kinder und Erwachsene über ein Web-Formular zur Aufnahme in die Whitelist vorschlagen, die anschließend von der Redaktion auf ihre Eignung geprüft werden. Für den Betrieb der Kindersuchmaschine nutzt FragFinn ElasticSearch als Suchtechnologie. Die Indexierung neuer Inhalte erfolgt über den Norconex Collector, einem als Open-Source-Software verfügbaren Web-Crawler.

Neben der Suche hält das Online-Angebot von FragFinn für seine junge Besucher kindgerechte Surf-Tipps, Online-Spiele und interessante Erklärvideos bereit, in denen Kindern komplexe Themen leicht verständlich nähergebracht werden.

HELLESKÖPFCHEN

suchmaschine-fuer-kinder-helleskoepfchen-de-logo-png

HellesKöpfchen ist eine Suchmaschine inklusive Nachrichten-Quelle für vorrangig Kinder und Jugendliche. Die Website soll in erster Linie Kinder dabei unterstützen, sowohl mit viel Spaß als auch mit Sicherheit im Internet unterwegs zu sein. HellesKöpfchen gilt als Wissens- und Suchportal. Kindern wird hier die Möglichkeit geboten, das Internet nach einer Vielzahl von ausschließlich kindgerechten Themen zu durchsuchen, welche von einer journalistisch qualifizierten und pädagogisch geschulten Redaktion festgelegt werden. Über die Funktion der Suche innerhalb von HellesKöpfchen hinaus werden von der eigenen Redaktion kindgerechte Beiträge publiziert. HellesKöpfchen stellt ohne Frage eine Bereicherung im Topf der Suchmaschinen für kindgerechte Inhalte dar. Insbesondere die betreute Community ist zu erwähnen, in welcher Kinder und Jugendliche selbst zu Reportern werden und Beträge zu frei wählbaren Themen schreiben und veröffentlichen können.

QWANT JUNIOR

suchmaschine-fuer-kinder-qwant-junior-logo-png

Qwant Junior ist eine von Qwant bereitgestellte separate Suchmaschine für Kinder und Jugendliche im Alter von 6-12 Jahren. Die Suchmaschine filtert die angefragten Suchen und stellt dabei sicher, dass ausschließlich kindgerechte Suchergebnisse geliefert werden. Qwant Junior wurde von der National Education validiert, welche daran interessiert ist, dass Schulen diese bevorzugt verwenden.

KINDEX

suchmaschine-fuer-kinder-kindex-logo-png

Kindex ist seit 1999 im Internet aufrufbar. Ursprünglich war die Suchmaschine als Forum für Kinderthemen entwickelt worden. Im Laufe der Zeit hat sich Kindex jedoch weiterentwickelt und weist mittlerweile mehrere tausend indexierte Webseiten auf.

Die ursprüngliche Intention der Seite ist allerdings nach wie vor zu erkennen: Kindex fokussiert sich weniger auf kindgerechte Inhalte und stattdessen mehr auf Themen über Kinder. Mit den Schwerpunkten Familienpolitik und Jugendschutz ist die Seite also mehr auf Eltern, Erzieher, Kinderbetreuer und Lehrer ausgerichtet statt auf kindgerechtes Surfen im Internet.

Peer-to-peer Suchmaschinen

Während die meisten indexbasierten Suchmaschinen wie Bing oder Google bei Suchanfragen auf einen zentralen Index zugreifen, den sie mithilfe eigener Web-Crawler kontinuierlich mit Inhalten füllen, gehen Peer-to-Peer-Suchmaschinen (auch P2P-Suchmaschinen genannt) einen gänzlich anderen Weg. Sie bieten Nutzern über eine in der Regel kostenlos zur Verfügung gestellte Software die Möglichkeit, selbst Inhalte zu crawlen, sie zu einem lokalen Index hinzuzufügen und diesen wiederum auf Wunsch für andere Nutzer aus dem P2P-Netzwerk durchsuchbar zu machen. Auf diese Weise entsteht ein globaler, dezentralisierter Suchindex, der nicht von einem einzelnen Unternehmen kontrolliert und – so der häufigste Grund von Anbietern und Nutzern für P2P-Suchdiensten – zensiert werden kann. Eine Pflicht, den angelegten Suchindex für die anderen Peers im Netzwerk durchsuchbar zu machen, gibt es bei Peer-to-Peer-Suchmaschinen nicht. Wer möchte, kann die Suchmaschine auch ausschließlich für eigene Zwecke nutzen oder – abhängig von den Möglichkeiten, die die Software bietet – mit dem Index eine Suche für das Intranet aufbauen.

Peer-to-Peer-Suchmaschinen haben Vor- und Nachteile. Zu den Vorteilen zählt die Ausfallsicherheit durch die dezentrale Struktur des P2P-Netzwerks. Zudem können von der Seite des Betreibers keine Löschungen oder anderweitigen Eingriffe in den Suchindex vorgenommen werden. Ein Vorteil ist auch, dass Nutzer selbst Websites hinzufügen können, die nicht über öffentliche Links erreichbar sind (deep web).

Ein großer Nachteil der P2P-Suche ist allerdings die Ladezeit, denn durch die dezentrale Verteilung des Index ist eine schnelle Suche nicht möglich. So benötigt eine Suchanfrage unter optimalen Bedingungen etwa 3 bis 4 Sekunden, während eine Suche bei Google nur ein Zehntel der Zeit in Anspruch nimmt. Ein weiterer Nachteil ist, dass beim Wegfall wichtiger Peers der Suchindex stark schrumpfen kann. Auch ist es zumindest theoretisch möglich, dass Spammer eigene Peers betreiben und so gezielt auf Suchanfragen Spam zurückliefern.

YACY

peer-to-peer-suchmaschine-yacy-logo-png

YaCy (Abkürzung für „Yet another Cyberspace”) ist eine im Jahr 2004 von dem Informatiker Michael Christen entwickelte Peer-to-Peer-Suchmaschine. Die auf der Programmiersprache Java basierende Software arbeitet dezentral, das heißt, es gibt keinen zentralen Server, auf dem der Index hinterlegt ist oder über den Anfragen von Nutzern gesteuert werden können. Stattdessen legt jeder Peer, der YaCy installiert hat, einen lokalen Index an. Hierzu stellt die für Linux, Windows und Mac verfügbare Software bei der Installation einen Proxy bereit. Über diesen werden alle über den Rechner aufgerufene Websites und Daten indexiert und über die Suche von YaCy verfügbar gemacht. Zunächst erfolgt dies nur lokal, doch wer möchte, kann seinen Index auch mit anderen Peers im globalen YaCy-Netzwerk teilen und ihn so durchsuchbar machen.

Eine weitere Möglichkeit, den lokalen Suchindex zu erweitern, bietet der in der Open-Source-Software enthaltene Webcrawler. Nutzer der P2P-Suchmaschine können für den Bot einen Startpunkt in Form einer Website festlegen und ihn von hier aus selbstständig über die in Dokumenten enthaltenen Links das Netz crawlen lassen.

SEEKSTORM

peer-to-peer-suchmaschine-seekstorm-logo-png

Seekstorm.com wurde im Jahre 2020 in Warschau gegründet. Seekstorm stellt eine kostenpflichtige Suche zur Verfügung. Die Such-API von Seekstorm beinhaltet eine web-basierte Echtzeit-Volltext-Sofortsuche nach Daten sowie Dokumenten.

Suchmaschinen für versteckte Dienste

Suchmaschinen wie Google bilden nur das „Surface Web“ ab, das heißt, sie listen ausschließlich Websites, die über öffentliche Links von anderen Websites erreichbar sind. Das Surface Web macht allerdings nur etwa 10 Prozent aller über das Internet angebotenen Dienste und Websites aus. Die anderen 90 Prozent verstecken sich im für Web-Crawler unerreichbaren Deep-Web und dem ausschließlich über das Tor-Netzwerk erreichbaren Dark-Web. Websites, die mittels „.onion“-Adresse über Tor erreichbar sind, sind auch als versteckte Dienste oder „Hidden Services“ bekannt. Sie enthalten – da das Darknet keinerlei staatlicher Kontrolle unterliegt – auch unmoralische oder höchst illegale Inhalte. Dieser Tatsache sollte man sich bewusst sein, wenn man eine Suchmaschine für versteckte Dienste nutzt.

Um versteckte Dienste aufspüren zu können, existieren spezielle Dark-Web oder auch Darknet-Suchmaschinen wie „Ahmia“, „Haystak“ oder „TORCH“. Diese Dienste indexieren über das Tor-Netzwerk erreichbare Websites und bieten so eine Alternative zu den häufig im Darknet genutzten und händisch verwalten Verzeichnissen wie dem „Hidden Wiki“. Nachteil zuletzt Genannter ist nämlich, dass die Verzeichnisse oftmals nicht auf dem aktuellen Stand sind und veraltete Adressen listen, die ins Nichts führen.

Technisch funktionieren Suchmaschinen für versteckte Dienste genauso wie indexbasierte Suchdienste für das Surface Web: Mithilfe von Crawlern, die in diesem Fall „.onion“-Links folgen, legen die Suchmaschinen einen Index an, der über ein Interface von Nutzern des Tor-Netzwerks durchsucht werden kann.

AHMIA

suchmaschine-fuer-versteckte-dienste-ahmia-logo-png

Ahmia stellt eine Open-Source-Suchmaschine speziell für Onion Services im Tor-Netzwerk sowie die Suche im I2P-Netzwerk dar. Ahmia wurde im Jahre 2014 mit Unterstützung des Tor-Projekts von Juha Nurmi ins Leben gerufen. Die Suchmaschine von Ahmia gilt als eine der leistungsstärksten Suchmaschinen im Darknet. Das Suchsystem von Ahmia ist direkt mit dem GlobalLeaks-Projekt verbunden, um Feedback gänzlich anonym behandeln zu können. Seit 2013 ist Ahmia mit dem Hermes-Zentrum für Transparenz und digitale Menschenrechte verbunden.

TORCH

suchmaschine-fuer-versteckte-dienste-torch-logo-png

TORCH ist einer der ältesten und bekanntesten Suchmaschinen für versteckte Dienste und im Gegensatz zu anderen Darknet-Suchmaschinen wie „Ahmia“ ausschließlich über das Tor-Netzwerk erreichbar. Laut TORCH ist der Index, der über einen eigenen Crawler konstant mit Inhalten gefüllt und von nicht mehr erreichbaren Einträgen bereinigt wird, 100 Prozent zensurfrei. Zudem soll der Index rund 100.000 Adressen und über 4 Millionen Websites enthalten. Andere Quellen sprechen sogar von mehr als 300.000 „.onion“-Adressen, die über die TORCH-Suche erreichbar sind.

Die Suche ist ähnlich simpel aufgebaut wie die von Bing oder Google und lässt sich sehr intuitiv bedienen. Um den Dienst zu finanzieren, blendet TORCH innerhalb der Suchergebnisse Anzeigen und Banner ein. Diese sind jedoch nicht keywordbasiert und bewerben in der Regel illegale und zwielichtige Darknet-Angebote.

Spezial-Suchmaschinen

Neben Suchdiensten wie Google, MetaGer oder Yahoo, die Inhalte unabhängig von ihrem Thema indexieren, existieren im Internet auch zahlreiche Suchmaschinen, die sich auf ein bestimmtes Gebiet spezialisiert haben. Dazu zählen zum Beispiel Flug- und Hotel-Suchmaschinen wie „Swoodoo“, „Kayak“ oder „Trivago“, die es Nutzern erlauben, die Datenbanken von angeschlossenen Fluggesellschaften, Hotels und Reiseanbietern nach passenden Angeboten zu durchsuchen, diese zu vergleichen und bei Bedarf direkt online zu buchen.

Ebenfalls zu den Spezial-Suchmaschinen zählen Produkt-Suchdienste wie „Billiger.de“, „Geizhals“ oder „Idealo“. Über diese Suchmaschinen können Nutzer die Produkte der angeschlossenen Plattformen und Shops hinsichtlich zahlreicher Kriterien wie dem Preis oder der Bewertungen von Kunden vergleichen und sich zum Beispiel über Preisänderungen informieren.

IDEALO

spezial-suchmaschine-idealo-logo-png

Die im Jahr 2000 in Berlin gegründete Produktsuchmaschine Idealo war eine der ersten ihrer Art im deutschsprachigen Internet. Über die Suche können Nutzer den Index von Idealo nach Produkten aller Art, von A wie Autobatterie bis Z wie Zelt, durchsuchen und diese nach zahlreichen Produkteigenschaften filtern. Die Daten stammen von Auktions- und Shopping-Plattformen sowie Onlineshops, die diese Idealo über die hauseigene API-Schnittstelle oder über eine Exportdatei bzw. einen Feed (z. B. eine CSV- oder XML-Datei) zur Verfügung stellen. Die Datenredaktion von Idealo reichert diese Daten im Anschluss mit Nutzermeinungen, Datenblättern, Testergebnissen und Preisverläufen an. Findet ein Nutzer ein Produkt auf Idealo, kann er in der Regel aus einer Reihe an Shops den wählen, der ihm den günstigsten Preis bietet oder mit guten Bewertungen überzeugt. Bei einem Klick auf eines dieser Listings erhält Idealo von dem jeweiligen Händler eine Vergütung.

Bei einigen Angeboten bietet Idealo seinen Nutzern zudem die vollintegrierte Checkout-Funktion an. Hierbei erfolgt die gesamte Bestell- und Zahlungsabwicklung über Idealo, was bei Verbrauchern mehr Vertrauen schaffen und angeschlossenen Shops mehr Bestellungen bescheren soll. Außerdem soll diese Funktion Onlineshops eine höhere Sicherheit vor Zahlungsausfällen bieten. Aktuell listet die Produktsuche laut Idealo mehrere Hundert Millionen Artikel von mehr als 40.000 Händlern. Zuletzt hat das Berliner Unternehmen sein Angebot in mehreren europäischen Ländern um Suchfunktionen für Flüge, Hotels und Ferienwohnungen sowie Mietwagen erweitert.

BILLIGER.DE

spezial-suchmaschine-billiger-de-logo-png

Eines der größten deutschen Preisvergleichsportale ist billiger.de. Die Website wird vom Unternehmen solute GmbH betrieben und ist seit ihrer Gründung 2014 in Karlsruhe ansässig.

Die Funktionsweise von billiger.de ist ähnlich den anderen Preissuchmaschinen: Mit Online-Händlern werden Verträge geschlossen und daraufhin wird ihnen ein Account zur Verfügung gestellt. Die Daten des Produkts werden samt Deeplink zum Händler-Shop auf dem Portal veröffentlicht. Billiger.de bietet auf seiner Seite ausschließlich einen Produktvergleich zwischen Händlern an, mit denen es eine vertragliche Verbindung eingegangen ist.

Anders als suggeriert ist kein neutraler und objektiver Preisvergleich zwischen allen Preisangeboten im Internet möglich. Die Händler speisen die Preise in den Shop ein, nicht die Suchmaschine selbst sucht nach dem besten Preis. Sie wählt lediglich aus den eingegebenen Preisen mithilfe von Tools die besten Preise aus. Der Nutzer kann über eine Suchmaske weitere Einstellungen vornehmen. Mit einer Reichweite von über drei Millionen Besuchern pro Monat und Angeboten aus über 22.500 Shops stellt billiger.de zusammen mit Idealo den Marktführer unter den Preissuchmaschinen dar.

GUENSTIGER.DE

spezial-suchmaschine-guenstiger-de-logo-png

Guenstiger.de ist ein Preis-Vergleichs-Portal und wurde 1999 Phillipp Hartmann und Torsten Schnoor mit Sitz in Hamburg gegründet. Im Jahre 2011 wurde das Portal dann vom amerikanischen Internetkonzern NexTag Inc. übernommen. Das Preis-Portal bietet seinen Nutzern einen Überblick von Informationen zu Produkten. Nach dem Eintippen eines Artikels wird dem User eine Auflistung von Online-Händlern bereitgestellt, welche das gewünschte Produkt verkaufen. Hierbei gliedern sich die Ergebnisse von günstig nach teuer. Neben Informationen und Details zum gesuchten Artikel werden dem Nutzer darüber hinaus Testberichte, Nutzerfahrungen und Bewertungen von Händlern angezeigt. Das Portfolio von guenstiger.de reicht von Elektronik-Artikeln über Freizeit und Sport bis hin zu Kleidung und Haushalt.

GEIZHALS.DE

spezial-suchmaschine-geizhals-preisvergleich-logo-png

Geizhals.de entstand im Jahre 1997 als Hobby-Projekt für den direkten Vergleich von Hardware-Händlern im Raum Wien. Mit zunehmender Bekanntheit und dem stetigen Wachstum an Besuchern nahm die Website nach und nach ihren heutigen Platz unter den deutschsprachigen Preis-Vergleichs-Portalen an. Heute ist Geizhals.de ein bekanntes Online-Preisvergleichsportal, auf welchem User mithilfe verschiedenster Spezifikationen und Filter Produkte vergleichen können. Laut ÖWA hatte die Plattform im März 2018 satte 2,8 Millionen Unique Clients und zählt damit zu einer der größten E-Commerce Plattformen im deutschsprachigen Raum.

PREISSUCHMASCHINE.DE

Preissuchmaschine.de stellt laut Website aktuell mehr als 81 Millionen Preise aus mehr als 2.000 Onlinehändlern zum Abruf bereit. Dabei werden die Angebote mehrmals täglich aktualisiert. Der Service für Suchende kann genau wie bei anderen Preis-Vergleichs-Portalen kostenfrei genutzt werden. Online-Händler müssen zur Anmeldung und Auflistung in den Vergleichen einer Klick-Provision zustimmen. Das Portal erhält demnach pro vermittelten Besuch eine Provision. Auch hier werden die Suchergebnisse von günstig nach teuer aufgeschlüsselt. Um die Sicherheit ihrer Endverbraucher zu gewährleisten, durchlaufen die registrierten Online-Händler strenge Qualitätskontrollen in Hinblick auf Bezahlarten und Kundenservice. Auch bei Preissuchmaschine.de werden die Ergebnisse der Suchen mit Testberichten und Nutzererfahrungen ergänzt.

Klimaneutrale Suchmaschinen

Mehrere Milliarden Suchanfragen pro Tag verursachen bei Suchmaschinen wie Google einen enormen Energieverbrauch. Studien zufolge verursacht jede Suche, die ein Nutzer bei dem Marktführer durchführt, einen CO2-Ausstoß von 0,2 Gramm. Das entspricht umgerechnet etwa 800 Tonnen CO2 pro Tag. Grund dafür sind die riesigen Rechenzentren der Suchmaschine, die über den ganzen Globus verteilt sind. Ein Großteil davon wird laut dem US-Unternehmen zwar nicht mehr mit Atom- oder Kohlestrom, sondern mit Strom aus regenerativen Energien betrieben, doch eine vollständige Klimaneutralität strebt Google erst für das Jahr 2030 an.

Ökologische Suchmaschinen wollen dieses Ziel schon jetzt erreichen. Die im Jahr 2009 in Berlin gegründete Suchmaschine „Ecosia“ ist laut eigenen Angaben sogar nicht nur CO2-neutral, sondern arbeitet CO2-negativ. Einen eigenen Index betreibt Ecosia allerdings nicht. Stattdessen liefert die Suche Ergebnisse von Microsofts Suchdienst Bing aus, inklusive bezahlter Suchanzeigen. Die Einnahmen aus dieser Werbung nutzt Ecosia unter anderem, um Bäume zu pflanzen, die den CO2-Ausstoß der Suchanfragen kompensieren sollen. Laut dem Nachhaltigkeitsbericht von 2020 konnte die klimaneutrale Suchmaschine bislang über 100 Millionen Bäume pflanzen, deren CO2-Aufnahme aus der Atmosphäre den Ausstoß des Suchdienstes mehr als tausendfach übersteigt. Als weitere Maßnahme zur CO2-Reduktion setzt Ecosia auf Solarenergie, um seine Server und die Firmenzentrale mit Strom zu versorgen. Der Output an Energie übersteigt laut des Suchdienstes den eigenen Bedarf um das Dreifache, sodass noch grüner Strom in das Stromnetz eingespeist werden kann.

Gemeinnützige Suchmaschinen

Nach einem ähnlichen Prinzip wie die klimaneutrale Suchmaschine Ecosia arbeiten gemeinnützige Suchmaschinen wie „gexsi“, „ekoru“ oder „Lilo“. Diese greifen für ihre Suchergebnisse ebenfalls auf die Dienste von Microsofts Suchdienst Bing zurück und zeigen sie im eigenen Design inklusive Suchanzeigen an. Über diese finanzieren die gemeinnützigen Suchmaschinen ihr Engagement für soziale, wohltätige oder umweltorientierte Projekte. Der Suchdienste ekoru engagiert sich zum Beispiel für den Schutz der Weltmeere und unterstützt mit jeder Suche von Nutzern Projekte wie „Big Blue Ocean Cleanup“ oder „Operation Posidonia“, die zum Ziel hat, die Ozeane mit Seegras aufzuforsten, um CO2 zu binden.

Ähnlich wie ekoru arbeitet auch die in Deutschland gegründete gemeinnützige Suchmaschine gexsi. Die als Social Business zertifizierte Suche greift ebenfalls auf die Suchergebnisse von Bing zu und gibt diese zusammen mit den Werbeanzeigen von Microsoft auf eigenen SERPs aus. Mit den durch Klicks auf die Suchanzeigen generierten Einnahmen unterstützt gexsi unterschiedlichste soziale und umweltbewusste Projekte wie etwa die App „ShareTheMeal“, die es Nutzern ermöglicht, ihre Mahlzeit mit einem hungrigen Kind zu teilen oder „Orange Sky“, eine Organisation, die mobile Waschbusse für Obdachlose bereitstellt.

Selbst Einfluss auf die unterstützten Projekte können Nutzer bei der gemeinnützigen Suchmaschine Lilo nehmen. Durch Suchen und Klicks auf Werbeanzeigen in den SERPs können Nutzer des französischen Suchdienstes sogenannte „Drops“ (Wassertropfen) sammeln. Diese können Sie anschließend selbst auf verschiedene zur Auswahl stehende Projekte aus Bereichen wie Umwelt-, Tierschutz und Soziales verteilen. Auf diese Weise hat das gemeinnützige Unternehmen nach eigenen Angaben bereits rund 4,5 Millionen Euro (Stand 06/2022) gespendet.

Weiterführende Informationen

Suchmaschinenoptimierung vs. Suchmaschinen

Anfang der 2000er Jahre hat sich die professionelle “Suchmaschinenoptimierung” (SEO) entwickelt. Diese versucht, die Ergebnisse der Suchmaschine zu „manipulieren“, in dem die indexierten Dokumente in besonderer Art und Weise gestaltet werden. Dazu gehören verschiedenste technische, aber auch strukturelle und inhaltliche Faktoren. Mittlerweile ist die Suchmaschinenoptimierung ein wichtiges Hilfsmittel für Suchmaschinen, da die SEO-Experten eine Webseite technisch und inhaltlich „sauber“ gestalten können. In Anbetracht der immensen Menge an Daten und Angebote im Netz und der begrenzten Rechen- und Speicherkapazität der Suchmaschinen sorgen SEOs für eine reibungslosere und schnellere Indexierung von Webseiten. Auf diese Weise erklärt sich auch, warum große Suchmaschinen wie Google bei bevorstehenden Updates Hinweise an Internetseitenbetreiber geben. Weiter zum Artikel Suchmaschinenoptimierung.

Die Zukunft der Suchmaschinen – Wo geht die Reise hin?

Alle Suchmaschinen, ob Google oder Spezialsuchmaschine, versuchen immer besser die Sprache zu verstehen und diese den Algorithmen beizubringen. Genutzt wird dazu unter anderem künstliche Intelligenz und neuronale Netze, welche auch entferntere Zusammenhänge zwischen Worten und Ausdrücken sowie Umgangssprache erlernen und verstehen können. Auch die gesprochenen Anfragen werden immer weiter analysiert, damit auch bei Umgebungsgeräuschen und Dialekt die Trefferquote besser wird. Zudem trainiert zum Beispiel Google seine Bots im Erkennen von Bildern bzw. relevanten Bereichen auf Grafiken, Fotografien und dergleichen mehr.  Es wird spannend zu beobachten sein, was sich aus den Erkenntnissen dieser Lernprozesse für Services oder Updates generieren. Fest steht nur, die Suchmaschinen werden sich auch in Zukunft im stetigen Wandel und in der Weiterentwicklung befinden.

FAQ zum Thema Suchmaschinen


Nicht erst seit dem NSA-Skandal werden sich Nutzer im Internet ihren Spuren und den damit verbundenen Risiken immer bewusster. Tracking, Cookies und Datenschutz und ihren andersartigen Umgang mit Daten sind die Themen, die einige der alternativen Suchmaschinen propagieren. Da Internetuser sich dem Wert ihrer Daten immer mehr bewusst werden, entscheiden sich entsprechend auch immer mehr für die alternativen Suchmaschinenangebote. Auch die Tendenz “grüne Entscheidungen” mit möglichst geringem Schaden für Umwelt oder sogar positivem Einfluss auf Umwelt und Menschen werden immer häufiger getroffen. Auf diesen Aspekt arbeitet zum Beispiel die alternative Suchmaschine Ecosia hin, die neben einem erhöhten Datenschutz zudem anbietet, Bäume zu pflanzen – also direkt Gutes zu tun. Es bleibt abzuwarten, wie die großen Suchmaschinen auf diese Strömungen reagieren und welche Anzahl von Menschen die alternativen Suchmaschinen nutzen. Bisher ist der Branchenprimus nach wie vor deutlich Google.

Die beliebteste Suchmaschine, ob in Deutschland oder im internationalen Vergleich, ist ganz klar Google. Es sichert sich etwa 90 Prozent der Marktanteile. Bing und Yahoo folgen auf dem Fuße mit jeweils etwa 3 Prozent des Nutzeranteils. 

Ausnahmen gibt es nur in nationaler Hinsicht: Aufgrund der starken Zensur des Staates wird der chinesische Markt von Baidu statt Google beherrscht, während auf dem russischen Markt Yandex dominiert, da es in kyrillischer Sprache verfügbar ist.

Der Webcrawler von Google durchsucht Milliarden von Internetseiten und prüft dabei, wie relevant diese für bestimmte Suchanfragen sind. Er kontrolliert dabei auch bereits bekannte Seiten, vermerkt Änderungen und findet veraltete Links. Google hat damit den größten Suchindex und ist in der Lage, zu jeder Suchanfrage eine passende Antwort zu liefern.

Google ist damit wohl eine der am besten informierten Suchmaschinen, weshalb sie auch in Deutschland von 94 Prozent der User verwendet wird.

Wer sich von Google lösen möchte, ist mit Bing sehr gut beraten. Attraktiv ist diese Suchmaschine nicht nur durch die zahlreichen hochwertigen Suchergebnisse, sondern auch durch das Microsoft Rewards Programm, das dem Nutzer bei jeder Suchanfrage über Bing Punkte gutschreibt. Die so verdienten Punkte lassen sich beispielsweise in eine X-Box Live Mitgliedschaft umwandeln, in Gutscheine für IKEA oder in einen Spendenbeitrag für eine gewählte Organisation.

Wer besonderen Wert auf Anonymität und Privatsphäre legt, ist mit DuckDuckGo oder Qwant sehr gut beraten. Beide verwenden keine Cookies und speichern keine personenbezogenen Nutzerdaten. 
Beispielsweise bekommt jeder Nutzer unter Voraussetzung der gleichen Suchanfrage die Suchergebnisse in der gleichen Reihenfolge angezeigt, da kein Einfluss vorheriger Suchanfragen vorhanden ist oder ein Nutzerprofil, das aussagt, dass der Nutzer nach einem Hersteller öfter gesucht hat als nach einem anderen. Jede Suche ist anonym.

Die Datenschutz-Grundverordnung (DSGVO) regelt dem Umgang mit personenbezogenen Daten durch Dritte, ob Privatpersonen oder öffentliche Einrichtungen. Auch Suchmaschinen sind von der DSGVO betroffen, denn sie sammeln in den meisten Fällen durch Tracking, Cookies und das Anlegen von Nutzerprofilen Daten, die eindeutig einer bestimmten Person zuzuordnen sind. Mitunter werden die gewonnen Daten profitabel an andere Unternehmen verkauft. Besonders Google steht im europäischen Raum immer wieder im Zentrum der Datenschutz-Initiativen, da weithin bekannt ist, dass es Nutzerdaten speichert und veräußert. 

Der Einfluss der DSGVO äußert sich primär darin, dass sich viele Nutzer seit deren Inkrafttreten 2018 überhaupt erst über die Menge ihrer freiwillig preisgegebenen Daten im Klaren sind und sich bewusst nach Alternativen umschauen.

Eine Lösung dafür sind beispielsweise Meta-Suchmaschinen. Sie verschlüsseln die Daten, bevor eine Weiterleitung der Suchanfrage an eine größere Suchmaschine wie Google oder Bing erfolgt. Der Nutzer kann damit die großen Suchmaschinen nutzen, wird aber nicht gezwungen, seine Da-ten preiszugeben.

Suchmaschinen, die dank der DSGVO und dem Bewusstsein für die eigenen persönlichen Daten großen Aufwind bekommen, sind beispielsweise DuckDuckGo, MetaGer, Wegtam, Unbubble und Qwant.

Eine Web-Suchmaschine ist genau das, was man unter dem allgemeinen Begriff Suchmaschine versteht. Es handelt sich um ein Tool, welches das World Wide Web nach Infos zu der Frage oder dem Schlagwort durchsucht, das der Nutzer in das Suchfeld eingegeben hat. Es gibt Web-Suchmaschinen mit einem eigenen Webcrawler (Google, Bing, Yandex, DuckDuckGo), Proxy-Suchmaschinen (Yahoo, Ecosia), Metasuchmaschinen (MetaGer) sowie Suchmaschinen für Kinder (QwantJunior, BlindeKuh).