Google – wie es funktioniert
Mithilfe von Crawlern (auch Bots, Crawlerbots, Googlebots, Spider, Searchbot, oder Webcrawlern genannt) werden Seiten indexiert und in die Datenbank Googles eingetragen. Ein Crawler ist ein Programm welches im Netz selbstständig Seiten besucht, die Seiten analysiert und die Ergebnisse der Analyse an die Datenbank Googles übermittelt. Der Crawler arbeitet sich durch verlinkte URLs von Seite zu Seite. Erfasst werden also nur Seiten, zu denen auf anderen Seiten verlinkt wird.
Sind die Informationen der Bots in der Datenbank, werden diese dort weiter ausgewertet. Mehrere Algorithmen und Kriterien entscheiden dann darüber, wie gut eine Website „rankt“ und wie sie „sortiert“, sprich indexiert wird. Dies entscheidet dann darüber, wo Seiten bei einer bestimmten Suchanfrage stehen, also wie die Seiten nach einer Suchanfrage sortiert werden.
Der bekannteste Algorithmus für diese Sortierung ist der sogenannte „PageRank“, benannt nach dem Mitbegründer Googles, Lawrence Page. Neben diesem gibt es noch eine Vielzahl weiterer Kriterien, die sowohl die Seite selber (OnPage), wie auch die Stellung der Seite in Relation zu anderen Seiten (OffPage) betreffen.
Die exakte Funktionsweise nach der die Suchergebnisse ermittelt und sortiert werden, ist Betriebsgeheimnis der Firma Google. Allerdings werden regelmäßig Tipps, Vorschläge und „Best Practices“ veröffentlicht um Seiten in den Bereichen OnPage und OffPage besser ranken zu lassen. Auch verschiedene Analyse-Tools, Strategien und Erkenntnisse aus der SEO-Szene helfen, damit eine Webseite besser rankt bzw., indexiert wird.
Quellen
Wikipedia: Google. In: https://de.wikipedia.org/wiki/Google.
Google: So funktioniert die Suche. In: http://www.google.de/intl/de/insidesearch/howsearchworks/thestory/.
Mannsperger, Linda: Funktionsweise der Google-Suchmaschine und der Google Bots. In: .