Tag: SEO
Mitte der 1990er Jahre fingen die ersten Suchmaschinen an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten direkt den Wert einer lieblings Listung in Serps und recht bald fand man Behörde, die sich auf die Verbesserung qualifitierten.
In Anfängen ereignete sich der Antritt oft über die Transfer der URL der jeweiligen Seite bei der divergenten Search Engines. Diese sendeten dann einen Webcrawler zur Prüfung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Homepage auf den Web Server der Search Engine, wo ein 2. Programm, der sogenannte Indexer, Infos herauslas und katalogisierte (genannte Wörter, Links zu sonstigen Seiten).
Die frühen Modellen der Suchalgorithmen basierten auf Informationen, die aufgrund der Webmaster eigenständig bestehen werden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben eine Übersicht über den Content einer Seite, doch stellte sich bald heraus, dass die Inanspruchnahme dieser Tipps nicht ordentlich war, da die Wahl der verwendeten Schlagworte durch den Webmaster eine ungenaue Abbildung des Seiteninhalts reflektieren kann. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Unterseiten bei besonderen Benötigen listen.[2] Auch versuchten Seitenersteller verschiedenartige Punkte binnen des HTML-Codes einer Seite so zu beeinflussen, dass die Seite richtiger in Ergebnissen gefunden wird.[3]
Da die frühen Suchmaschinen im Internet sehr auf Kriterien angewiesen waren, die bloß in den Fingern der Webmaster lagen, waren sie auch sehr vulnerabel für Abusus und Manipulationen in der Positionierung. Um gehobenere und relevantere Vergleichsergebnisse in Resultaten zu erhalten, mussten sich die Besitzer der Search Engines an diese Gegebenheiten anpassen. Weil der Erfolg einer Suchseiten davon zusammenhängt, wichtige Suchergebnisse zu den gestellten Keywords anzuzeigen, konnten ungeeignete Testurteile dazu führen, dass sich die Benutzer nach anderen Chancen bei der Suche im Web umblicken. Die Lösung der Suchmaschinen im Netz lagerbestand in komplexeren Algorithmen beim Positionierung, die Kriterien beinhalteten, die von Webmastern nicht oder nur schwer steuerbar waren. Larry Page und Sergey Brin entwarfen mit „Backrub“ – dem Urahn von Die Suchmaschine – eine Search Engine, die auf einem mathematischen Suchsystem basierte, der anhand der Verlinkungsstruktur Kanten gewichtete und dies in den Rankingalgorithmus reingehen ließ. Auch sonstige Search Engines betreffend pro Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.