Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Search Engines an, das frühe Web zu ordnen. Die Seitenbesitzer erkannten schnell den Wert einer bevorzugten Listung in den Resultaten und recht bald entwickelten sich Behörde, die sich auf die Optimierung professionellen.
In den Anfängen passierte die Aufnahme oft bezüglich der Übertragung der URL der speziellen Seite an die verschiedenen Search Engines. Diese sendeten dann einen Webcrawler zur Betrachtung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Homepage auf den Server der Recherche, wo ein zweites Angebot, der die bekannten Indexer, Angaben herauslas und katalogisierte (genannte Wörter, Links zu anderweitigen Seiten).
Die frühen Modellen der Suchalgorithmen basierten auf Angaben, die anhand der Webmaster eigenhändig vorliegen wurden von empirica, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Gesamteindruck per Inhalt einer Seite, doch stellte sich bald raus, dass die Benutzung dieser Hinweise nicht ordentlich war, da die Wahl der eingesetzten Schlüsselworte dank dem Webmaster eine ungenaue Erläuterung des Seiteninhalts spiegeln konnte. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Unterseiten bei besonderen Recherchieren listen.[2] Auch versuchten Seitenersteller unterschiedliche Eigenschaften innerhalb des HTML-Codes einer Seite so zu lenken, dass die Seite richtiger in den Suchergebnissen gefunden wird.[3]
Da die damaligen Suchmaschinen im WWW sehr auf Kriterien abhängig waren, die ausschließlich in den Taschen der Webmaster lagen, waren sie auch sehr vulnerabel für Falscher Gebrauch und Manipulationen im Ranking. Um gehobenere und relevantere Testurteile in Ergebnissen zu erhalten, musste ich sich die Inhaber der Internet Suchmaschinen an diese Rahmenbedingungen adaptieren. Weil der Erfolg einer Anlaufstelle davon abhängig ist, wesentliche Suchresultate zu den gestellten Suchbegriffen anzuzeigen, konnten ungünstige Testurteile zur Folge haben, dass sich die User nach sonstigen Wege wofür Suche im Web umsehen. Die Rückmeldung der Suchmaschinen fortbestand in komplexeren Algorithmen für das Rangfolge, die Kriterien beinhalteten, die von Webmastern nicht oder nur nicht leicht lenkbar waren. Larry Page und Sergey Brin konstruierten mit „Backrub“ – dem Urahn von Google – eine Suchseiten, die auf einem mathematischen Routine basierte, der anhand der Verlinkungsstruktur Kanten gewichtete und dies in den Rankingalgorithmus reingehen ließ. Auch alternative Suchmaschinen im Netz betreffend in der Folgezeit die Verlinkungsstruktur bspw. in Form der Linkpopularität in ihre Algorithmen mit ein.
Bing