Tag: SEO
Mitte der 1990er Jahre fingen die ersten Search Engines an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten direkt den Wert einer lieblings Listung in den Ergebnissen und recht bald entwickelten sich Organisation, die sich auf die Aufbesserung professionellen.
In Anfängen passierte die Aufnahme oft bezüglich der Übermittlung der URL der richtigen Seite an die verschiedenartigen Suchmaschinen im Internet. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Website auf den Server der Suchmaschine, wo ein weiteres Angebot, der bekannte Indexer, Infos herauslas und katalogisierte (genannte Wörter, Links zu sonstigen Seiten).
Die späten Modellen der Suchalgorithmen basierten auf Angaben, die dank der Webmaster selbst gegeben sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Internet wie ALIWEB. Meta-Elemente geben eine Übersicht per Content einer Seite, dennoch registrierte sich bald hoch, dass die Verwendung dieser Ratschläge nicht verlässlich war, da die Wahl der gebrauchten Schlüsselworte durch den Webmaster eine ungenaue Vorführung des Seiteninhalts reflektieren hat. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Websites bei besonderen Recherchieren listen.[2] Auch versuchten Seitenersteller verschiedenartige Merkmale innerhalb des HTML-Codes einer Seite so zu beeinflussen, dass die Seite besser in den Resultaten aufgeführt wird.[3]
Da die damaligen Suchmaschinen im Netz sehr auf Kriterien dependent waren, die nur in den Fingern der Webmaster lagen, waren sie auch sehr anfällig für Delikt und Manipulationen in der Positionierung. Um bessere und relevantere Testergebnisse in den Suchergebnissen zu bekommen, mussten wir sich die Operatoren der Suchmaschinen an diese Rahmenbedingungen integrieren. Weil der Gelingen einer Search Engine davon zusammenhängt, relevante Suchergebnisse zu den inszenierten Keywords anzuzeigen, vermochten unpassende Resultate zur Folge haben, dass sich die Benützer nach ähnlichen Wege bei der Suche im Web umsehen. Die Erwiderung der Suchmaschinen im Internet fortbestand in komplexeren Algorithmen fürs Rang, die Gesichtspunkte beinhalteten, die von Webmastern nicht oder nur schwierig beeinflussbar waren. Larry Page und Sergey Brin entwickelten mit „Backrub“ – dem Vorläufer von Suchmaschinen – eine Recherche, die auf einem mathematischen Suchalgorithmus basierte, der anhand der Verlinkungsstruktur Seiten gewichtete und dies in Rankingalgorithmus einfließen ließ. Auch sonstige Suchmaschinen im WWW relevant in der Folgezeit die Verlinkungsstruktur bspw. wohlauf der Linkpopularität in ihre Algorithmen mit ein.