Tag: SEO
Mitte der 1990er Jahre fingen die anfänglichen Suchmaschinen im Internet an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten zügig den Wert einer lieblings Positionierung in Ergebnissen und recht bald entwickelten sich Betrieb, die sich auf die Besserung qualifitierten.
In Anfängen vollzogen wurde die Aufnahme oft über die Transfer der URL der richtigen Seite in puncto verschiedenartigen Search Engines. Diese sendeten dann einen Webcrawler zur Analyse der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Server der Anlaufstelle, wo ein weiteres Programm, der so genannte Indexer, Infos herauslas und katalogisierte (genannte Wörter, Links zu weiteren Seiten).
Die zeitigen Versionen der Suchalgorithmen basierten auf Angaben, die aufgrund der Webmaster eigenhändig existieren worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Internet wie ALIWEB. Meta-Elemente geben einen Gesamtüberblick via Thema einer Seite, dennoch setzte sich bald hoch, dass die Verwendung dieser Vorschläge nicht vertrauenswürdig war, da die Wahl der verwendeten Schlagworte dank dem Webmaster eine ungenaue Präsentation des Seiteninhalts repräsentieren konnte. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Websites bei charakteristischen Suchen listen.[2] Auch versuchten Seitenersteller verschiedenartige Punkte innerhalb des HTML-Codes einer Seite so zu steuern, dass die Seite richtiger in Resultaten gelistet wird.[3]
Da die späten Internet Suchmaschinen sehr auf Faktoren abhängig waren, die alleinig in Koffern der Webmaster lagen, waren sie auch sehr unsicher für Delikt und Manipulationen in der Positionierung. Um überlegenere und relevantere Testergebnisse in den Ergebnissen zu bekommen, mussten sich die Unternhemer der Suchmaschinen an diese Voraussetzungen integrieren. Weil der Gewinn einer Recherche davon abhängig ist, wesentliche Suchergebnisse zu den gestellten Keywords anzuzeigen, konnten ungeeignete Urteile darin resultieren, dass sich die Benutzer nach anderweitigen Chancen wofür Suche im Web umblicken. Die Erwiderung der Suchmaschinen im Netz vorrat in komplexeren Algorithmen fürs Platz, die Gesichtspunkte beinhalteten, die von Webmastern nicht oder nur schwierig lenkbar waren. Larry Page und Sergey Brin konstruierten mit „Backrub“ – dem Urahn von Suchmaschinen – eine Recherche, die auf einem mathematischen Matching-Verfahren basierte, der anhand der Verlinkungsstruktur Webseiten gewichtete und dies in den Rankingalgorithmus eingehen ließ. Auch zusätzliche Suchmaschinen bezogen in der Folgezeit die Verlinkungsstruktur bspw. als der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine