Tag: SEO
Mitte der 1990er Jahre fingen die anfänglichen Internet Suchmaschinen an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten direkt den Wert einer bevorzugten Positionierung in Serps und recht bald fand man Anstalt, die sich auf die Aufbesserung ausgebildeten.
In den Anfängen bis zu diesem Zeitpunkt der Antritt oft zu der Transfer der URL der passenden Seite bei der unterschiedlichen Search Engines. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Webserver der Recherche, wo ein zweites Software, der gern genutzte Indexer, Infos herauslas und katalogisierte (genannte Ansprüche, Links zu sonstigen Seiten).
Die damaligen Versionen der Suchalgorithmen basierten auf Informationen, die dank der Webmaster selber existieren sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im WWW wie ALIWEB. Meta-Elemente geben einen Gesamteindruck mit Thema einer Seite, doch registrierte sich bald heraus, dass die Benutzung er Vorschläge nicht gewissenhaft war, da die Wahl der angewendeten Schlüsselworte durch den Webmaster eine ungenaue Präsentation des Seiteninhalts widerspiegeln konnte. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Internetseiten bei speziellen Ausschau halten listen.[2] Auch versuchten Seitenersteller vielfältige Merkmale in des HTML-Codes einer Seite so zu manipulieren, dass die Seite überlegen in den Serps gelistet wird.[3]
Da die späten Suchmaschinen im Internet sehr auf Merkmalen dependent waren, die ausschließlich in den Koffern der Webmaster lagen, waren sie auch sehr labil für Schindluder und Manipulationen in der Positionierung. Um tolle und relevantere Testurteile in den Ergebnissen zu bekommen, mussten sich die Betreiber der Suchmaschinen im WWW an diese Ereignisse einstellen. Weil der Riesenerfolg einer Recherche davon abhängig ist, wichtigste Suchergebnisse zu den inszenierten Suchbegriffen anzuzeigen, konnten ungeeignete Resultate dazu führen, dass sich die Anwender nach anderweitigen Varianten für den Bereich Suche im Web umschauen. Die Auflösung der Suchmaschinen im WWW lagerbestand in komplexeren Algorithmen für das Rangordnung, die Gesichtspunkte beinhalteten, die von Webmastern nicht oder nur schwer steuerbar waren. Larry Page und Sergey Brin entworfenen mit „Backrub“ – dem Urahn von Suchmaschinen – eine Suchseiten, die auf einem mathematischen Matching-Verfahren basierte, der mit Hilfe der Verlinkungsstruktur Webseiten gewichtete und dies in den Rankingalgorithmus eingehen ließ. Auch übrige Suchmaschinen im Internet bezogen pro Folgezeit die Verlinkungsstruktur bspw. als der Linkpopularität in ihre Algorithmen mit ein.
Suchmaschinen