Tag: SEO
Mitte der 1990er Jahre fingen die allerersten Search Engines an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten unmittelbar den Wert einer lieblings Listung in den Serps und recht bald entstanden Einrichtung, die sich auf die Optimierung qualifizierten.
In den Anfängen ereignete sich die Aufnahme oft bezüglich der Übermittlung der URL der geeigneten Seite bei der unterschiedlichen Suchmaschinen im Netz. Diese sendeten dann einen Webcrawler zur Analyse der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Webserver der Anlaufstelle, wo ein zweites Computerprogramm, der so genannte Indexer, Infos herauslas und katalogisierte (genannte Ansprüche, Links zu diversen Seiten).
Die zeitigen Varianten der Suchalgorithmen basierten auf Angaben, die mit den Webmaster sogar existieren sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben eine Gesamtübersicht per Content einer Seite, aber setzte sich bald hoch, dass die Benutzung dieser Vorschläge nicht zuverlässig war, da die Wahl der genutzten Schlagworte durch den Webmaster eine ungenaue Erläuterung des Seiteninhalts reflektieren vermochten. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Websites bei einzigartigen Ausschau halten listen.[2] Auch versuchten Seitenersteller verschiedene Eigenschaften in des HTML-Codes einer Seite so zu manipulieren, dass die Seite passender in Suchergebnissen gelistet wird.[3]
Da die damaligen Search Engines sehr auf Merkmalen dependent waren, die alleinig in den Fingern der Webmaster lagen, waren sie auch sehr instabil für Abusus und Manipulationen in der Positionierung. Um vorteilhaftere und relevantere Urteile in den Suchergebnissen zu erhalten, musste ich sich die Unternhemer der Suchmaschinen im WWW an diese Voraussetzungen adjustieren. Weil der Triumph einer Anlaufstelle davon zusammenhängt, besondere Suchergebnisse zu den inszenierten Suchbegriffen anzuzeigen, vermochten untaugliche Testurteile dazu führen, dass sich die Nutzer nach anderweitigen Möglichkeiten für den Bereich Suche im Web umschauen. Die Auflösung der Suchmaschinen im Internet vorrat in komplexeren Algorithmen fürs Rangfolge, die Kriterien beinhalteten, die von Webmastern nicht oder nur schwer kontrollierbar waren. Larry Page und Sergey Brin konstruierten mit „Backrub“ – dem Urahn von Yahoo – eine Suchseiten, die auf einem mathematischen KI basierte, der mit Hilfe der Verlinkungsstruktur Unterseiten gewichtete und dies in den Rankingalgorithmus reingehen ließ. Auch alternative Internet Suchmaschinen orientiert während der Folgezeit die Verlinkungsstruktur bspw. als der Linkpopularität in ihre Algorithmen mit ein.