Tag: SEO
Mitte der 1990er Jahre fingen die 1. Search Engines an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten direkt den Wert einer bevorzugten Positionierung in Suchergebnissen und recht bald entwickelten sich Einrichtung, die sich auf die Verbesserung professionellen.
In den Anfängen geschah der Antritt oft zu der Übermittlung der URL der speziellen Seite an die verschiedenen Suchmaschinen im Internet. Diese sendeten dann einen Webcrawler zur Untersuchung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Website auf den Web Server der Search Engine, wo ein 2. Software, der die bekannten Indexer, Infos herauslas und katalogisierte (genannte Ansprüche, Links zu sonstigen Seiten).
Die neuzeitlichen Typen der Suchalgorithmen basierten auf Infos, die mit den Webmaster eigenständig vorhanden werden konnten, wie Meta-Elemente, oder durch Indexdateien in Internet Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Überblick per Inhalt einer Seite, aber setzte sich bald heraus, dass die Benutzung der Tipps nicht solide war, da die Wahl der benutzten Schlagworte dank dem Webmaster eine ungenaue Darstellung des Seiteninhalts sonstige Verben vermochten. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Internetseiten bei charakteristischen Benötigen listen.[2] Auch versuchten Seitenersteller unterschiedliche Eigenschaften binnen des HTML-Codes einer Seite so zu beeinflussen, dass die Seite stärker in Ergebnissen gefunden wird.[3]
Da die neuzeitlichen Suchmaschinen sehr auf Punkte abhängig waren, die alleinig in den Taschen der Webmaster lagen, waren sie auch sehr anfällig für Schindluder und Manipulationen in der Positionierung. Um tolle und relevantere Vergleichsergebnisse in den Resultaten zu erhalten, mussten wir sich die Operatoren der Suchmaschinen im WWW an diese Faktoren adjustieren. Weil der Triumph einer Suchseite davon abhängt, wichtigste Ergebnisse der Suchmaschine zu den inszenierten Keywords anzuzeigen, vermochten untaugliche Ergebnisse zur Folge haben, dass sich die Benützer nach anderen Möglichkeiten bei der Suche im Web umschauen. Die Auskunft der Search Engines lagerbestand in komplexeren Algorithmen fürs Platz, die Punkte beinhalteten, die von Webmastern nicht oder nur kompliziert beherrschbar waren. Larry Page und Sergey Brin generierten mit „Backrub“ – dem Urahn von Suchmaschinen – eine Search Engine, die auf einem mathematischen KI basierte, der mit Hilfe der Verlinkungsstruktur Unterseiten gewichtete und dies in Rankingalgorithmus eingehen ließ. Auch andere Suchmaschinen im Internet betreffend pro Folgezeit die Verlinkungsstruktur bspw. in Form der Linkpopularität in ihre Algorithmen mit ein.
Bing