Tag: SEO
Mitte der 1990er Jahre fingen die anfänglichen Search Engines an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten rasch den Wert einer nahmen Positionierung in den Serps und recht bald entstanden Organisation, die sich auf die Verbesserung ausgebildeten.
In den Anfängen erfolgte der Antritt oft zu der Transfer der URL der jeweiligen Seite bei der verschiedenartigen Suchmaschinen im Netz. Diese sendeten dann einen Webcrawler zur Betrachtung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetseite auf den Webserver der Anlaufstelle, wo ein 2. Anwendung, der allgemein so benannte Indexer, Infos herauslas und katalogisierte (genannte Wörter, Links zu weiteren Seiten).
Die frühen Varianten der Suchalgorithmen basierten auf Infos, die durch die Webmaster auch vorliegen wurden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben einen Eindruck via Content einer Seite, aber registrierte sich bald hervor, dass die Benutzung der Tipps nicht ordentlich war, da die Wahl der benutzten Schlagworte durch den Webmaster eine ungenaue Abbildung des Seiteninhalts widerspiegeln vermochten. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Seiten bei besonderen Suchen listen.[2] Auch versuchten Seitenersteller vielfältige Attribute in des HTML-Codes einer Seite so zu manipulieren, dass die Seite besser in den Suchergebnissen aufgeführt wird.[3]
Da die späten Search Engines sehr auf Faktoren dependent waren, die bloß in Händen der Webmaster lagen, waren sie auch sehr instabil für Falscher Gebrauch und Manipulationen in der Positionierung. Um gehobenere und relevantere Testurteile in den Resultaten zu bekommen, mussten sich die Operatoren der Search Engines an diese Voraussetzungen angleichen. Weil der Gewinn einer Search Engine davon abhängig ist, relevante Suchergebnisse zu den inszenierten Keywords anzuzeigen, konnten ungeeignete Urteile dazu führen, dass sich die User nach anderen Optionen bei der Suche im Web umschauen. Die Auflösung der Suchmaschinen im WWW lagerbestand in komplexeren Algorithmen fürs Positionierung, die Aspekte beinhalteten, die von Webmastern nicht oder nur schwer steuerbar waren. Larry Page und Sergey Brin generierten mit „Backrub“ – dem Urahn von Suchmaschinen – eine Anlaufstelle, die auf einem mathematischen Suchalgorithmus basierte, der mit Hilfe der Verlinkungsstruktur Webseiten gewichtete und dies in den Rankingalgorithmus einfluss besitzen ließ. Auch alternative Suchmaschinen im Netz überzogen während der Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.
Yahoo search