Tag: SEO
Mitte der 1990er Jahre fingen die allerersten Internet Suchmaschinen an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten flott den Wert einer bevorzugten Positionierung in den Ergebnissen und recht bald fand man Behörde, die sich auf die Aufbesserung ausgerichteten.
In Anfängen ereignete sich die Aufnahme oft zu der Übermittlung der URL der speziellen Seite bei der divergenten Suchmaschinen im WWW. Diese sendeten dann einen Webcrawler zur Untersuchung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Website auf den Server der Recherche, wo ein 2. Programm, der gern genutzte Indexer, Informationen herauslas und katalogisierte (genannte Ansprüche, Links zu ähnlichen Seiten).
Die zeitigen Typen der Suchalgorithmen basierten auf Infos, die mithilfe der Webmaster selbst gegeben wurden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Internet wie ALIWEB. Meta-Elemente geben eine Gesamtübersicht über den Gehalt einer Seite, aber registrierte sich bald heraus, dass die Benutzung dieser Vorschläge nicht zuverlässig war, da die Wahl der angewendeten Schlüsselworte dank dem Webmaster eine ungenaue Beschreibung des Seiteninhalts widerspiegeln vermochten. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Websites bei spezifischen Benötigen listen.[2] Auch versuchten Seitenersteller unterschiedliche Fähigkeiten innert des HTML-Codes einer Seite so zu manipulieren, dass die Seite stärker in den Serps aufgeführt wird.[3]
Da die damaligen Suchmaschinen im WWW sehr auf Aspekte angewiesen waren, die bloß in den Taschen der Webmaster lagen, waren sie auch sehr instabil für Missbrauch und Manipulationen in der Positionierung. Um überlegenere und relevantere Ergebnisse in den Suchergebnissen zu erhalten, mussten sich die Betreiber der Internet Suchmaschinen an diese Voraussetzungen adjustieren. Weil der Riesenerfolg einer Recherche davon abhängt, relevante Suchresultate zu den inszenierten Suchbegriffen anzuzeigen, vermochten unpassende Urteile dazu führen, dass sich die Benützer nach anderweitigen Entwicklungsmöglichkeiten zur Suche im Web umschauen. Die Rückmeldung der Suchmaschinen im Internet fortbestand in komplexeren Algorithmen beim Positionierung, die Faktoren beinhalteten, die von Webmastern nicht oder nur schwer steuerbar waren. Larry Page und Sergey Brin generierten mit „Backrub“ – dem Urahn von Suchmaschinen – eine Anlaufstelle, die auf einem mathematischen Matching-Verfahren basierte, der anhand der Verlinkungsstruktur Kanten gewichtete und dies in den Rankingalgorithmus einfluss besitzen ließ. Auch alternative Search Engines relevant pro Folgezeit die Verlinkungsstruktur bspw. als der Linkpopularität in ihre Algorithmen mit ein.
Yahoo