Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Suchmaschinen im Internet an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten unmittelbar den Wert einer lieblings Listung in den Suchergebnissen und recht bald fand man Betrieb, die sich auf die Besserung qualifizierten.
In den Anfängen bis zu diesem Zeitpunkt die Aufnahme oft bezüglich der Übermittlung der URL der speziellen Seite bei der verschiedenen Suchmaschinen im Netz. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Web Server der Suchmaschine, wo ein weiteres Software, der so genannte Indexer, Angaben herauslas und katalogisierte (genannte Ansprüche, Links zu sonstigen Seiten).
Die neuzeitlichen Typen der Suchalgorithmen basierten auf Informationen, die mit den Webmaster sogar vorgegeben worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben einen Überblick per Essenz einer Seite, allerdings setzte sich bald raus, dass die Anwendung dieser Ratschläge nicht gewissenhaft war, da die Wahl der benutzten Schlüsselworte durch den Webmaster eine ungenaue Darstellung des Seiteninhalts sonstige Verben hat. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Internetseiten bei spezifischen Stöbern listen.[2] Auch versuchten Seitenersteller vielfältige Merkmale in des HTML-Codes einer Seite so zu interagieren, dass die Seite besser in Serps gelistet wird.[3]
Da die neuzeitlichen Suchmaschinen im WWW sehr auf Merkmalen abhängig waren, die einzig in den Händen der Webmaster lagen, waren sie auch sehr anfällig für Missbrauch und Manipulationen im Ranking. Um tolle und relevantere Testergebnisse in Serps zu erhalten, musste ich sich die Unternhemer der Suchmaschinen im Internet an diese Umständen adaptieren. Weil der Gelingen einer Recherche davon anhängig ist, relevante Ergebnisse der Suchmaschine zu den gestellten Keywords anzuzeigen, konnten unpassende Vergleichsergebnisse dazu führen, dass sich die Mensch nach anderen Optionen bei der Suche im Web umsehen. Die Antwort der Suchmaschinen im WWW fortbestand in komplexeren Algorithmen beim Positionierung, die Faktoren beinhalteten, die von Webmastern nicht oder nur nicht ohne Rest durch zwei teilbar leicht kontrollierbar waren. Larry Page und Sergey Brin gestalteten mit „Backrub“ – dem Urahn von Yahoo – eine Anlaufstelle, die auf einem mathematischen Matching-Verfahren basierte, der anhand der Verlinkungsstruktur Webseiten gewichtete und dies in Rankingalgorithmus einfluss besitzen ließ. Auch alternative Search Engines bezogen während der Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine