Polaris Systems Neuigkeiten

Schlechte Links - Gutes Ranking? Suchmaschinen entschärfen schlechte Links

Das kann gewollt oder auch ungewollt, sprich vom Anbieter selbst beeinflusst werden. Legt man den demokratischen Grundgedanken nieder und zählt jeden Link (positiv und negativ) als Stimme gleich, kommt man bestimmt auf dieses Ergebnis. Zählt man nur die Anzahl der Backlinks und prüft nicht die Qualität bzw. deren Inhalte, erzielt eine schlechte Website ein höheres Ranking. Das darf natürlich nicht sein und Suchmaschinen kämpfen darum einen geeigneten Weg zu finden, Links, Bewertungen und Webseiten nach bestimmten Kriterien einzuordnen.

Betreibt man einen eigenen Blog oder ein Forum hat man als Webmaster die Möglichkeit durch Setzen des Linkattributs rel="nofollow" den Link und damit die Gewichtung der Inhalte und Linktexte zu beeinflussen. In den meisten Fällen wird standardmäßig das Linkattribut rel="nofollow" gesetzt, so dass die Gewichtung der Backlinks bei den Suchmaschinen entsprechend niedrig ausfällt. Jemand der einen Artikel verfasst, hat somit geringe Chancen sein Suchmaschinenranking positiv zu beeinflussen, da Links mit "nofollow" kaum Gewichtung für das Ranking erhalten. In diesem Fall hat der Webmaster des Blogs oder Forum es selbst in der Hand die entsprechenden Einstellungen vorzunehmen.

Suchmaschinen haben diese Möglichkeit leider nicht. Sie müssen Nachrichten, Beiträge und Inhalte von allen erdenklichen Webseiten (Nachrichtenseiten, Soziale Netzwerke, etc.) aufnehmen und diese entsprechend für das Ranking aufarbeiten. Eine einfache Stimmungsanalyse durchzuführen, wie es bereits von einigen Suchmaschinen auf Links von Blogs, News- oder Forenseiten angewendet wird, reicht nicht aus. Würde man sich strikt an dieses Prinzip halten, würden z.B. Webseiten von und mit Politikern kaum auffindbar sein. Es muss also ein Mittelweg gefunden werden.

Mittlerweile gibt es eine große Anzahl von Softwarefirmen, die sich mit der Auswertung und Beobachtung von Meinungen, Bewertungen und Kommentaren beschäftigen. So gibt es für Twitter spezielle Tools, für Businessportale entsprechende Auswertungssoftware, etc. Diese Beispiele kann man entsprechend weiterführen. Jedes Segment muss natürlich linguistisch anspruchsvolle Algorithmen für das gerade entsprechend Thema beinhalten. Suchmaschinen wie Google verstecken ihren Algorithmus besonders gerne unter der Haube. Sie müssen praktisch alle Bereiche abdecken. Wie die Daten gesammelt und ausgewertet werde ist und bleibt natürlich ein Geheimnis. Man kann aber davon ausgehen, dass die Suchmaschinen über die zahlreichen eigenen zur Verfügung gestellten Anwendungen ausreichend Daten für die Auswertung und Einstufung einzelner Webseiten vorhanden sind. Schlechte Links werden in Zukunft somit noch weniger Chancen haben, ein Website positiv im Ranking zu beeinflussen.

Zurück