Werde Spam-Reporter - Hilf die größte von Menschen geschaffene Suchmaschine des WWW zu säubern!


Die Tricks der Suchmaschinenoptimierer, welche verwendet werden und wie man sie erkennt und meldet.

Ich habe nichts gegen Affiliate-Seiten. Einige wenige dieser Seiten sind wirklich gut und hilfreich und informieren wahrheitsgemäß über Tatsachen. Das sind leider die Seiten, deren Betreiber am wenigsten verdienen. Denn Qualität führt zu wesentlich größerem Aufwand und reduziert die Einnahmen durch hohe Kosten, solange es Webspam-Seiten gibt.

Immer mehr Seiten mit Affiliate-Links sprießen aus dem Boden, die Besucher und Suchmaschinen täuschen. Bestimmte Nischenbereiche im Web sind schwer umkämpft von Seiten, die keinen qualitativ hochwertigen Content ins Netz stellen. Vielmehr werden "bedarfsgerechte Keywordkombinationen" online gestellt, die dazu notwendig sind, um Menschen wie Du und ich, die nach einem Produkt suchen, nicht das Produkt finden zu lassen, sondern auf das Produkt optimierte Seiten mit lückenhaften oder gar falschen Aussagen.

Warum sind die meisten Affiliate-Seiten schlecht?


Viele täuschen die Besucher, in dem sie Anbieter hervorheben mit bestimmten Merkmalen, ohne auf die teilweise tief in deren Bedingungen versteckten Vertragsfallen hinzuweisen. Egal, ob es sich um Handytarife, DSL-Angebote, Kredite, Geldanlagen oder sonstige Produkte handelt.

Diese Seiten arbeiten häufig mit allen Mitteln, um auf die ersten Plätze zu kommen, die natürlich sehr erträglich sind. Aber auch andere Seiten im Web täuschen z. B. die Suchmaschinen, in dem sie serverseitig abfragen, ob der Besucher ein Bot (Crawler/Suchmaschinenroboter), z. B. GoogleBot, ist, um ihm dann eine gefälschte Seite auszugeben, die meist Keywordwiederholungen, Keywords mit besonderer Keywordnähe und Rechtschreibfehler beinhaltet, kein Design oder CSS und andere "Spielereien".

Verborgener Text oder Links


Wenn Du eine Seite findest, die topgelistet ist, z. B. in einem Bereich, in dem Du auch tätig bist, vergleiche den Quelltext mit dem, was im Browser angezeigt wird. Merke Dir die Inhalte der Seite und prüfe, ob nicht ein wenig mehr im Quelltext steht. Es gibt viele Methoden:
  • Text hinter Bildern verstecken

  • Text in DIV-Elementen außerhalb des sichtbaren Bereiches positionieren

  • Text mit kleinster/keiner Schriftgröße über ausgelagerte CSS gesteuert (font-size:0; line-height:0;)

  • Text nicht anzeigen (display:none;)

  • Erste Zeile eines Absatzes außerhalb des sichtbaren Bereiches einrücken (text-indent:-999px;)

  • Text mit Hilfe von JavaScript nicht auf der Seite anzeigen

  • usw.
Tatsächlich werden auch hin und wieder noch völlig veraltete Methoden eingesetzt: eine lange Liste von Wörtern im Footer der Seite, die in ähnlicher Farbe als der Hintergrund erscheint. Erstaunlich ist, dass diese alte Methode bei Google immer noch funktioniert, selbst mit kleinster Schrift.

Irreführende oder sich wiederholende Wörter


In Kombination mit verborgenem Text werden häufig auch sich wiederholene Wörter und Sätze erzeugt oder auch absichtlich Rechtschreibfehler, damit die entsprechend manipulierten Seiten auch dann gefunden werden, wenn sich der Suchende in Google vertippt. Selbst im Seitentitel (title) können alle Rechtschreibfehler hintereinander aufgeführt werden und Google merkt es nicht.

Die Seite stimmt nicht mit der Beschreibung von Google überein


Das ist peinlich für den Seitenbetreiber. Dann hat die Manipulation von Google irgendwo nicht funktioniert und wird teilweise transparent. Oder es wurden mit Cloaking andere Meta-Tags der Suchmaschine zur Verfügung gestellt, als auf der Seite aufgeführt oder nicht aufgeführt sind. (title, description)

Cloaking (IP-Delivery)


Die alte Methode mit JavaScript-Redirecting/Javascript-Cloaking brauche ich wohl nicht mehr ansprechen. Spätestens seitdem Anfang 2006 BMW.de dadurch in entsprechenden Kreisen ziemlich bekannt wurde, für kurze Zeit aus dem Google Index genommen wurde und Matt Cutts einen schönen Webspam-Blogpost darüber schrieb...

Die aktuellere Methode mit IP-Delivery (IP-Cloaking) ist (war?) da etwas effektiver. Serverseitig wird per PHP die IP des "Besuchers" mit einer Liste der IP-Adressen der Suchmaschinenrobots abgeglichen. Handelt es sich bei der IP um einen Bot, wird ihm eine speziell manipulierte Seite präsentiert, die so aufgebaut ist, wie oben schon beschrieben.

Die Methode IP-Delivery sollte bald aussterben, denn Google und Yahoo verwenden zwischenzeitlich Strategien, bei denen z. B. ein menschlicher Besucher nachgeahmt wird. Solange der Cloaker nicht die IP kennt, mit der die Suchmaschine einen menschlichen Besucher simuliert, hat er ein Problem. Yahoo setzt neue Methoden mit dem Crawler Slurp ein. Auch hier von neuen IP-Adressen aus. Wie man Cloaking aktuell richtig betreibt, kann man bei Sistrix nachlesen: DNS- und Reverse-DNS-Auflösung.

Wie kann man prüfen, ob eine Seite Cloaking betreibt? - Rufe die Seite im Cache von Google auf. In der Google Suche eingeben: cache:www.domain.de bzw. cache:www.domain.de/verzeichnis/verzeichnis2/datei.htm. Stehen dort andere Inhalte, melde die Seite an Google.

Noch etwas Spaßiges zu Cloaking: es soll da das ein oder andere Suchmaschinenforum geben, in dem solche IP-Adresslisten von Suchmaschinencrawlern veröffentlicht werden. Die meisten Veröffentlicher haben dabei einen Riesenspaß, denn diese Listen enthalten veraltete IPs. Somit schafft man sich einiges an Konkurrenz vom Hals.

Irreführende Umleitungen


Du besuchst eine Seite und es macht "klick" o. ä. - In dem Moment, wo Du die Domain aufrufst, erfolgt sofort eine Weiterleitung auf ein Unterverzeichnis, damit der Besucher nicht lesen kann, was auf der Startseite steht. Früher hat man so etwas mit

<meta http-equiv="refresh" content="0; url=http://www.domain.de">

gemacht. Später dann mit JavaScript. Dann mit htaccess und 302- oder 301-Redirect.

Brückenseiten (Doorway-Pages)


Stell Dir vor, Du hast eine Seite, die ein Produkt beschreibt. Es ist unmöglich, alle Arten von Keywordkombinationen auf dieser einen Seite so unterzubringen, dass es niemand merkt. Zu diesem Zweck erstellt man manuell oder über Software automatisiert, eine Vielzahl oder Unzahl von Brückenseiten (100, 1.000, 10.000, 100.000), die alle einen ähnlichen Text haben und mit jeweils anderen Keywords bestückt sind. Die einen Brückenseiten kann man als menschlicher Besucher sehen, andere werden sofort auf die Domain oder die für den Besucher erstellte Seite weitergeleitet und wieder andere liefern z. B. einen 404, wenn ein Besucher versucht, sie aufzurufen. Vielleicht hast Du in der Google Bildersuche schon einmal ein Bild angeklickt und es führte zu einer Seite, die dann 404 anzeigte bzw. zu einer anderen Seite weiterleitete. Dann hast Du eine Brückenseite erwischt.

Ein anderer Trick ist, dass all diese Seiten gar nicht real existieren, sondern erst für den Suchmaschinencrawler automatisiert und mit passenden Keywords aus einer angeschlossenen Datenbank versorgt, erzeugt werden.

Doppelt vorhandene Sites oder Seiten


Eine Website existiert unter www.domain.de und haargenau die selbe Website unter www.domain2.de. Das merkt Google sehr schnell und entfernt eine davon aus dem Index. Solltest Du schneller als Google sein, trage dazu bei, dass diese Seite aus dem Index entfernt wird. Will ein Betreiber zügig auf die ersten Plätze, z. B. für eine Aktion, kann er mit doppelt vorhandenen Websites oder Seiten für eine kurze Zeit, bis er entdeckt wird, diese Positionen erreichen. Wird er entdeckt, erzeugt er immer wieder und wieder neue Seiten und bleibt dauerhaft in den SERPs oben. Mit entsprechender Software kann er eine nahezu unendliche Anzahl solcher Seiten erzeugen und online stellen.

Wir alle wollen auch morgen noch im Web surfen können, ohne zugespamt und zugemüllt zu werden.

Wir alle wollen uns informieren können und dabei die Wahrheit erfahren.

Wir wollen Vor- und Nachteile von Produkten sehen und erfahren und nicht Seiten präsentiert bekommen, die lediglich die Produktvorteile aufführen und uns in Fallen tappen lassen.


Deswegen:
Werde Spam-Reporter - Hilf die größte von Menschen geschaffene Suchmaschine des WWW zu säubern!

Google Spam Report ohne Login. Du brauchst keinerlei persönliche Daten angeben.

Spam im Google-Index melden mit Login in den Google Webmaster-Tools

Google möchte sich für Ihre Unterstützung bei der Verbesserung unserer Dienste, die wir Websuchern auf der ganzen Welt bereitstellen, bedanken. Indem Sie uns helfen, Spam zu eliminieren, sparen Sie Millionen von Menschen Zeit, Mühe und Energie. Dies ist unserer Meinung nach ein lohnenswertes Ziel.


Der Post Google Spam Report - Werde Spam-Reporter! wurde in die Kategorie Suchmaschinenoptimierung, SEO Web 2.0, Social Media Optimization, SMO eingeordnet.





8 comments:

Thomas said...

Guten Morgen, wie immer lese ich deine Beiträge mit interesse und finde die Informationen gut. Diesem Spam Reporting sehe ich aber mit gemischten Gefühlen entgegen. Mitbewerber können auch dich als Spam melden und schwupp biste Raus aus dem geschehen. Ich habe eine Domain seid langem unter Top 1 stehen und besitze auch die . net . com etc. selbst die alten Domains des Auftraggebers habe ich permanent redirectet wie Google es wünscht doch trotzdem tauchen sie ab und an auf und Goggle hat mir DC gemeldet. Ein heilloser Schriftverkehr ging los. Über die Affili hatte ich auch schon was geschrieben im Webnews und da stört mich persönlich das nicht mehr auf Qualität geachtet wird. Also ich bekomme selten eine W3C Prüfung nach einbinden hin. Google sollte sich vielleicht auch mal an WP halten die dort laufenden Spam Plugins sind wirklich gut und alle zusammen können es schaffen ! Da bin ich absolut deiner Meinung. Leider wird es nie so genuzt wie es sein soll. Sehr schöner informativer Artikel. Sobald ich meinen Seos Blog wieder zum laufen bekomme werde ich dich Trackbacken :-) erspart mir viel Erklärungsarbeit. Daumen Hoch gruß Thomas

JH said...

ich krieg die krise, wenn ich über die verwendung von display:none als spam deklariert werde, nur weil ich über das ein- und ausblenden von divs für den user angenehme seiten bauen will. hoffentlich macht google dann auch überprüfungen, da sonst das totale denunziantentum ausbrechen wird.

Wulffy said...

Hallo Thomas, danke für Deinen Kommentar. Ich finde, dass jeder gemeldet werden sollte. Ohne Rücksicht. Wenn ich entsprechende Methoden einsetze, gehe ich auch das Risiko ein, bei diesem Spiel auf die Verliererliste zu geraten. Google bietet i. d. R. nach Überarbeitung der Seite(n) immer eine Chance, wieder aufgenommen zu werden. Und ganz am Ende benötigt man nicht wirklich Spam-Methoden, um nach oben zu kommen und oben zu bleiben. Nur in den Bereichen, in denen massiv verdient wird, hat man mit WhiteHat SEO keine Chance.

W3C ist egal. Danke für das Lob und den zukünftigen Link! ;-)

Beste Grüße,
Wulffy

Wulffy said...

Hi JH, nein, Du brauchst keine Krise zu bekommen. display:none ist doch nicht pauschal Spam. Ein- und Ausblenden bedeutet für den Besucher einen Mehrwert, in dem er sich nacheinander auf den jeweiligen Text konzentrieren kann. Nur ein Text, der GAR NICHT dem Besucher gezeigt wird, ist Cloaking.

Wenn Du es Google meldest, wird sich ein Mensch, ein Google Quality Rater, damit auseinandersetzen und natürlich niemanden bestrafen, der nicht wirklich unsichtbaren Text darstellt.

Susanne said...

Gut, dass ich Deinen Beitrag gelesen habe. Ich habe seit 3 Tagen jetzt unermüdlich Spammer angemeldet bei Google. Ich hoffe, damit den Index sauber zu bekommen und alle die vor mir stehen, wegfliegen zu sehen. Hihi - Danke Dir für Deine Tipps.

Wulffy said...

Hallooo Susanne, übertreib es nicht, sonst kommt Google nicht mehr dazu, seinen Index zu aktualisieren! *ggg*

Stefan said...

Also am schlimmsten finde ich ehrlich gesagt jenen Spam der in Form von schnel gepushten Websites auftritt. Diese haben dann Viren und Trojaner und was weiß ich noch und dann werden Daten geklaut wo es nur geht.
Es ist ja schon so weit gekommen dass man sich als Viel-Surfer gar nicht mehr ohne laufende Antiviren Programme ins Netz trauen kann.

Wulffy said...

Stefan, danke für Deinen Kommentar. Ja, dieser Spam ist der schlimmste, weil er sichtbar für jeden ist. Ohne entsprechenden Schutz auf seinem PC ist die Masse ausgeliefert.

Viel schlimmer ist jedoch Keywordspam und Cloaking, da der Besucher es eher nicht mitbekommt und damit wirklich gute Seiten verdrängt werden.