Skip to main content

Renaissance des Black Hat SEO? oder: Ist Google einfach zu dumm?

Die letzten beiden SEO-Contests „XOVILichter“ und „RaketenSEO“ haben in der Szene wieder wilde Diskussionen hervorgerufen. Denn gewonnen haben, oh Schreck, nicht etwa Teilnehmer, die durch tollen Content, hochwertige Backlinks und positive Usersignale echten Mehrwert geschaffen haben, sondern die eher durch Link- und Textspam, versteckte Backlinks, Linknetzwerke und ähnliche Methoden Google schlicht und einfach austricksten konnten. Martin Missfeldt nahm das zum Anlass, die White Hat-Strategie grundsätzlich zu hinterfragen.

In den Blogkommentaren, aber auch in den Diskussionen im Social Web wurde daraufhin festgehalten, dass es sich bei den Beispielen um SEO-Contests und damit um realitätsferne Sonderfälle handele. Das ist natürlich richtig. Ein Keyword, für das es weder alte und starke Konkurrenz noch eine erkennbare Suchintention gibt, sagt wenig über die Wirksamkeit der SEO-Strategie im „echten Leben“ aus. Außerdem ist der Contest-Zeitraum ja immer sehr knapp bemessen. Was innerhalb von 1-3 Wochen funktioniert, kann nach ein paar Monaten natürlich direkt zur Abstrafung führen.

Funktioniert Black Hat nur bei SEO-Wettbewerben?

Doch wie sieht die Situation denn in den echten Suchergebnissen aus? Haben die White Hats wirklich die Nase vorn? Oder kann man sich auch heute noch mit Blackhat-Techniken (oder zumindest Greyhat-Maßnahmen) einen Vorteil verschaffen?

Da ich berufsbedingt sehr viel bei Google unterwegs bin, fallen mir immer wieder Websites auf, die zwar gut ranken, aber so gut wie nichts von dem umsetzen, was Google laut Webmaster-Guidelines und Matt Cutts-Videos eigentlich will. Da ranken inhaltsleere Seiten, Frames- und Flash-Websites, sogar Weiterleitungen. Gerade bei regionalen (aber durchaus finanziell interessanten) Keywords sehen die Rankings teilweise sehr seltsam aus. Das zeigt zwar, dass Google bezüglich Qualität noch viel nachzuholen hat, sagt aber noch nicht viel über „verbotene“ Maßnahmen aus.

Immer wieder stößt man jedoch auch auf Seiten, die eigentlich überhaupt nicht ranken dürften, wenn Google die eigenen Richtlinien konsequent umsetzen würde (oder könnte). Ich habe einmal vier Beispiele ausgewählt, die mit Grey- oder Blackhat-Techniken arbeiten und trotzdem oder gerade deshalb gut bei Google ranken.

Was ist eure Meinung? Funktionieren die Techniken deshalb, weil Google sie nicht erkennt? Oder ist es Google schlichtweg egal? Oder ranken die Seiten gar trotz, aber nicht wegen dieser Maßnahmen?

Beispiel 1: Versteckter Text

Dieses Beispiel habe ich bei einer Google-Suche nach dem Begriff „Autoaufbereitung Köln“ gefunden. Sowohl organisch als auch in den lokalen Ergebnissen steht eine Website mit einer, naja sagen wir mal „außergewöhnlichen“ Domain ganz oben. Die Domain ist zwar ungewöhnlich und nicht besonders handlich, aber abgesehen von etwas Keyword-Stuffing wohl noch nicht „black“.

Interessanter Domainname

Interessanter Domainname

Ein Blick in den Quelltext oder wie hier mit browseo offenbart dann aber ein anderes Bild. Die H1-Überschrift ist, sagen wir mal, etwas lang geraten…

H1-Überschrift (ausgeblendet)

Ganz unten im Quelltext beindet sich dann noch eine versteckte H3-Überschrift, die zahlreiche Links enthält.

 

Versteckte Links in H3-Überschrift

Versteckte Links in H3-Überschrift

Wir haben also Keyword-Stuffing, Hidden Text und Hidden Links. Bei tiefergehender Analyse dürfte sicher noch mehr zutage treten. Und trotzdem rankt die Seite nicht nur für regionale Begriffe, sondern auch für Keywords wie „Autoaufbereitung“, „Nanoversiegelung“ oder „Autoreinigung“ in den Top 10. Tendenz stark positiv, wie der SISTRIX-Sichtbarkeitsindex zeigt…

 

Positive Entwicklung trotz/wegen Black Hat SEO?

Positive Entwicklung trotz/wegen Black Hat SEO?

Beispiel 2: Keyword Stuffing

Das funktioniert natürlich nicht nur für die Autoaufbereitung. Ein weiteres regionales, aber sehr teures Keyword, ist „Schlüsseldienst“. In Kombination mit dem jeweiligen Stadtnamen fallen bei AdWords da schnell Klickpreise im zweistelligen Euro-Bereich an. Klar, dass Unternehmen da gerne organisch gut ranken möchten.

Und dafür wenden sie dann manchmal Techniken an, die eigentlich schon seit fünf oder mehr Jahren ausgestorben sein sollten. Die einfachste Version ist das Unterbringen langer Keyword-Listen im Footer oder in der Sidebar:

Keyword-Liste in der Sidebar

Keyword-Liste in der Sidebar

Selbst der deutliche Hinweis „Keywords“ scheint Google bisher nicht zu stören, denn die Domain rankt munter vor sich hin…

 

Beispiel 3: Regionale SEO Landingpages mit Duplicate Content

Was tun, wenn das eigene Einzugsgebiet eine Großstadt mit vielen Stadtteilen ist und die Zielgruppen auch mit diesen Kombinationen suchen? Dann reicht es eben nicht mehr, für „Keyword Stadt“ zu ranken, sondern es werden zahlreiche Rankings für „Keyword Stadtname Ortsteil“ notwendig. Häufig lösen Unternehmen dieses Dilemma durch den Einsatz von vielen Landingpages, die direkt auf die jeweiligen Stadtnamen optimiert werden. Teilweise ist das einzige Unterscheidungsmerkmal die Nennung des Ortsteils, ansonsten sind alle Landingpages exakt gleich aufgebaut.

Auf der Startseite findet man dann im Footer oft solche Link-Ungetüme:

Footer-Links

Footer-Links

Die dahinterliegenden Seiten sind exakt die gleichen. Das größte Unterscheidungsmerkmal ist die URL-Struktur, die sich allerdings auch nicht gerade superwhite liest…

Interessante URL-Struktur

Interessante URL-Struktur

Ergebnis: Die Seite rankt für fast alle der verwendeten Ortsteile in den Top 5…

Ach so, natürlich gibt es fast exakt die gleiche Seite nochmal unter einer weiteren Domain mit einer ähnlich interessanten URL-Struktur. Ranken tun beide…

 

Auch hübsch anzusehen...

Auch hübsch anzusehen…

Beispiel 4: Fake-Glossar mit Hidden Text und SEO-Landingpages

Nicht nur regionale Unternehmen verwenden diese spammigen Techniken, auch größere Unternehmen und Konzerne bleiben nicht sauber. Hier muss allerdings gesagt werden, dass hier oftmals gar nicht bewusst gegen Google-Guidelines verstoßen wird. Man vertraut einfach auf die Ratschläge der SEO-Agentur. Da eigenes Know-how im Unternehmen fehlt, können die Verantwortlichen oft nicht einschätzen, ob die vorgeschlagenen Maßnahmen empfehlenswert sind oder nicht. Das Schlimme daran ist: Sie funktionieren teilweise sogar, zumindest für eine gewisse Zeit.

In diesem Beispiel wurde auf der Startseite (und nur dort) relativ weit unten, klein und mit wenig Kontrast, das Wort „Glossar“ untergebracht. Beim Überfahren mit der Maus ändert sich der Mauszeiger nicht.

Glossar-"Link"

Glossar-„Link“

Klickt man trotzdem auf das Wort öffnet sich eine Linkliste, ebenfalls in blassem Grau. Für etwa 20 Keywords wurden jeweils drei Landingpages angelegt, so dass diese Linkliste ca. 60 Links umfasst.

Ausgeklapptes Glossar

Ausgeklapptes Glossar

Diese Landingpages bestehen jeweils aus einem Textblock ohne jegliche Formatierung sowie aus Links zu 10 weiteren Landingpages mit gleichem Aufbau.

 

"Glossar"

„Glossar“

Mal abgesehen, dass hier gegen gleich mehrere Google-Richtlinien verstoßen wurde und ein Quality Rater beim Betrachten dieses Konzepts die altbekannten aufgerollten Fußnägel davontragen würde, rankt die Seite mit deutlich positiver Tendenz.

Also, was is‘ nu?

Ist Google nun zu doof, um solche Techniken zu erkennen und entsprechend zu behandeln? Oder haben diese Seiten irgendwelche anderen starken Positiv-Signale, die sie vor einer Abstrafung bewahren? Oder ist Google das schlicht und einfach egal? Es darf spekuliert werden…

Und zum Abschluss: Durch positive Usersignale können sich diese Seiten eigentlich auch nicht hervortun. Denn weder waren die Ladezeiten überragend, noch gab es auf den meisten Seiten Call to actions, die Conversions produzieren könnten. Ach ja, responsive waren die Seiten überwiegend auch nicht…



Ähnliche Beiträge



Kommentare


Private Blog Netzwerke – Simpler Rankingboost oder gefährliches Blackhat? 15. September 2014 um 9:57

[…] nicht als Black-Hat SEO (passend dazu hat Felix Beilharz übrigens vor ein paar Minuten einen Artikel veröffentlicht, in dem er etwas genauer auf das Thema “Black Hat SEO” eingeht) bezeichnen würde, ist […]

Antworten

Harald 15. September 2014 um 10:10

Sehr interessant. Da scheint SEO wohl doch immer noch keine exakte Wissenschaft zu sein …

Antworten

Kerstin Hoffmann 15. September 2014 um 10:29

Sehr interessante Betrachtung. Das Beruhigende daran ist nach wie vor, das, was du selbst schreibst: Die Seiten mögen hoch ranken. Aber wer etwas verkaufen will, noch dazu vielleicht etwas Hochwertiges, dem würde eine solche Vorgehensweise überhaupt nichts nützen!

Antworten

Monika T-S 15. September 2014 um 11:15

Danke dir für die wirklich guten Beispiele, die sich mit einigen decken, die ich unter googleDOTat gefunden hatte.

Ich denke mir, dass Google mehr sagt als es tatsächlich kann. Daher ist seit Jahren Hr Cutts für mich kein Spamexperte, sondern Pressesprecher dieses Konzerns. Für mich greift Google dort hart durch wo es selbst einsteigen mag oder eingestiegen ist.

Gestützt durch „das ist Spam“ Meldungen von Herrn Cutts findet dann auch jeder den Absturz der in Konkurrenz zu Google stehenden Seiten als logisch und richtig.

Cutts schaffte es, dass viele Menschen meinen verdammt gute Suchergebnisse seien ein Mutter Theresa Geschenk und man habe ein Recht darauf.

Wenn Google all die schlechten Seiten erkennen könnte bräucht es keine „Warnungen und Penalties“, sondern es tät dann einfach nicht funktionieren.

Ich habe immer öfter die Vermutung der Algo ist viel viel einfacher als uns gesagt wird. Und es gibt jede Menge an Experimenten.

John Müller stellte erst vor kurzem eindeutig klar, responsive oder adaptives WebDesign ist kein direkter Rankingfaktor, wenn dann über die sogenannte „User experience“ 🙂

Antworten

Jörg Leonhard 15. September 2014 um 11:56

Tolles Thema! Wir haben nun über ein Jahr geforscht und neue Verfahrenstechniken entwickelt. So langsam spielen wir die ersten Stufen ein, die spannenden Sachen sind noch nicht drin. Natürlich bekomme ich die Krätze, wenn ich mir andere Seiten anschaue, die übelstes Black Hat anwenden und dennoch erfolgreich sind (und das mit wenig Aufwand).

Beispielsweise der Klassiker: Keyword + Umgebungsorte, aber keinen content

Es ist einfach nicht nachvollziehbar, dass Google hier nicht die grobe Kelle rausholt. Allerdings muss man sich die rankings mal anschauen: Müll.

Ich habe mir gerade mal die rankings zu meinem Lieblingskonkurrenten bei Sistrix angeschaut.

[Keywords vom Admin entfernt, da ich leider für diese Keywords jetzt ebenfalls gerankt habe 😀 ]

Naja, für ein Wirtschaftsportal nicht unbedingt die passenden Keywords. Weiterhin fallen allg. die rankings mit Keyword + Ort auf. Um genau zu sein Keyword + Kuhkaff. Das Ganze ergibt einen Sichtbarkeitsindex von 22.

Um in medias res zu gehen:

Ok man scheint erfolgreich zu sein, mehr aber auch nicht. Kein User dieser Erde wir hier eine sinnvolle Information finden. Vor Kunden mag der hohe Sichtbarkeitsindex eindruck schinden, aber real produziert man schlichtweg Spam. Hier einen lead zu produzieren halte ich für unwahrscheinlich.

Ich glaube ernsthaft daran: responsive design, schnelle Seitenladezeiten, saubere Keywords/ Nachbarschaft, keine blackhat-Altlasten und guter content führen vielleicht nicht zum mega Sichtbarkeitsindex, aber zu erstklassigen rankings. Die Frage ist auch, wie sinnvoll sind die Angaben der SEO-Tools?

Im vergangenen Jahr hatten wir eine Testreihe (News-Ticker) zu einem aktuellen politischen Thema. Das Ergebnis war Seite eins zwischen Spiegel und Focus. Damals arbeiteten wir mit Xovi, was dies nicht erkannte. Trotzdem hatten wir zu der Zeit wahnsinns Traffic auf dem content. Man darf nicht vergessen, dass die SEO-Tools letztlich nur Schätzeisen sind. Also woran will man Erfolg messen?

Bei einer anderen Testreihe hatte ein Praktikant 5 Texte zu einem Thema mit überdurschnittlich hohem Konkurrenzdruck gesdchrieben. Mit dem 5. Artikel hatte er die praktischen Kernfragen zu dem Thema abgehandelt, was Google semantisch gut gefiel. Eine Woche später hatten wir 50 Toprankings dazu, wodurch bei dem Thema kein User an unserem content vorbei kommt. Auch hier dokumentieren die SEO-Tools vielleicht 10 % der Keywords. Zu Fuß fanden wir rund 30 rankings auf Seite 1.

Fazit:
SEO-Tools sind praktische Schätzeisen. Das wichtigste Tool ist aber die graue Masse zwischen unseren Ohren. In Nieschen mag sich Black Hat vielleicht noch durchsetzen, da Google schlichtweg nichts besseres anbieten kann. Eine Zukunft hat Black Hat dennoch nicht.

Ich behaupte, um Dein Thema Schlüsseldienst aufzugreifen, dass niemand zu dem Thema bis dato ordentlichen content erstellt hat.

Antworten

Verena Krones 15. September 2014 um 14:58

Interessante Beobachtung. Mir fallen auch immer wieder mal ein paar schwarze Schafe auf, die aber, meiner Meinung nach auf Dauer keine echte Konkurrenz darstellen.

Antworten

Ina 15. September 2014 um 15:04

Mhmm…ich spekuliere bei der Autoseite mal, dass das echt mit den durchweg positiven Bewertungen zu tun hat… sollten wir mal nen Versuch in die Richtung starten!

Antworten

karrierebibel 15. September 2014 um 18:05

Es funktioniert halt NOCH. Aber das ist die Kernfrage: Lohnt es sich mehr kurzfristig unter die Top10 zu kommen – oder langfristig dort zu bleiben? Je nachdem wie wirtschaftlich relevant der Umsatz über die Webseite ist, kann eine solche Black-Hat-Strategie ruinös sein.

Antworten

Torsten 16. September 2014 um 11:15

@karrierebibel: Kommentarspam und seine Seite von oben bis unten mit Werbung zuzukleistern ist aber auch nicht die beste Strategie 😀

Antworten

Achim 15. September 2014 um 22:35

Schöner Beitrag und interessante Beispiele! Ich denke gerade bei lokalen SEO sind EMD und PMD noch recht wirkungsvoll, weil die Konkurrenz entweder überhaupt keine oder nur Schrott-Links hat und die eigenen Brand-Verlinkungen mit Keyword recht gut funktionieren.
Traurig ist aber dass der Spam nicht nur im Onpage-Bereich funktioniert. Ich habe mich jahrelang über eine Seite gewundert, die in den SERPs zu „private krankenversicherung“ immer unter den Top 5 gerankt hat. Alle Backlinks offensichtlich getauscht / gemietet und zu 90% völlig themenfremd. Hauptsache High-PR und dass auch überwiegen aus Footer und Sidebar von Schrott-Seiten (WOW-Gold, Hundeschule, Autohaus, usw..).
Ich denke, Google ist bei Weitem nicht so weit wie gerne behauptet wird. Die Algos sind zwar schon stellenweise ganz gut, haben aber eine relativ hohe Fehlerquote (60% funktioniert, 20% fällt durchs Raster, 20% sind Kollateralschäden).
Und alle paar Monate wird dann mal bei einem „Linknetzwerk“ ein paar Testbuchungen gemacht, um das später als Erfolg zu verkaufen. YAY! Jeder Google-Praktikan bekommt das mit ein paar Euros hin.

Antworten

Schreibe 16. September 2014 um 1:25

genau so gehts n einigen Fällen noch, aber langfristig sollte man doch umdenken. Sonst gibts Ärger mit der Tante, aber wenn man auf Adsense-Alternativen setzt, könnte es noch etwas länger dauern…
beste Grüße
Mike

Antworten

Black Hat SEO: Tote Pferde reiten wieder ganz gut? – Seokratie 16. September 2014 um 9:11

[…] Für langfristige Projekte, die man auch in zwei, drei oder fünf Jahren noch haben will, bleibt nur der harte und steinige Weg der Whitehat-Optimierung. Übrigens: Felix Beilharz hat weitere Beispiele gefunden, die momentan dort draussen (erfolgreich) praktiziert …. […]

Antworten

Dumme Algorithmen – Was uns der Facebook Satire-Hinweis wirklich zeigt | Seosweet 16. September 2014 um 13:30

[…] bei SEO Wettbewerben vorgeführt und funktioniert auch in der Praxis in kleineren Nischen, wie Felix Beilharz gerade erst gezeigt hat. Seit dem letzten Raketenseowettbewerb, ist daher die Debatte um die Rückkehr des Black Hat in […]

Antworten

Tobi2 16. September 2014 um 17:40

Es ist letztlich immer die Frage, was das Ziel einer Webseite ist. Wenn ich einen Shop habe, an dem 50 Arbeitsplätze hängen und dessen Traffic zu 95% von Google kommt, sollte ich die Finger von Keyword-Stuffing oder PBN-Links lassen. Wenn ich 100 Affiliate-Projekte habe, die ich als One-Man-Show betreibe, dann juckt es nicht, wenn alle 12 Monate 10% der Seiten aus dem Index fliegen, weil die Google-Richtlinien nicht eingehalten wurden.

Antworten

Websites betreiben wird immer teurer! 18. September 2014 um 11:40

[…] Domains haben viele Kommentatoren einen Artikel verfasst, u.a. Julian Dziki, Michael Boenick und Felix Beilharz. Tenor: Verwunderung, dass es noch klappt, und Mahnung zur Vorsicht, das zu versuchen. Nicolas […]

Antworten

PR Wochenrückblick KW38 – Die Highlights der Woche 19. September 2014 um 8:41

[…] Viel wird um das Thema Black Hat bei SEO-Wettbewerben diskutiert. Einige verweisen darauf, dass die Contests „Sonderfälle“ sind, bei denen um die neuen Keywords weder alte, noch starke Konkurrenz herum vorhanden ist. Dennoch stellt sich die berechtigte Frage: „Haben White Hats mit sauberen Praktiken die Nase vorn oder haben Black Hats mit unsauberen Methoden einen Vorteil auf dem Markt? Zur Beantwortung dieser Fragestellung werden Beispiele aufgezeigt, die den Blick in der dunklen Welt des SEO vergegenwärtigen und hinterfragen: felixbeilharz.de. […]

Antworten

500 pounds in one bite @ 19.09.2014 – ThatScaryDinosaur 19. September 2014 um 9:26

[…] Renaissance des Black Hat SEO? oder: Ist Google einfach zu dumm? – felixbeilharz.de […]

Antworten

Markus Muhr 19. September 2014 um 11:33

Schöner Beitrag und ein immer-wieder-wieder Thema. 😉 Das Black Hat funktioniert ist ja kein grosses Geheimnis – es kommt eben auf die Webseite und die Umstände an. Als Online-Shop wo Arbeitsplätze davon abhängen ist es sicher eine schlechte Wahl – als One Man Show mit vielen Projekten überhaupt kein Problem.
Die eigentliche Frage ist: Wie lange wird es so noch funktionieren

Antworten

Der SEO-Blog-Wochenrückblick KW 38 | SEO-Trainee.de 19. September 2014 um 12:00

[…] Black Hat SEO heutzutage noch? Diese Frage stellt sich Felix Beilharz und liefert auf seinem Blog Beispiele von Seiten, die trotz überaus spammiger Methoden erfolgreich in der Google-Suche ranken. […]

Antworten

Chris 19. September 2014 um 12:55

Black Hat funktioniert halt immer noch.

„Aber wer etwas verkaufen will, noch dazu vielleicht etwas Hochwertiges, dem würde eine solche Vorgehensweise überhaupt nichts nützen!“

Sehe ich nicht so. Wenn ich für ein Keyword für nen Monat ranken kann und mir das 10.000€ in die Kassen spült dann reicht mir das, ob das Ding abschmiert oder nicht ist irrelevant, das Geld kann ich weiter in Hauptprojekte investieren und freue mich wie ein Kullerkeks.

Antworten

BroFist 19. September 2014 um 14:35

Wäre interessant zu beobachten, wie lange sich die Domain noch oben hält.

Antworten

Günther 24. September 2014 um 1:11

Danke für den tollen Artikel. Ich mache inzwischen SEO seit 2001 und benutze bei Kunden, welche mal etwas Zeit und Geld übrig haben immer noch die klassischen SEO-Strategien. Linkaufbau, Texte, Keywords, etc. Fahre immer noch sehr gut mit solchen „Old-School“-Techniken. Man muß nich immer das Rad neu erfinden, manchmal reichts einfach nur, wenn es weiter läuft… 🙂

Antworten

Emilia 24. September 2014 um 9:47

…oder aber die Seiten investieren sehr viel in Google AdWords? und Google „sieht“ die Black Hat Techniken nicht;)

Antworten

SEO Auslese September 2014 | Projecter GmbH 7. Oktober 2014 um 13:30

[…] nicht gut genug? Martin Mißfeldt und Julian Dziki beschäftigen sich mit dieser Frage. Felix Beilharz hat noch weitere „schwarze“ SEO Maßnahmen gefunden, die scheinbar hier und da noch […]

Antworten

Harry Röder 31. Oktober 2014 um 10:39

Hallo Zusammen,
ich kämpfe seit Juli 2012 mit AdWords und Rankingthemen, kenne mich nicht wirklich aus und dauernd ändert sich etwas. Wenn´s dann mal läuft, knickt es ohne erkennbaren Grund plötzlich wieder weg.
Ich bin ein „kleiner“ Erfinder mit einem außergewöhnlichen Produkt und muss mich mit großen Firmen messen. Das gelingt mal sehr gut mal extrem schlecht. Ich weiß nicht, ob ich hier richtig bin, aber ein Versuch ist es ja wert. Ich versuche verzweifelt gegen die inzwischen für uns astronomischen AdWords Kosten anzugehen (Monat ca. 5 bis 7tsd EUR). Google Support ist inzwischen unterirdisch, keiner kennt sich mehr aus, jeder will nach Spezialisten fragen, Antworten kommen einfach keine mehr. Wir haben ein außergewöhnliches Produkt, inzwischen mehr als 4.000 Menschen geholfen ihre Lebensqualität wieder zu gewinnen und wir suchen dringend jemand, der uns im Bereich Onlinemarketing helfen kann (Agentur Angebote sind teils wirklich nicht unbedingt seriös). Unser Produkt befindet sich in einer neuen Version im Zulassungsverfahren der Krankenkassen und wird voraussichtlich in Q1 / Q2 2015 über Rezept erhältlich sein. Der Markt in DE sind ca. 4 Mio. Betroffene p.a. und es gibt nichts anderes was hilft. Am liebsten wäre uns eine Zusammenarbeit auf Basis einer z.B. Gesamt-Umsatzbeteiligung, oder Unternehmensbeteiligung, wie auch immer, das Potential ist wirklich außerordentlich. Wenn mein Beitrag hier gut aufgehoben ist, bitte einfach melden, sonst entschuldige ich mich schon mal dafür, löscht es dann bitte einfach wieder raus. Danke.
Gruß
Harry

Antworten

Toni 27. April 2015 um 19:12

Vielen Dank für den sehr interessanten Artikel. Mich interessiert auch wie lange sich diese Seiten noch ganz oben im Ranking behaupten werden. Es könnte aber daran liegen, dass es einfach Nischenthemen sind und diese Seiten eine hohe Zahl an Backlinks besitzen. Obwohl ja das auch nicht alles sein kann. Es ist schon sehr seltsam.

Antworten

Christoph 2. Juni 2015 um 16:16

Ich frage mich immer, wenn ich sowas lese, wie viel die Backlinks tatsächlich für das Ranking ausmachen.

Antworten

ninaKrea 26. Juli 2015 um 19:41

Ich bin auch gerade einem Phänomen auf der Spur. Da ist eine Webseite weit vor meiner mit vielen Backlinks von selbstproduzierten Linklisten anderer Kunden dieser Seite.

Zum Beispiel hat die Agentur einige Zahnärzte, Autohäuser usw. im Portfolio und dort gibt es immer einen linklist.html, auf der über 100 Links sind zu unterschiedlichen anderen Projekten.

Und ich dachte immer, dass würde nicht mehr funktionieren. Sehr nervig und Google scheint das auch egal zu sein.

Antworten

grep 11. Dezember 2015 um 14:39

Hallo …,

mh; dazu fällt mir nur ein: "Das Leben ist binär – Du bist entweder eine Eins oder eine Null!".

Netter Artikel, mal sehen inwieweit sich "dass alles" bewähren wird.

Ciao, Sascha.

Antworten

Zauberer Pascal 4. April 2017 um 14:58

Interessaner Beitrag. Fast 1:1 mit einem ähnlich gelagerten Fall. So z.B. habe ich in de Schweiz einen liebenswerten Mitkonukrrenten, welcher seit Monaten Position 1 auf GOOGLE.CH ( Keyword: "Zauberer" belegt. Dies trotz grosser massiver Konkurenz. Betrachte ich seine Seite bezüglich "technischen Anforderungen" so strotzt sie geradezu von Fehlern. Doch dank eingesetzten "BLACK HAT SEO"so zum Beispiel: 3700 Wörter allein auf der Startseite ( ein grosser Teil nur durch Scrolling nach Unten überhaupt sichtbar, sowie und über 5800 Links ( hmm..hmmm) auf Facebook scheien seine Rechnung offenbar aufzugehen. Also, gegenüber vielen Seo-Meinungen scheint das GOOGLE nicht zu interessieren.

Antworten

Daniel 5. Dezember 2017 um 12:37

Hallo Felix,

als ich es noch nicht besser wusste, habe ich auch mit diesen Mitteln gearbeitet. dieses tat ich aber nicht aus Böswilligkeit, nein es wurde mir so geraten, wie du auch schon in diesem Beitrag erwähntest, geht es vielen so. Tatsächlich hat das auch alles gut funktioniert, bis ein Google Update ( weiß nicht mehr welches ) alles zu nichte machte und ich weg war vom Fenster 🙁
Mühselig habe ich nun alles wieder nach vorne bekommen, mit ordentlicher Arbeit und viel Geduld. Da dein Beitrag hier schon etwas älter ist, denke ich mal das die Google Updates der letzten Jahre das Problem schon eindämmen konnten oder ?

Antworten

Du hast eine Frage oder eine Meinung zum Artikel? Teile sie mit uns!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*
*

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

Auszeichnungen

Mitgliedschaften, Zertifizierungen & Auftritt