Spam im Forum in den letzten Tagen

Hallo Leute,

wie Ihr sicher mitbekommen habt, haben wir (die Moderatoren @vanilla_thunder, @leofonic und ich) in den letzten Tagen massiv Spamfighting betreiben müssen.

Wir bedanken uns bei allen, die diese Spam-Posts fleissig gemeldet haben und entschuldigen uns für die Unannehmlichkeiten. Sicher fallen auch dem ein oder anderen Captchas auf, die nun beim Posten von Beiträgen erforderlich sind - es geht leider nicht anders.

Ausser den Captchas, die Mensch von Maschine unterscheiden und uns somit zumindest die Bots vom Halse halten, haben wir auch noch ganze IP-Ranges gesperrt und Listen von BuhBuh-Wörtern gepflegt.

Falls Euch weiterhin Spam-Posts auffallen, meldet diese bitte gern weiter so fleissig - wir sitzen halt auch nicht mit dem Finger auf der F5-Taste vor’m Forum :slight_smile:

Danke für’s Verständnis und Gruß!

Marco, schaut Euch mal die Projekte “Bot-Trap.de” und “CrawlProtect auf crawltrack.net” an. Ich arbeite schon einige Jahre mit diesen Scripten und habe Ruhe vor Bots und anderen Zeugs.

Danke für die Hinweise, das schaue ich mir auf jeden Fall mal an.

Gruß

[QUOTE=Marco Steinhaeuser;175353]
Ausser den Captchas, die Mensch von Maschine unterscheiden und uns somit zumindest die Bots vom Halse halten,[/QUOTE]

Marco, ich mag eure Freude nicht schmälern aber dieses Captcha ist die Zeit nicht wert, die ihr für den Einbau gebraucht habt :frowning:

Die Progs, die man für diese Blackhat-Methode (was anderes lief hier nicht ab … Forenspam) hernimmt, können auch mit solchen “Hürden” spielend umgehen. Es wird nur eine Frage der Zeit sein, bis entsprechend drauf reagiert wird. :frowning:

Danke @wolkenkrieger. Jede Art Hilfestellung ist da herzlich willkommen.

Aus eigener Erfahrung (im 13. Jahr Webmeister eines eigenen Forums … und diverse Stürme, Einbruchsversuche und sonstigen Unbill überstanden^^):

Die Hürde schon viel früher aufbauen - bei der Registrierung (ist hier doch eh Pflicht, wenn ich mich recht erinnere?). Bei mir hat sich ein dynamisches Feld bewährt, das aus einer Liste mit Fragen und den dazu passenden Antworten gefüttert wird.

Heisst: der [U]Mensch[/U] muss eine Frage richtig beantworten, sonst kann er den Account gar nicht anlegen … und folglich auch nicht schreiben.

Das klingt extrem simpel, ist es auch aber - und das ist das Problem von Lösungen ala reCpatcha & Co. - es ist eine nichtstandardisierte Lösung. Und genau DAS brauchen diverse “SEO”-Tools -> Standardlösungen (guck dir mal den Quelltext eures Captchas an - das entsprechende Tool muss nicht mal probieren … es bekommt auf dem Silbertablett geliefert, um welchen “Schutz” es sich kümmern muss).

Ich hab eine zeitlang mit solchen “dubiosen” Tools rumexperimentiert - man bekommt als Betreiber eines Forums/Blogs/etc. schon das kalte Grausen, wenn man sieht, WAS die alles können … da sitzen zum Teil findige Jungs in ganzen Crews zusammen und knacken Sicherheitsmechanismen oder installieren gleich mal ganze Clouddienste (Captchabrotherhood & Co.) … und wenn einmal bekannt wird, mit welcher Methode in welchem Forum/Blog “eingedrungen” werden kann, steht man ratzfatz auf diversen Listen, die dann in einschlägigen Foren gehandelt (also im Sinne von Liste gegen Geld) oder gleich zum allgemeinen Download angeboten werden. Ich hab hier noch Listen mit Foren/Blogs/Artikelverzeichnissen zu liegen, die mehrere zehntausend Adresse umfassen … inclusive voll parametrisierter URL, erkanntem Schutzmechanismus, … – und die Tools, die solche Listen dann vollautomatisiert abarbeiten nebst Account anlegen (ja, auch Email-Verification ist überhaupt kein Problem … selbst die Email-Accounts werden automatisiert angelegt!), Textspinning, …

Und: die guten unter diesen Progs erkennst du nicht als Bot! Die führen Proxylisten, simulieren menschliche Klickmuster (also im Sinne von unterschiedlichen Timings - da vergeht zwischen Forenpost 1 und 2 mal eine Minute und zwischen Post 2 und 3 dann eben nur 16 Sekunden oder so) und Useragent nuja^^

Aber alles haben eines gemeinsam: sie brauchen Standards, um zu funktionieren … und wer sich ausserhalb dieser bewegt, fällt durch’s Raster :slight_smile:

Die aktuelle Lösung ist nicht spannend.
Gibt es keinen europäischen Anbieter oder andere Lösungen bei der meine IP nicht an die Amis geht?

Die Vorschläge von Forenmitglied andoreen sind doch konstruktiv.

Damit deine IP nicht an die Amis geht, musst den den Netzwerkstecker ziehen, sonst wird sie auf irgendeinem Wege immer dort landen.

Bitte das Thema nicht “kaputtreden”.

Bzgl. Forenspam:
Andere Foren kommen ja auch ohne die Amis klar und sind nicht spamgeplagt. :wink:

bot-trap.de scheint eine praktikable Lösung - und kommt aus Schland.
Auch Crawlprotect ist es Wert einen Blick draufzuwerfen: http://www.crawltrack.net/

Eisig kalten Gruß aus Finnland :wink:

Wie von mir vorher schon beschrieben ist unser Spamaufkommen auf Null gesunken. Schöner Nebeneffekt, Bots und Referrer-Bösewichte bleiben aussen vor. Und die Statistik lügt auch nicht mehr.
Mir gefällt der Blödsinn mit dem Captcha bei jedem Posten hier auch nicht.

[QUOTE=andoreen;177002] Mir gefällt der Blödsinn mit dem Captcha bei jedem Posten hier auch nicht. [/QUOTE]

Yep.
Macht keinen Spaß weil nervig und man fühlt sich unwohl.

cu

Bitte das Thema nicht kaputtreden.

Captcha ist zum Schutz da und es funktioniert. fertig.
Bezüglich Spam-Trap beraten wir uns noch.

[QUOTE=vanilla thunder;177074]Captcha ist zum Schutz da und es funktioniert. fertig.[/QUOTE]

Durch die Weiterleitung/Abzweigung von aktiven Forenteilnehmer-Adressen an die Amis.

Kann mich nur wiederholen: Macht keinen Spaß und man fühlt sich unwohl.

will das nochmals hochholen.

So wie es - noch immer - ist, ist es nervig.
Es dauert ewig bis die einzelnen Scripte und dann im Anschluss die externen Quellen einzeln freigegeben werden müssen.

Könnt/wollt ihr da bitte mal Hand anlegen!?!

Danke.

Eben gemerkt:
Keine Ahnung was aktuell auch noch bockt, aber die interne SUFU (Forum) geht mit meinen Browsereinstellungen aktuell auch nicht.
Der Browser bleibt bei der Suche während der “Weiterleitung” stehen.
Müssen etwa auch noch weitere zusätzliche nicht angezeigte externe Quellen freigegeben werden?
Er zeigt nur Econda - als noch nicht freigegeben - an.

Glücklicherweise kann man das Forum mit externen Suchmaschinen erfolgreich durchsuchen.

was für scripte und externe Quellen?

[QUOTE=vanilla thunder;178267]was für scripte und externe Quellen?[/QUOTE]

Für Forenbeiträge:
Scripte
google.com
gstatic.com
und dann Selbige im Anschluß als Quellen
und die dann wieder untereinander freigeben weil sie miteinander verknüpft sind.

Ich habe NoScript- und RequestPolicy- Addons in Firefox laufen.

Und bei der Foren SUFU hat er keine Warnung/Fehlermeldung gebracht, sondern ist einfach nur stehengeblieben.

An die Programmierung von Google oder der Forum-Suche können wir als Moderatoren keine Hand anlegen.

Ja, kann ich schon verstehen, dass die Admins hier exklusive Rechte besitzen.

Die sind halt gefordert hier mal Hand anzulegen.
Alternativen wurden ja bereits genannt.

Aber als einfacher “Forenuser”, der nur ab und an einen Beitrag schreibt, ist es schon nervig weil umständlich. Und dann steigt dabei der Frustlevel und man ist weniger geneigt mitzuschreiben.