Startpage

Honigtopf

Februar 2019

Auch wenn ich weit davon entfernt bin, im Netz ausreichend abgesichert zu sein - da bringt auch ein aktueller Router bzw. aufgespielte Software, IP & Port & Mac-Adressen-Regeln, Script-Blocker, Pi-hole bzw. Unbound und das eigene DNS-Service mit schwarzen Listen rein und raus und andere Dinge auch nur begrenzt was - suche ich dennoch Wege, Einfallstüren zu begrenzen. Soweit es natürlich mit den kleinen, digitalen Haushaltsmitteln und den eigenen Unkenntnissen eben geht.

Zwar kann noch immer ein Exploit oder noch klassischer: ein dummer Alltagsfehler ein komplettes Sicherheitsnetz zum Zusammenfallen bringen, aber auch die grundlegende Beschäftigung damit macht durchaus Spaß und ist interessant. Besser als nichts.

Als ich als Jugendlicher um 2001 die Klassiker-Kitsch-Bücher wie "Steal this book" oder "Hackers Challenge" oder später "Computer Denken" gelesen und zu verstehen versucht hatte, hätte ich nie gedacht, dass ich eines Tages dann selber mit Linux arbeite, Webseiten erstellen kann, kleine Mini-Server oder Schaltungen mit Raspberry Pis aktiviere, tagtäglich in der Konsole arbeite und mir so nebenbei Gedanken mache, wie man DNS-Anfragen umbiegen kann oder wo man den VPN-Tunnel legt. Das war damals für mich völlig utopisch.

Heute freue ich mich darüber, dass ich zumindest bis zu einem gewissen Grad diese Dinge verstehe und einigermaßen anwenden kann - oder zumindest das Konzept nachvollziehen kann. Das eröffnet neue Sichtweisen und auch das Verständnis über das allgemeine WWW ändert sich dadurch naturgemäß. Allerdings mittlerweile weniger zum Guten.

Denn jeder der selber Webseiten erstellt und~oder Webserver betreut, weiß in der Regel, dass jeden Tag Dutzende, Hunderte oder Tausende Anfragen von Menschen, Bots und anderen Dingen auf sie einprasseln. Kein Login-Fensterchen, das nicht ständig befüllt und ausgetestet wird, kein Standard-Verzeichnis diverser CMS, die nicht im Sekundentakt auf Schwachstellen abgefragt werden und keine Datenbank-Verbindung, die ohne den Klassiker-Gefahren eines versehentlichen Lecks am Server gefühlt zu still vor sich hinschlummert.


Einmal Log-Files durchschauen und man weiß, was im Netz falsch läuft und dass es nicht nett zugeht. Ein dunkler Ort, der sich unter dem hellen Licht versteckt.


Wie dem auch immer sei, habe ich auf jeden Fall seit ein paar Wochen mal wieder auf einigen Webseiten sogenannte Honeypots eingerichtet - vereinfacht gesagt nichts Anderes, als Links, die auf Seiten führen, die ein normaler Besucher eigentlich nie sehen sollte... da er die Links als normaler, menschlicher Besucher gar nicht nutzen kann. Bots und andere automatisierte Abläufe erfassen beziehungsweise sehen Webseiten jedoch anders - sie lesen die kompletten Daten bzw. den vollständigen Code ein und futtern sich dabei durch alle Verweise und Links durch.

Es sei denn, sie folgen den freundlichen Standards im Netz und folgen Links dann nicht, wenn man sie ganz offen darum bittet. Solche Dinge lassen sich beispielsweise mit kleinen Textdateien am Server mitteilen, die Suchmaschinen, Bots und Co. einlesen und dann den darin angegebenen Regeln folgen... oder eben auch nicht.

In meinem Fall bitte ich darum, ein gewisses Verzeichnis nicht zu betreten. Tut es ein Bot dennoch, ist also aufmüpfig und überschreitet meine Willkommensgrenze, dann bekommt er eine Rückmeldung und wird zugleich auf eine schwarze Liste gesetzt. Damit ist der Zugriff auf die Webseite für ihn dauerhaft gesperrt - es sei denn, ich geben ihn aus verschiedenen Gründen wieder händisch frei.

Das hilft zwar nicht gegen alle Eventualitäten, aber es ist dennoch ein kleiner, weiterer Tropfen auf den heißen Stein. Zudem lege ich selber auch jetzt keinen großen Wert, immer und überall von jeder Suchmaschine (und von denen gibt es Tausende und mehr) gefunden werden zu können... ich sehe meine Webseiten einfach als eine kleine Nebensächlichkeit an, die nett ist und mir persönlich Spaß macht, aber mein Leben hängt - glücklicherweise - nicht davon ab. Findet man mich nicht, geht die Welt davon nicht unter.


Damit zum Fazit: binnen der letzten paar Wochen haben sich 10 Suchmaschinen selber geblockt, die früher immer wieder alles abgegrast hatten. Mittlerweile laufen sie zumindest teilweise ins Leere und sind gesperrt. Das ist nicht viel (in einem früheren Test vor zig Jahren gab es pro Tag diese Anzahl an Einträgen), aber da ich schon länger nur mehr wenig aktiv bin und eigentlich auch nur mehr diese Seite hier so wirklich betreue und dadurch meine Seiten auch für Suchmaschinen ein wenig als tot gelten, durchaus ein fruchtbares Ergebnis. Denn diese Daten lasse ich dann auch bei anderen Seiten von Freunden einfließen und blocke auch dort gleich.

Der Impact ist zwar vergleichbar mit "Als würde man mit einem Ein-Haar-Pinsel eine Konzerthalle nach einem Massenevent reinigen wollen", aber irgendwie darf man einfach nicht aufgeben. In den nächsten Tagen werde ich noch weitere Mechanismen einbauen, um mehr Eventualitäten abzufangen, aber irgendwo muss man ja beginnen. \o/


Last update: 22.06.2019 · # · Vienna, Austria · emanuel//at//mulischaf.com · Data privacy