Hallo zusammen, ich bin auf der Suche nach einer Lösungsmöglichkeit für ein Problem, das ich mit meiner Internetseite habe. Folgende Konstellation ist vorhanden: Es gibt mehrere HTML-Seiten, die Text, Verweise auf weitere Seiten und je 0 bis 2 Bilder aufweisen. Schon seit längerer Zeit werte ich meine LOG-Files vom Provider aus und muss immer wieder feststellen, dass über 80% der Anfragen von BOTs kommen - das ist ja generell nicht so schlimm. Aber: 70% von denen sind nur an den Bildern interessiert. Da ich eine Ferienwohnung besitze und vermeiden möchte, dass diese Bilder missbraucht werden, möchte ich nun irgendwie verhindern, dass die Bilder von BOTs runtergeladen werden. Ein Eintrag in der "robots.txt" wird generell ignoriert. Wasserzeichen im Bild möchte ich vermeiden, da das auf meiner Seite nicht gut aussieht. Jetzt habe ich mir überlegt, ob es irgendwie möglich ist, ein Bild, welches mit "img src=... width=.. height=.. id=.. alt=.." im HTML eingebunden ist vorerst durch ein leeres Bild einzuladen und dann später im Verlauf ein PHP-Script einbinden kann, das dann das leere Bild durch das eigentliche Bild ersetzt. Damit sieht ein BOT nur ein leeres Bild. Was nicht geht, ist ein javascript einzubinden und mit dessen Hilfe das leere Bild zu ersetzen - das würde der BOT wiederum sehen. Soweit zur Theorie - jedoch hapert es mit der praktischen Umsetzung. Was ich momentan schon umgesetzt habe ist, dass man das o.g. Bild mittels "a href..." anklicken kann und dann dieses Bild in voller Größe angezeigt bekommt. Hierbei verweist der Link nunmehr auf ein PHP-Script, welches die übergebenen Parameter auswertet und daraus das passende Bild aus einem Verzeichnis in Form von "$pfad = ...; imagejpeg($pfad);" anzeigt. Allerdings geht das nur für den Link, nicht jedoch für das IMG-Tag im HTML Code. Für Hinweise zur Ergreifung eines Stück Codes wäre ich sehr angetan. Viele Grüße TK
das mit dem ersetzten geht nicht ohne JS. Denn der Bot ruft die Seite genauso ab wie der Browser damit steht auch das gleiche drin. Aber du erkennst ja scheinbar die Bots im Log, vermutlich am User-Agent. Dann konfiguriere doch dein Webserver so um, das die Bots keine Bilder laden können.
Ganz ehrlich, vergiß es. Wenn du Bilder öffentlich ins Internet stellst, kann die jeder auslesen. Das ist ja irgendwie der Sinn der Sache. Was genau befürchtest du denn, was "Bots" mit deinen Bilder anfangen? Oder umgekehrt gefragt, soll z.B. Google deine Bilder in deren Bildersuche nicht anzeigen, wenn da jemand nach "Ferienwohnung TK(gast)" sucht? Wenn jetzt schon fast gar niemand deine Seite besucht (bei 80% Botverkehranteil), soll das noch schlechter werden? Oliver
Gute Möglichkeiten hast du mit .htaccess Mit RewriteCond und deny kannst du die Bots anhand des Useragent (UA) oder der IP gut sperren. Oliver S. schrieb: > Ganz ehrlich, vergiß es. Teilweise ja, teilweise nein. So Dreckbots wie Pixray, sollten auf jeder Seite gesperrt werden. Die verursachen massig Traffic auf der eigener Seite, weil sie urheberrechtlich geschützte Bilder suchen. Natürlich wird die robots.txt ignoriert und auch gerne der UA gefälscht. https://evilazrael.de/content/bad-bot-aus-deutschland-pixray Alle Bots kann man natürlich nicht aussperren, dafür gibt es einfach zuviele.
TK schrieb: > Ein Eintrag in der "robots.txt" wird generell ignoriert. Es wird Zeit, dass die Juristen soetwas als Hausfriedensbruch werten. Warte noch zehn...zwanzig Jahre, bis unser Gesetzsystem an die Realität des Internets angepaßt ist.
Mach doch aus der Not eine Tugend: Suche nach Deinen Bildern auf anderen Seiten. Wenn Du fündig wirst, verschicke eine Abmahnung mit Rechnung. Richte Dich nach der Preisliste der Mittelstandsgemeinschaft Foto-Marketing. Aus eigener Erfahrung kann ich sagen, dass ich bisher immer das geforderte Geld erhalten habe. Einen Anwalt musste ich bisher nie einschalten. Das Urheberrecht in Deutschland ist dazu recht eindeutig definiert.
Irgendwann komme ich mal bei Irgendwann kommt er (Bot) mal bei Dir vorbei und bitte Dich um Dir vorbei und bittet Dich um die Datei z.B. Index.htm. die Datei z.B. Index.htm. Später bitte ich Dich um das Später bittet er Dich um das Bild, von der hübschen Dame, Bild, von der hübschen Dame, mit Namen Tussi.jpg. mit Namen Tussi.jpg. Wenn Du irgendetwas im Internet veröffentlicht hast, hast Du im Grunde genommen zwei Möglichkeiten. Entweder Du lieferst die Bilder, das gleiche gilt auch für deine Texte, oder Du lässt es sein. Wie Du aus dem obigen Zwiespalter ersehen kannst, gibt es zwischen mir und einem Roboter, beim Zugriff, keinen Unterschied. Willst Du eventuelle Besucher abschrecken, kannst Du natürlich auch eine Grafik einblenden, die dann von einem Menschen oder einer OCR gelesen werden soll. Aus Erfahrung kann ich Dir versichern, dass ich damit nicht nur einmal aufs Maul gefallen bin. Also ent- oder weder. Der eine ja und der andere nein, geht nicht.
Hallo, wie ich aus den Antworten erkenne, scheint niemand eine Lösung zu haben. Zuerst mal mache ich die Bilder öffentlich - somit für jeden ersichtlich. Jeder kann dann damit machen, was er möchte. Was ich jedoch erreichen möchte, ist, dass ein BOT, der nur im "Bilderverzeichnis" sucht und dort dann Bilder runterladen möchte, diese nicht mehr finden soll (zukünftig soll im Bilderverzeichnis eben nur noch ein Bild liegen - nämlich ein Bild ohne Inhalt, das darf der BOT dann auch runterladen). Wenn ein Besucher ganz normal über die index.html auf die Seite kommt, sollen auch alle Bilder angezeigt werden. Was ich auch mal auf einer anderen Seite gemacht habe, ist mit Session-IDs bzw. Cookies zu arbeiten. Damit konnte ich auch BOTs ausschliessen - jedoch ging das nur per PHP. Mittels .htaccess kann ich zwar Verzeichnisse schützen oder BOTs ausschliessen - jedoch kommt täglich ein anderer BOT vorbei (oder hat einfach seinen Namen/IP geändert). Das wird dann ein Teufelskreis. Gibt es keine Möglichkeit auf das IMG-Tag mittels Handle zuzugreifen und das mittels PHP "umzubiegen"? Gruß TK
TK schrieb: > Was ich auch mal auf einer > anderen Seite gemacht habe, ist mit Session-IDs bzw. Cookies zu > arbeiten. Damit konnte ich auch BOTs ausschliessen Na ja, damit konntest du die Bots ausschließen, die du als Bots erkannt hast. Alle die, die du nicht erkannt hast, haben weiter fröhlich runtergeladen... Cookies sind auch keine Lösung, denn da draußen gibt es genug User, die Cookies für genauso böse halten wie du die Bots (warum auch immer...), und die nicht zulassen. Oliver
TK schrieb: > Das wird dann ein Teufelskreis. > Gibt es keine Möglichkeit auf das IMG-Tag mittels Handle zuzugreifen und > das mittels PHP "umzubiegen"? und was soll das bringen? der Bot macht das gleiche was auch der Browser macht und damit wird das Bild auch ausgeliefert.
@PeterII: Nein, der BOT sieht nur die ursprüngliche HTML Seite und das Bild im Bilderverzeichnis (leer.jpg). Durch das Verbiegen des Handles bleibt der Bildername jedoch erhalten (leer.jpg) und der BOT darf beim nächsten Besuch wieder dieses Bild laden. Ich nöchte mich nicht vor Hackern schützen, die eine komplette Seite untersuchen, sondern nur vor ganz gewöhnlich, dummen BOTs, die einfach nur die Seiten durchforsten, sich an den Links weiterhangeln und schliesslich ein Bilderverzeichnis sehen, in dem nur 1 Bild existiert. @Oliver: Das ist auch der Grund, wieso ich ungerne mit Cookies arbeite. TK
TK schrieb: > Nein, der BOT sieht nur die ursprüngliche HTML Seite und das Bild im > Bilderverzeichnis (leer.jpg). Durch das Verbiegen des Handles bleibt der > Bildername jedoch erhalten (leer.jpg) und der BOT darf beim nächsten > Besuch wieder dieses Bild laden. und wie soll der Browser dann das Bild laden? Sobald der Browser es kann, kann es auch der bot.
Also ich habe jetzt eine - für mich praktikable - Lösung: Es müssen alle IMG-Tags einfach durch ein object-Tag ersetzt werden. Dieses object bindet dann eine PHP-Datei ein. Hieraus kann ich dann ein Bild anzeigen lassen, welches ein BOT nicht mehr laden kann. Natürlich werden die Parameter zur PHP noch irgendwie "verschlüsselt", sodass der BOT beim Zugriff auf die PHP direkt auch kein Bild bekommt. @PeterII: Es geht mir darum, den Bildnamen im Bildverzeichnis gegen Zugriffe zu schützen. Wenn ein BOT jetzt die Seite durchcrawled, dann sieht er nur noch ein object-Tag mit einem PHP-Namen als Source und kein Bild mehr - ergo BOT kann Bild nicht mehr direkt laden. @alle, die immer nur negativ denken/schreiben ("lass es bleiben...") Danke für die Mithilfe. Gruß TK
TK schrieb: > ein object-Tag mit einem PHP-Namen als Source und kein Bild mehr - ergo > BOT kann Bild nicht mehr direkt laden. falsch. Wenn der Browser es kann, kann der Bot es schon lange. Halte bitte die Bots nichts für Blöd
Was willst du eigentlich verhindern? Dass jemand dein Bild bei einer Internet-Bildersuche findet, und dann urheberrechtswidrig verwendet? => Fang damit an, die wichtigsten/größten Suchmaschinen auszusperren. Für diese Suchmaschinen reicht die robot.txt, Google&Co halten sich daran. Wenn das Bild dann trotzdem noch auf irgendeiner Obskuren Spezial-Suchmaschine erscheint => egal, die haben noch weniger Traffic als deine Webseite. Ansonsten: In dein Image-Verzeichnis eine .htaccess-Datei legen, z.B:
1 | SetEnvIf User-Agent Googlebot BOT |
2 | SetEnvIf User-Agent SEOkicks BOT |
3 | SetEnvIf User-Agent bingbot BOT |
4 | SetEnvIf User-Agent MJ12bot BOT |
5 | SetEnvIf User-Agent Slurp BOT |
6 | SetEnvIf User-Agent YandexBot BOT |
7 | SetEnvIf User-Agent DotBot BOT |
8 | SetEnvIf User-Agent NerdByNature.BOT BOT |
9 | SetEnvIf User-Agent HuaweiSymantecSpider BOT |
10 | SetEnvIf User-Agent 008 BOT |
11 | SetEnvIf User-Agent FlipboardProxy BOT |
12 | SetEnvIf User-Agent Flipboard BOT |
13 | SetEnfIf User-Agent Pixray BOT |
14 | |
15 | Order allow,deny |
16 | Allow from all |
17 | Deny from env=BOT |
Und diese dann halt gelegentlich mit neuesten Erkenntnissen aus dem Webserver-Log erweitern. Javascript-Lösungen helfen nicht viel weiter, Manche Suchmaschinen führen das inzwischen aus. Referer-Checks beim Bildzugriff helfen ein wenig gegen Hotlinking und gegen "schlechte" Suchmaschinen, aber nicht gegen Bild-Downloads. Alternative: Schneide dein Bild in viele kleine Kacheln, und pack die im HTML neben/untereinander. Die Bildsuch-Bots finden dann nichts verwertbares. Zum einen, weil sie oft Bilder mit Kantenlänge < X generell ignorieren, zum anderen, weil sie deine Bildschnipsel sicher nicht auf gut Glück zusammenkleben werden. Gegen Bilderklau mittels Screenshot hilft das natürlich auch nicht.
:
Bearbeitet durch User
TK schrieb: > Für Hinweise zur Ergreifung eines Stück Codes wäre ich sehr angetan. Irgendwie hast du Verständnissprobleme von http, php, HTML und JavaScript, sprich du hast überhaupt keinen blassen Schimmer, wenn man deine fixen Ideen dazu liest. Und für eine Ferienwohnungssite hätte ich wichtigeres zu tun als alle Bots dieser Welt auszusperren. Die Ferienwohnung muss ja massig geld abwerfen wenn du für so einen Schwachsinn (Mit Kanonen auf Spatzen...) Zeit hast.
TK schrieb: > @PeterII: > Nein, der BOT sieht nur die ursprüngliche HTML Seite und das Bild im > Bilderverzeichnis (leer.jpg). Durch das Verbiegen des Handles bleibt der > Bildername jedoch erhalten (leer.jpg) und der BOT darf beim nächsten > Besuch wieder dieses Bild laden. > Ich nöchte mich nicht vor Hackern schützen, die eine komplette Seite > untersuchen, sondern nur vor ganz gewöhnlich, dummen BOTs, die einfach > nur die Seiten durchforsten, sich an den Links weiterhangeln und > schliesslich ein Bilderverzeichnis sehen, in dem nur 1 Bild existiert. Offenbar ist dir nicht wirklich klar, wie PHP, HTML und BOTS funktionieren. PHP sind serverseitige Skripte, die beim Aufruf einer Datei gestartet werden. Aus Sicht des Clients (Browser ODER Bot) kommt ne html-Datei zurück. Bots sind nichts anderes als automatisierte Browser. Sie machen genau das gleiche. Kein Bot, und kein Browser kann dein Bilderverzeichnis durchsuchen, wenn du deinen Webserver richtig konfiguriert hast. Bot und Browser finden Bilder nur über Links. Existieren diese Links, egal ob in statischem HTML oder dynamisch generierten HTML über PHP werden beide sie finden. Denn im Endeffekt weiss weder der Browser, noch der Bot, ob der Inhalt nun dynamisch generiert wurde oder statisch vorliegt. Die Dateiendung .php ist ein Indiz, aber kein Beweis. Ich habe den Eindruck, dass du glaubst, Bots würden irgendwie auf Dateisystemebene operieren. also, dass es Skripte geben die folgendes machen: $ cd www.cooleseite.de $ ls index.html bild.jpg $ download index.html bild.jpg Das ist aber nicht der Fall! Klar, kannst du dir jetzt irgendwelche Tricks überlegen, und vielleicht schaffst du es dadurch auch ein paar Bots auszusperren, aber sei dir sicher: Wenn Bots nicht mehr die Bilder laden können, können es wahrscheinlich sehr viele normale Besucher auch nicht mehr. Ich würde eher zu Wasserzeichen in den Bildern tendieren. Da gibt es auch unsichtbare. Zusätzlich gespickt mit EXIF-Daten.
Also vielen Dank für alle Anmerkungen zu meinem Kenntnisstand über Programmiersprachen. Und nur wer lesen kann ist stark im Vorteil. Es ging NIE darum alle BOTs auszusperren, sondern zu verhindern, dass BOTs, die sich an den Links im HTML weiterhangeln sehen, WO mein Bilderverzeichnis ist!! Wenn also im HTML ein IMG-Tag mit src='bildverzeichnis/bild1.jpg' steht, dann findet der DUMME BOT ein Bild names 'bild1.jpg'. Ein intelligenter BOT findet ein Bildverzeichnis namens 'bildverzeichnis' und kann dann dort mal probieren, ob er noch andere Bilder findet, die NICHT in einem Link angegeben sind. Das gilt es zu verhindern: Wie bereits geschrieben - habe ich selbst eine Lösung gefunden, die für mich praktikabel ist: Anstatt img-Tag verwende ich nun ein object-Tag, das eine PHP 'gib_mal_ein_Bild_zurueck.php?parameter=123456789' aufruft, die wiederum mit 'imagejpg($unbekannterpfad)' ein Bild DARSTELLT. Im Browser wird das Bild jetzt zu sehen sein - aber ein BOT findet im HTML keinen Link mehr auf ein Bild / Bilderverzeichnis. Ist jetzt klar geworden was ich wollte?? Danke TK
Ach ja - bevor das hier noch ausartet: Kann ein Moderator den Threat schliessen - Danke TK
Wenn du Dirlisting verhindern willst dann stellst du das über den Apache ein. Dann kann der Bot keine weiteren Bilder sehen, nur die die sonst auf deiner Seite (egal wie) verlinkt wurden. Wenn das nicht geht (Hoster erlaubt es nicht,...) dann pack die Bilder die über Links erreichbar sind in einen eigenen Ordner, der Rest der nicht verlinkt wird in einen anderen.
TK schrieb: > Wenn also im HTML ein IMG-Tag mit src='bildverzeichnis/bild1.jpg' steht, > dann findet der DUMME BOT ein Bild names 'bild1.jpg'. Ein intelligenter > BOT findet ein Bildverzeichnis namens 'bildverzeichnis' und kann dann > dort mal probieren, ob er noch andere Bilder findet, die NICHT in einem > Link angegeben sind. > Das gilt es zu verhindern: > Wie bereits geschrieben - habe ich selbst eine Lösung gefunden, die für > mich praktikabel ist: > Anstatt img-Tag verwende ich nun ein object-Tag, das eine PHP > 'gib_mal_ein_Bild_zurueck.php?parameter=123456789' aufruft, die wiederum > mit 'imagejpg($unbekannterpfad)' ein Bild DARSTELLT. > Im Browser wird das Bild jetzt zu sehen sein - aber ein BOT findet im > HTML keinen Link mehr auf ein Bild / Bilderverzeichnis. > Ist jetzt klar geworden was ich wollte?? > > Danke > TK Dnn sperre das Bildverzeichnis für Zugriffe von außen. PHP greift dann lokal zu und darf das.
Joachim Drechsel schrieb: > Dnn sperre das Bildverzeichnis für Zugriffe von außen. PHP greift > dann lokal zu und darf das. und? Dann ruft der Bot die PHP Seite auf und bekommt auch das Bild.
Peter II schrieb: > Joachim Drechsel schrieb: >> Dnn sperre das Bildverzeichnis für Zugriffe von außen. PHP greift >> dann lokal zu und darf das. > > und? Dann ruft der Bot die PHP Seite auf und bekommt auch das Bild. Nein, er kann das Verzeichnis ja nicht auflisten - darum geht es ja auch dem TS.
Joachim Drechsel schrieb: > Nein, er kann das Verzeichnis ja nicht auflisten - darum geht es > ja auch dem TS. und wie kann der Browser dann die Bilder anzeigen? Darum geht es ja.
Sinngemaß möchte der TS einzelne Bilder eines Verzeichnisses anzeigen. Macht er es mit einem Link in dem der Verzeichnisname drin steht, könnte der Bot dieses scannen. Das möchte er halt nicht. Lies doch einfach mal was er eigentlich will ...
Joachim Drechsel schrieb: > Lies doch einfach mal was er eigentlich will ... habe ich. Er will Bilder auf seiner Webseite veröffentlichen, dies soll aber ein Bot nicht laden können. Und genau das geht nicht. Wenn er sie veröffentlicht, dann kann sie auch ein Bot laden.
> Wenn er sie veröffentlicht, dann kann sie auch ein Bot laden.
Na logisch.
Mal ein Beispiel:
<img src='pics/gaga.jpg'> da könnte ein Bot auf die Idee kommen "Aha,
im Verzeichnis pics liegt noch mehr herum was ich mir jetzt ziehe".
<img src='zeige_mir_das_bild.exe?FILE=gaga.jpg'> da rückt
zeige_mir_das_bild.exe halt nur genau ein Bild aus dem Verzeichnis
pics (das der Bot nicht kennt) heraus. Das Verzeichnis pics wird
für externe Zugriffe gesperrt, zeige_mir_das_bild.exe darf, ist ja
lokal, da dran.
Joachim Drechsel schrieb: > Mal ein Beispiel: > > <img src='pics/gaga.jpg'> da könnte ein Bot auf die Idee kommen "Aha, > im Verzeichnis pics liegt noch mehr herum was ich mir jetzt ziehe". dann verbietet man einfach Directory Listing. > <img src='zeige_mir_das_bild.exe?FILE=gaga.jpg'> da rückt > zeige_mir_das_bild.exe halt nur genau ein Bild aus dem Verzeichnis > pics (das der Bot nicht kennt) heraus. Das Verzeichnis pics wird > für externe Zugriffe gesperrt, zeige_mir_das_bild.exe darf, ist ja > lokal, da dran. Und wie soll jetzt der Browser die anderen Bilder anzeigen?
Joachim Drechsel schrieb: >> Und wie soll jetzt der Browser die anderen Bilder anzeigen? > > Soll er ja nicht ;) scheinbar doch > Es gibt mehrere HTML-Seiten, die Text, Verweise auf weitere > Seiten und je 0 bis 2 Bilder aufweisen.
Joachim Drechsel schrieb: > Lies doch einfach mal was er eigentlich will ... Je nun, was er genau will, ist leider sehr unklar ausgedrückt. Im Ausgangsbeitrag steht ziemlich eindeutig, daß er verhindern will, daß ein Bot dem links zu den Bilder folgt, und die Bilder zu sehen bekommt. Dazu gab es dann einige freundliche Hinweise, daß das doch gepflegter Blödsinn sei. Inzwischen ist er umgeschwenkt, und will jetzt verhindern, daß die Bots andere, nicht verlinkt Bilder im Bilderverzeichnis finden. Das ist eine völlig andere Baustelle. Oliver
> Inzwischen ist er umgeschwenkt, und will jetzt verhindern, daß die Bots > andere, nicht verlinkt Bilder im Bilderverzeichnis finden. Das ist eine > völlig andere Baustelle. > > Oliver Was wieder durch das Abschalten des Directory Listings funktioniert. Die Lösungsansätze des Link-Obfuscators und das Einbinden von Bildern über object-tags statt img-tags ist jedoch für keine der Anforderungen ein sinnvoller Weg.
Ich biete die Bilder nur in einer reduzierten Aufloesung an, zB 1280x1024 oder kleiner. Wenn dann jemand einen Urhebereinwand hat, sollen sie mal das Grosse zeigen ... und die Sequenz, wo's reingehoert.
Lösung ist doch ganz einfach: Bilder kann nur sehen, wer ein Captcha eingibt..
Klar, und damit hat man dann die Besucher der Webseite bald erfolgreich auf Null gedrückt. Wäre dann vom Netz nehmen nicht einfacher und schneller?
Joachim Drechsel schrieb: > <img src='pics/gaga.jpg'> da könnte ein Bot auf die Idee kommen "Aha, > im Verzeichnis pics liegt noch mehr herum was ich mir jetzt ziehe". > > <img src='zeige_mir_das_bild.exe?FILE=gaga.jpg'> da rückt > zeige_mir_das_bild.exe halt nur genau ein Bild aus dem Verzeichnis > pics (das der Bot nicht kennt) heraus. Und was hindert den Bot daran, jetzt anstelle von lauter Iterationen über <img src='pics/gaga.jpg'> <img src='pics/blubber.jpg'> <img src='pics/wasnochsonstso.jpg'> das gleiche hiermit zu machen? <img src='zeige_mir_das_bild.exe?FILE=gaga.jpg'> <img src='zeige_mir_das_bild.exe?FILE=bubber.jpg'> <img src='zeige_mir_das_bild.exe?FILE=wasnochsonstso.jpg'>
Die absolut einfachste Möglichkeit wäre natürlich, in dem Bilderverzeichnis nur die Bilder zu haben, die auch verlinkt werden. Aber der Mensch ist halt Jäger und vor allem Sammler... Oliver
physiker schrieb: > Klar, und damit hat man dann die Besucher der Webseite bald erfolgreich > auf Null gedrückt. Wäre dann vom Netz nehmen nicht einfacher und > schneller? dafür aber die einzig sichere Möglich, wollt ich schreiben.. dann ist mir eingefallen: man müsste die Bilder einfach nur in sehr viele Einzelteile zerlegen, möglichst dämliche Namen verwenden, und das Bild auf der Webseite aus den teilen zusammenbauen.. und die einzelteile immer 4x größer machen sodass immer 3/4 von anderen Bildern überdeckt ist.. usw. genial, das werd ich mir patentieren lassen.. edit: warum wird hier immer wieder das thema "Directory listing" aufgeworfen, wer sowas zulässt dem gehört die "webseiten-bereitsteller-lizenz" entzogen...
:
Bearbeitet durch User
Ja, das mit dem Zerlegen in eine image map hat der Ernst schon vorgeschlagen. Diese ganze Diskussion krankt, aber an einem Kommunikationsproblem, d.h. der Threadersteller weiß nicht genau was er will oder hats nicht richtig rübergebracht. Um es zusammen zu fassen: a) Jegliche Bilder die von einem normalen Browser dargestellt werden, können auch von einem automatisierten Browser aka bot ausgelesen werden. In beiden Fällen werden sie natürlich auf den Client-Rechner übertragen. Wenn man das verhindern will, steht man vor demselben Problem wie die Content-Industrie und kann entweder den Rechner mit DRM vernageln (geht nur wenn man Hollywood heißt) oder zu mehr weniger leicht umgehbaren "Tricks" greifen, wie z.B. das Bild zerlegen, Captchas einbauen (lassen sich auch automatisiert umgehen), Zugang nur nach Anmeldung, Darstellung nur als Flash, Silverlight o.ä. Jeder von diesen "Tricks" hat natürlich den Nachteil, daß er potentiell bei gewünschten Besuchern nicht richtig dargestellt wird und/oder sie sogar massiv verärgert. b) Falls es wirklich nur darum geht, daß nicht direkt auf Verzeichnisse auf dem Server zugegriffen wird und hierzu der Pfad geheim gehalten werden soll, wurden folgende besser funktionierende Lösungen genannt: Server richtig konfigurieren und/oder halt nichts in den publizierten Verzeichnissen rumliegen lassen, was "geheim" gehalten werden soll.
Das mit dem Patent klappt aufgrund von prior art daher leider nicht, wird also nichts mit dem Starup ;) Obwohl da gab es die Leute mit den Bildern die sich wieder selber nach einer gewissen Zeit löschen sollen, wie hieß die Gurkentruppe nochmal? Kam auch in dem Zusammenhang mit dem "digitalen Radiergummi" auf, wenn ich mich richtig erinnere.
Man könnte die BOTs auch mit unnötigen daten beladen: Ein bot folgt allen links, ein guter bot folgt allen sichtbaren links, also stellt man ihnen eine Falle. Man macht einen Link auf eine präparierte seite, welch nie jemand sehen wird. Der Link wird als Text getarnt, mit dem attribut onclick="return false" versehen, und unter einem noscript tag versteckt, falls javascript deaktiviert ist. Auf der Präparierten Seite bindest du möglichst viel malware ein, und möglichst grosse Bilder mit automatisch generiertem randomisierten rauschen, und vileicht noch ein iframe mit src=".". Und noch ein f(){i=10000;while(i--);setTimeout(f);}f(); auf die seite und ein while(true); in möglichst viele js worker. onbeforeunload false zurückgeben lassen, und vorher noch ein windows.open und history.back() ausführen... Daran könnten sich dann einige bots aufhängen, mit viren verseuchen, dich in die Blacklist aufnehmen, etc. Einziger nachteil: soetwas gefällt auch suchmaschinen nicht...
Daniel A. schrieb: > Daran könnten sich dann einige bots aufhängen, mit viren verseuchen, > dich in die Blacklist aufnehmen, etc. Und wenn ein legitimer Nutzer diese Seite zufällig doch aufrufen sollte machst du dich im schlimmsten Fall wegen Computersabotage strafbar. Super Idee, bitte mehr davon.
physiker schrieb: > Das mit dem Patent klappt aufgrund von prior art daher leider nicht, doch, weil ich ja 3/4 von den Kacheln mit nutzloser info (am besten p**n) fülle, welcher dann durch andere kacheln überlagert wird, das lenkt vom eigentlich Inhalt ab.. edit: und wenn sich bei den BOT's dann herumgesprochen hat, dass es bei mir 75% t*tt**-bilder gibt, kommen auch die Hits von selber...
:
Bearbeitet durch User
Vergiss aber nicht die Altersverifikation der Bots, sonst gibt es mächtig Ärger mit dem Strafrecht. Vielleicht kann man da was mit dem neuen Personalausweis machen.
Wenn der Bot sich nicht an die robots.txt hält. Wie wäre es wenn du statt die Bilder zu schützen, in deine Webseite eine Teergrube für bots integriertest. Den lieben Bot sagst du per robots.txt das sie nicht dort hin dürfen. den Rest schickst du ungefähr wie Hier in die falle bis sie nicht wiederkommen. http://www.online-tutorials.net/php/http-teergruben/tutorials-t-35-274.html Schön ist anders, aber vielleicht ist so was die Antwort auf böse Bots, heizten wir dann die Erde auf mit um bots zu bekämpfen.
Gerade Pixray ist so ein Schnüffelspion! Icvh würde Dir raten die Server-IP von Hetzner an deinem Server zu sperren! Dann kann Pixray und Co garnicht mehr darauf zugreifen!
Floppy schrieb: > Icvh würde Dir raten die Server-IP von Hetzner an deinem Server zu > sperren! > Dann kann Pixray und Co garnicht mehr darauf zugreifen! weils server naturlich nur bei hetzner gibt und alle hetzner kunden böse sind..... doe menschen wie du gehören aus dem internet ausgesperrt. lebenslänglich.
.... schrieb: > Floppy schrieb: >> Icvh würde Dir raten die Server-IP von Hetzner an deinem Server zu >> sperren! >> Dann kann Pixray und Co garnicht mehr darauf zugreifen! > > weils server naturlich nur bei hetzner gibt und alle hetzner kunden böse > sind..... doe menschen wie du gehören aus dem internet ausgesperrt. > lebenslänglich. Nö, aber Pixray ist dort gehostet! Ich find die Idee prima! So können Leute wie Du mit de´m dienst wie Pixray nicht automatisch die Bilder durchschnüffeln. Wir sperren sogar ganze Länder aus! China und Russland z.B. Die können unsere WebSite nicht anschauen. Zudem: Was hat ein Server auf deinem zu suchen? Ich würde auch die Hoster aussperren, vorausgesetzt man bekommt die ganzen IP-Ranges. Einige werden durchschlüpfen, ist aber vernachlässigbar.
hmm... schrieb: > Wir sperren sogar ganze Länder aus! China und Russland z.B. > Die können unsere WebSite nicht anschauen. Ich sach mal, die zensieren das schon von sich aus... Oliver
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.