Hallo, es hat schon mehrere Male funktioniert, aber mit dieser Seite habe ich Probleme: http://wiringpi.com/ ich habe folgendes probiert: wget -r -k -E -l 8 http://wiringpi.com (auch ohne "http://"), ebenso: wget -p -m -r -k -E http://wiringpi.com -e robots=off (ebenfalls auch ohne "http://") Es wird auch anscheinend alles heruntergeladen. Da ich die Seite auf meinem Offline-PC als Doku für wiringPi brauche, habe ich dann das ganze Verzeichnis "wiringpi.com" auf den PC kopiert. Ich kann dort den Index öffnen, aber der sieht schon anders aus als im Original. Wäre nicht so schlimm, da die Links zu der Doku noch da sind. Clicke ich so einen Link an, findet der Firefox aber die Seite nicht. Unten in der Statuszeile steht als Link so etwas wie "http://D:/RaspberryPi/wiring.com/index_1234.html". Öffne ich die entsprechende Datei im Firefox direkt, sehe ich sie auch. Aber da in den Links dieses "http://" davor steht, funktioniert kein Link im Offlinemodus. Hat jemand eine Idee, was da schiefgelaufen ist? Die wget-Anweisungen habe ich per google als Beispiele zum Herunterladen ganzer Internetseiten gefunden. Alle 4 Versionen liefern übrigens das gleiche Ergebnis. Gruß Andy
Andreas W. schrieb: > Hat jemand eine Idee, was da schiefgelaufen ist? nichts. Die Datei hat halt absolute Links und keine Relativen. Du brauchst ein Tools was auch die html Datei ändert. z.b. http://www.xaldon.de/de/node/25
Hallo, Korrektur: beim letzten Versuch lauten die unten angezeigten Links "file:///D:/RaspberryPi/wiringpi/..." Gebe ich genau das in die Adresszeile ein, findet Firefox die Datei nicht. Wenn ich aber "file://D:/RaspberryPi/..." eingebe, findet er sie. Es ist also ein "/" zuviel hinter dem "file:". Mal sehen, was xaldon.de zu bieten hat. Sonst werde ich die Texte in den einzelnen Dokuseiten kopieren und das ganze mit Word nachschreiben und als PDF "drucken"... Gruß Andy
> Du > brauchst ein Tools was auch die html Datei ändert. Wie z.B. das benutzte wget. -p ist hilfreich: > This option causes Wget to download all the files that are > necessary to properly display a given HTML page. This includes > such things as inlined images, sounds, and referenced stylesheets. Mit wget -p -r -k -E -l 8 http://wiringpi.com geht es bei mir (wget 1.13.4) wie erwartet, die Links werden in relative umgewandelt und funktionieren demzufolge auch nach dem Umkopieren in einen anderen Ordner.
Hallo, das tut es bei mir nicht. Ist auch fast das gleiche, was ich probiert habe, nur ohne -m. Ich lade das mit Linux ubuntu herunter und kopiere das dann auf einen Windows7-PC, der offline ist. Auf dem Linux-PC kann ich die Seiten öffnen (allerdings ist Internetverbindung aktiv, er lädt aber angeblich die lokalen Dateien), auf dem Windows-PC nicht. Und das Tool vonb Xaldon nützt mir leider nichts, da es nur für Windows ist. Momentan kopiere ich schon die Doku nach Word... Eine Doku zum herunterladen habe ich noch nicht gefunden, leider nur die Onlineversion. Gruß Andy
Hallo, ich habe jetzt den Xaldon Webspider auf einem anderen Windows-PC mit Internetanschluß ausprobiert und die Seite heruntergeladen. Und es sieht so aus, daß diesmal die Links innerhalb der Seite diesmal richtig sind. Die Links funktionieren und zeigen auf Dateien, nicht auf Webadressen. Ich werde die heruntergeladene Website später auf meinen Offline-PC kopieren und dann sehen, ob es auch dort funktioniert. Mit wget bekomme ich immer noch einen Download, der nur auf dem Linux-PC funktioniert, der Windows-PC versteht die Links jedenfalls nicht mehr... Zum Glück war wringpi bisher die einzige Seite, mit der ich solche Probleme hatte. Gruß Andy
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.