Hallo Ich suche nach einer Möglichkeit, eine Webseite mind. 2 mal täglich nach einem bestimmten Begriff zu durchsuchen. Wie bekomme ich das hin? Gibt es vielelciht Dienste dafür?
Auf einem 24/7 Linux System einen cron-jobs starten, der zwei Mal täglich mit wget die html-Seite runterlädt. Dann mit grep die html-Datei durchsuchen.
Wie mein Vorredner schon gesagt hat, einen kleinen Linux Server nehmen, vielleicht einen raspberry pi und in einer Sprache die dir liegt Webscraping der Entsprechenden Seite machen. Im minimal Fall reicht hier wget und grep, wenn es etwas mehr sein soll würde ich ein kleines Programm schrieben, das z.b. mit einen XML Parser auch den XPath berücksichtigt.
Hallo, ich würde das Script urlwatch https://github.com/thp/urlwatch dafür nehmen. Du kannst entsprechende Filter definieren (Xpath, grep) und dich bei Änderung gleich per Mail (oder andere Notifier) informieren lassen. Gestartet wird das Ganze per Cronjob auf einem Linux-Rechner. Da urlwatch in Python geschrieben ist, sollte es aber auch unter Windows funktionieren.
Nobbi schrieb: > Gibt es Dienste dafür? Frage ist noch nicht endgültig beantwortet. Eigner Server kostet täglich Strom. Es gab z.B. im Web einen Webdienst der Webseiten als Mail lieferte.
> Eigner Server kostet täglich Strom.
aha. Der Dienst soll natuerlich gratis sein. Ganz klar. Wird gemacht.
Allenfalls kann man diese Aenderung auch gleich beim Betreiber der Seite
abonnieren...
:
Bearbeitet durch User
Brieftaubenzüchter schrieb: > Frage ist noch nicht endgültig beantwortet. Eigner Server kostet täglich > Strom. Mein Heim-Server braucht nur 4,5 Watt, das ist weniger als ein Radiowecker verbraucht. Darum würde ich mir wirklich keine Sorgen machen.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.