Springer e-Books for Free Download [Limited Time] https://www.thebiomics.com/notes/springer-free-e-books-list.html Mausklick auf den Buchtitel selbst. Der Klick auf Download führt ins Leere.
Vielen Dank. Falls die Quarantäne noch etwas dauert...
Ich hatte das auch bekommen. Leider haben die da wohl echt ihre Ladenhüter zusammengestellt. Ich habe jetzt mal durch mehrere durchgeblättert, eieiei...
Ja, natuerlich sind die ausgelutscht. Irgendwann geht der Verkauf eines Titels gegen Null und bleibt da kleben. Dann kann man sie auch freigeben. Ist doch lieb von Springer.
Joggel E. schrieb: > Ja, natuerlich sind die ausgelutscht. Irgendwann geht der Verkauf eines > Titels gegen Null und bleibt da kleben. Dann kann man sie auch > freigeben. > Ist doch lieb von Springer. Neinneinnein, es ist völlig unzumutbar, mit Mathebüchern auf dem Stand von 2015 lernen zu sollen! Da ändert sich so schnell so vieles ...
Percy meinte: > Neinneinnein, es ist völlig unzumutbar, mit Mathebüchern auf dem Stand > von 2015 lernen zu sollen! Da ändert sich so schnell so vieles ... Genau! Ist doch echt fein von Springer! Von Mikrobiologie über Computer, Korruption, High Heels und Zigarretten ist alles Dabei! ;-P Ich hab sie alle runtergeladen und knall sie in unser Bibliothekssystem rein. Die werden dann dort indiziert und ich kann fragen: "hat Mark Brandes High Heels geliebt" ;-P @Springer: Bitte mehr Bücher in deutsch! Oder müssen deutsche Autoren in english publizieren, damit sie überhaupt gelesen werden? :-O Respekt, Springer!
~Mercedes~ . schrieb: > Ich hab sie alle runtergeladen und knall sie in unser Bibliothekssystem > rein. was ist das für ein System? ich suche schon lange sowas. Ich habe unzählige eBooks und Appnotes und dergleichen, da wird es mit zunehmendem Umfang immer schwieriger etwas zu finden.
Das System ist selbst (aber nicht von mir ;-O) in Delphi geproggt benutzt aber als Hauptkomponente DT-Search. Die Firma bietet diese auch "standalone" an, als Desktop- Suchprogramm, bitte einfach mal googeln. Dabei kommnen alle Dokumente auf ne Festplatte. Diese wird das 1 Mal langwierig indiziert, das kann bei großen Platten nen Tag dauern. Dabei wird ne Datenbank erstellt, die dann schnelles Suchen ermöglicht, auch in gepackten Dateien. Beim Suchen, weden, wie bei Google auch Wildcards unterstützt, und alle Dokumente, die Deine Anfrage referenzieren aufgelistet, dann mit nem paar Zeilen Text herum. Klickst du dann auf das gewünschte Dokument, wirds dann im Reader angezeigt. mfg
Ein alter, schlauer Vogel meinte:
Googeln...
> Womit?
Na mit Google!
Einfach "dt search" oder "dtsearch" eingeben... ;-P
mfg
Danke für den Tip. Werde ich mir mal anschauen. Noch wesentlich cooler wäre es natürlich, wenn man das auf einem Webserver installieren könnte, sodass man auch von unterwegs in den eigenen eBooks suchen kann.
So funktioniert es bei uns ja auch, es hat ein eigenen Server mit 10 TB Raid, Vater möchte aber nicht das es ins Internet kommt, da da auch nicht ganz "jugendfreie Sachen", naja, nda drauf sind. mfg
~Mercedes~ . schrieb: > Vater möchte aber nicht das es ins Internet kommt, > da da auch nicht ganz "jugendfreie Sachen", naja, nda drauf sind. Haha, YMMD :-) OK ich muss dann wohl dieses DT dingens angucken. Das scheint mir demnach vielversprechend zu sein, wenn man das "irgendwie" im Web einbinden kann. Meine eBooks und sonstigen PDF-Sammelsurium habe ich in einer Nextcloud, das ghet so einigermassen. Bin schon länger auf der Suche nach einem besseren System, wo man die PDFs hinterlegen kann, wo eine saubere Volltextsuche gemacht wird und man Tags, Autoren, Kurzzusammenfassungen und solcherlei abspeichern kann. Es passiert mir oft, dass ich irgend ein Problem habe und genau weiss dazu habe ich mal in einer AppNote oder einem der eBooks was gelesen, aber wie hiess das Ding? dann fängt die Sucherei an. Leider speichere ich auch die Dateien oft unter dem Originalnamen ab, was auch nichts hilft - waren die Phasenrauschmessungen jetzt in FULLTEXT01.pdf oder in 1980_Harris.pdf? :-)
Tobias meinte: > OK ich muss dann wohl dieses DT dingens angucken. Das scheint mir > demnach vielversprechend zu sein, wenn man das "irgendwie" im Web > einbinden kann. Vorsicht! :-O Schau bitte genau hin, ich weiß nicht, was das Desktopproggy macht, da wir ja "nur" die Delphicomponente haben, und alles Andere, wie Parser der Eingangskontrolle, OCR und Netzanbindung selbst geproggt haben! die Komponente ist jedenfall ein absolut schnelles Volltext - Retrivial, was unter anderem natürlich PDF und gepackte Dateien "kann". Achtung, die PDF müssen, wenn ihr Inhalt ein Bild, etwa gescannt ist, vorher OCR't werden. mfg
Die limited time scheint abgelaufen zu sein. Über High Heels konnte ich mich jetzt nicht mehr informieren, aber einige Fachtitel habe ich rechtzeitig heruntergeladen. Danke für den Tip.
Christoph db1uq K. schrieb: > Die limited time scheint abgelaufen zu sein. ne, grade getestet, ging immer noch. Du kannst das mit den High Heels also noch nachholen! :-)
Hier eine Datei mit allen Direkt-Links zu den PDFs. Kann als Futter für wget benutzt werden.
1 | wget -i url.txt |
Anscheinend nicht (mehr?) for free sind übrigens die Nummern 118 (Business Statistics for Competitive Advantage with Excel 2016) 407 (Literature and Medicine)
:
Bearbeitet durch User
Christoph db1uq K. schrieb: > Die limited time scheint abgelaufen zu sein. Oder zu viele Leute veranstalten mit ihren Massendownloads eine DoS Attacke und schiessen den armen Server ab.
A. K. schrieb: > Oder zu viele Leute veranstalten mit ihren Massendownloads eine DoS > Attacke und schiessen den armen Server ab. Also ich hab bei meiner DoS-Attacke keinen Flaschenhals am Server erkennen können :)
Hier noch die Titel. Ist in der Gleichen Reihenfolge wie auf der Website gelistet, genau wie auch die URLs. Man kann sich das also joinen oder per script die PDFs umbenennen. EDIT: In der ersten Datei war was nicht ganz korrekt, ist in der zweiten korrigiert.
:
Bearbeitet durch User
Egal was ich auf der ganz oben genannten Seite unter "Download" anklicke werde ich auf diese Loginseite gebracht. Die einzelnen PDF-Links von mdma funktionieren noch. Ich habe die mal alphabetisch sortiert, es ist trotzdem noch ein Wühltisch.
:
Bearbeitet durch User
Christoph db1uq K. schrieb: > Egal was ich auf der ganz oben genannten Seite unter "Download" anklicke > werde ich auf diese Loginseite gebracht. Die einzelnen PDF-Links von > mdma funktionieren noch. Also, ich habe, bereits vor diesem Thread, ganz normal über die Springer-Seite link.springer.com Titel via deren Suchfuntion gefunden. Bei den Titeln aus der Aktion fehlt dann rechts oben der "Buy"-Kasten. Die oben erwähnten PDF-Links sind halt eben die gleichen wie die Download-Links auf der gefundenen Seite > Ich habe die mal alphabetisch sortiert, es ist trotzdem noch ein > Wühltisch. Wenn man der Pressemitteilung auf www.springer.com/de/ folgt, kommt man irgendwann zu drei Excellisten, in denen sich einzelne Fachbereiche aktivieren/deaktivieren lassen. MfG
Irgendwie-irgendwo-irgendwann: https://www.springernature.com/gp/librarians/news-events/all-news-articles/industry-news-initiatives/free-access-to-textbooks-for-institutions-affected-by-coronaviru/17855960%C2%A0 55 deutsche Titel, 407 englische und neun deutsche Titel zu "nursing", vor allem Beatmung. Danke auch für den Tip.
Christoph db1uq K. schrieb: > Egal was ich auf der ganz oben genannten Seite unter "Download" anklicke > werde ich auf diese Loginseite gebracht. Die einzelnen PDF-Links von > mdma funktionieren noch. > Ich habe die mal alphabetisch sortiert, es ist trotzdem noch ein > Wühltisch. Hast Du das Eröffnungsposting nicht gelesen?
Bei manchen funktioniert der rote "Download Link"-Button. Z.B. beim 3. ("All of Statistics") und beim 8. ("Handbook of Desaster Research").
Es scheint bei allen zu funktionieren, wo der Name des PDFs ein bestimmtes Schema hat:
1 | https://link.springer.com/content/pdf/10.1007%2Fb100747.pdf |
2 | https://link.springer.com/content/pdf/10.1007%2Fb100507.pdf |
3 | https://link.springer.com/content/pdf/10.1007%2F978-0-387-21736-9.pdf <- geht |
4 | https://link.springer.com/content/pdf/10.1007%2Fb99417.pdf |
5 | https://link.springer.com/content/pdf/10.1007%2Fb97469.pdf |
6 | https://link.springer.com/content/pdf/10.1007%2F0-387-28117-7.pdf |
7 | https://link.springer.com/content/pdf/10.1007%2Fb104645.pdf |
8 | https://link.springer.com/content/pdf/10.1007%2F978-0-387-32353-4.pdf <- geht |
9 | https://link.springer.com/content/pdf/10.1007%2F0-387-36218-5.pdf |
10 | https://link.springer.com/content/pdf/10.1007%2F0-387-36274-6.pdf |
11 | https://link.springer.com/content/pdf/10.1007%2F978-0-387-36601-2.pdf <- geht |
12 | https://link.springer.com/content/pdf/10.1007%2F978-0-387-37575-5.pdf <- geht |
13 | https://link.springer.com/content/pdf/10.1007%2F978-0-387-40065-5.pdf <- geht |
14 | https://link.springer.com/content/pdf/10.1007%2F978-0-387-45524-2.pdf <- geht |
15 | https://link.springer.com/content/pdf/10.1007%2F978-0-387-46271-4.pdf <- geht |
16 | ... |
Beitrag #6243765 wurde von einem Moderator gelöscht.
Md M. schrieb: > Hier eine Datei mit allen Direkt-Links zu den PDFs. Kann als > Futter für > wget benutzt werden.wget -i url.txtAnscheinend nicht (mehr?) for free > sind übrigens die Nummern > > 118 (Business Statistics for Competitive Advantage with Excel 2016) > 407 (Literature and Medicine) Hi, danke auch von mir für den Link und die Liste! So wie ich das sehe enthält 'url.txt' nur die englischsprachigen Bücher. Könntes du bitte so eine Liste auch für die deutschen machen? Ich probier gleich mal aus, wie gut man die Dateien mit Advanced Renamer umbenamsen kann.
Marek N. schrieb: > So wie ich das sehe enthält 'url.txt' nur die englischsprachigen Bücher. Oh, stimmt. Ich muss zugeben, dass ich mir den Link von Christoph anscheinend nicht richtig angeguckt habe, das hab ich gar nicht gecheckt. Ich hatte nur mit einem hingeklatschten Skript die Seite im Eingangspost gescraped. > Könntes du bitte so eine Liste auch für die deutschen machen? Ja, mach ich nach Feierabend. Oder morgen falls ich nachher keine Energie mehr haben sollte.
Supi, danke! Also, umbenamsen mit Advanced Renamer[1] funktioniert einwandfrei. * PDFs per Drag and Drop importieren. * Sortieren nach Erstelldatum, so dass "Fundamentals of Power Electronics" oben und "Food Fraud Prevention" unten * Batch Methode hinzufügen -> Liste * Liste "titles.txt" (13,2 KB) von Md M. laden * Batch Starten [1] https://www.advancedrenamer.com/
So ganz kostenlos scheint das nicht alles zu sein. "Literature and Medicine" scheint es nur kostenpflichtig zu geben.
Hier nochmal alle drei URL-files, die jetzt mit den .xlsx erstellt wurden.
Danke! Download klapp. Hast du auch die titles.txt für die deutschen Bücher?
@all: Absolut geil! ;-) Ihr seid Spitze!! Mein besoderer Dank gilt dem diensthabenen Mod für seine erstklassige Arbeit. Der konnte natürlich nicht wissen, was ich gemeint hab. Ja, ich bin halt ne "Brandisia" ;-O ;-P Es ist schön hier sein zu dürfen! ;-O mfg
:
Bearbeitet durch User
Manche davon gibt es auch als epub. Besteht Bedarf an beiden Listen mit wget und gleich mit richtigem Namen? Beides zusammen hat bei mir 10,7 GB ergeben. Vieles wird wieder weg fliegen. PS.: Einige Links davon scheinen so langsam nicht mehr zu funktionieren.
:
Bearbeitet durch User
A. O. schrieb: > Beides zusammen hat bei mir 10,7 GB ergeben. Vieles wird wieder weg > fliegen. > Was für eine sinnlose Netzlast! Schade, dass ich auch nicht besser bin ...
A. O. schrieb: > Besteht Bedarf an beiden Listen mit > wget und gleich mit richtigem Namen? Klar. Ich DoSse auch nochmal.
A,O meinte:
> Beides zusammen hat bei mir 10,7 GB ergeben.
Das ist ja noch gar nichts.
Wenn wir erst mal nen Zufallsgenerator enwickelt haben,
der hintereinander nur Buchstaben würfelt, und einen
Entscheider, der aus dem Ganzen Unsinn das Brauchbare
heraussucht, werden wir nicht nur alle jemals geschriebenen
Bücher besitzen, sondern auch die, die zukünftig noch
geschrieben werden! ;-) ;-P
mfg
Tja, ich bin mir nicht so ganz sicher, ob ich aus den Vorposts nun ableiten kann, daß die Scripts wirklich gewollt sind. Der Sinn, alles zu laden und erst später zu filtern bestand für mich darin, daß, wie jetzt schon zu sehen, die Downloadmöglichkeit schnell wieder verschwinden kann bevor ich mit dem einzelnen raussuchen hinterherkomme. Ich denke auch, daß die Netzlast heutzutage vollkommen egal ist, solange sinnfreie Super-HD Videos übers Schminken und dummes Gelaber einfach so gestreamt werden. Da fallen die 10 GB absolut nicht ins Gewicht.
Ich stelle sie trotzdem mal hier ein. War eine ganz schöne Frickelei mit vim aus der einzigen riesigen HTML Codezeile mit DOS Zeilenenden und Vertauschung der Position von Link und Dateiname usw. Naja, hat mich wieder einiges lernen lassen. PS.: Die meisten epub Links werden ins Leere gehen und sind hier vollkommen ungefiltert eingebaut. Also hinterher die Dateien mit Nullgröße selber löschen. Einige werden auch nur bis max. 90 kB groß. Das sind Fehlermeldungen und können auch gelöscht werden. Erst ab ca. 1 MB ist da Ebook Inhalt drin.
:
Bearbeitet durch User
A.O meinte: > Tja, ich bin mir nicht so ganz sicher, ob ich aus den Vorposts nun > ableiten kann, daß die Scripts wirklich gewollt Na klar doch! ;-P Machen wir die "elea eluanda" - Mär zur Wirklichkeit! Es lebe die Wissensgesellschaft. In jeden Keller und jeden Bunker gehört ne Bibliothek! ;-)) mfg
A. O. schrieb: > Tja, ich bin mir nicht so ganz sicher, ob ich aus den Vorposts nun > ableiten kann, daß die Scripts wirklich gewollt sind. Sorry, mein Kommentar war absolut nicht ironisch gemeint. Danke für die Mühe.
@A.O., Du bist mein Held!! ;-P Reicht das? ;-O mfg
kann mal jemand einem Dau wie mir erklären, wie mann diese epub.sh. benutzt? Danke
H. L. schrieb: > kann mal jemand einem Dau wie mir erklären, wie mann diese epub.sh. > benutzt? > Danke Klingt ein bisschen, als wenn du nicht auf Linux unterwegs bist. Das sind Shell-Skripte für die Bash unter Linux. Man kann sie einfach in einer Kommandozeile aufrufen. Keine Ahnung, wie du das für Windows (oder was auch immer) umbasteln musst. Aber wget scheint es auch für Windows zu geben. Vielleicht reicht es, die erste Zeile (https://de.wikipedia.org/wiki/Shebang mit einem # zu viel?) zu entfernen, weiß ich aber nicht. Edit: Wieso haben die Skripte eigentlich nur ein \r und kein \n am Zeilenende?
:
Bearbeitet durch User
Danke, dachte, man könnte aus der Bezeichnung epub ableiten, dass es direkt mit einem ebook verwendbar wäre. Gruß Hans
Md M. schrieb: > Edit: Wieso haben die Skripte eigentlich nur ein \r und kein \n am > Zeilenende? Ich habe viel mit vim herumgebastelt und die ^@M (glaube ich) endlich mit dos2unix entfernt bekommen, vim wollte das irgendwie nicht machen, warum auch immer. Im vim muß man nach newlines mit \n suchen, allerdings geht einfügen eines newline nur über \r und nicht anders. Nachdem ich das hinbekommen hatte war das Script immer noch nicht startbar, weil alles weiterhin mit ^@M abgeschlossen wurde. LEtztlich hat dos2unix die Lösung gebracht. Md M. schrieb: > Vielleicht reicht es, die erste Zeile > ( … mit einem # zu viel?) zu > entfernen, weiß ich aber nicht. Ja, das ist wohl zu viel drin und rührt daher, weil der Interpreter zuerst die Bash nicht finden konnte, weil eben ein ^@M am Zeilenende drin stand. Ehe ich das rausgefunden hatte bin ich erst den Weg über die Auskommentierung gegangen und habe es dann wohl vergessen. Hat trotzdem funktioniert und wurde hier im "raw mode" eingestellt ;) Um es auf Win laufen zu lassen müßte man es sicher wieder mit unix2dos zurückdrehen. Im schlimmsten Fall müßte man noch den ganzen cygwin installieren, um es laufen zu lassen. ~Mercedes~ . schrieb: > @A.O., > Du bist mein Held!! ;-P > > Reicht das? ;-O Schon besser, aber du könntest gerne noch etwas mehr Süßholz nachlegen ;-D
Falls jemanden interessiert, wie ich die Links aus der Website gekratzt habe, hier das Python-Script dazu. Als Input nimmt es CSV files, die ich aus den Excel-Tabellen erstellt habe (';' als Trenner):
1 | #!/usr/bin/python2
|
2 | |
3 | import sys |
4 | from bs4 import BeautifulSoup |
5 | import urllib2 |
6 | import pandas as pd |
7 | |
8 | df = pd.read_csv(sys.argv[1], sep=';') |
9 | urls = df['OpenURL'] |
10 | |
11 | for url in urls: |
12 | html_page = urllib2.urlopen(url) |
13 | soup = BeautifulSoup(html_page, "lxml") |
14 | for link in soup.findAll('a', attrs={'title': "Download this book in PDF format"}, limit=1): |
15 | print("https://link.springer.com" + link.get('href')) |
Danke für den Tipp! Ich klicke mich gerade durch die Liste durch, und lade ein Buch nach dem anderen herunter. Dann stieß ich auf den Titel "LGBT-Elternfamilien". Dann wurd der englische Originaltitel angezeigt "LGBT-Parent Families". Ich konnte irgendwie nix mit anfangen. Mein Hirn assozierte da irgendwie IGBT mit rein, und rechnete mit einem Buch über die Gattungsfamillie der Linear Gate Bipolar Transistoren :D. Beim überfliegen stellte sich dann aber heraus, dass es um tatsächliche menschliche Familien geht, die lesbischwultranse Eltern haben. Doch nicht so spannend, irgendwie. Schon lustig manchmal, son Gehirn. MfG Chaos
J. T. schrieb: > Beim überfliegen stellte sich dann aber heraus, dass es um tatsächliche > menschliche Familien geht, die lesbischwultranse Eltern haben. Doch > nicht so spannend, irgendwie. Nicht spannend? Das ist absolutes Spezialwissen! Lies es halt erstmal in Ruhe durch und berichte dann.
Einige Bücher haben einen schon mal einen interessanten Titel: - LaTex in 24 Hours - Introduction to Embedded Systems - Fundamentals of Power Electronics - Foundation of Programming Languages
J. T. schrieb: > > Beim überfliegen stellte sich dann aber heraus, dass es um tatsächliche > menschliche Familien geht, die lesbischwultranse Eltern haben. Doch > nicht so spannend, irgendwie. > Ja, da fehlt das Sozialverhalten der Elementarteilchen, irgendwie ... > Schon lustig manchmal, son Gehirn. > Hast Du eigentlichcauch verstohlen kichern müssen, oder hatte es mit den roten Ohren sein Bewenden?
Da ist genug fachfremdes Zug dabei, mit dem man sich für die Zeit nach der Seuche ein gesundes Halbwissen für den Stammtisch anlesen kann :-) Bücher über Mathematik, Physik und Elektrotechnik dürfte jeder von uns im Regal haben. Über LGBT-Familien und Kriminalität unter Senioren eher weniger.
Percy N. schrieb: > Hast Du eigentlichcauch verstohlen kichern müssen, oder hatte es mit den > roten Ohren sein Bewenden? Warum hätte das passieren sollen? Ich fand lustig, das mein Hirn den Linear Gate Bipolar Transistor erfunden hat, nicht das es Familien mit LGBT-Eltern gibt. Leben und leben lassen... Die Zeiten dass ich wegen irgendwelcher Sexualitäten rote Ohren bekam, sind doch n paar Tage vorbei. Percy N. schrieb: > Ja, da fehlt das Sozialverhalten der Elementarteilchen, irgendwie ... Elemtarteilchen haben gar keine Eltern, irgendwie...
Beitrag #6258907 wurde vom Autor gelöscht.
Mehmet K. schrieb: > Springer e-Books for Free Download [Limited Time] > https://www.thebiomics.com/notes/springer-free-e-books-list.html > > Mausklick auf den Buchtitel selbst. Der Klick auf Download führt ins > Leere. Auch von mir ein Dank an dich Mehmet!
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.