Ich würde mir gerne einen kleinen GPU Renderserver bauen. Nun bin ich auf der Suche nach den passenden GPUs für eben diesen Server. Nun hat man ja das Problem das der RAM beim GPU Rendering limitiert ist. Bei CPU Rendering ist das ja nicht so dramatisch, den kann man ja leicht aufrüsten. Bei GPUs ja bekanntlich nicht. Da bin ich über die Tesla K40 mit 12GB gestolpert. Ist dies eine Option? Der Preis ist ja mittlerweile unschlagbar. Hat da jemand Erfahrungen? So wie es bis jetzt aussieht würde ich 4x Dual-Slot in den Rechner bekommen.
Kommt drauf an, mit welcher Software du rendern willst. Blender "Cycles" nutzt m.W. nur single-precision floats auf der GPU, der Tesla-Aufpreis für deren double-precision support bringt dir nichts, eine 08/15 Gaming-Geforce tut's genauso. Ganz neu und noch nicht 100%ig fertig ist bei Blender der "Optix"-Renderer mit RTX Unterstützung. Braucht dann natürlich auch eine passende Karte (Generation "Turing", denke ich)
Rene K. schrieb: > Der Preis ist ja mittlerweile unschlagbar. Leider ist die Performance unterirdisch verglichen mit modernen Hardware. Meine 1080 ist nicht mehr topaktuell und rechnet trotzdem bedeutend schneller. Ich würde mir an OPs Stelle eher mal die Radion VII mit 16GB angucken - falls die Rendersoftware AMD Grakas unterstützt.
Rene K. schrieb: > Da bin ich über die Tesla K40 mit 12GB gestolpert. Ist dies eine Option? > Der Preis ist ja mittlerweile unschlagbar. Inwiefern? Für das Geld kriegst du auch ganz locker eine RTX 2080 Ti. Gut, hat nur 11GB statt 12GB VRAM, aber ist auch um Welten schneller.
>Gut, hat nur 11GB statt 12GB VRAM, aber ist auch um Welten schneller.
Kann man nicht mehrere Grafikkarten einbauen z.B. RTX2080T und hat mehr
Speicher und Rechenleistung?
Dirk schrieb: > Kann man nicht mehrere Grafikkarten einbauen z.B. RTX2080T und hat mehr > Speicher und Rechenleistung? Mehr Rechenleistung schon, aber der Speicher "addiert" sich nicht so einfach. Jede Karte braucht z.B. die Texturen der Szene im VRAM, d.H. vieles muss auf jede Karte kopiert werden, deshalb sollten die Karten gleichviel Speicher haben, und davon auch genug.
mech schrieb: > Rene K. schrieb: >> Da bin ich über die Tesla K40 mit 12GB gestolpert. Ist dies eine Option? >> Der Preis ist ja mittlerweile unschlagbar. > > Inwiefern? Für das Geld kriegst du auch ganz locker eine RTX 2080 Ti. > > Gut, hat nur 11GB statt 12GB VRAM, aber ist auch um Welten schneller. Für 300€ bekomme ich eine RTX2080 Ti? ? Εrnst B. schrieb: > Mehr Rechenleistung schon, aber der Speicher "addiert" sich nicht so > einfach. Richtig, erst ab der der v110 (glaub ich war es) gibt es dann NVLINK. Da wird dann der RAM zusammengefasst. Quasi hat man 4x Tesla mit 24GB hat man 96GB für alle Karten zusammen und der wird dann geteilt. Aber für eine dieser Karten gibt es ja aktuelle noch einen Kleinwagen dafür. ? Jim M. schrieb: > Ich würde mir an OPs Stelle eher mal die Radion VII mit 16GB angucken - > falls die Rendersoftware AMD Grakas unterstützt. Leider nein, ich render hauptsächlich mit VRay, da benötige ich CUDA ab 3.1 und als Nebenrenderer habe ich Arnold dort wird auf Nvidias neues Optix gesetzt. AMD wäre schon schön gewesen, alleine schon wegen des Preises. Für die 1080... Mit wieviel RAM bekommt man die denn? Bekommt man diese auch im Dual-Slot? 1070 oder 80 wäre wirklich eine Option.
Rene K. schrieb: > Für 300€ bekomme ich eine RTX2080 Ti? Von gebraucht war keine Rede, da wird die Luft bei solchen RAM Anforderungen ansonsten tatsächlich eng. Für 300€ bekommst du eine 1070 Ti, mit Glück eine 1080 gebraucht, da ist aber bei 8GB Schluss. Ab 1080 Ti sind 11GB möglich, da wirds dann aber eng mit den 300€.
Rene K. schrieb: > Richtig, erst ab der der v110 (glaub ich war es) gibt es dann NVLINK. Da > wird dann der RAM zusammengefasst. Hast du dafür mal eine Quelle? Bisher bin ich davon ausgegangen, dass das nicht so ist, und ich konnte auf die Schnelle nichts dazu finden.
Rolf M. schrieb: > Rene K. schrieb: > Richtig, erst ab der der v110 (glaub ich war es) gibt es dann NVLINK. Da > wird dann der RAM zusammengefasst. > > Hast du dafür mal eine Quelle? Bisher bin ich davon ausgegangen, dass > das nicht so ist, und ich konnte auf die Schnelle nichts dazu finden. War aber dem V100 hab ich gerade gelesen. https://www.nvidia.com/de-de/data-center/nvlink/
1 | |
2 | Grafikprozessoren können zudem zusammen als ein großer Grafikprozessor mit 0,5 Terabyte vereinheitlichtem Speicherplatz und 2 PetaFLOPS Rechenleistung |
Interessant ist dann auch NVSwitch, aber die geforderte Netzwerkverbindung ist natürlich fatal ?
1 | |
2 | über 4 100-GB-IB-Ports verbunden |
mech schrieb: > Von gebraucht war keine Rede, da wird die Luft bei solchen RAM > Anforderungen ansonsten tatsächlich eng. Natürlich gebraucht. Alles andere wäre für die geplante Nutzung nur Perlen vor die Säue geworfen. Es handelt sich ja um ein Privatprojekt. Alleine die Lizenzen pro Jahr reißen ja immer schon ein großes Loch in die Hobbykasse leider ? Deswegen werde ich auch Abstand von Arnold nehmen. Da kostet eine Rendernode Lizenz alleine schon ~600€ im Jahr. Vray ist da noch recht "günstig".
:
Bearbeitet durch User
Rene K. schrieb: > Natürlich gebraucht. Alles andere wäre für die geplante Nutzung nur > Perlen vor die Säue geworfen. Bei solchen Anwendungen mit viel Dauer-Vollastbetrieb darf man die Stromkosten halt nicht außer acht lassen. Manchmal lohnt es sich etwas mehr auszugeben für die modernere GPU-Architektur, weil sie weniger Watt pro Renderleistung aufnimmt. Ich hab erst neulich eine alte 690 durch eine 1060 Ti ersetzt. Nicht weil ich die Leistung gebraucht hätte, sondern weil das Ding 2/3 der Stromkosten spart.
Hast du auch mal den Stromverbrauch einkalkuliert? Deine 4x Tesla K40 haben zusammen immerhin eine TDP von ca. 1 kW. Wenn du dir schon so ein System aufbaust, gehe ich mal davon aus, dass das auch öfters mal über längere Zeit hinweg unter Volllast laufen wird. Da kommen dann auch schnell mal ein paar Hundert Euro Stromkosten pro Jahr zusammen. @mech: Gleicher Gedanke zur selben Zeit ;-)
:
Bearbeitet durch User
mech schrieb: > Bei solchen Anwendungen mit viel Dauer-Vollastbetrieb darf man die > Stromkosten halt nicht außer acht lassen. Völlig korrekt! Da gehe ich natürlich voll mit. Aber in meinem "speziellen" Fall spielt der Stromverbrauch zum Glück keine Rolle. Der Strom wird von meinem Arbeitgeber getragen.
:
Bearbeitet durch User
Rene K. schrieb: > Der > Strom wird von meinem Arbeitgeber getragen. Ok, aber die Anschaffungskosten nicht? Bei uns würde gebraucht kaufen schon schlicht daran scheitern, dass es keinen "Prozess" dafür gibt :D
mech schrieb: > Ok, aber die Anschaffungskosten nicht? Bei uns würde gebraucht kaufen > schon schlicht daran scheitern, dass es keinen "Prozess" dafür gibt :D Ja, die Anschaffungskosten muss ich selbst tragen. Ist aber nicht weiter schlimm und völlig akzeptabel da es ja für mich Privat ist. Ich kann / darf halt unsere Infrastruktur nutzen. Nun zum Glück haben wir ein relativ kleines Unternehmen, da is das alles bei nem Kaffee regelbar. ?
Vega hat HBM und war das nciht so, dass man denen zusätzlichen RAM abzwacken kann?
No Y. schrieb: > Vega hat HBM und war das nciht so, dass man denen zusätzlichen RAM > abzwacken kann? ... leider ... Rene K. schrieb: > Leider nein, ich render hauptsächlich mit VRay, da benötige ich CUDA ab > 3.1 und als Nebenrenderer habe ich Arnold dort wird auf Nvidias neues > Optix gesetzt. AMD wäre schon schön gewesen, alleine schon wegen des > Preises.
Tja... Das Geld was du bei der Hardware sparst steckst du in neue Software ;-)
Rene K. schrieb: > Richtig, erst ab der der v110 (glaub ich war es) gibt es dann NVLINK. Da > wird dann der RAM zusammengefasst. Quasi hat man 4x Tesla mit 24GB hat > man 96GB für alle Karten zusammen und der wird dann geteilt. Aber für > eine dieser Karten gibt es ja aktuelle noch einen Kleinwagen dafür. ? NVlink ist ein schneller GPU-Interconnect und kein "Speicher-Zusammenfasser".
Rene K. schrieb: > Interessant ist dann auch NVSwitch, aber die geforderte > Netzwerkverbindung ist natürlich fatal ? > >
1 | > über 4 100-GB-IB-Ports verbunden |
2 | > |
Meine DGX2en von Nvidia haben 16 V100-GPUs per NVSwitch eingebunden. Und 400GBit/s ist in größeren Netzen, wo viel KI oder BigData gemacht wird, ja nichts Besonderes. Hier haben wir Switch2Switch-Koppelungen von 1.600GBit/s im Ethernet. Da sind die 400GBit/s Infiniband eher langsam gegen. Die Latenz ist halt besser.
Spongebob schrieb: > NVlink ist ein schneller GPU-Interconnect und kein > "Speicher-Zusammenfasser". Okay... Wie kommt dann diese Aussage von NV zustande?
1 | ... Grafikprozessoren können zudem zusammen als ein großer Grafikprozessor mit 0,5 Terabyte vereinheitlichtem Speicherplatz und 2 PetaFLOPS Rechenleistung... |
Für mich liest sich das so das man mit NVLink / NVSwitch die GPU dann als eine Node sieht. Kann mich natürlich auch irren und lasse mich da gerne eines besseren belehren. Davon mal ab, sind natürlich Tesla Karten mit NVLink außerhalb meine Preisklasse und kommen daher sowieso nicht in Frage, interessieren würde mich dies allerdings schon.
:
Bearbeitet durch User
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.