Forum: PC Hard- und Software 3D Rendering: Tesla K40 eine Option


von Rene K. (xdraconix)


Lesenswert?

Ich würde mir gerne einen kleinen GPU Renderserver bauen. Nun bin ich 
auf der Suche nach den passenden GPUs für eben diesen Server.

Nun hat man ja das Problem das der RAM beim GPU Rendering limitiert ist. 
Bei CPU Rendering ist das ja nicht so dramatisch, den kann man ja leicht 
aufrüsten. Bei GPUs ja bekanntlich nicht.

Da bin ich über die Tesla K40 mit 12GB gestolpert. Ist dies eine Option? 
Der Preis ist ja mittlerweile unschlagbar.

Hat da jemand Erfahrungen?

So wie es bis jetzt aussieht würde ich 4x Dual-Slot in den Rechner 
bekommen.

von Εrnst B. (ernst)


Lesenswert?

Kommt drauf an, mit welcher Software du rendern willst.

Blender "Cycles" nutzt m.W. nur single-precision floats auf der GPU, der 
Tesla-Aufpreis für deren double-precision support bringt dir nichts, 
eine 08/15 Gaming-Geforce tut's genauso.

Ganz neu und noch nicht 100%ig fertig ist bei Blender der 
"Optix"-Renderer mit RTX Unterstützung. Braucht dann natürlich auch eine 
passende Karte (Generation "Turing", denke ich)

von Jim M. (turboj)


Lesenswert?

Rene K. schrieb:
> Der Preis ist ja mittlerweile unschlagbar.

Leider ist die Performance unterirdisch verglichen mit modernen 
Hardware.

Meine 1080 ist nicht mehr topaktuell und rechnet trotzdem bedeutend 
schneller.

Ich würde mir an OPs Stelle eher mal die Radion VII mit 16GB angucken - 
falls die Rendersoftware AMD Grakas unterstützt.

von mech (Gast)


Lesenswert?

Rene K. schrieb:
> Da bin ich über die Tesla K40 mit 12GB gestolpert. Ist dies eine Option?
> Der Preis ist ja mittlerweile unschlagbar.

Inwiefern? Für das Geld kriegst du auch ganz locker eine RTX 2080 Ti.

Gut, hat nur 11GB statt 12GB VRAM, aber ist auch um Welten schneller.

von Dirk (Gast)


Lesenswert?

>Gut, hat nur 11GB statt 12GB VRAM, aber ist auch um Welten schneller.

Kann man nicht mehrere Grafikkarten einbauen z.B. RTX2080T und hat mehr 
Speicher und Rechenleistung?

von Εrnst B. (ernst)


Lesenswert?

Dirk schrieb:
> Kann man nicht mehrere Grafikkarten einbauen z.B. RTX2080T und hat mehr
> Speicher und Rechenleistung?

Mehr Rechenleistung schon, aber der Speicher "addiert" sich nicht so 
einfach. Jede Karte braucht z.B. die Texturen der Szene im VRAM, d.H. 
vieles muss auf jede Karte kopiert werden, deshalb sollten die Karten 
gleichviel Speicher haben, und davon auch genug.

von Rene K. (xdraconix)


Lesenswert?

mech schrieb:
> Rene K. schrieb:
>> Da bin ich über die Tesla K40 mit 12GB gestolpert. Ist dies eine Option?
>> Der Preis ist ja mittlerweile unschlagbar.
>
> Inwiefern? Für das Geld kriegst du auch ganz locker eine RTX 2080 Ti.
>
> Gut, hat nur 11GB statt 12GB VRAM, aber ist auch um Welten schneller.

Für 300€ bekomme ich eine RTX2080 Ti? ?

Εrnst B. schrieb:
> Mehr Rechenleistung schon, aber der Speicher "addiert" sich nicht so
> einfach.

Richtig, erst ab der der v110 (glaub ich war es) gibt es dann NVLINK. Da 
wird dann der RAM zusammengefasst. Quasi hat man 4x Tesla mit 24GB hat 
man 96GB für alle Karten zusammen und der wird dann geteilt. Aber für 
eine dieser Karten gibt es ja aktuelle noch einen Kleinwagen dafür. ?

Jim M. schrieb:
> Ich würde mir an OPs Stelle eher mal die Radion VII mit 16GB angucken -
> falls die Rendersoftware AMD Grakas unterstützt.

Leider nein, ich render hauptsächlich mit VRay, da benötige ich CUDA ab 
3.1 und als Nebenrenderer habe ich Arnold dort wird auf Nvidias neues 
Optix gesetzt. AMD wäre schon schön gewesen, alleine schon wegen des 
Preises.

Für die 1080... Mit wieviel RAM bekommt man die denn? Bekommt man diese 
auch im Dual-Slot? 1070 oder 80 wäre wirklich eine Option.

von mech (Gast)


Lesenswert?

Rene K. schrieb:
> Für 300€ bekomme ich eine RTX2080 Ti?

Von gebraucht war keine Rede, da wird die Luft bei solchen RAM 
Anforderungen ansonsten tatsächlich eng.

Für 300€ bekommst du eine 1070 Ti, mit Glück eine 1080 gebraucht, da ist 
aber bei 8GB Schluss.

Ab 1080 Ti sind 11GB möglich, da wirds dann aber eng mit den 300€.

von Rolf M. (rmagnus)


Lesenswert?

Rene K. schrieb:
> Richtig, erst ab der der v110 (glaub ich war es) gibt es dann NVLINK. Da
> wird dann der RAM zusammengefasst.

Hast du dafür mal eine Quelle? Bisher bin ich davon ausgegangen, dass 
das nicht so ist, und ich konnte auf die Schnelle nichts dazu finden.

von Rene K. (xdraconix)


Lesenswert?

Rolf M. schrieb:
> Rene K. schrieb:
> Richtig, erst ab der der v110 (glaub ich war es) gibt es dann NVLINK. Da
> wird dann der RAM zusammengefasst.
>
> Hast du dafür mal eine Quelle? Bisher bin ich davon ausgegangen, dass
> das nicht so ist, und ich konnte auf die Schnelle nichts dazu finden.

War aber dem V100 hab ich gerade gelesen.

https://www.nvidia.com/de-de/data-center/nvlink/
1
 
2
Grafikprozessoren können zudem zusammen als ein großer Grafikprozessor mit 0,5 Terabyte vereinheitlichtem Speicherplatz und 2 PetaFLOPS Rechenleistung


Interessant ist dann auch NVSwitch, aber die geforderte 
Netzwerkverbindung ist natürlich fatal ?
1
 
2
über 4 100-GB-IB-Ports verbunden

mech schrieb:
> Von gebraucht war keine Rede, da wird die Luft bei solchen RAM
> Anforderungen ansonsten tatsächlich eng.

Natürlich gebraucht. Alles andere wäre für die geplante Nutzung nur 
Perlen vor die Säue geworfen. Es handelt sich ja um ein Privatprojekt. 
Alleine die Lizenzen pro Jahr reißen ja immer schon ein großes Loch in 
die Hobbykasse leider ? Deswegen werde ich auch Abstand von Arnold 
nehmen. Da kostet eine Rendernode Lizenz alleine schon ~600€ im Jahr. 
Vray ist da noch recht "günstig".

: Bearbeitet durch User
von mech (Gast)


Lesenswert?

Rene K. schrieb:
> Natürlich gebraucht. Alles andere wäre für die geplante Nutzung nur
> Perlen vor die Säue geworfen.

Bei solchen Anwendungen mit viel Dauer-Vollastbetrieb darf man die 
Stromkosten halt nicht außer acht lassen. Manchmal lohnt es sich etwas 
mehr auszugeben für die modernere GPU-Architektur, weil sie weniger Watt 
pro Renderleistung aufnimmt.

Ich hab erst neulich eine alte 690 durch eine 1060 Ti ersetzt. Nicht 
weil ich die Leistung gebraucht hätte, sondern weil das Ding 2/3 der 
Stromkosten spart.

von Rolf M. (rmagnus)


Lesenswert?

Hast du auch mal den Stromverbrauch einkalkuliert? Deine 4x Tesla K40 
haben zusammen immerhin eine TDP von ca. 1 kW. Wenn du dir schon so ein 
System aufbaust, gehe ich mal davon aus, dass das auch öfters mal über 
längere Zeit hinweg unter Volllast laufen wird. Da kommen dann auch 
schnell mal ein paar Hundert Euro Stromkosten pro Jahr zusammen.

@mech: Gleicher Gedanke zur selben Zeit ;-)

: Bearbeitet durch User
von Rene K. (xdraconix)


Lesenswert?

mech schrieb:
> Bei solchen Anwendungen mit viel Dauer-Vollastbetrieb darf man die
> Stromkosten halt nicht außer acht lassen.

Völlig korrekt! Da gehe ich natürlich voll mit. Aber in meinem 
"speziellen" Fall spielt der Stromverbrauch zum Glück keine Rolle. Der 
Strom wird von meinem Arbeitgeber getragen.

: Bearbeitet durch User
von mech (Gast)


Lesenswert?

Rene K. schrieb:
> Der
> Strom wird von meinem Arbeitgeber getragen.

Ok, aber die Anschaffungskosten nicht? Bei uns würde gebraucht kaufen 
schon schlicht daran scheitern, dass es keinen "Prozess" dafür gibt :D

von Rene K. (xdraconix)


Lesenswert?

mech schrieb:
> Ok, aber die Anschaffungskosten nicht? Bei uns würde gebraucht kaufen
> schon schlicht daran scheitern, dass es keinen "Prozess" dafür gibt :D

Ja, die Anschaffungskosten muss ich selbst tragen. Ist aber nicht weiter 
schlimm und völlig akzeptabel da es ja für mich Privat ist. Ich kann / 
darf halt unsere Infrastruktur nutzen. Nun zum Glück haben wir ein 
relativ kleines Unternehmen, da is das alles bei nem Kaffee regelbar. ?

von No Y. (noy)


Lesenswert?

Vega hat HBM und war das nciht so, dass man denen zusätzlichen RAM 
abzwacken kann?

von Rene K. (xdraconix)


Lesenswert?

No Y. schrieb:
> Vega hat HBM und war das nciht so, dass man denen zusätzlichen RAM
> abzwacken kann?

... leider ...

Rene K. schrieb:
> Leider nein, ich render hauptsächlich mit VRay, da benötige ich CUDA ab
> 3.1 und als Nebenrenderer habe ich Arnold dort wird auf Nvidias neues
> Optix gesetzt. AMD wäre schon schön gewesen, alleine schon wegen des
> Preises.

von No Y. (noy)


Lesenswert?

Tja...
Das Geld was du bei der Hardware sparst steckst du in neue Software ;-)

von Spongebob (Gast)


Lesenswert?

Rene K. schrieb:
> Richtig, erst ab der der v110 (glaub ich war es) gibt es dann NVLINK. Da
> wird dann der RAM zusammengefasst. Quasi hat man 4x Tesla mit 24GB hat
> man 96GB für alle Karten zusammen und der wird dann geteilt. Aber für
> eine dieser Karten gibt es ja aktuelle noch einen Kleinwagen dafür. ?


NVlink ist ein schneller GPU-Interconnect und kein 
"Speicher-Zusammenfasser".

von Spongebob (Gast)


Lesenswert?

Rene K. schrieb:
> Interessant ist dann auch NVSwitch, aber die geforderte
> Netzwerkverbindung ist natürlich fatal ?
>
>
1
> über 4 100-GB-IB-Ports verbunden
2
>


Meine DGX2en von Nvidia haben 16 V100-GPUs per NVSwitch eingebunden.
Und 400GBit/s ist in größeren Netzen, wo viel KI oder BigData gemacht 
wird, ja nichts Besonderes. Hier haben wir Switch2Switch-Koppelungen von 
1.600GBit/s im Ethernet. Da sind die 400GBit/s Infiniband eher langsam 
gegen. Die Latenz ist halt besser.

von Rene K. (xdraconix)


Lesenswert?

Spongebob schrieb:
> NVlink ist ein schneller GPU-Interconnect und kein
> "Speicher-Zusammenfasser".

Okay... Wie kommt dann diese Aussage von NV zustande?
1
... Grafikprozessoren können zudem zusammen als ein großer Grafikprozessor mit 0,5 Terabyte vereinheitlichtem Speicherplatz und 2 PetaFLOPS Rechenleistung...

Für mich liest sich das so das man mit NVLink / NVSwitch die GPU dann 
als eine Node sieht. Kann mich natürlich auch irren und lasse mich da 
gerne eines besseren belehren.

Davon mal ab, sind natürlich Tesla Karten mit NVLink außerhalb meine 
Preisklasse und kommen daher sowieso nicht in Frage, interessieren würde 
mich dies allerdings schon.

: Bearbeitet durch User
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.