Forum: PC Hard- und Software Wozu braucht man eine Grafikkarte


von Suppenklaus (Gast)


Lesenswert?

Viele der neueren CPUs bringen doch von Haus aus schon alles mit, was 
man fürs Zocken benötigt. Für welche Aufgaben (zielgruppen) sind denn 
Grafikkarten (Steckkarten) geeignet?

Man hört oft Videoschnitt und 3D-Modellierung. Ich habe keine 
einsteckbare Grafikkarte und trotzdem kann ich Filme in 4096x2304@24Hz 
gucken, Videos bearbeiten und mit Blender 3D-Modelle erstellen.

von Jack V. (jackv)


Lesenswert?

… dann zocke mal ’n aktuelleres Spiel mit deiner internen GPU, oder 
rendere ’n geblendertes Modell mit Cycles (gut, das geht gar nicht erst 
– da wirst du direkt die CPU nehmen müssen).

von René H. (mumpel)


Lesenswert?

Für Videoschnitt nehmen Profis Mac-OS, und das wird seinen Grund haben.

von ich (Gast)


Lesenswert?

René H. schrieb:
> Für Videoschnitt nehmen Profis Mac-OS, und das wird seinen Grund
> haben.

Der Grund ist, sie haben von Technik keine Ahnung und Geld spielt nicht 
so die Rolle.

von was (Gast)


Lesenswert?

René H. schrieb:
> Für Videoschnitt nehmen Profis Mac-OS, und das wird seinen Grund haben.

Stimmt, MacOS ist viel besser als eine Grafikkarte.

Oh mann.

von Peter M. (rook)


Lesenswert?

Hallo,

Suppenklaus schrieb:
> Viele der neueren CPUs bringen doch von Haus aus schon alles mit, was
> man fürs Zocken benötigt. Für welche Aufgaben (zielgruppen) sind denn
> Grafikkarten (Steckkarten) geeignet?
für aufwendige Graphikberechnungen braucht es die Rechenleistung von 
leistungsfähigen Graphikkarten. Eine andere Anwendung von Graphikkarten 
ist das Training von (tiefen) neuronalen Netzwerken.

Viele Grüße
Peter

: Bearbeitet durch User
von Rick SΛnchez .. (Gast)


Lesenswert?

was schrieb:
> Stimmt, MacOS ist viel besser als eine Grafikkarte.

Ist ja auch MAC_kenl_OS....

von TR.0LL (Gast)


Lesenswert?

ich schrieb:
> René H. schrieb:
>> Für Videoschnitt nehmen Profis Mac-OS, und das wird seinen Grund
>> haben.
>
> Der Grund ist, sie haben von Technik keine Ahnung und Geld spielt nicht
> so die Rolle.

Das würde ich nicht behaupten (die erste Aussage von ich).

von Guest (Gast)


Lesenswert?

Alles was eine Grafikkarte gut kann ist Operationen die parallel 
ablaufen können schnell zu erledigen. Einfach gesagt kann sie das weil 
sie viele Recheneinheiten besitzt.

Ohne jetzt mal auf die detaillierten unterschiede einzugehen. Deine CPU 
hat sagen wir mal 8 mit um die 4GHz aktuell, die iGPU vielleicht 50 mit 
um die 1GHz und eine ausgewachsene Grafikkarte hat 2000 bis 3000 mit mit 
gut 1,5 bis 2 GHz.

Außerdem haben dedizierte GPUs eigenen deutlich schnelleren und vor 
allem viel mehr Grafikspeicher. Die iGPU muss sich sowohl Bandbreite als 
auch Speicher mit der CPU teilen weil die den normalen RAM benutzt.

René H. schrieb:
> Für Videoschnitt nehmen Profis Mac-OS, und das wird seinen Grund haben.

Das war einmal. Ich habe 3 Kollegen die das von Berufswegen machen, da 
nutzt keiner Mac OS. Die meisten nutzen Windows und das Adobe Ökosystem. 
Dazu ein dicker Intel bzw. mittlerweile eher Ryzen mit 12+ Kernen.

von Alexander K. (Gast)


Lesenswert?

Eine Grafikkarte im Prozessor macht noch keine Grafikkarte. Davon 
abgesehen sind fast alle Prozessorgrafikkarten Diebe. Sie klauen 
normales RAM.

Echte Grafikkarten haben schnelles RAM, und oft Hilfs-Chips an Board. 
Für z.b. 2 Monitore etc. Davon abgesehen, ich habe noch keine 
Prozessor-Grafikkarte gesehen die z.b. CUDA beherrscht.

CUDA ist ein Möglichkeit Rechenoperationen auf einer Grafikkarte X mal 
schneller auszuführen aus das eine CPU kann. Und das brauch mal bei der 
Video-Verarbeitung z.b. dringend.

Fakt ist : Aktuelle Prozessor-Grafikkarten sind schnell. Und diese 
Schnelligkeit reicht sauber für jeden Büro/Office-PC aus. Wenn man was 
gescheites machen will. Brauch man eine gescheite Grafikkarte.

Gruß

  Pucki

von (prx) A. K. (prx)


Lesenswert?

René H. schrieb:
> Für Videoschnitt nehmen Profis Mac-OS, und das wird seinen Grund haben.

Es gibt Branchen, in denen Macs von Anfang an quasi ein Monopol hatten. 
Werbung, Grafik und Design beispielsweise. Da bleibt man dann auch 
dabei, wenns irgend geht.

von Alexander K. (Gast)


Lesenswert?

A. K. schrieb:
> Es gibt Branchen, in denen Macs von Anfang an quasi ein Monopol hatten.
> Werbung, Grafik und Design beispielsweise. Da bleibt man dann auch
> dabei, wenns irgend geht.

JA, hat sich aber aufgeweicht. Ich hatte vor 20 Jahren auch Stress mit 
der Druckerei. Die wollten die Daten auf MAC haben, oder sie wollten sie 
(teuer) selbst setzen.

Nach der Drohung die Druckerei zu wechseln, und einen Probedruck einer 
Corel-Draw-Datei von der Konkurrenz haben die dann aber ein 
"Konverter-PC" angeschafft.

Fakt ist, durch die Markt-Dominanz von Windows wird die MAC-Domain immer 
mehr aufgeweicht. Aber mein Freund schneidet seine Videos auch lieber 
auf seine MAC als auf seinen Windows-PC.

Gruß

   Pucki

von René H. (mumpel)


Lesenswert?

Da sieht man mal wieder die Marktmacht von Microsoft.

von Erwin D. (Gast)


Lesenswert?

Alexander K. schrieb:
> aus das eine CPU kann.
> Und das brauch mal

Bist du nicht in der Lage, vor dem Abschicken nochmal durchzulesen, was 
du geschrieben hast? Oder willst du einen Wettbewerb führen, wer der 
Schnellste ist?

von Alexander K. (Gast)


Lesenswert?

Erwin D. schrieb:
> Bist du nicht in der Lage, vor dem Abschicken nochmal durchzulesen, was
> du geschrieben hast? Oder willst du einen Wettbewerb führen, wer der
> Schnellste ist?

Es gibt Leute die sich an einen Tippfehler aufgeilen, aber nix 
gescheites zum Thema beitragen.

Aber zu deiner Beruhigung. Es sollte ALS statt aUs heißen.

Ich denke aber das das den TO nicht wirklich interessiert.

Und ja, du hast Recht. Ich schreibe schnell, und übersehe oft ein 
Tippfehler. Ich habe nämlich noch was anderes zu tun. Das hier mache ich 
nur in den "Wartepausen".

Gruß

  Pucki

von Suppenklaus (Gast)


Lesenswert?

Wie muss man sich das vorstellen. Man steckt die Karte in den Rechner 
und fortan übernimmt die Grafikkarte alle Aufgaben, die zur grafischen 
Ausgabe relevant sind und nicht die CPU?

von Alexander K. (Gast)


Lesenswert?

Suppenklaus schrieb:
> Wie muss man sich das vorstellen. Man steckt die Karte in den Rechner
> und fortan übernimmt die Grafikkarte alle Aufgaben, die zur grafischen
> Ausgabe relevant sind und nicht die CPU?

GENAU SO. Man muss nur im Bios die INTERNE abschalten. Und den Kabel 
umstecken danach. !!! Ach ja, damit die neue Grafikkarte mehr als 
"besseres VGA" anzeigen kann, braucht sie logoweis noch ein Treiber.

"Besseres VGA" ist native und kann jede Grafikkarte, und das ist der 
Modus in den Windows die ansteuert wenn es kein Treiber findet.

Dann hat man sogar mehr oft Ram-Speicher zur Verfügung. Weil die CPU-GK 
dann nicht mehr klauen darf.

Gruß

  Pucki

von Jack V. (jackv)


Lesenswert?

Alexander K. schrieb:
> CUDA ist ein Möglichkeit Rechenoperationen auf einer Grafikkarte X mal
> schneller auszuführen aus das eine CPU kann. Und das brauch mal bei der
> Video-Verarbeitung z.b. dringend.

CUDA ist in erster Linie propietärer Kram von Nvidia. Videobearbeitung 
auf der GPU geht auch ganz gut über OpenCL, je nach Software.

Mittlerweile  gibt’s auch CPU/GPU-Einheiten von Intel, die’s beherrschen 
– natürlich ist die Leistung im Vergleich zu dedizierten 
Rechen-/Grafikkarten nicht beeindruckend, aber grundsätzlich kann man 
damit rechnen.

von Alexander K. (Gast)


Lesenswert?

Jack V. schrieb:
> CUDA ist in erster Linie propietärer Kram von Nvidia. Videobearbeitung
> auf der GPU geht auch ganz gut über OpenCL, je nach Software.

JA, wenn man ATI nimmt. Was ich leider habe.

Ist aber nur halb so schön wie CUDA. Weil CUDA auch von einiger Software 
als "Rechenknecht" eingesetzt wird.

Gruß

   Pucki

von Jack V. (jackv)


Lesenswert?

Alexander K. schrieb:
> JA, wenn man ATI nimmt. Was ich leider habe.

Du kannst gerne auch auf Nvidia-GPUs mit OpenCL arbeiten. Und auf 
neueren Intel-GPU/CPUs. Ist nur eine Frage der Präferenzen der 
Entwickler der von dir genutzten Software.

Edit: ATI gibt’s schon wirklich lange nicht mehr in der Form …

: Bearbeitet durch User
von Alexander K. (Gast)


Lesenswert?

Als ich mein HD-7950 gekauft habe, war ATI noch eigenständig.

Das sie danach von AMD gefressen wurden weiß ich.

Nur ATI ist als Markenname immer noch ein Begriff , und AMD hat gut 
daran getan das zu lassen. Weil mit AMD + Grafikkarten kann in meinen 
Bekanntenkreis kaum jemand etwas anfangen.

Und JA, ich habe OPENCL dabei im Einsatz.  Allerdings wird meine nächste 
Grafikkarte eine Nvidia. Das ist FAKT.

Grund : Cuda gefällt mir besser. Und ich hoffe ich muß nicht wieder fast 
1.2 GigaBytes an Treiber installieren. Und eine Wissenschaft machen, um 
die Grafikkarte zu Konfigurieren.

Und nein, ich Zocke nicht am PC. Jedenfalls kein Spiel was jünger wie 8 
Jahre ist. Ich habe bei Stream ca. 20 Spiele in der Liste stehen, die 
ich noch nie gezockt habe ;)

Gruß

   Pucki

von Jack V. (jackv)


Lesenswert?

Alexander K. schrieb:
> Nur ATI ist als Markenname immer noch ein Begriff , und AMD hat gut
> daran getan das zu lassen.

Dann such mal in ’nem Onlineshop nach ’ner aktuellen ATI-Karte …

Ich schlage vor, du versuchst erstmal, die Gegenwart zu erreichen. Dann 
lässt’s sich auch viel besser über die heutigen technischen 
Möglichkeiten diskutieren.

Edit: die HD-7950 wurde sechs Jahre nach der Übernahme dann auch schon 
nicht mehr als ATI-Karte verkauft. Die HD-5000-Serie war die Letzte, um 
2009 rum. Und dass viel Kram bei dir nicht auf der GraKa zu rechnen ist, 
obwohl’s dazu theoretisch geeignet wäre, wird vermutlich auch eher daran 
liegen, dass die alte Hardware die heute benötigten OpenCL-Versionen 
nicht unterstützt. Ich mein’: mit einer Nvidia-Karte aus der Zeit, mit 
entsprechend alter CUDA-Version, wird heute auch nicht mehr sehr viel 
funktionieren …

: Bearbeitet durch User
von Suppenklaus (Gast)


Lesenswert?

In der letzten PC Games Hardware wurden verschiedene 
Mittelklasse-Grafikkarten miteinander verglichen. Was mich gewundert 
hat, dass die Auflösung gar kein Vergleichskriterium war. Wie ist das zu 
erklären? Hängt die nicht von der Größe des Video-Speichers ab?

von Jack V. (jackv)


Lesenswert?

Suppenklaus schrieb:
> Was mich gewundert
> hat, dass die Auflösung gar kein Vergleichskriterium war. Wie ist das zu
> erklären? Hängt die nicht von der Größe des Video-Speichers ab?

Hängt schon davon ab. Aber da geht’s um zweistellige Megabyte, während 
heute selbst die popeligste integrierte GPU auf dreistellige Werte 
zurückgreifen kann.

von cppbert (Gast)


Lesenswert?

Suppenklaus schrieb:
> Wie muss man sich das vorstellen. Man steckt die Karte in den
> Rechner
> und fortan übernimmt die Grafikkarte alle Aufgaben, die zur grafischen
> Ausgabe relevant sind und nicht die CPU?

Wo haben sie dich denn ausgegraben :) interne grafik in CPUs sind 
neumodisch - max seit 10 jahren, davor waren jahrzentelang externe 
Grafikkarten das einzige um was auf den Monitor zu zaubern, inter ist 
das neue, extern war schon 1985 standard

Wenn du grafikaufwendiges zocken willst kommst du kaum um eine echte 
grafikkarte rum - ist auch völlig normal und gar nichts besonderes in 
einem grossteil der heute verkauften Rechner

von Dominic (Gast)


Lesenswert?

Wir verbauen high end Grafikkarten und schließen nicht mal einen Monitor 
an

von René F. (Gast)


Lesenswert?

cppbert schrieb:
> Wo haben sie dich denn ausgegraben :) interne grafik in CPUs sind
> neumodisch - max seit 10 jahren, davor waren jahrzentelang externe
> Grafikkarten das einzige um was auf den Monitor zu zaubern, inter ist
> das neue, extern war schon 1985 standard

Naja das ganze hat sich langsam in 2 verschiedene Richtungen entwickelt, 
entweder in CPU oder als komplett eigener Chip, es gab aber auch Zeiten 
da waren GPUs in den Chipsatz (North Bridge) integriert. Beispiel wäre 
zum Beispiel Intel G35 Chipsatz mit GMA X3500.

von Nano (Gast)


Lesenswert?

Suppenklaus schrieb:
> Viele der neueren CPUs bringen doch von Haus aus schon alles mit, was
> man fürs Zocken benötigt. Für welche Aufgaben (zielgruppen) sind denn
> Grafikkarten (Steckkarten) geeignet?

Die iGPU (in der CPU integrierte Grafik) reicht für viele Spiele nicht 
aus, da sie immer noch viel zu schwach sind bzw. die Speicheranbindung 
zu langsam ist und das wird sich bis auf absehbare Zeit auch nicht 
ändern.

Das Hautproblem ist die Speicheranbindung. DDR4 ist halt nicht viel 
verglichen zu dem, was man bei dedizierten Grafikkarten macht.
Da ist es nicht nur DDR5 und DDR5, sondern die einzelnen Chips haben 
auch noch ihre eigene Datenleitungen direkt zum GPU Chip. Durch dieses 
Aufteilen hat man ein Vielfaches der Bandbreite, wie sie bei der CPU 
vorhanden ist.

Und ein anderer Grund ist natürlich, dass man einen ganzen Chip nur für 
GPU Shadereinheiten zur Verfügung hat, während sich die iGPU die Fläche 
mit der CPU teilen muss.


> Man hört oft Videoschnitt und 3D-Modellierung. Ich habe keine
> einsteckbare Grafikkarte und trotzdem kann ich Filme in 4096x2304@24Hz
> gucken, Videos bearbeiten und mit Blender 3D-Modelle erstellen.

Das was bei Blender GPU Leistung kostet ist das Rendern der Modelle, 
nicht das erstellen. Und ob das reicht hängt dann von der Komplexität 
deiner Modelle ab.
Und beim Videoschnitt ist es nicht der Schnitt, der Leistung kostet, 
sondern besondere Postprocessing Effekte. Die meisten 
Gelegenheitshobbyvideoschneider werden so etwas aber ohnehin nicht 
machen.
Ansonsten sind es noch die Encoder die Leistung benötigen. Das ist nur 
relevant, wenn man nicht ewig auf das Ergebnis warten will.
Youtuber z.B. haben meist einen festen Zeitplan, wenn die zweimal die 
Woche ein Video raushauen müssen, dann muss das nach dem Fertigschneiden 
eben noch schnell kodiert werden.


Wenn du für deine Kinder einen neuen Rechner kaufst und dich nun fragst 
ob du noch eine dedizierte GPU kaufen sollst, dann würde ich das davon 
abhängig machen, wie alt sie sind.
Wenn sie noch sehr jung sind, dann wissen sie meist eh nicht welche 
aktuellen Spiele es derzeit gibt und für Minecraft und Kerbal Space 
Program reicht auch die iGPU. Dann würde ich das Geld in eine 
ordentliche CPU stecken und den Kauf der dedizierten GPU auf das nächste 
Jahr verschieben.
Dann wirst du zwar im nächsten Jahr noch einmal Geld in die Hand nehmen 
müssen, um den PC zu einem vollwertigen Gaming PC zu machen, aber bis 
dahin wird die ein oder andere dedizierte Grafikkarte auch im Preis 
gefallen sein oder die nächste Generation da stehen, da kann man dann 
etwas Geld sparen. Auf jeden Fall kann man die Zeit zum ansparen nutzen.

Wenn die Kinder aber schon älter sind. Also im jugendlichen Alter, dann 
wird das schwierig, denn dann wissen die, was gerade aktuell ist, dann 
hast du zwei Mglichkeiten und die solltest du dann mit denen besprechen.
Die erste ist, ihr kauft euch eine CPU und gleich noch eine dedizierte 
GPU, wenn das Geld begrenzt ist, müsst ihr bei der CPU dann natürlich 
etwas abstriche machen.
Die zweite Möglichkeit ist, ihr macht es wie bei den jungen Kindern, 
zuerst die CPU kaufen, dann die iGPU ein Jahr nutzen und später 
nachrüsten.
Das solltest du mit deinen jugendlichen Kindern besprechen was ihnen 
lieber ist. Grundsätzlich kann man heutzutage sehr viele alte, aber auch 
davon  viele sehr gute Spiele spielen und Spaß haben, so dass es an ein 
Spieleangebot nicht mangelt. Die alten Spiele sind zudem ohnehin 
günstiger.

Die Kernfrage ist also, ob es immer das neuste Spiel sein muss und ob 
man das immer gleich am Anfang gespielt haben muss.
Bei manchen Spielen ist letzteres wichtig, vor allem bei 
Multiplayerspielen, da die Spieler die das auch spielen und die man für 
die Multiplayerspiele benötigt, ja selber mit der Zeit gehen. Bei alten 
Multiplayerspielen werden irgendwann die Server leer und dann sind die 
nutzlos. Aber das werden deine Kinder sicherlich besser wissen, wenn du 
selbst kein Spieler bist.

von Nano (Gast)


Lesenswert?

René H. schrieb:
> Für Videoschnitt nehmen Profis Mac-OS, und das wird seinen Grund haben.

Blödsinn!

Mac-OS nehmen Profis gerade eben nicht, weil sie dann für die Leistung 
zu viel Geld zahlen müssten, oder richtig viel Leistung erst gar nicht 
bekommen.

Ich kann dir für das gleiche Geld einen PC zusammenstellen, der deutlich 
leistungsfähiger als der teuerste Mac ist.

Apple Rechner kaufen eigentlich nur Leute die keine Ahnung haben und 
glauben, dass man mit einem Apple Rechner angeben kann. Was man bei 
Leuten, die sich bei Computern auskennen, NICHT kann!

von Nano (Gast)


Lesenswert?

Alexander K. schrieb:
> Davon abgesehen, ich habe noch keine
> Prozessor-Grafikkarte gesehen die z.b. CUDA beherrscht.

CUDA werden die auch nie können, da CUDA von NVidia ist und proprietär 
ist.
Was sie aber können ist OpenCL, das können nämlich alle, da es ein 
herstellerunabhängiger Standard ist.

Solange NVidia also keine eigenen x86 CPUs bauen darfst, wirst du kein 
CUDA in x86 CPUs zu sehen bekommen.


> CUDA ist ein Möglichkeit Rechenoperationen auf einer Grafikkarte X mal
> schneller auszuführen aus das eine CPU kann. Und das brauch mal bei der
> Video-Verarbeitung z.b. dringend.

Das geht mit OpenCL auch.

von Nano (Gast)


Lesenswert?

A. K. schrieb:
> René H. schrieb:
>> Für Videoschnitt nehmen Profis Mac-OS, und das wird seinen Grund haben.
>
> Es gibt Branchen, in denen Macs von Anfang an quasi ein Monopol hatten.
> Werbung, Grafik und Design beispielsweise. Da bleibt man dann auch
> dabei, wenns irgend geht.

Das war mal so, ist aber heute nicht mehr so.
Auch diese Leute merken, dass sie bei einem normalen PC mehr Leistung 
fürs Geld kriegen und der PC das bessere Preis-/Leistungsverhältnis hat.
Und da Windows 7 oder Windows 10 längst nicht mehr so schlimm ist, wie 
damals Windows 95 oder Windows 98, ist selbst Windows eine Alternative 
für diese Leute geworden.

Ich halte es sogar für möglich, dass ein paar wenige einzelne Leute in 
dieser Branche sogar professionell auf Linux + Blender und Co. setzen.

von Nano (Gast)


Lesenswert?

René H. schrieb:
> Da sieht man mal wieder die Marktmacht von Microsoft.

Das ist nicht die Marktmacht von Microsoft, sondern das bessere 
Preis-/Leistungsverhältnis ohne Applemarkenzusatzzahlung.

von Icke ®. (49636b65)


Lesenswert?

Bilder sagen mehr als Worte:

https://www.youtube.com/watch?v=-P28LKWTzrI

von Nano (Gast)


Lesenswert?

Suppenklaus schrieb:
> Wie muss man sich das vorstellen. Man steckt die Karte in den Rechner
> und fortan übernimmt die Grafikkarte alle Aufgaben, die zur grafischen
> Ausgabe relevant sind und nicht die CPU?

Nicht ganz.

Du steckst die Grafikkarte in den Rechner.
Dann schließt du deinen Monitor an diese Grafikkarte an.
Wenn das getan ist, bootest du den Rechner und installierst dir die 
Treiber für diese Grafikkarte für dein Betriebssystem.
Wenn das getan ist, kannst du die Grafikkarte umfänglich nutzen.

von Nano (Gast)


Lesenswert?

Alexander K. schrieb:
> Suppenklaus schrieb:
>> Wie muss man sich das vorstellen. Man steckt die Karte in den Rechner
>> und fortan übernimmt die Grafikkarte alle Aufgaben, die zur grafischen
>> Ausgabe relevant sind und nicht die CPU?
>
> GENAU SO. Man muss nur im Bios die INTERNE abschalten.

Die muss man nicht abschalten. Die kann man abschalten, muss man aber 
nicht.
Man stellt das auf "auto", dann weiß das Betriebsystem anhand des 
angeschlossenen Monitors welche GPU verwendet wird.

Wenn man es auf auto lässt, kann man bei Defekt der dedizierten GPU 
seinen Rechner noch benutzen.

von Alexander K. (Gast)


Lesenswert?

Nano schrieb:
> Die muss man nicht abschalten. Die kann man abschalten, muss man aber
> nicht.
> Man stellt das auf "auto", dann weiß das Betriebsystem anhand des
> angeschlossenen Monitors welche GPU verwendet wird.
>
> Wenn man es auf auto lässt, kann man bei Defekt der dedizierten GPU
> seinen Rechner noch benutzen.

Bei ca. 40% der Rechner magst du recht haben.  ABER ich kenne min. 8 
Rechner wo du unrecht hast.

Ich kann mich an einen Rechner erinnern da musste ich die defekte 
Grafikkarte sogar ausbauen, damit ich im Bios die interne aktivieren 
konnte.

Ja, ich weiß das klingt schwachsinnig. Ist aber eine Tatsache. Weil ohne 
Aktivierung der internen war dunkel sobald Windows umgeschaltet hat 
(Win-7). Vermutlich (k.a.) schaut Windows im Bios nach, oder was weiß 
ich. Fakt ist, ohne Abschaltung war Ende sobald Windows den 
Grafikkartenmodus umgeschaltet hat.

Gruß

  Pucki

von Nano (Gast)


Lesenswert?

Alexander K. schrieb:
> Nur ATI ist als Markenname immer noch ein Begriff , und AMD hat gut
> daran getan das zu lassen. Weil mit AMD + Grafikkarten kann in meinen
> Bekanntenkreis kaum jemand etwas anfangen.

Ati Grafikkarten sind als schlechte Qualität verschrien.
Um dieses Image abzulegen, würde AMD gut daran tun, von AMD Grafikkarten 
zu sprechen.


> Und JA, ich habe OPENCL dabei im Einsatz.  Allerdings wird meine nächste
> Grafikkarte eine Nvidia. Das ist FAKT.

Ja, wundert mich nicht. ;)
Leider hat sich auch mit AMD bei ATI nur wenig zum besseren getan.


> Und nein, ich Zocke nicht am PC. Jedenfalls kein Spiel was jünger wie 8
> Jahre ist.

Auch zum Zocken ist NVidia eigentlich besser.
Der einzige Grund nicht NVidia zu kaufen wäre, wenn einem guter Open 
Source Treiber support unter Linux wichtig ist.
Der Support für die NVidia Treiber läuft irgendwann aus, das ist aber so 
lange, dass ich bis dahin die GPU schon lange im Zweitrechner nutze und 
auf dem wird dann eh nicht mehr gespielt, also würde dort auch die iGPU 
reichen, die dann wiederum gute Open Source Treiber hat.
Aber glücklicehrweise sind auch die Open Source Treiber für NVIdia GPUs 
inzwischen besser geworden, nur die Stromsparmodi gehen halt noch nicht 
und die ganz alten NVidia GPUs laufen mit den Open Source Treiber immer 
noch nicht rund.

von Alexander K. (Gast)


Lesenswert?

Wobei mir gerade einfällt, Die Kiste (ne Dual-Core, Modell 
Fujitsu-Siemens)  hat gar keine Automatik ;)  Die Kiste kennt nur Intern 
/ Extern. Hab ihr nämlich wegen des "Ram-Diebstahl" eine kleine aus der 
Grabelkiste eingebaut.

Gruß

   Pucki

von MiWi (Gast)


Lesenswert?

Jack V. schrieb:
> Alexander K. schrieb:
>> Nur ATI ist als Markenname immer noch ein Begriff , und AMD hat gut
>> daran getan das zu lassen.
>
> Dann such mal in ’nem Onlineshop nach ’ner aktuellen ATI-Karte …
>
> Ich schlage vor, du versuchst erstmal, die Gegenwart zu erreichen. Dann
> lässt’s sich auch viel besser über die heutigen technischen
> Möglichkeiten diskutieren.

Pucki scheint in Pension zu sein und ihm ist einfach nur langweilig, 
anders sind knapp 650 Posts in 37 Tagen nicht zu erklären.

von Alexander K. (Gast)


Lesenswert?

MiWi schrieb:
> ihm ist einfach nur langweilig,

Stimmt  Ich arbeite im Hintergrund an einen Sache die nur überwacht 
werden muss, und viele viele Berechnungen braucht.  Und auf ein kleinen 
8-Kern-Rechner bleibt da halt noch genug Power übrig.

Gruß

   Pucki

von Alexander K. (Gast)


Lesenswert?

Und was "aktuelle Grafikkarte" angeht. Ich habe keine Ahnung was 
überhaupt aktuell ist. Grund : Ich bin kein Händler und kein Spielkind 
das neue feuchte Träume braucht.

Ich informiere mich in ein paar Jahren wenn mein Rechner nicht mehr 
genug Power hat. Aktuell schaffe ich es nicht (Lt. Taskanzeige) den über 
20 % zu bringen. Außer ich benutzte da komischen OpenCL Zeug. Was eh nix 
viel taugt.

Bei den CUDA bei meinen Freund werde ich nämlich neidisch. Der stellt 
das in seiner Software ein und schon rennt das ganze im Schnitt 40% 
schneller.

Und bei der Geschwindigkeit wie die Grafikkarten auf den Markt werfen, 
muss ich die neue per Express liefern lassen, damit die nicht schon 
veraltet bei mir ankommt.

Gruß

  Pucki

ps. : Posted = Posted + 1

von Nano (Gast)


Lesenswert?

cppbert schrieb:
> Wo haben sie dich denn ausgegraben :) interne grafik in CPUs sind
> neumodisch - max seit 10 jahren, davor waren jahrzentelang externe
> Grafikkarten das einzige um was auf den Monitor zu zaubern, inter ist
> das neue, extern war schon 1985 standard

Stimmt nicht ganz.
Es gab schon damals Grafikchip, die direkt aufs Mainboard gelötet 
wurden.
Diese waren praktisch der Vorläufer der iGPUs.

von Alexander K. (Gast)


Lesenswert?

Nano schrieb:
> Stimmt nicht ganz.
> Es gab schon damals Grafikchip, die direkt aufs Mainboard gelötet
> wurden.
> Diese waren praktisch der Vorläufer der iGPUs.

*Kann ich nur zustimmen.*

Und es ist mir völlig egal wo die Grafikkarte wie auf den Board verbaut 
ist. Alles was ich nicht ohne Lötkolben ausbauen kann, ist intern.

Man muss die Welt manchmal einfacher sehen.

Gruß

   Pucki

von Zeno (Gast)


Lesenswert?

Nano schrieb:
> Mac-OS nehmen Profis gerade eben nicht, weil sie dann für die Leistung
> zu viel Geld zahlen müssten, oder richtig viel Leistung erst gar nicht
> bekommen.
>
> Ich kann dir für das gleiche Geld einen PC zusammenstellen, der deutlich
> leistungsfähiger als der teuerste Mac ist.
>
> Apple Rechner kaufen eigentlich nur Leute die keine Ahnung haben und
> glauben, dass man mit einem Apple Rechner angeben kann. Was man bei
> Leuten, die sich bei Computern auskennen, NICHT kann!

Ich kenne nicht einen Designer, Grafiker etc. der nicht MAC benutzt. Es 
geht dabei auch gar nicht so sehr um die Leistung des Rechners, sondern 
oftmals spielt die Software die entscheidende Rolle. Im 
Grafik-/Designbereich Adobe CS das auch zuerst für Mac entwickelt wurde.
Weiteres Kriterium ist die Stabilität vom Mac, was aber an dem insgesamt 
gesehen homogenen Hardwaredesign vom Mac liegt. Das was da verbaut ist 
passt einfach perfekt zusammen und das merkt man auch.
Weitere Geschichte, die unter Windows (zumindest bis Win 7) nie richtig 
funktioniert hat ist das Farbmanagement, d.h. das was am Ende auf dem 
Belichter raus kommt sieht farblich anders aus als wie auf dem Desktop. 
Für einen Designer tödlich. Und jetzt komm nicht mit kalibrieren - es 
funktioniert schlichtweg nicht. Letztendlich hat der Chef meiner Tochter 
in der Designerabteilung alle PC's durch Mac's ersetzt und das hat er 
nicht getan weil er gerade ein bissel was übrig hatte. Der Mehrpreis für 
die Mac's ist schnell wieder rein, wenn man nicht stundenlang am 
Ergebnis pröbeln muß.

Ich bin derzeit noch in beiden Welten unterwegs, beruflich Windows und 
privat sehr viel Mac. Ich programmiere sogar beruflich für Windows und 
trotzdem werde ich für mich privat nur noch Mac kaufen - es läuft 
einfach runder. Da brauche ich mich nicht um irgendwelche Treiber zu 
kümmern, da muß ich beim neuen Mac auch nichts vom alten migrieren (das 
macht er nach Nachfrage ganz alleine). Ich nehme das Teil aus dem Karton 
und schalte den Kasten ein und kann sofort damit arbeiten. Da gibt es 
auch keine nervigen Meldungen das ich mit der neu angsteckten Kamera nun 
arbeiten könne, ich stecke das Ding dran und kann sofort los legen. 
Irgendwie machen die schon etwas anders.
Na klar es gibt auch Sachen die bei Windows besser sind und auch Mac hat 
Macken, aber die Summe der Macken ist deutlich geringer und ich muß mich 
um fast nichts kümmern, das ist schon sehr angenehm.

von (prx) A. K. (prx)


Lesenswert?

Nano schrieb:
> Auch diese Leute merken, dass sie bei einem normalen PC mehr Leistung
> fürs Geld kriegen und der PC das bessere Preis-/Leistungsverhältnis hat.

Hat er. Aber die Investitionskosten in Hardware sind wesentlich geringer 
als das, was in diesen Bereichen sonst noch gezahlt werden muss, für 
Arbeit und Software. Für Neuanfänger eher ein Kriterium als für 
Etablierte.

> Ich halte es sogar für möglich, dass ein paar wenige einzelne Leute in
> dieser Branche sogar professionell auf Linux + Blender und Co. setzen.

Aber wenn schon Revolution, dann gehts vielleicht weniger darum, von 
Apple oder Microsoft wegzukommen, als vielmehr von Firmen wie Adobe.

: Bearbeitet durch User
von Yalu X. (yalu) (Moderator)


Lesenswert?

Wenn man bedenkt, dass man für eine nicht benutzte iGPU kein Geld
zurückbekommt, kann man sie eigentlich nur mit den billigsten
Grafikkarten für maximal etwa 50 € vergleichen. Und damit können sie
IMHO sehr gut mithalten. Eine Intel Iris hat Zugriff auf schnellen eDRAM
(50 GB/s, nach anderen Quellen sogar 100 GB/s), der Speicher auf
billigen Grafikkarten ist meist deutlich langsamer. Auch in der
Rechenleistung schlägt die Iris mit bis zu 1152 GFLOPS die in den
billigen Grafikkarten oft verbaute nVidia GT 710 (366 GFLOPS) locker.

Allerdings ist der integrierte eDRAM nur 128 MB groß, während die
billigen Grafikkarten meist 1 oder 2 GB haben. Der Unterschied macht
sich vor allem bei Spielen mit vielen aufwendigen Texturen bemerkbar,
die bei der iGPU teilweise in den externen DRAM ausgelagert werden
müssen, der längere Zugriffszeiten hat. Ob dies die iGPU so stark
ausbremst, dass sie in Summe langsamer als die dGPU ist, kann ich nicht
sagen, da ich zum einen keine dGPU habe und zum anderen keine Spiele
spiele, bei denen der Unterschied in der RAM-Größe eine Rolle spielen
würde.

Auf jeden Fall wäre es falsch zu behaupten, dass eine Grafikkarte
generell schneller als eine iGPU ist.

Wenn man unsicher ist, was man kaufen soll, nimmt man am besten eine
Karte mit nVidia Quadro RTX 8000 für knapp 7000 €. Diese dGPU wird nicht
so schnell von iGPUs überholt werden.

von Nano (Gast)


Lesenswert?

Zeno schrieb:
> Nano schrieb:
>> Mac-OS nehmen Profis gerade eben nicht, weil sie dann für die Leistung
>> zu viel Geld zahlen müssten, oder richtig viel Leistung erst gar nicht
>> bekommen.
>>
>> Ich kann dir für das gleiche Geld einen PC zusammenstellen, der deutlich
>> leistungsfähiger als der teuerste Mac ist.
>>
>> Apple Rechner kaufen eigentlich nur Leute die keine Ahnung haben und
>> glauben, dass man mit einem Apple Rechner angeben kann. Was man bei
>> Leuten, die sich bei Computern auskennen, NICHT kann!
>
> Ich kenne nicht einen Designer, Grafiker etc. der nicht MAC benutzt.

Bei vielen Designern, Grafikern usw. ist es nur historisch bedingt. 
Natürlich wird's von denen auch einige Leute geben, die weiterhin Macs 
kaufen, aber wer heute Frisch an die Materia herangeht, der denkt auch 
über eine PC nach, wenn er die Leistung braucht. Und letztere ist hier 
relevant, wer nur mit Photoshop Bilder bearbeitet, wird längst nicht die 
maximale Leistung fürs Geld benötigen, wie jemand der CGI Videoszenen 
rendern muss.


> Es
> geht dabei auch gar nicht so sehr um die Leistung des Rechners, sondern
> oftmals spielt die Software die entscheidende Rolle. Im
> Grafik-/Designbereich Adobe CS das auch zuerst für Mac entwickelt wurde.
> Weiteres Kriterium ist die Stabilität vom Mac, was aber an dem insgesamt
> gesehen homogenen Hardwaredesign vom Mac liegt.

Auch Windows Rechner sind heutzutage bombenstabil. Es liegt in beiden 
Fällen eher am Kernel und der Art und weise von welchem Typ dieser ist. 
Früher war das noch anders, sowohl bei Windows 9x/Me, als auch bei MacOS 
9 und frühere Versionen. Bei letzteren half tatsächlich die homogenere 
Hardware etwas. Bei den heutigen Kernel können Anwendungsprogramme nicht 
mehr im RAM des OS herumpfuschen. Fürher wurde das teilweise gemacht, 
vor allen wenn die Plattform einheitlich war, hat sich das angeboten.


> Das was da verbaut ist
> passt einfach perfekt zusammen und das merkt man auch.
> Weitere Geschichte, die unter Windows (zumindest bis Win 7) nie richtig
> funktioniert hat ist das Farbmanagement, d.h. das was am Ende auf dem
> Belichter raus kommt sieht farblich anders aus als wie auf dem Desktop.
> Für einen Designer tödlich.

Windows selbst hat es damals nicht direkt unterstützt, das mag sein, 
aber Farbprofile mit Farbkalibriergeräten konnte man schon damals 
nutzen.
Die Anwendungen konnten diese auswerten, wenn ich mich richtig erinnere 
auch die Grafiktreiber.

> Und jetzt komm nicht mit kalibrieren - es
> funktioniert schlichtweg nicht.

Man hat schon immer kalibrieren müssen. Davon ist auch ein Mac nicht 
gefeit, der kommt höchstens vorkalibriert, sofern Apple so etwas macht.
Mit der Zeit lässt dessen Bildschirm aber auch nach, dann muss wieder 
kalibriert werden.

Letztendlich hat der Chef meiner Tochter
> in der Designerabteilung alle PC's durch Mac's ersetzt und das hat er
> nicht getan weil er gerade ein bissel was übrig hatte. Der Mehrpreis für
> die Mac's ist schnell wieder rein, wenn man nicht stundenlang am
> Ergebnis pröbeln muß.

Die Frage ist ja, wann das war? Vor 20 Jahren zu WinXP Zeiten?
Da hat es Sinn gemacht. Heute? Nö.
Allerdings könnte Win 10 für manche selbst ein Grund sein zum Mac zu 
wechseln.


> ...aber die Summe der Macken ist deutlich geringer und ich muß mich
> um fast nichts kümmern, das ist schon sehr angenehm.

Das mag ja sein, aber fürs gleiche Geld kriegst du für einen Windows PC 
eben immer noch mehr Rechenleistung. Das wird sich auch nie ändern und 
wenn die wichtig ist, dann ist ein PC anstatt Mac immer eine gute 
Option.
Wenn deine Präferenzen da anders liegen, dann nutzt du eben Mac und 
zahlst drauf bzw. kriegst weniger Leistung fürs Geld oder die max 
Leistung erst gar nicht.

von Nano (Gast)


Lesenswert?

Yalu X. schrieb:
> Wenn man bedenkt, dass man für eine nicht benutzte iGPU kein Geld
> zurückbekommt, kann man sie eigentlich nur mit den billigsten
> Grafikkarten für maximal etwa 50 € vergleichen.

Das ist richtig, allerdings muss man das so sehen, die billigen bzw. 
leistungsschwachen dedizierten Grafikkarten sind heute für die Leute, 
die sich eigentlich nicht auskennen und nur danach gehen, dass sie noch 
eine dedizierte Grafikkarte benötigen, um mehr Leistung zu bekommen. Die 
wissen dann oftmals nicht, dass die iGPU genauso gut oder sogar 
schneller ist und man sich das Geld bis auf wenige Ausnahmen eigentlich 
sparen könnte.

Bei NVidia darf man innerhalb der gleichen Generation bspw. nichts 
kleiner als eine --5- kaufen.
Die Zweite Ziffer in der Modellbezeichnung sagt aus, ob das eine potente 
High-End GPU oder Low-End GPU ist. Eine --3- kann man sich so gut wie 
immer sparen, da kann man auch gleich bei der iGPU bleiben. Aber die 
Laien kaufen die halt trotzdem, weil sie es nicht besser wissen und 
glauben, dass sie noch eine dedizierte GPU brauchen.
Die - Zeichen sind Platzhalter für die anderen Daten wie bspw. 
Generation usw. das kann jeder für sich selber dann passend einfügen.

Beispiel anhand der alten Generation (habe leider keine Geforce 2030 
gefunden, die als Beispiel herhalten könnte):
Geforce 1030 = Low End GPU, die kann man sich in den meisten Fällen 
sparen
Geforce 1070 = gute Gamer GPU die definitiv besser ist als eine iGPU.
Geforce 1080 = High End GPU wenn man es sich leisten kann oder will

Heutezutage wäre natürlich die neue Generation, nämlich die Geforce 20?0 
Serie entscheidend. Hier würde bspw. eine Geforce 2070 Sinnn machen.


> Wenn man unsicher ist, was man kaufen soll, nimmt man am besten eine
> Karte mit nVidia Quadro RTX 8000 für knapp 7000 €.

Es hätte auch genügt einfach zu sagen eine GPU im Preisbereich von 650 
bis 700 € nehmen. Dann erwischt man eigentlich immer Grafikkarte die zum 
Spielen sehr gut geeignet ist. Da muss man keine überteurte Quadro 
kaufen, die sich nur in wenigen Spezialanwendungen lohnt.

von Zeno (Gast)


Lesenswert?

Nano schrieb:
> Auch Windows Rechner sind heutzutage bombenstabil.

Ach ja? Warum stürzen meine Windowssysteme öfter als meine Mac's oder 
auch Linuxsysteme ab? Warum ist es es immer noch möglich das ein 
Programm einen kompletten Windowsrechner zum Stillstand bringt? Bei Mac 
passiert das nicht oder so selten das ich mich nicht mehr daran erinnern 
kann. HP Unix läuft absolut stabil. Das liegt einfach daran das diese 
Systeme nicht jede Kackhardware von Haus aus unterstützen. Versuch mal 
eine stinknormale 3Com Karte in einen HP-UX Rechner zu stopfen. Die wird 
zwar erkannt, aber sie wird nicht funktionieren. Ja Du wirst auch diese 
Karte zum Laufen bekommen, wenn Du den passenden Treiber bekommst. Den 
bekommst Du aber denifinitiv nicht von HP. Die Beschränkung auf wenige 
aber gut aufeinander abgestimmte Hardware macht das System stabil.
Alles andere bläht das System nur auf und macht es letztendlich 
instabil.

Nano schrieb:
> Die Frage ist ja, wann das war? Vor 20 Jahren zu WinXP Zeiten?
> Da hat es Sinn gemacht. Heute? Nö.
Das war vor vielleicht 2 Jahren.

Nano schrieb:
> Man hat schon immer kalibrieren müssen. Davon ist auch ein Mac nicht
> gefeit, der kommt höchstens vorkalibriert, sofern Apple so etwas macht.
> Mit der Zeit lässt dessen Bildschirm aber auch nach, dann muss wieder
> kalibriert werden.
Da sieht man mal was Du für Käse erzählst. Ihren Mac mußte meine Tochter 
noch nie kalibrieren. Es ist auch völlig egal ob sie dabei im Büro oder 
mobil mit dem Laptop arbeitet, sie bekommt genau das was sie auf dem 
Bildschirm sieht.

Nano schrieb:
> Das mag ja sein, aber fürs gleiche Geld kriegst du für einen Windows PC
> eben immer noch mehr Rechenleistung.
Das kommt darauf an. Rechner der Firma Dell unterscheiden sich nicht so 
arg viel im Preis von Mac Rechnern. Mein Firmenlaptop ist gerade mal 50€ 
billiger als mein Macbookpro.  Ja der hat sogar eine bessere CPU (ist 
auch etwas neuer) und etwas mehr Speicher. Trotzdem ist der deutlich 
langsamer als mein Mac. Von der Darstellungsqualität des verbauten 
Displays wollen wir mal gar nicht reden.

von A. N. (bastelmaniac)


Lesenswert?

Ganz schön abenteuerliche Aussagen hier.

Nur mal so:

Die derzeit wohl mit einer der flottesten iGPU AMD Radeon Vega 11, die 
in einer Ryzen 5 3400G CPU steckt, wird von einer älteren, dezidierten 
Radeon RX460 locker überholt.

Übrigens heißt das schon seit einer Ewigkeit AMD und nicht ATI.

Und woran Intels iGPU oft neben der solala Performance kranken, ist 
schlechte OpenGL etc. Implementation. Aber das sind halt auch 
Grafikeinheiten, die fürs Office gedacht sind. Mal sehen, was aus dem 
neuesten Versuch seitens Intel wird, im Markt der leistungsstärkeren 
GPUs wieder Fuß zu fassen.

Und inzwischen ist das völlig schnurz ob ein Designer, Videoeditor usw. 
an nem Mac oder PC arbeitet. Lediglich bei der Soundbearbeitung hat 
Apple wegen der MacOS Soundarchitektur gegenüber Windows gewisse 
Vorteile (es ist einfacher geringe Latenzen hinzubekommen).

von A. N. (bastelmaniac)


Lesenswert?

Zeno schrieb:
> Ach ja? Warum stürzen meine Windowssysteme öfter als meine Mac's oder
> auch Linuxsysteme ab?

Schlechte Hardware, falsche Hardwarekonfiguration, schlechte/fehlerhafte 
Software....

Meine Linux, als auch meine Windows-Rechner stürzen nur 
schlechter/fehlerhafter Software oder Hardwarefehler ab. Das kann beim 
Mac genauso passieren. Meine Linux-Rechner sind in 20 Jahren vielleicht 
max. 5 Mal abgestürzt, mit Ursachen aus dem oben genannten Bereich. Die 
Windows-Rechner etwas mehr, aber auch hier wieder aus oben genannten 
Gründen und seit Windows 10 ist das Ganze definitiv sehr, sehr stabil 
geworden. Ich hatte bisher nur einen PC in den Händen, wo Windows 10 
sich mit einem Bluescreen verabschiedet hat und hier war ganz klar die 
Hardware defekt.

Zeno schrieb:
> Da sieht man mal was Du für Käse erzählst. Ihren Mac mußte meine Tochter
> noch nie kalibrieren. Es ist auch völlig egal ob sie dabei im Büro oder
> mobil mit dem Laptop arbeitet, sie bekommt genau das was sie auf dem
> Bildschirm sieht.

Diese Aussage macht keinen Sinn, wenn deine Tochter wirklich Farbgetreu 
arbeiten muss. Selbst beim theoretisch perfektem Display muss hier die 
Umgebung in der gearbeitet wird, auch definierte Werte betreffend des 
Lichtes haben. Und auch Apple Laptops Displays sind nicht Proof-Sicher.

von DPA (Gast)


Lesenswert?

Nano schrieb:
> Man stellt das auf "auto", dann weiß das Betriebsystem anhand des
> angeschlossenen Monitors welche GPU verwendet wird.

Ganz so einfach ist es auch wieder nicht. Zumindest auf Linux ist es 
möglich, auf einer GPU den Bildschirm zu zeichnen und zu rendern, und 
auf einer Anderen das Bild auszugeben. Zudem können Bildpuffer zwischen 
GPUs, und sonstigen Geräten, per DMA buffer und PRIME "geshart" 
werden[0].

Ein möglicher Anwendungsfall: Bei Laptops versucht man oft, für nicht 
GPU lastiges die interne GPU zu nehmen, um Stromverbrauch zu reduzieren, 
aber dann bei Spielen die leistungsfähigere zu verwenden.

Ne andere Situation, sagen wir, die karte ist ein dummes Display Panel, 
oder ein DisplayLink device, darauf kann man nichts rendern. Das geht 
dann mit der gleichen Technologie, puffer mit GPU geshart, dort 
gerendert, fertig.

Selbes mit TV Karten und v4l2 (wobei, dort gibts noch 2 alternativen zu 
dma-buf, und man muss immer schauen, welche der Treiber denn nun kann).

Geht auch beim rendern mit CPU ähnlich, dort mappt man den buffer halt 
(meist (aber nicht immer) muss man dort zwar über gem & gbm gehen, die 
sind wiederum Kartenspezifisch. Und dann gibt es noch die Extrawurst 
neben gem, und den Spezialfall mit tiled memory...). (Oh, und nicht mehr 
speicher mappen, als man hat, schon garnicht auf unkonventionellen 
Wegen, die bound checks in den subsystemen sind nicht besonders gut...)

0) 
https://en.m.wikipedia.org/wiki/Direct_Rendering_Manager#DMA_Buffer_Sharing_and_PRIME

von Nano (Gast)


Lesenswert?

Zeno schrieb:
> Nano schrieb:
>> Auch Windows Rechner sind heutzutage bombenstabil.
>
> Ach ja? Warum stürzen meine Windowssysteme öfter als meine Mac's oder
> auch Linuxsysteme ab?

Ich tippte auf kaputte Treiber oder defektes RAM oder ein instabiles 
Netzteil.

Mein Rechner lief mit Win 7 viele Jahre bombenstabil, inzwischen läuft 
darauf Win 10 und auch da habe ich keine Absturz zu verzeichnen.

> Warum ist es es immer noch möglich das ein
> Programm einen kompletten Windowsrechner zum Stillstand bringt?

Bei einem Kernel der Präemptives Multitasking nutzt, was sowohl beim 
Kernel von Windows 10, Mac OS X und Linux der Fall ist, hat der Kernel 
immer die Kontrolle über die Ressourcen des PCs.
Ein Programm kann da nur so viel CPU Zeit nutzen, wie ihm das OS zur 
Verfügung stellt. Braucht es länger, dann wird das OS ihm die CPU Zeit 
trotzdem entziehen. Dafür ist nämlich der Scheduler des OS 
verantwortlich, der einfach ausgedrückt, die Zeit in Zeitschlitze 
aufteilt und diese den einzelnen Prozessen zuteilt.
Wie der Scheduler designed wird und die Resourcen zuteilt, dafür gibt es 
verschiedene Möglichkeiten und kann durch den Austausch des Schedules 
auch verändert werden.

Was du schreibst ist daher im Normalbetrieb nicht möglich. Das kommt dir 
höchstens nur so vor. Und erweckt bspw. dann den Eindruck, wenn das RAM 
knapp wird und der Rechner swappen muss. Das ist aber auch bei Linux und 
Mac OS X (Darwin) nicht anders, da hilft dann nur mehr RAM.
Und Prozesse die im RAM des Kernels herumpfuschen wollen, werden einfach 
vom OS abgeschossen.

Aber vielleicht nutzt du einfach eine Antivirensoftware die mit 
Systemrechten läuft und daher ziemlich viel darf. Oder kaputte Treiber.

Das Problem bei Windows 9x/ME, sowie MacOS <= 9 war nämlich, dass die 
gerade keinen Kernel mit präemtives Multitasking hatten, da haben sich 
die Anwendungen die CPU Zeit per Kooperatives Multitasking gegenseitig 
zugeschoben, was aber fatal sein kann, wenn ein Programm seine Zeit 
nicht abgeben will oder nicht mehr kann, weil es in einer Endlosschleife 
läuft.


> Bei Mac
> passiert das nicht oder so selten das ich mich nicht mehr daran erinnern
> kann. HP Unix läuft absolut stabil. Das liegt einfach daran das diese
> Systeme nicht jede Kackhardware von Haus aus unterstützen.

Welche Hardware ein Nutzer nutzt, dafür ist jeder Nutzer ja immer noch 
selber verantwortlich. Wenn du Kackhardware kaufst, dessen Treiber 
nichts taugen, dann bist du schlichtweg selber schuld dir so einen Müll 
zuzulegen.
Kaufe ordentliche Hardware, dann läuft auch das OS rund.
Das beste OS kann bspw. deinen Rechner nicht retten, wenn man dem RAM 
nicht vertrauen kann und es Fehler hat.

Mac OS X verwendet Darwin als Kernel, das ist ein Hybridkernel, d.h. 
eine Kombination aus monolithischem Kernel und Microkernel. Verpasse ihm 
kaputte Treiber im monolithischen Bereich, dann kann der Kernel von Mac 
OS X auch nichts mehr retten wenn der Treiber Amok läuft.

Das gleiche gilt für den Windows Kernel, auch dieser ist ein hybrid 
Kernel, war das aber nicht immer. Der Kernel von Windows NT 3.x war 
bspw. ein reiner Microkernel, der war für GDI Prozesse aber zu langsam, 
weswegen man das in Windows NT für die Grafik aufgeweicht hat, so das 
heutige Windowskernel eher auch hybride Kernel haben.


> Versuch mal
> eine stinknormale 3Com Karte in einen HP-UX Rechner zu stopfen. Die wird
> zwar erkannt, aber sie wird nicht funktionieren. Ja Du wirst auch diese
> Karte zum Laufen bekommen, wenn Du den passenden Treiber bekommst. Den
> bekommst Du aber denifinitiv nicht von HP. Die Beschränkung auf wenige
> aber gut aufeinander abgestimmte Hardware macht das System stabil.

Die Stabilität kommt bei modernen präemtiven Kernel durch qualtitativ 
guten Treibercode, an den Kernelschnittstellen muss sich jeder Treiber 
halten.
Wenn der Code nichts taugt und bei der Nutzung der Schnittstellen 
geschluddert wird, musst du dich nicht wundern, wenn der Treiber dir 
alles um die Ohren haut.
Das was Apple hier also höchstens macht, ist bei der 
Treiberzertifizierung darauf zu achten, dass das alles eingehalten wird. 
Schlechter Code kriegt keine Zertifizierung und Freigabe von Apple. Die 
Auswahl der Hardware wird deswegen beschränkt, um den Aufwand dafür 
klein zu halten. Das Resultat ist weniger unterstützte Hardware, bei der 
die Treiber aber zuverlässig arbeiten. Microsoft macht mit WHQL 
zertifizierten Treibern übrigens das gleiche, wie gut das dann in der 
Praxis aussieht, hängt ganz davon ab, wieviele Entwickler da für eine 
Hardware abgestellt werden.
All das hat aber nichts damit zu tun, dass die Hardware irgendwie 
aufeinander abgestimmt wäre, denn das ist in Zeiten von wohlgeformten 
Kernelschnittstellen gar nicht nötig.

Mit anderen Worten, man kann beliebig viel Hardware unterstützten, wenn 
sich die Treiberentwickler an die Vorgaben halten die Schnittstellen des 
Kernels richtig zu nutzen und den eigenen Code sauber programieren und 
gut Testen. Es gibt da keine Pflicht, sich bezüglich der Anzahl 
unterstützer Hardware einzuschränken um ein stabiles System zu 
erreichen. So etwas war früher vielleicht mal relevant, als es keine gut 
definierten Schnittstellen gab und jeder mit jedem irgendwie harmonieren 
musste. Diese Zeiten sind mit den modernen Kerneln aber schon lange 
vorbei.


> Alles andere bläht das System nur auf und macht es letztendlich
> instabil.

Das ist Unfug.



>
> Nano schrieb:
>> Man hat schon immer kalibrieren müssen. Davon ist auch ein Mac nicht
>> gefeit, der kommt höchstens vorkalibriert, sofern Apple so etwas macht.
>> Mit der Zeit lässt dessen Bildschirm aber auch nach, dann muss wieder
>> kalibriert werden.
> Da sieht man mal was Du für Käse erzählst. Ihren Mac mußte meine Tochter
> noch nie kalibrieren.

Ich schreibe keineswegs Käse, sondern du. Denn jeder Monitor verliert 
mit der Zeit an Helligkeit. Das ist technisch bedingt, die 
Leuchtstoffröhre hinter dem Display wird nämlich immer schwächer, das 
ist auch bei normalen Lampen so und dann muss der Monitor wieder 
kalibriert werden.
Es gibt nicht umsonst Kalibriergeräte. Wäre es anders, dann könnten die 
Monitorhersteller ihre Monitore vor Auslieferung kalibrieren und wir 
hätten das Problem gar nicht.

> Es ist auch völlig egal ob sie dabei im Büro oder
> mobil mit dem Laptop arbeitet, sie bekommt genau das was sie auf dem
> Bildschirm sieht.

Mess den Bürocomputer und Laptop nach nach ein paar Jahren der Nutzung 
mal durch und vergleiche das Ergebnis mit einem neuen Rechner. Du wirst 
staunen.

> Nano schrieb:
>> Das mag ja sein, aber fürs gleiche Geld kriegst du für einen Windows PC
>> eben immer noch mehr Rechenleistung.
> Das kommt darauf an. Rechner der Firma Dell unterscheiden sich nicht so
> arg viel im Preis von Mac Rechnern.

Ich baue mir meinen Rechner selbst zusammen und kaufe keine 
Fertigrechner.
Ich kriege damit nicht nur mehr Leistung, sondern auch bessere Qualität.

> Von der Darstellungsqualität des verbauten
> Displays wollen wir mal gar nicht reden.

Ich habe einen EIZO.

von Nano (Gast)


Lesenswert?

Nano schrieb:
> Das gleiche gilt für den Windows Kernel, auch dieser ist ein hybrid
> Kernel, war das aber nicht immer. Der Kernel von Windows NT 3.x war
> bspw. ein reiner Microkernel, der war für GDI Prozesse aber zu langsam,
> weswegen man das in Windows NT für die Grafik aufgeweicht hat, so das
> heutige Windowskernel eher auch hybride Kernel haben.

Sry, da habe ich eine 4.0 nach "weswegen man das in Windows NT " 
vergessen.

von Andre (Gast)


Lesenswert?

Zeno schrieb:
> Da sieht man mal was Du für Käse erzählst. Ihren Mac mußte meine Tochter
> noch nie kalibrieren. Es ist auch völlig egal ob sie dabei im Büro oder
> mobil mit dem Laptop arbeitet, sie bekommt genau das was sie auf dem
> Bildschirm sieht.

Da kann ich dir ein super Gegenbeispiel liefern: Meine Schwester 
bearbeitet Bilder mit einem relativ neuen Macbook. Wenn sie nicht 100% 
im richtigen Winkel davor sitzt, geht der Kontrast verloren und alles 
wird zum Glücksspiel. Paar cm falsche Neigung reichen aus. Mit meinem 
7-8 Jahre alten Viewsonic IPS Display konnte ich die Fehler sofort 
erkennen, selbst wenn ich gemütlich im Stuhl herum lungere oder 
aufstehe.
Also so viel zur Überlegenheit der Apple Geräte...

von Alexander K. (Gast)


Lesenswert?

Naja, um das Problem zu lösen, muss man halt auf Papier ausweichen. Ich 
hatte damals in der Firma einige "Fächer" herumliegen. Jeder Streifen 
war bunt, und hatte eine feine Farben-Nr. drauf. Was ich auf mein 
Monitor sah war relativ egal, weil ich den DTP einfach gesagt habe. DAS 
Objekt hat RAL-1203 und das war's.

Mein Liebling waren die RAL-Farben. Sind glaube ich Standard im Baumarkt 
;)

Wieso mehrere Fächer = Naja es gibt da noch Pantone // HKS und wie sie 
alle heißen.

So haben wir das kalibrieren umgangen. Mein Chef war zu geizig für den 
Katalog und die Flyer extra Technik anzuschaffen. Aber immerhin habe ich 
ihn ein EIZO-Monitor abgeschwatzt. ;)

Gruß

  Pucki

von c-hater (Gast)


Lesenswert?

Nano schrieb:

> Das Problem bei Windows 9x/ME, sowie MacOS <= 9 war nämlich, dass die
> gerade keinen Kernel mit präemtives Multitasking hatten, da haben sich
> die Anwendungen die CPU Zeit per Kooperatives Multitasking gegenseitig
> zugeschoben

Das stimmt nicht. Windows9x/ME hatte natürlich bereits präemptives 
Multitasking. Nur innerhalb des Subsystems für olle Win16-Software (die 
eigentlich zu Win3.x gehört) gab es noch kooperatives MT.

von IntelRulez (Gast)


Lesenswert?

Gerade gefunden:

https://www.pcgameshardware.de/Intel-GPU-Codename-267650/News/GPU-hinkt-Radeon-RX-560-und-Geforce-GTX-1050-Ti-weiter-hinterher-1351303/

Und selbst betagtere i5-2500K oder i7-26000/3770 sind heute noch als 
Spielerechner tauglich, solange nur eine passende Grafikkarte (ab 
RX570/580) drin steckt. Ja, nicht Doom Ethernal auf Ultra, aber ich 
schätze >90% der Spiele in FullHD und mindestens Medium sind spielbar 
(>60fps).

Rendern in Blender....hm...ich würde da auf die Grafikkarte setzen statt 
auf CPU-Kerne. Selbst eine uralt-1070/80 rechnert einen 16-Kerner in 
Grund und Boden. (So lange der Grafikkarte nicht der RAM ausgeht)

Problem sind die Workloads. Während CPUs meist sich bei 32x32 Tiles 
wohlfühlen, darf es bei Grafikkarten gerne um den Faktor 10 größer sein, 
damit es ordentlich performt.

Ab Blender 2.8 geht zwar CPU+GPU Rendering, aber nur in einer 
Tile-Größe...
Vielleicht kommt da ja noch etwas in der Zukunft...

https://techgage.com/article/blender-2-80-viewport-rendering-performance/

AMDforever

von Nano (Gast)


Lesenswert?

c-hater schrieb:
> Nano schrieb:
>
>> Das Problem bei Windows 9x/ME, sowie MacOS <= 9 war nämlich, dass die
>> gerade keinen Kernel mit präemtives Multitasking hatten, da haben sich
>> die Anwendungen die CPU Zeit per Kooperatives Multitasking gegenseitig
>> zugeschoben
>
> Das stimmt nicht. Windows9x/ME hatte natürlich bereits präemptives
> Multitasking. Nur innerhalb des Subsystems für olle Win16-Software (die
> eigentlich zu Win3.x gehört) gab es noch kooperatives MT.

Das ist mir bekannt, True und False gibt aber halt nicht True, also 
werte ich das erstmal als nicht präemptiv. Das ist im Prinzip so wie bei 
der Frage, ob ein Glas jetzt halb leer oder halb voll ist.
Dazu brauchte es noch DOS, einschließlich einiger DOS Routinen, das 
schon einmal gar nicht präemtiv war. Im großen und ganzen hatte es somit 
keinen ausreichenden Speicherschutz und war den Anwendungen damit 
ausgeliefert.
Und darum geht es eben.
Mit einem Kernel, der strikt die Hohheit über den Speicher und die CPU 
Resourcen hat, passiert dir so etwas halt nicht und darum geht es. Das 
erste Windows, das diesen Schutz bot, war eben die NT Reihe.

von Rolf M. (rmagnus)


Lesenswert?

Nano schrieb:
> Es gab schon damals Grafikchip, die direkt aufs Mainboard gelötet
> wurden. Diese waren praktisch der Vorläufer der iGPUs.

Im Server-Bereich gibt es das immer noch. Denn ausgerechnet dort fehlt 
vielen Prozessoren die eingebaute Grafik, und damit man dann nicht extra 
nur für's BIOS-Setup und so eine separate Grafikkarte einbauen muss, 
integrieren die Boardhersteller dann eben irgendeine ranzige 
Uralt-Grafik auf dem Mainboard.

Nano schrieb:
> allerdings muss man das so sehen, die billigen bzw. leistungsschwachen
> dedizierten Grafikkarten sind heute für die Leute, die sich eigentlich nicht
> auskennen und nur danach gehen, dass sie noch eine dedizierte Grafikkarte
> benötigen, um mehr Leistung zu bekommen. Die wissen dann oftmals nicht, dass
> die iGPU genauso gut oder sogar schneller ist und man sich das Geld bis auf
> wenige Ausnahmen eigentlich sparen könnte.

Ich denke, solche Grafikkarten sind vor allem für die Leute, die halt 
eine brauchen, weil der Rechner keine integrierte Grafik hat oder diese 
aus irgendeinem Grund nicht nutzbar ist. Wenn man einfach nur eine 
Grafikkarte braucht, aber für den Anwendungsfall die Grafikleistung egal 
ist, dann kauft man eben so eine.

> Die Zweite Ziffer in der Modellbezeichnung sagt aus, ob das eine potente
> High-End GPU oder Low-End GPU ist. Eine --3- kann man sich so gut wie
> immer sparen, da kann man auch gleich bei der iGPU bleiben.

Da ist was dran. Oft ist sogar ein etwas "größeres" Modell der 
Vorgängergeneration günstiger und schneller als das Einstiegsmodell der 
aktuellen.

Zeno schrieb:
> Das kommt darauf an. Rechner der Firma Dell unterscheiden sich nicht so
> arg viel im Preis von Mac Rechnern. Mein Firmenlaptop ist gerade mal 50€
> billiger als mein Macbookpro.  Ja der hat sogar eine bessere CPU (ist
> auch etwas neuer) und etwas mehr Speicher.

Ja, inzwischen gibt's auch bei den Windows-Systemen ähnlich überteuerte 
Modelle.

von 2⁵ (Gast)


Lesenswert?

Nano schrieb:
> Das ist richtig, allerdings muss man das so sehen, die billigen bzw.
> leistungsschwachen dedizierten Grafikkarten sind heute für die Leute,
> die sich eigentlich nicht auskennen und nur danach gehen, dass sie noch
> eine dedizierte Grafikkarte benötigen

Für neue PCs mag das gelten, aber die "billigen" Grafikkarten (die von 
dir zitierte 1030) haben noch einen anderen Zweck: Nachrüstkarten! z.B. 
hat MS die Treiber für manche Grafiksysteme bei modernen W10 System 
eingestellt, z.B. Intel HD 2000 (war z.B. bei meinem i7 2600 so). Da 
passt die 1030, die es auch in low-profile gibt, dann ganz gut. Oder um 
UHD nachzurüsten oder ggfs. wenn man mehr als 2 Monitore anschließen 
möchte.

von René H. (mumpel)


Lesenswert?

Nano schrieb:
> René H. schrieb:
>> Da sieht man mal wieder die Marktmacht von Microsoft.
>
> Das ist nicht die Marktmacht von Microsoft, sondern das bessere
> Preis-/Leistungsverhältnis ohne Applemarkenzusatzzahlung.

Auch wenn Apple günstiger werden würde, würde es kaum einer kaufen. 
Windows ist überall zu fest verankert, da hilft auf kurze Sicht auch 
keine Preissenkung.

: Bearbeitet durch User
von c-hater (Gast)


Lesenswert?

Nano schrieb:

> Das ist mir bekannt, True und False gibt aber halt nicht True, also
> werte ich das erstmal als nicht präemptiv. Das ist im Prinzip so wie bei
> der Frage, ob ein Glas jetzt halb leer oder halb voll ist.

Nein. Du verkennst, dass das kooperative MT nur innerhalb des 
Win16-Subsystems anzutreffen war. Dieses Subsystem war aber nur ein 
Task des übergeordneten Systems mit präemptivem MT.

> Dazu brauchte es noch DOS, einschließlich einiger DOS Routinen, das
> schon einmal gar nicht präemtiv war.

DOS wurde im Wesentlichen nur noch als Bootlader verwendet. Naja und ein 
wenig Int2F-Mimik.

Die DOS-Boxen hingegen waren ebenfalls ebenfalls präemptive Task (waren 
sie auch schon bei Win3.x). Das geht garnicht anders, weil DOS selber 
keinerlei Schnittstellen für ein Scheduling kennt. Es ist also nur 
mittels präemptivem MT möglich, überhaupt mehrere gleichzeitige 
Instanzen von command.com haben zu können.

> Im großen und ganzen hatte es somit
> keinen ausreichenden Speicherschutz

Klar, der Speicherschutz war (überwiegend aus Kombatibilitätsgründen) 
sehr mangelhaft. Aber das ist eine ganz andere Geschichte. Der 
Speicherschutz hat mit der Art des Multitasking rein garnix zu schaffen.

von Zeno (Gast)


Lesenswert?

Andre schrieb:
> Da kann ich dir ein super Gegenbeispiel liefern: Meine Schwester
> bearbeitet Bilder mit einem relativ neuen Macbook. Wenn sie nicht 100%
> im richtigen Winkel davor sitzt, geht der Kontrast verloren und alles
> wird zum Glücksspiel.

Und was hat das jetzt mit dem Ausdruck auf dem Belichter zu tun?
Dir ist aber schon klar das es zwischen einem Monitor für den 
Schreibtisch und einem Laptopbildschirm schon Unterschiede gibt. 
Laptopbildschirme liefern halt oftmals in Abhängigkeit vom 
Betrachtungswinkel unterschiedliche Resultate. Das ist eigentlich seit 
langem schon bekannt. Wie stark dieser Effekt ausgeprägt ist hängt von 
der Bauart des Displays ab. Bei meinem Retinadisplay ist der Effekt sehr 
schwach ausgeprägt und fast nicht wahrnehmbar. Bei meinem alten 
MacBookPro (17") war der Effekt deutlich stärker ausgeprägt.
Andererseits lümmelt man bei Fotobearbeitung nicht vor dem Teil herum, 
da sitzt man in aller Regel am Schreibtisch so das man schon eine 
optimale Position hat. Für den Rest gibt es spezielle Bilder mit den man 
den Blickwinkel optimal einstellen kann (ist z.B. hier 
https://www.fotocommunity.de/forum/bildbearbeitung-digiart-druck-software/blickwinkel-auf-laptop---164366 
beschrieben).

von Zeno (Gast)


Lesenswert?

Alexander K. schrieb:
> Naja, um das Problem zu lösen, muss man halt auf Papier ausweichen. Ich
> hatte damals in der Firma einige "Fächer" herumliegen. Jeder Streifen
> war bunt, und hatte eine feine Farben-Nr. drauf. Was ich auf mein
> Monitor sah war relativ egal, weil ich den DTP einfach gesagt habe. DAS
> Objekt hat RAL-1203 und das war's.

Das ist aber Basteln und Kneten. Wenn man mit Design seine Brötchen 
verdienen muß, dann muß das schon ordentlich funktionieren. Man möchte 
ja sein Werk erst mal begutachten bevor man es herausgibt. Da geht es 
manchmal um kleinste Farbnuancen und da weis ich nicht wirklich ob da 
die Ral Nummern richtig greifen. Da müßte ich mal meine Tochter fragen, 
die hat es richtig gelernt und macht das auch täglich.

von Supenkasper (Gast)


Lesenswert?

Suppenklaus schrieb:
> Viele der neueren CPUs bringen doch von Haus aus schon alles mit,
> was
> man fürs Zocken benötigt. Für welche Aufgaben (zielgruppen) sind denn
> Grafikkarten (Steckkarten) geeignet?
>
> Man hört oft Videoschnitt und 3D-Modellierung. Ich habe keine
> einsteckbare Grafikkarte und trotzdem kann ich Filme in 4096x2304@24Hz
> gucken, Videos bearbeiten und mit Blender 3D-Modelle erstellen.

Du stellst die falsche Frage!

Eine Graka benötigt man immer dann wenn der Rest des PCs die 
angeforderte Leistung nicht erbringen kann!

Das hat nicht nur immer was mit Graphik zu tun!

von Zeno (Gast)


Lesenswert?

Rolf M. schrieb:
> Ja, inzwischen gibt's auch bei den Windows-Systemen ähnlich überteuerte
> Modelle.

"Marken"-PC's liegen mittlerweile nicht mehr so weit weg von 
Applerechnern.

Andererseits muß ich sagen das ein iMac nun so teuer auch nicht war. Ich 
hatte meiner Tochter so ein Teil (27") vor 12 Jahren gekauft und das hat 
so um die 1400€ gekostet. Wenn ich da die Einzelkomponenten gekauft 
hätte wäre das definitiv nicht billiger geworden. Das Teil hatte damals 
i5, Onboardgrafik und eine zusätzliche NVidia (ich meine GForce). 
War/ist schon ein schickes Teil und funktioniert bestens.

von (prx) A. K. (prx)


Lesenswert?

Rolf M. schrieb:
> integrieren die Boardhersteller dann eben irgendeine ranzige
> Uralt-Grafik auf dem Mainboard.

Was sich allerdings gut mit einem Remote-Management Controller 
kombinieren lässt (Dell iDRAC, ILO, ...), der ja ohne Mitarbeit des 
Prozessor an den Bildschirminhalt ran muss.

von Zeno (Gast)


Lesenswert?

René H. schrieb:
> Auch wenn Apple günstiger werden würde, würde es kaum einer kaufen.
> Windows ist überall zu fest verankert, da hilft auf kurze Sicht auch
> keine Preissenkung.

Dummerweise sieht man immer mehr Apple. Dafür das die keiner kauft sind 
es eindeutig zu viele.
Gerade bei Notebooks zeigt die Tendenz eher nach oben. Woran das wohl 
liegen mag?

von Alexander K. (Gast)


Lesenswert?

Zeno schrieb:
> da weis ich nicht wirklich ob da die Ral Nummern richtig greifen.

Naja, wie schon geschrieben. RAL ist nur eine der vielen Familien. 
Allein mein Corel auf da ganz viele integriert. Und in der Regel greifen 
diese "Paletten" ziemlich gut. Den genau dafür wurden sie ja entwickelt.

Ich habe meistens eine Pantone-Farben benutzt.

Was "besondere Grafik" wie Firmenlogos angeht, da sieht das anders aus. 
Da hat man Tabellen, wo welche Farbe, mit den üblichen Mischpaletten 
angegeben ist. z.b. RGB (Nutzt man aber in der Werbung so gut wie 
nicht), CMYK (Hab ich immer benutzt) und was es da noch gibt.

Ich muss aber dabei sagen, die Werbung (Digitale Arbeit) war nur ein 
kleiner Teil meiner Aufgabe. Ich hab sie erstellt, der Datei gesagt 
welche Farbe wohin, und die Druckerei hat den Rest gemacht. Für 
"Entwurf-Abzüge" hat mein Tintenstrahler bzw. hinterher Farblaser 
gereicht.

Die Karten waren eh nur für mein Chef. Damit der mir sagte, welche Farbe 
er wollte ;) Da sind nämlich sonst die "virtuellen Eindrücke" auf einen 
Monitor sehr verwirrend.

Gruß

  Pucki

von Alexander K. (Gast)


Lesenswert?

Zeno schrieb:
> Woran das wohl liegen mag?

Am Design und der Werbeabteilung. Ist wie Ferrari. Das Auto ist 
unbequem, nicht alltagstauglich (Man kann damit nicht gut bei Aldi 
einkaufen) aber cool.

Gruß

  Pucki

von georg (Gast)


Lesenswert?

Alexander K. schrieb:
> RAL ist nur eine der vielen Familien.

Kommt auf den Zweck an. Wenn ich bei einer Lackierei ein Gehäuse 
lackieren lasse gebe ich RAL an, auch bei Autos. Pantone ist für 
Druckereien.

Apple ist für Leute die selber keine Expertise haben (wollen). Ich 
schliesse an meine PCs einfach einen Monitor an und läuft, meine 
Offsetdruckerei liess dazu jemand von Stuttgart kommen, der an den Mac 
einen grösseren Monitor angeschlossen hat und dafür mehr als 1000 Euro 
berechnet (ohne den Monitorpreis natürlich). Nach dem Motto mit sowas 
machen wir uns doch nicht die Finger schmutzig, und das Geld haben wir 
ja.

Georg

von Suppenklaus (Gast)


Lesenswert?

Dominic schrieb:
> Wir verbauen high end Grafikkarten und schließen nicht mal einen Monitor
> an

Ich nehme an, weil ihr die Grafikkarten für KI-Aufgaben verwendet? Wenn 
ja, warum eignen sich dafür ausgerechnet Grafikkarten?

Nano schrieb:
> Und beim Videoschnitt ist es nicht der Schnitt, der Leistung kostet,
> sondern besondere Postprocessing Effekte

Solche Effekte sieht man ja auch in Computeranimationsfilmen. Um solche 
Effekte in einem Film anzusehen, bedarf es ja keine besondere externe 
Grafikkarte. Warum braucht man sie aber, wenn man den Film erstellt?

Nano schrieb:
> Und letztere ist hier
> relevant, wer nur mit Photoshop Bilder bearbeitet, wird längst nicht die
> maximale Leistung fürs Geld benötigen, wie jemand der CGI Videoszenen
> rendern muss.

Kennt jemand ein Tutorial, wo es um solche Filmbearbeitung geht? Wenn 
möglich sollte daran das Leistungspotential der verwendeten Grafikkarte 
demontriert werden?

Nano schrieb:
> Geforce 1030 = Low End GPU, die kann man sich in den meisten Fällen
> sparen
> Geforce 1070 = gute Gamer GPU die definitiv besser ist als eine iGPU.
> Geforce 1080 = High End GPU wenn man es sich leisten kann oder will

An welchen Kriterian machst du das fest?

Supenkasper schrieb:
> Eine Graka benötigt man immer dann wenn der Rest des PCs die
> angeforderte Leistung nicht erbringen kann!
>
> Das hat nicht nur immer was mit Graphik zu tun!

Mit was hat es denn noch zutun?

Nano schrieb:
> Das geht mit OpenCL auch.

Hat jemand ein Beispielprogramm, wo man die Arbeit von OpenCL oder CUDA 
experimentell nachvollziehen kann.

von Alexander K. (Gast)


Lesenswert?

Suppenklaus schrieb:
> Ich nehme an, weil ihr die Grafikkarten für KI-Aufgaben verwendet? Wenn
> ja, warum eignen sich dafür ausgerechnet Grafikkarten?

EINFACH ERKLÄRT.
Weil der Prozessor einer Grafikkarte ein Profi ist. Grundsätzlich kann 
man ALLE Mathematik-Aufgaben mit + / - rechnen. Es dauert nur sehr 
lange. Grafikausgabe beruht auf spezielle Mathematische Routinen. Und 
dafür hat der Prozessor einer Grafikkarte diese Routinen besser. Dafür 
würde er sich sehr schwer tun, eine Festplatte anzusteuern.

Suppenklaus schrieb:
> Solche Effekte sieht man ja auch in Computeranimationsfilmen. Um solche
> Effekte in einem Film anzusehen, bedarf es ja keine besondere externe
> Grafikkarte. Warum braucht man sie aber, wenn man den Film erstellt?

Ebenfalls einfach gesagt.

Weil es schneller geht. Gründe : siehe 1. Antwort.

Suppenklaus schrieb:
> Hat jemand ein Beispielprogramm, wo man die Arbeit von OpenCL oder CUDA
> experimentell nachvollziehen kann.

Es gibt Testprogramme und Brenchmarktest's ohne Ende. Nur gibt es dabei 
ein Problem. Es ist wie mit der Schummelsoftware bei Auto. Viele 
Grafikkarten  erkennen den Test und  liefern ein "besseres Ergebnis".

Mein Tipp : Such dir mehrere !!! Tests aus, die mit gleicher Software 
die Karte testen. Das ist dann aussagekräftig.

Gruß

   Pucki

von Nano (Gast)


Lesenswert?

Zeno schrieb:
> René H. schrieb:
>> Auch wenn Apple günstiger werden würde, würde es kaum einer kaufen.
>> Windows ist überall zu fest verankert, da hilft auf kurze Sicht auch
>> keine Preissenkung.
>
> Dummerweise sieht man immer mehr Apple. Dafür das die keiner kauft sind
> es eindeutig zu viele.

Die werden nur wegen dem Design gekauft und dann kommen sie ganz vorne 
an den Eingangsthesen der Firma, wegen der Kundschaft.
Hinten, bei den Mitarbeitern werkeln dann normale PCs.

Insofern täuscht der Eindruck, dass das immer mehr werden würden.

von Nano (Gast)


Lesenswert?

Suppenklaus schrieb:
> Nano schrieb:
>> Und beim Videoschnitt ist es nicht der Schnitt, der Leistung kostet,
>> sondern besondere Postprocessing Effekte
>
> Solche Effekte sieht man ja auch in Computeranimationsfilmen. Um solche
> Effekte in einem Film anzusehen, bedarf es ja keine besondere externe
> Grafikkarte. Warum braucht man sie aber, wenn man den Film erstellt?

Weil die gerendert werden müssen und dann in den Realfilm eingebaut 
werden.
Aber es sind nicht nur CGI Vollbilder, sondern halt auch 
Bearbeitungseffekte die in bestehendes Realfilmmaterial eingebaut 
werden.
Und dann gibt's noch Sachen, da wird der Realfilm selbst bearbeitet bzw. 
als Quellmaterial verwendet.


> Nano schrieb:
>> Und letztere ist hier
>> relevant, wer nur mit Photoshop Bilder bearbeitet, wird längst nicht die
>> maximale Leistung fürs Geld benötigen, wie jemand der CGI Videoszenen
>> rendern muss.
>
> Kennt jemand ein Tutorial, wo es um solche Filmbearbeitung geht? Wenn
> möglich sollte daran das Leistungspotential der verwendeten Grafikkarte
> demontriert werden?

Generelle Tutorials wird's wohl nicht geben, da die ja alle 
Programmspezfisch sind.
Bei den Adobe Produkten ist das Programm, dass man dafür verwendet, 
bspw. Adobe After Effects. Insofern würde ich nach Tutorials für dieses 
Programm suchen, wenn du dieses Programm einsetzen möchtest.
Bei anderen Programmen musst du entsprechend suchen.

In der Open Source Szene gab es dafür das Programm Jahshaka, die 
Entwicklung wurde aber mal gestoppt. Ich weiß nicht, wie es mit dem 
Programm heute aussieht.


> Nano schrieb:
>> Geforce 1030 = Low End GPU, die kann man sich in den meisten Fällen
>> sparen
>> Geforce 1070 = gute Gamer GPU die definitiv besser ist als eine iGPU.
>> Geforce 1080 = High End GPU wenn man es sich leisten kann oder will
>
> An welchen Kriterian machst du das fest?

Du kannst auch die Leistungsdaten direkt vergleichen.
Dann wirst du feststellen, dass die Karten bei denen die zweite Ziffer 
höher ist, die Speicheranbindung besser ist, z.b. bielbittiger ist, die 
GPU über mehr Shadereinheiten verfügt, teilweise ein größeres Die hat 
(Hintergrund: die High End Karten kommen zuerst raus, ein paar Monate 
später gibt's dann nen abgespeckten Chip mit manchmal kleinerer Fläche 
und Transistoranzahl).

An der Taktzahl kannst du es aber nicht immer erkennen, da die schwachen 
GPU aufgrund der geringeren Shaderanzahl eine geringere Abwärme haben 
und daher höher getaktet werden können. Außerdem kommend diese 
Chiprevisionen meist später raus.
Ebensowenig kann man es an der RAM Bestückung sehen. Mehr RAM dient als 
Kaufschlagargument für Laien, die darauf reinfallen.

Tja und letzten Endes sieht man es auch an den Benchmarks.


> Nano schrieb:
>> Das geht mit OpenCL auch.
>
> Hat jemand ein Beispielprogramm, wo man die Arbeit von OpenCL oder CUDA
> experimentell nachvollziehen kann.

Es gibt dutzende Tutorials zu beiden APIs.

von Suppenkasper (Gast)


Lesenswert?

Suppenklaus schrieb:
> Dominic schrieb:
>> Wir verbauen high end Grafikkarten und schließen nicht mal einen Monitor
>> an
>
> Ich nehme an....

>
> Supenkasper schrieb:
>> Eine Graka benötigt man immer dann wenn der Rest des PCs die
>> angeforderte Leistung nicht erbringen kann!
>>
>> Das hat nicht nur immer was mit Graphik zu tun!
>
> Mit was hat es denn noch zutun?
>

Sorry du Troll!!!

Du Tippst hier so flott einen Mist zusammen, bemühe lieber mal die 
Suchfunktion!

Da wirst Du sofort fündig!

von Suppenklaus (Gast)


Lesenswert?

Suppenkasper schrieb:
> Sorry du Troll!!!
>
> Du Tippst hier so flott einen Mist zusammen, bemühe lieber mal die
> Suchfunktion!

1. Bin ich kein Troll.
2. Wenn mir der Moderator des Forum den Hinweis gibt, dass ich keine 
Fragen mehr stellen soll, werde ich das tun.

Beitrag #6288021 wurde von einem Moderator gelöscht.
Beitrag #6288031 wurde von einem Moderator gelöscht.
von Jack V. (jackv)


Lesenswert?

Nano schrieb im Beitrag #6288031:
> Oben hättest du lesen können, dass ich einen EIZO Monitor habe, aber mit
> dem Denken ist es bei dir wohl nicht so weit, sonst hättest du merken
> müssen, das jemand, der einen EIZO hat, nicht besitzlos sein kann.

Du willst sagen, dass jemand, der 200,-€ für ’nen Monitor¹ ausgeben 
kann, sich auch genausogut ’nen Mac kaufen könnte? Diese Logik verstehe 
ich nicht.

Wie auch immer: Apples Geräte sind als geschlossene Systeme zu 
verstehen. Wie ein heutiger Fernseher: es gibt das Gerät, man kann es 
bedienen – und mehr Zugriff auf das System soll man nicht brauchen. Für 
Nur-Anwender vielleicht nicht mal die schlechteste Wahl; für alle, die 
selbst Kontrolle ausüben wollen, hingegen schon – weil man nämlich den 
Teil mitbezahlt, den man gar nicht braucht oder gar will. Die 
interessante Frage ist jedoch: was hat das mit dem Threadthema zu tun?

¹) 
https://www.idealo.de/preisvergleich/OffersOfProduct/4252287_-ev2216wfs3-bk-eizo.html

: Bearbeitet durch User
von Suppenklaus (Gast)


Lesenswert?

Da fällt mir auch noch eine abschließende Anekdote zu einem MAC Book Pro 
ein. Hab mit dem Ding mal ne Fliege erschlagen. Das ging mit der Kiste 
ganz gut.

von René F. (Gast)


Angehängte Dateien:

Lesenswert?

Suppenklaus schrieb:
> Da fällt mir auch noch eine abschließende Anekdote zu einem MAC Book Pro
> ein. Hab mit dem Ding mal ne Fliege erschlagen. Das ging mit der Kiste
> ganz gut.

Beitrag #6288284 wurde von einem Moderator gelöscht.
von Zeno (Gast)


Lesenswert?

Jack V. schrieb:
> Wie auch immer: Apples Geräte sind als geschlossene Systeme zu
> verstehen. Wie ein heutiger Fernseher: es gibt das Gerät, man kann es
> bedienen – und mehr Zugriff auf das System soll man nicht brauchen. Für
> Nur-Anwender vielleicht nicht mal die schlechteste Wahl; für alle, die
> selbst Kontrolle ausüben wollen, hingegen schon – weil man nämlich den
> Teil mitbezahlt, den man gar nicht braucht oder gar will. Die
> interessante Frage ist jedoch: was hat das mit dem Threadthema zu tun?

Ja da hast Du in gewisser Weise recht. Mac kauft man sich, wenn man ein 
Gerät haben möchte, das einfach nur funktioniert und man keine Lust auf 
das hat was dem TO passiert ist. Mac kauft man sich auch, wenn man 
ungestört arbeiten möchte und nicht alle Nasen lang irgendwelche Fenster 
weg klicken möchte die einem sagen das man das neue Gerät nun benutzen 
könne oder Fensterlein die einen auf irgend etwas hinweisen, was man 
demnächst tun soll.
Und weil ich auf einige andere Segnungen von Windows ebenfalls keine 
Lust habe benutze ich für die meisten privaten Sachen halt einen Mac. 
Beruflich nutze ich halt Windows und ab und an HP-UX.

von jürgen (Gast)


Lesenswert?

Hier wurde das Thema auch schon mal angerissen:
------------------------------------------------
Beitrag "Warum nicht gleich GPU statt CPU als Hauptprozessor auf Mainboard?"
------------------------------------------------

Beitrag #6288341 wurde von einem Moderator gelöscht.
von Rene K. (xdraconix)


Lesenswert?

Bei uns in der Firma sind wir nun komplett von Mac auf Windowsrechner 
umgestiegen. Grund: das Preis-Leistungs Verhältnis ist völlig neben 
jeglicher Relation. Softwareportierung war das allerkleinste Problem, da 
Adobe alles auch für Windows zur Verfügung stellt. Auch die 
Entwicklungsumgebungen sind alle Verfügbar.

Größter Vorteil für uns. Wir sind unabhängig was das Aufrüsten und die 
Rechner mit den speziellen Wünschen der einzelnen Leute angeht. Somit 
sind die Rechner wesentlich performanter als ein Mac. Und vom völlig 
unterirdischen Preis für die gebotene Leistung mal ganz zu schweigen.

von Angsthase (Gast)


Lesenswert?

Ich benutze die GraKa zum Knacken von Passwortern, das geht viel 
schneller als mit der CPU

Beitrag #6288479 wurde vom Autor gelöscht.
von hulk (Gast)


Lesenswert?

Angsthase schrieb:
> Ich benutze die GraKa zum Knacken von Passwortern, das geht viel
> schneller als mit der CPU

Haust du dann mit der Karte auf ein Fahrradschloss ein, wie das 
Spongebop und Patrick oben demonstrieren?

von Cyblord -. (cyblord)


Lesenswert?

René H. schrieb:
> Für Videoschnitt nehmen Profis Mac-OS, und das wird seinen Grund haben.

Oh je. Schon lange nicht mehr. Die Zeiten sind vorbei. Nicht mal die 
großen Flaggschiffe entwickeln noch hauptsächlich für Mac. Inzwischen 
wird zähneknirschend portiert, wenn der Mac Hipster Glück hat.

: Bearbeitet durch User
von Steffi (Gast)


Lesenswert?

Was ist eigentlich ein Gra?

von Alexander K. (Gast)


Lesenswert?

Steffi schrieb:
> Was ist eigentlich ein Gra?

Grafikkarte für Tippfaule.

Gruß

   Pucki

von georg (Gast)


Lesenswert?

Steffi schrieb:
> Was ist eigentlich ein Gra?

Da musst du die Krähen fragen, die bei uns die Papierkörbe ausleeren - 
ein Gra ist ein Satz McDonalds Tüten, Boxen und Becher mit leckeren 
Resten.

Georg

von Suppenklaus (Gast)


Lesenswert?

Ich bin es nochmal. Ich bin wirklich dumm und habe nur wenig Ahnung von 
der Thematik. Ich gebe es lieber gleich zu, damit der ein oder andere 
die Zeit, die er sonst für ein paar beleidigende Zeilen an mich 
verschwenden würde, für wichtigere Dinge nutzen kann.

Ich habe es nicht verstanden, warum das Abspielen eines 
Computeranimationsfilms keine leistungsstarke Grafikkarte erforder, 
dafür aber das Erstellen des Films.

Einige von euch deuten an, dass Grafikkarten nicht nur zur Berechnung 
der grafischen Ausgabe verwendet werden. Wäre es möglich, dass ihr hier 
noch einmal konkreter werdet? Wofür setzt man denn noch Grafikkarten 
ein?

von Alexander K. (Gast)


Lesenswert?

Suppenklaus schrieb:
> Wofür setzt man denn noch Grafikkarten
> ein?

Zum Auslagern mathematischer Prozesse an einen Profi.  So einfach ist 
das.

Gruß

   Pucki

von Ulli (Gast)


Lesenswert?

Also Grafikkarten braucht man um Kryptowährungen zu minen. Lohnt sich 
bei Bitcoin zwar schon lange nicht mehr, bei manch anderen 
Kryptowährungen aber schon.

von Suppenklaus (Gast)


Lesenswert?

Ulli schrieb:
> Also Grafikkarten braucht man um Kryptowährungen zu minen. Lohnt sich
> bei Bitcoin zwar schon lange nicht mehr, bei manch anderen
> Kryptowährungen aber schon.

Und warum ausgerechnet Grafikkarten? Im PC ist noch auch noch eine 
Netzwerkkarte. Warum nimmt man nicht die?

von Jack V. (jackv)


Lesenswert?

<°)))o><

von Ben B. (Firma: Funkenflug Industries) (stromkraft)


Lesenswert?

In Deutschland dürfte sich das Crypto-Mining mit Grafikkarten oder ASICs 
wegen der hohen Strompreise nirgends lohnen.

> Ich benutze die GraKa zum Knacken von Passwortern, das geht viel
> schneller als mit der CPU
Ich knacke meine Passwörter mit meinem Gehirn, das geht richtig schnell.

Edit @Jackv
Stell das Benzin daneben!

: Bearbeitet durch User
von Alexander K. (Gast)


Lesenswert?

Suppenklaus schrieb:
> Und warum ausgerechnet Grafikkarten? Im PC ist noch auch noch eine
> Netzwerkkarte. Warum nimmt man nicht die?

Weil eine Netzwerkkarte überhaupt nicht rechnen kann. Nicht einmal 2+2

Mach die mach über die mathematischen Fähigkeiten einer Grafikkarte 
schlau, dann verstehst du das meiste was die hier schreiben.

Kleiner Hinweis. : Der 2. IBM-PC (mit ein 80286 Prozessor) konnte schon 
gegen Aufpreis mit einen mathematischen CO-Prozessor (80287 Prozessor) 
schneller rechnen. Wurde schon damals für Spezial-Software eingesetzt 
die damit umgehen konnten.

Das mit der Grafikkarte ist im Prinzip genau das selbe. Man lagert 
Berechnungen an einen Profi aus.

Gruß

   Pucki

von Jack V. (jackv)


Lesenswert?

Alexander K. schrieb:
> Der 2. IBM-PC (mit ein 80286 Prozessor) konnte schon
> gegen Aufpreis mit einen mathematischen CO-Prozessor (80287 Prozessor)
> schneller rechnen. Wurde schon damals für Spezial-Software eingesetzt
> die damit umgehen konnten.
>
> Das mit der Grafikkarte ist im Prinzip genau das selbe. Man lagert
> Berechnungen an einen Profi aus.

Das ist mal Unsinn – die GPU kann einfache(!) mathematische Operationen 
durchführen, aber davon halt sehr viele zur gleichen Zeit. Mit 
Co-Prozessoren und Profis hat das nix zu tun.

von Cyblord -. (cyblord)


Lesenswert?

Alexander K. schrieb:
> Das mit der Grafikkarte ist im Prinzip genau das selbe. Man lagert
> Berechnungen an einen Profi aus.

Hier wird mir zuviel auf den "CUDA" Eigenschaften rumgeritten. Ja eine 
Grafikkarte kann man als mathematischen Co-Prozessor verwenden. Aber was 
tut sie eigentlich? Sie erstellt und zeigt Bilder für Spiele. Und wie 
tut sie das? Bzw. warum kann sie das so gut?
Wegen der Shader. Moderne Grafikkarten haben eine Menge davon und das 
unterscheidet sie von jeder CPU. Hunderte bis tausende Mini-Rechenkerne 
die programmierbar sind und zusammen sehr schnell ein Bild erzeugen 
können welches aus sehr komplexen Elementen entsteht (Texturen, Licht, 
Schatten, Bewegung usw usw.).
DAS macht doch erst einmal eine Grafikkarte aus.

: Bearbeitet durch User
von Nano (Gast)


Lesenswert?

Suppenklaus schrieb:
> Ich bin es nochmal. Ich bin wirklich dumm und habe nur wenig Ahnung von
> der Thematik.

Kein Problem, dieses Video hilft:
https://youtu.be/KNechL9BIdw?t=373

von Nano (Gast)


Lesenswert?

Und für den Fall, dass du mal so ne Grafikkarte testen willst:
https://youtu.be/pqnAt57YgYY?t=258

von letallec (Gast)


Lesenswert?

Suppenklaus schrieb:
> Ich habe es nicht verstanden, warum das Abspielen eines
> Computeranimationsfilms keine leistungsstarke Grafikkarte erforder,
> dafür aber das Erstellen des Films.

Allein schon wegen der Datenmenge. Ein unbehandeltes HD-Video hat ca. 
10GB Pro Stunde. Das muß dann auch noch so verrechnet werden, daß man 
zum Dekodieren keine Grafikkarte brauch, denn das vom Display 
dargestellte Video, muß auch wieder  auf 10GB pro Stunde kommen sonst 
gibt es Qualitätseinbußen.

von Suppenklaus (Gast)


Lesenswert?

Ich haue mal folgende Theorie raus: Wahrscheinlich sind GPUs 
architektonisch näher an der RISC-Philosophie angelehnt. Die 
Befehlssätze der Grafikkarten sind vermutlich auf ganz wenige einfache 
Rechenoperationen beschränkt und können in einem Maschinenzyklus 
abgearbeitet werden. Das würde erklären, warum sie besser mit 
mathematischen Operationen umgehen können. Die CPU braucht ja allein 
deshalb schon mehr zZeit weil sie die Befehle erstmal vorsortieren muss.

von Cyblord -. (cyblord)


Lesenswert?

Suppenklaus schrieb:
> Ich haue mal folgende Theorie raus: Wahrscheinlich sind GPUs
> architektonisch näher an der RISC-Philosophie angelehnt. Die
> Befehlssätze der Grafikkarten sind vermutlich auf ganz wenige einfache
> Rechenoperationen beschränkt und können in einem Maschinenzyklus
> abgearbeitet werden. Das würde erklären, warum sie besser mit
> mathematischen Operationen umgehen können. Die CPU braucht ja allein
> deshalb schon mehr zZeit weil sie die Befehle erstmal vorsortieren muss.

Das ist kompletter Humbug.

von Suppenklaus (Gast)


Lesenswert?

Cyblord -. schrieb:
> Suppenklaus schrieb:
>> Ich haue mal folgende Theorie raus: Wahrscheinlich sind GPUs
>> architektonisch näher an der RISC-Philosophie angelehnt. Die
>> Befehlssätze der Grafikkarten sind vermutlich auf ganz wenige einfache
>> Rechenoperationen beschränkt und können in einem Maschinenzyklus
>> abgearbeitet werden. Das würde erklären, warum sie besser mit
>> mathematischen Operationen umgehen können. Die CPU braucht ja allein
>> deshalb schon mehr zZeit weil sie die Befehle erstmal vorsortieren muss.
>
> Das ist kompletter Humbug.

Das ist ja auch nur eine Theorie. Wenn sie falsch ist muss man es 
beweisen. Du musst also sagen, was aus deiner Sicht Humbug ist und es 
argumentativ beweisen. Das würde die Qualität der Beiträge verbessern.

von Cyblord -. (cyblord)


Lesenswert?

Suppenklaus schrieb:

> Das ist ja auch nur eine Theorie. Wenn sie falsch ist muss man es
> beweisen.

Nein das läuft andersrum. Wenn DU eine Theorie aufstellst, musst DU sie 
beweisen.

> Du musst also sagen, was aus deiner Sicht Humbug ist und es
> argumentativ beweisen.
Auch in der Wiederholung wird nicht wahrer.

>Das würde die Qualität der Beiträge verbessern.

Nein. Einfach mal irgendeinen Quatsch hinschreiben und anderen sollen 
gefälligst das Gegenteil beweisen, trägt sicher nicht zu mehr Qualität 
bei. Das ist eher ABM für Forenuser.

Lies dir das Wissen an, stelle konkrete Fragen. So kommt man weiter. 
Nicht mit Ratespielen.

von Suppenklaus (Gast)


Lesenswert?

Cyblord -. schrieb:
> Nein das läuft andersrum. Wenn DU eine Theorie aufstellst, musst DU sie
> beweisen.

Du hast recht. Ich meinte Hypothese.

Cyblord -. schrieb:
> Nein. Einfach mal irgendeinen Quatsch hinschreiben und anderen sollen
> gefälligst das Gegenteil beweisen, trägt sicher nicht zu mehr Qualität
> bei. Das ist eher ABM für Forenuser.

Habe ich verstanden.

von c-hater (Gast)


Lesenswert?

Cyblord -. schrieb:

> Nein das läuft andersrum. Wenn DU eine Theorie aufstellst, musst DU sie
> beweisen.

Nein, das ist nicht zwingend. Man kann Theorien aufstellen, so viel man 
will, solange sie als Theorie und nicht als bewiesener Fakt deklariert 
sind, passt das.

Allerdings stellt man normalerweise Theorien auf, wenn man schon Fakten 
hat, die sich mit diesen Theorien erklären liessen. In diesem Fall 
eindeutig: Check. GPUs haben (in Teilen) tatsächlich viel mit 
GP-RISC-Architekturen gemeinsam.

Und nun obliegt es den Opponenten, Fakten anzuführen, die das 
entkräften.

Das ist allerdings auch nicht sehr schwer, denn es gibt auch riesige 
Unterschiede zwischen GPUs und GP-RISC-Architekturen. Allerdings: diese 
werden zunehmend geringer. Inbesondere das, was mal als "Shader" 
angefangen hat, nähert sich doch zusehends dem Funktionsumfang eines 
GP-RISC-Prozessors mit sehr vielen Kernen. Das erklärt übrigens auch die 
Existenz von sowas wie CUDA ganz zwanglos. Das ist schlicht die 
Software-Manifestation dieses Faktes...

von (prx) A. K. (prx)


Lesenswert?

c-hater schrieb:
>> Nein das läuft andersrum. Wenn DU eine Theorie aufstellst, musst DU sie
>> beweisen.
>
> Nein, das ist nicht zwingend. Man kann Theorien aufstellen, so viel man
> will, solange sie als Theorie und nicht als bewiesener Fakt deklariert
> sind, passt das.

Wobei es auch eine andere Definition gibt. Dergestalt man beliebig 
Hypothesen formulieren kann, die aber erst dann zur Theorie reifen, wenn 
man dafür Belege gefunden hat.

von 2 Cent (Gast)


Lesenswert?

Jetzt habe ich mir beim Lesen dieses Threads schon Chips geholt, mich 
zurückgehalten mit einer Grätsche, und dann sowas:

Yalu X. schrieb im Beitrag #6288479:
> Zeno und Nano,
Das fängt ja gut an... zurückkomm mit Bier weiterlesend, , hier wird 
doch niemand zynisch werden? Nee, ein Moderator... jetzt wirds gleich 
laangweilig. Oder?
> nehmt ihr den Apple bzw. den Eizo auch mit in den Kindergarten, oder
> erlaubt das der Papa nicht?
YMMD Hammerhart. In Zukunft lese ich hier nur noch mit Wassserdichter 
Tastatur :D


Eigentlich verwirrend
Mein Fazit: erst recht zum lesen braucht man eine robuste Tastatur, 
das hat mit schreiben nix zu tun.


Es gibt aber auch noch andere Verwirrte in diesem Faden:
Suppenklaus schrieb:
> Ich bin es nochmal. Ich bin wirklich dumm und habe nur wenig
> Ahnung von
> der Thematik.
Willkommen :D

> Ich gebe es lieber gleich zu, damit der ein oder andere
> die Zeit, die er sonst für ein paar beleidigende Zeilen an mich
> verschwenden würde, für wichtigere Dinge nutzen kann.
Gute Idee, hat leider nicht jeder verstanden.

> Ich habe es nicht verstanden, warum das Abspielen eines
> Computeranimationsfilms keine leistungsstarke Grafikkarte erforder
Bei der Wiedergabe eines "fertigen Films" hat es deine Maschine relativ 
einfach. Dort gibt es schnelle Standard-rituale (codecs), vergleiche das 
mit dem "Wiedergeben und Betrachten eines Bildes"...

> dafür aber das Erstellen des Films.
Vergleiche den Aufwand zum erstellen des zu betrachtenden Bildes.
Filme/Bewegtbilder herstellen ist weit aufwändiger als Bilder glotzen.


Nur technisch (also solche Dinge wie Regisseur und Schauspieler und 
Drehbuchschreiber aussen vor): ein Bildkompressor (zB Pixeldaten zu JPG) 
benötigt enorme Rechenleistung. Der De-Kompressor (am Beispiel JPG zu 
Pixeldaten) hat es einfacher, ist viel schneller, braucht weniger 
Rechenpower um in Echtzeit (=ruckelfreier Film) mitzukommen.

Ein Beispiel für Produktionsaufwand: Star-wars. Dort steckten 
monatelange Rechenzeit der damaligen Superrechner in der Berechnung der 
Bewegtbilder. Der Film selbst hat aber trotzdem nur Spielfilmlänge. Die 
Kiste auf der du dir den Film anschaust muss die Bilder nicht mehr 
erzeugen, sondern nur (nach Standardritualen) anzeigen.


> Einige von euch deuten an, dass Grafikkarten nicht nur zur Berechnung
> der grafischen Ausgabe verwendet werden. Wäre es möglich, dass ihr hier
> noch einmal konkreter werdet? Wofür setzt man denn noch Grafikkarten
> ein?
Unter anderem auch als Zurückrechenhilfe beim Komprimieren der Bilder. 
Ist aber alles OT.



OT --- Bitte bei aller Diskusssion nicht vergessen
Eine iGPU klaut ihrem Prozessor nicht nur RAM, sie klaut ihrem Prozessor 
auch Zugriffszeit auf das RAM. Am Ende, beim zocken: der Prozessor wird 
"etwas" von der iGPU ausgebremst werden. Muss nicht, könnte aber 
ebenfalls ein Grund für eine billige "externe" werden.

Multimonitor wurde ja schon genannt.

HTH

von (prx) A. K. (prx)


Lesenswert?

2 Cent schrieb:
> Multimonitor wurde ja schon genannt.

Bei Büro-PCs sind Ausgänge für 2 Bildschirme längst üblich, trotz 
Prozessor-GPU.

von Starlord (Gast)


Lesenswert?

Ich mach viel 3D-CAD mit SolidEdge
Habe 2x 22-Zoll-4K-Displays hier und eine Radeon 5700XT
Und die Gute ist schön ausgelastet beim Drehen von Baugruppen in 
Echtzeit

Das gleiche habe ich auf einen Produktions-PC mit 35 Euro Graka 
versucht, darzustellen: ergibt kleiner 1 FPS und ist unbrauchbar

Somit haben leistungsstarke Grafikkarten durchaus Ihre Berechtigung 
(natürlich nicht im einfachen Office-Bereich) und werden auch 
gebraucht!!

von 2 Cent (Gast)


Lesenswert?

A. K. schrieb:
> 2 Cent schrieb:
>> Multimonitor wurde ja schon genannt.
>
> Bei Büro-PCs sind Ausgänge für 2 Bildschirme längst üblich, trotz
> Prozessor-GPU.
Multi >= Dual

von Rolf M. (rmagnus)


Lesenswert?

Jack V. schrieb:
>> Das mit der Grafikkarte ist im Prinzip genau das selbe. Man lagert
>> Berechnungen an einen Profi aus.
>
> Das ist mal Unsinn – die GPU kann einfache(!) mathematische Operationen
> durchführen, aber davon halt sehr viele zur gleichen Zeit.

Was die CPU so ausführen kann, ist auch nicht komplexer.

von Jack V. (jackv)


Lesenswert?

Kommt drauf an, was für Kriterien man anlegt. Bei Fließkommaoperationen 
doppelter Genauigkeit brechen GPGPUs wohl ziemlich ein, verglichen mit 
CPUs. Letztere bringen da etwa die Hälfte der Rechnungen einfacher 
Genauigkeit pro Zeit, Erstere fallen z.T. auf unter 10% – für mich sieht 
das daher so aus, als „könnten“ sie dort benötigte Operationen gar nicht 
nativ, so dass diese in Software implementiert werden müssen.

von Rolf M. (rmagnus)


Lesenswert?

Jack V. schrieb:
> Kommt drauf an, was für Kriterien man anlegt. Bei Fließkommaoperationen
> doppelter Genauigkeit brechen GPGPUs wohl ziemlich ein, verglichen mit
> CPUs. Letztere bringen da etwa die Hälfte der Rechnungen einfacher
> Genauigkeit pro Zeit, Erstere fallen z.T. auf unter 10% – für mich sieht
> das daher so aus, als „könnten“ sie dort benötigte Operationen gar nicht
> nativ, so dass diese in Software implementiert werden müssen.

Soweit ich das weiß, haben viele Karten schon direkten Hardware-Support, 
aber lediglich ein kleiner Teil der Rechenkerne kann in double-Auflösung 
rechnen. Wie hoch dieser Anteil ist, hängt vom Typ der Grafikkarte ab. 
Im Gaming-Bereich ist der Anteil sehr gering, aber es gibt auch Modelle, 
die da durchaus flott unterwegs sind.

von Alexander K. (Gast)


Lesenswert?

Daten meiner "alten" Grafikkarte.

AMD gibt eine Rechenleistung von 4,5 TeraFLOPS für die 
Fließkommaperformance in Single-Precision an. Bei doppelter Genauigkeit 
kommt die „Tahiti“-GPU auf eine Rechenleistung von 947 GFLOPS. Zum 
Vergleich: Eine GF110-GPU kommt auf eine Rechenleistung von 1,58 
TeraFLOPS bei einfacher Genauigkeit. Eine Cayman-XT-GPU kommt bei 
einfacher Genauigkeit auf 2,7 TeraFLOPS und 675 GFOPS bei doppelter 
Genauigkeit.

Ich denke da muss eine CPU mächtig strampeln, um an so Werte zu kommen.

Gruß

  Pucki

von Rene K. (xdraconix)


Lesenswert?

Rolf M. schrieb:
> hängt vom Typ der Grafikkarte ab. Im Gaming-Bereich ist der Anteil sehr
> gering, aber es gibt auch Modelle, die da durchaus flott unterwegs sind.

Zum Beispiel die Tesla und Quadro Reihe. Die Quadro GV100 und die Tesla 
V100 schaffen bei Double Precision 64bit Floating Point beide über 7 
Terra Flops. Das ist schon sehr beachtlich. Wohin gegen die GeForce 
1080ti "nur" 0.3 TFlops schafft. Die Titan RTX kommt immerhin auf 0.5 
TFlops.

von Ben B. (Firma: Funkenflug Industries) (stromkraft)


Lesenswert?

Dazu sollte man vielleicht sagen, daß zur normalen Grafikberechnung 
keine doppelte Genauigkeit erforderlich ist. Infolge dessen werden 
Consumer-GPUs in Sachen Rechengeschwindigkeit bei doppelter Genauigkeit 
künstlich extrem beschnitten, damit man sie nicht anstelle der deutlich 
teureren "Profi"-GPUs für Rechenaufgaben einsetzen kann. Wer das 
braucht, soll auch dafür zahlen. Ich vermute, nVidia und AMD verdienen 
mit den "Profi"-Karten das meiste Geld und wollen nicht, daß solche 
Kunden einfache Consumer-Grafikkarten einsetzen können.

von Rolf M. (rmagnus)


Lesenswert?

Ben B. schrieb:
> Dazu sollte man vielleicht sagen, daß zur normalen Grafikberechnung
> keine doppelte Genauigkeit erforderlich ist. Infolge dessen werden
> Consumer-GPUs in Sachen Rechengeschwindigkeit bei doppelter Genauigkeit
> künstlich extrem beschnitten, damit man sie nicht anstelle der deutlich
> teureren "Profi"-GPUs für Rechenaufgaben einsetzen kann.

Außerdem braucht doppelte Genauigkeit mehr Chipfläche und macht somit 
auch die Herstellung des Chips teurer.

von Nano (Gast)


Lesenswert?

Rolf M. schrieb:
> Ben B. schrieb:
>> Dazu sollte man vielleicht sagen, daß zur normalen Grafikberechnung
>> keine doppelte Genauigkeit erforderlich ist. Infolge dessen werden
>> Consumer-GPUs in Sachen Rechengeschwindigkeit bei doppelter Genauigkeit
>> künstlich extrem beschnitten, damit man sie nicht anstelle der deutlich
>> teureren "Profi"-GPUs für Rechenaufgaben einsetzen kann.
>
> Außerdem braucht doppelte Genauigkeit mehr Chipfläche und macht somit
> auch die Herstellung des Chips teurer.

Ursprünglich wurden die NVidia Quadro GPUs mit Chips aus dem 
Konsumerbereich versorgt, bei der dann Bestandteile des Chips nicht 
abgeschaltet wurden.
Es sind also sowohl bei den Geforce, als auch den Quadros die gleichen 
Chips und bei den Geforce werden einige Funktionen dann abgeschaltet. 
Historisch war es deswegen sogar möglich, Geforce Grafikkarten zu 
Quadros umzufunktionieren.
Ich weiß nicht, ob es immer noch so ist, es würde aber bei den geringen 
Stückzahlen von Quadro GPUs immer noch Sinn machen. Die Chipfläche wäre 
damit im großen und ganzen zumindest mit den High End GPUs* die gleiche.

Das einzige was das also bringt ist eine bessere Ausbeute, da man 
Teildefekte Chips für Geforce Karten verwenden kann, wenn diese diese 
Defektbereiche nicht nutzen.

* Für die abgespeckten Geforce xx3x und xx5x Reihen, werden meist neue 
Chiprevisionen rausgebracht. Hier wäre es dann möglich, dass diese eine 
kleinere Chipfläche als ihre größeren High End Konsumermodelle haben.

von Quadrowuerfel (Gast)


Lesenswert?

Starlord schrieb:
> Ich mach viel 3D-CAD mit SolidEdge
> Habe 2x 22-Zoll-4K-Displays hier und eine Radeon 5700XT
> Und die Gute ist schön ausgelastet beim Drehen von Baugruppen in
> Echtzeit
>
> Das gleiche habe ich auf einen Produktions-PC mit 35 Euro Graka
> versucht, darzustellen: ergibt kleiner 1 FPS und ist unbrauchbar
>
> Somit haben leistungsstarke Grafikkarten durchaus Ihre Berechtigung
> (natürlich nicht im einfachen Office-Bereich) und werden auch
> gebraucht!!

Ich schätze den Geschwindkeits Vorteil auf den Faktor 10 - 100 ein.

Weiß das jemand genauer?

von Rolf M. (rmagnus)


Lesenswert?

Quadrowuerfel schrieb:
> Weiß das jemand genauer?

Wie soll jemand genau wissen, wieviel schneller <unbekannter PC> mit 
einer Radeon 5700XT im Vergleich zu <anderer unbekannter PC> mit 
<unbekante 35-€-Grafikkarte> ist?

von Yalu X. (yalu) (Moderator)


Lesenswert?

... bei <unbekannte CAD-Datei>.

von 2 Cent (Gast)


Lesenswert?

... dann also etwa 35.

Und bei einer 1628-€-Grafikkarte?
Dann etwa 1600, plusminus Rabatt.
YGWYPF

Genauer im Einzelfall können nur echte "Anwendungsorientierte" 
Benchmarks lügen.

von Oh? Geht das? (Gast)


Lesenswert?

Eine Platine DA4 groß, bestückt mit einem Haufen SMD Bauteilen und 
lesbarem Aufdruck der Werte wird um fünf Grad gedreht, danach wieder und 
wieder um fünf Grad. Die ganze Platine soll so oft gedreht werden bis 
sie insgesamt um 360 Grad gedreht wurde. Wie sieht die Platine dann auf 
dem Monitor aus? Sind die Bauteile inclusive der Aufdrucke noch 
erkennbar?

So weit verständlich?

Beitrag #6293409 wurde von einem Moderator gelöscht.
Beitrag #6293424 wurde von einem Moderator gelöscht.
Beitrag #6293962 wurde von einem Moderator gelöscht.
Beitrag #6294111 wurde von einem Moderator gelöscht.
Beitrag #6294418 wurde von einem Moderator gelöscht.
Beitrag #6294440 wurde von einem Moderator gelöscht.
Beitrag #6294477 wurde von einem Moderator gelöscht.
Beitrag #6294576 wurde von einem Moderator gelöscht.
von Joe (Gast)


Lesenswert?

Alexander K. schrieb:
> Und ja, du hast Recht. Ich schreibe schnell, und übersehe oft ein
> Tippfehler. Ich habe nämlich noch was anderes zu tun. Das hier mache ich
> nur in den "Wartepausen".

Schon klar. Welt retten, Mails checken und zwischendurch mal 
schnell,schnell in die Threads scheissen!

von Dieter D. (Firma: Hobbytheoretiker) (dieter_1234)


Lesenswert?

Joe schrieb:
> Schon klar.

Oder?

Hinweis: der ursprüngliche Beitrag ist mehr als 6 Monate alt.
Bitte hier nur auf die ursprüngliche Frage antworten,
für neue Fragen einen neuen Beitrag erstellen.

von Rbx (rcx)


Lesenswert?

Man braucht zum Skyrim spielen eine gute Grafikkarte. Für Oblivion 
eigentlich auch, da scheinen mir die Auswirkungen aber nicht so schlimm.

Wenn man Sachen mit Mathe oder Physik macht, und schnelle Rechnungen 
braucht, kann man die Grafikkarte(n) auch ganz gut einsetzen, und zu 
dieser und ähnlicher Frage gibt es denn z.B. auch Cuda.
Und beim Supercomputing machen die Grafikkarten auch eine ganz gute 
Figur.

Viel genauer kann man sich informieren, wenn man ein paar 
Vergleichstabellen hat, die verschiedene PC-Anwendungen und Rechnereien 
berücksichtigen. Das geht soweit, dass man ganz gut erkennt, dass man 
hier und da - sofern man Grafikchip hat - auf den CPU-Vergleich 
verzichten kann. Also beispielsweise i3 oder i5?
Kommt ein wenig auf den Zusammenhang an, und da muss der User selber 
schauen, was er braucht und was geht.

von Matthias S. (Firma: matzetronics) (mschoeldgen)


Lesenswert?

Rbx schrieb:
> Man braucht zum Skyrim spielen eine gute Grafikkarte

Den Vogel schiesst hier im Moment Firmament ab. Läuft mit Ach und Krach 
auf meiner GTX1650, weil 'nur' 4GB VRAM. Und wenn du keine 16GB 
Hauptspeicher hast, brauchste gar nicht erst anzufangen. Man kann es 
auch übertreiben, zumal die Grafik bei dem Spiel auch nicht besser ist 
als bei Obduction. Und selten so viele Bugs gehabt wie bei Firmament.

: Bearbeitet durch User
von Joe (Gast)


Lesenswert?

Matthias S. schrieb:
> Rbx schrieb:
>> Man braucht zum Skyrim spielen eine gute Grafikkarte
>
> Den Vogel schiesst hier im Moment Firmament ab. Läuft mit Ach und Krach
> auf meiner GTX1650, weil 'nur' 4GB VRAM. Und wenn du keine 16GB
> Hauptspeicher hast, brauchste gar nicht erst anzufangen. Man kann es
> auch übertreiben, zumal die Grafik bei dem Spiel auch nicht besser ist
> als bei Obduction. Und selten so viele Bugs gehabt wie bei Firmament.

Dass mit den 16GB Hauptspeicher bezweifle ich stark. Aber deine GK ist 
altersschwach und max. noch 40.- Euro wert. Schau mal hier:

https://www.youtube.com/watch?v=tPvgVzsERLY

Die RX6600m gibt es bei Alix ab 160.-. Viel moderner und hat ein 
Vielfaches der Leistung. Statt in RAM lieber in neue GK investieren. 
Meine 2 Cent.

von Matthias S. (Firma: matzetronics) (mschoeldgen)


Lesenswert?

Joe schrieb:
> Die RX6600m gibt es bei Alix ab 160.-.

Hab mir ne GTX1650 eingebaut und auf 36GB RAM aufgestockt. Firmament 
lief aber trotzdem erst nach dem dritten Patch so, das man es 
durchspielen konnte.

von Rene K. (xdraconix)


Lesenswert?

Ne GTX1650 ist ja nun aber auch mal absolut nicht zum spielen geeignet.

Ich verstehe dann auch nicht, warum nicht 50€ mehr in die Hand nimmt, 
wenn man weiß man möcht Spielen, und sich wenigstens ne Mid-Range Karte 
z.b. damals die GTX1060 zulegt.

von Joachim B. (jar)


Lesenswert?

Dieter D. schrieb:
> Hinweis: der ursprüngliche Beitrag ist mehr als 6 Monate alt.
> Bitte hier nur auf die ursprüngliche Frage antworten,
> für neue Fragen einen neuen Beitrag erstellen.

Leute lasst euch doch von Trollen nicht wieder verleiten!
(Dieter du bist nicht gemeint)

von Leif G. (capitaenz)


Lesenswert?

Nano schrieb:
> René H. schrieb:
>> Für Videoschnitt nehmen Profis Mac-OS, und das wird seinen Grund haben.
>
> Blödsinn!
>
> Mac-OS nehmen Profis gerade eben nicht, weil sie dann für die Leistung
> zu viel Geld zahlen müssten, oder richtig viel Leistung erst gar nicht
> bekommen.
>
> Ich kann dir für das gleiche Geld einen PC zusammenstellen, der deutlich
> leistungsfähiger als der teuerste Mac ist.
>
> Apple Rechner kaufen eigentlich nur Leute die keine Ahnung haben und
> glauben, dass man mit einem Apple Rechner angeben kann. Was man bei
> Leuten, die sich bei Computern auskennen, NICHT kann!

Ich habe trotz Ahnung gerne einen M2 Mini gekauft:

- Mehr Platz unter dem Schreibtisch
- Deutlich! weniger Energieverbrauch
- Ausreichend Leistung (512 GB SSD und 16 GB RAM) Bildbearbeitung, 
Zeitraffer Videos, …
- Kein nervender Lüfter
- Nahtlose Integration zwischen IPhone, iPad und co.
- Geringerer Wertverlust

von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Sich ne Grafikkarte zu kaufen um aufwendige Simulationen abzuspielen ist 
in etwa so wie mit nem Hummer von A nach B zu kommen. Kannst du machen 
wenn du auf die Umwelt scheißt und deine Mitmenschen hasst und ihnen 
zeigen willst wie du so drauf bist. Allerdings werden die Teile auch in 
der Wissenschaft verwendet.

von Jack V. (jackv)


Lesenswert?

Der G. schrieb:
> Sich ne Grafikkarte zu kaufen um aufwendige Simulationen abzuspielen ist
> in etwa so wie mit nem Hummer von A nach B zu kommen. Kannst du machen
> wenn du auf die Umwelt scheißt und deine Mitmenschen hasst und ihnen
> zeigen willst wie du so drauf bist.

Die meisten Simulationen sind auf GPUs mit massiv vielen Rechenkernen 
erheblich effizienter durchführbar, als auf CPUs.

Dein … ich nenne es mangels passenderer Begriffe mal „Vergleich“ müsste 
also lauten: „Aufwendige Simulationen nicht auf dafür geeigneter 
effizienter Hardware laufen zu lassen ist in etwa so, wie mit’m Deutz 
D-15 auf der Bundesstraße von A nach B zu fahren. Kann man machen, wenn 
man auf die Umwelt scheißt und seine Mitmenschen hasst und ihnen zeigen 
will, wie man so drauf ist.“

Wie kommst du nun überhaupt auf dieses Thema? Hier im Thread ging es 
bislang jedenfalls nicht so richtig um sowas …

von Rene K. (xdraconix)


Lesenswert?

Der G. schrieb:
> Sich ne Grafikkarte zu kaufen um aufwendige Simulationen abzuspielen ist
> in etwa so wie mit nem Hummer von A nach B zu kommen. Kannst du machen
> wenn du auf die Umwelt scheißt und deine Mitmenschen hasst und ihnen
> zeigen willst wie du so drauf bist. Allerdings werden die Teile auch in
> der Wissenschaft verwendet.

Das ist ja wohl das dümmste Argument was ich jeh gehört habe! 😅 So ein 
Blödsinn lernt man bestimmt auf Telegramm oder YouTube.

Eine GPU erledigt eine rechenintensive Simulation um ein vielfaches (wir 
reden hier um ein zweistelliges Vielfaches!) schneller und effizienter 
als es eine CPU je könnte. Parallelisierung ist hier das Zauberwort.

Somit um ein vielfaches Ressourcenschonender, schneller und mit enormen 
Energieeinsparungen.

von Der G. (Firma: schlechthin) (gastgeber)


Lesenswert?

Nun, der Selbsterhaltungtrieb der Hardware und 
Unterhaltungsssoftwarebrache schlägt zwangsweise oder zwanghaft den Weg: 
größer monströs wahnsinnig ein. Mann kann sich ja mal Gedanken machen 
was das eigene Konsumverhalten für Auswirkungen auf die Umwelt hat, wenn 
es die Unternehmen schon nicht tun.

von Jack V. (jackv)


Lesenswert?

Der G. schrieb:
> Mann kann sich ja mal Gedanken machen
> was das eigene Konsumverhalten für Auswirkungen auf die Umwelt hat, wenn
> es die Unternehmen schon nicht tun.

Mach ich. Deswegen hab ich mir vor nicht zu langer Zeit ’ne neue, 
richtig dicke Grafikkarte gegönnt. Um Strom zu sparen, für die Umwelt, 
weißt schon.

von Max P. (hilfsarbeiter)


Lesenswert?

u.a. weil externe Grafikkarten mehr Speicher und mehr Leistung haben als 
die internen und deshalb für schnelle und speicherintensive Anwendungen 
besser geeigent sind

von Joe (Gast)


Lesenswert?

Um Zombiespiele in 3D (The Walking "Dad") mit Raytracing zu zocken, 
damit der Drang uralte Threads auszugraben etwas abgemindert werden 
kann. Sonst vergesse ich auf das Datum zu kucken. Duck und weg.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.