Hallo, ich habe einen Rechner mit Windows 10, der eine HDMI und eine DVI Schnittstelle hat - ich will 2 Monitore anschließen, die parallel genutzt werden (Monitor 1, Monitor 2). Kann ich in diesem Fall die HDMI Schnittstelle für Monitor 1, und die DVI Schnittstelle für Monitor 2 verwenden, oder muss ich eine der beiden verwenden, und brauche extern noch einen Verteiler oder Ähnliches? Der Monitor unterstützt HDMI und DVI: https://www.amazon.de/Acer-R240HY-Monitor-Zoll-Bildschirm/dp/B08WRPWZ1C/ref=sr_1_1?adgrpid=70742992723&gclid=EAIaIQobChMIx-GdzZz1-AIV2dnVCh2gRASwEAAYASAAEgKY2PD_BwE&hvadid=391631761619&hvdev=c&hvlocphy=1000707&hvnetw=g&hvqmt=e&hvrand=5849922485653297470&hvtargid=kwd-300042299480&hydadcr=27963_1978112&keywords=computer+bildschirm+21+zoll&qid=1657693681&refinements=p_n_feature_five_browse-bin%3A320056031&rnid=320055031&s=computers&smid=A3JWKAKR8XB7XF&sr=1-1 Oder konfiguriere ich das in diesem Fall so, dass ich z.B. mit HDMI vom PC zum ersten Monitor gehe, und dann mit DVI vom ersten zum zweiten Monitor? Danke schon mal!
Franz55 schrieb: > Kann ich in diesem Fall die HDMI Schnittstelle für Monitor 1, und die > DVI Schnittstelle für Monitor 2 verwenden In aller Regel ja, wenn es sich nicht gerade um einen Museums-Rechner handelt. > Oder konfiguriere ich das in diesem Fall so, dass ich z.B. mit HDMI vom > PC zum ersten Monitor gehe, und dann mit DVI vom ersten zum zweiten > Monitor? Nein, getrennte Kabel. Amazon-Links müssen nicht deine ganze Lebengeschichte enthalten, bitte kürzen: https://www.amazon.de/dp/B08WRPWZ1C
Franz55 schrieb: > Kann ich in diesem Fall die HDMI Schnittstelle für Monitor 1, und die > DVI Schnittstelle für Monitor 2 verwenden, oder muss ich eine der beiden > verwenden, und brauche extern noch einen Verteiler oder Ähnliches? Bei meiner GK gehst das Problemlos. Ich habe 2 voll-bestückte DVI Anschlüsse an der Karte. Einer geht via Adapter als HDMI weiter zum Hauptmonitor. Der andere via Adapter als VGA zu einen uralten Flat weiter. Du musst nur den GK-Treiber erzählen wie du die Einstellungen haben willst. Üblich sind Mirror (Sehr gut für Beamer) und "Splitter Monitor" (Führ dazu das deine Maus zum anderen Monitor hopst). Ich stelle den VGA schonmal an um im "Splittet"-betrieb da eine PDF anzeigen zu lassen, von der ich viele Infos brauche. Oder die ich abtippen muss. ;(
Nachtrag. Die GK muss 2 Anschlüsse haben. Du kannst das SIGNAL NICHT !!!! DURCHSCHLEIFEN. !!!!!
Onkel Hotte schrieb: > Franz55 schrieb: >> Kann ich in diesem Fall die HDMI Schnittstelle für Monitor 1, und die >> DVI Schnittstelle für Monitor 2 verwenden > > In aller Regel ja, wenn es sich nicht gerade um einen Museums-Rechner > handelt. Ein Rechner mit DVI-Ausgang ist ein Museumsrechner!
Karl schrieb: > Ein Rechner mit DVI-Ausgang ist ein Museumsrechner! Na und? Franz55 schrieb: > ich will 2 Monitore anschließen, die parallel > genutzt werden (Monitor 1, Monitor 2) Zu beachten sind die Limits des Rechners. Nicht jeder Oldie kann z.B. einen oder gar zwei 4K-Monitore verdauen. Aber beim hier betrachteten FullHD ist das kein Problem.
Karl schrieb: > Ein Rechner mit DVI-Ausgang ist ein Museumsrechner! Quatsch mit Soße. Das ist die beste Schnittstelle von allen. Die kann nämlich Analog (VGA) und Digital (HDMI). Allerdings nur wenn die hübsche Buchse auch voll belegt ist. Ich würde sie JEDERZEIT einer HDMI Buchse vorziehen. Und da mein Laptop eine hat und ich die passenden Adapter in der Tasche habe ich noch nie in Hotels Probleme gehabt mich mit den z.t. Uralt-Beamern zu verbinden. ;)
Schlaumaier schrieb: > Das ist die beste Schnittstelle von allen. Die kann nämlich Analog (VGA) > und Digital (HDMI). Ein voll ausgestattetes Kabel kann es. Aber weder konnte man sicher sein, dass seitens des Rechners beide Arten drauf waren. Noch konnte man sicher sein, dass ein Monitor beides konnte. Noch konnte man sicher sein, dass jedes Kabel beides konnte. Ich kenne einen Monitor mit Idiotensicherung, bei dem man einen Stecker mit Analogteil rein mechanisch überhaupt nicht rein bekommt, weil die Löcher fehlen. Und ich kenne einen Monitor, der trotz DVI nur an Rechnern läuft, die den Analogteil beschicken - was sich bei einem Rechner, der nur den Digitalteil beschickt, etwas doof ist. Summarum zählt das für mich zur Kategorie "gut gemeint". Obendrein ist der Stecker recht klobig. Ich kann gut verstehen, dass sich DisplayPort durchsetzte.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Summarum zählt das für mich zur Kategorie "gut gemeint". Obendrein ist > der Stecker recht klobig. Ich kann deine Argumente voll nachvollziehen. ABER, ich mache das mit Adapter DIREKT am Anschluss des Rechners bzw. Laptop. (Habe alle guten GK damit). Adapter kostet 5-7 Euro a. Und dann den normalen Kabel weiter bzw. den Kabel der rumliegt für den Beamer da rein ;) Aber in ein gebe ich dir völlig recht. Der Stecker ist klobig und benötigt i.d.R. 1 Umdrehung der Schraube. ;) Aber anders herum. Mein Tablett hat noch Mirco-SD und ich habe mir ein Magnet-Adapter gekauft weil der Rotz-Anschluss so pissi* ist, das er entweder abbricht oder raus rutscht. Und nun komm mir nicht mit den "Haken" die halten keine 10 x Laden. Es ist nicht einfach ein guten Stecker zu machen. USB-C ist in der Hinsicht bisher das beste körperlich. Aber die verwässern das wieder und dann wirds genau so lausig wie alles andere.
Schlaumaier schrieb: > Quatsch mit Soße. > > Das ist die beste Schnittstelle von allen. Die kann nämlich Analog (VGA) > und Digital (HDMI). Das ist wiederum Quatsch mit Soße. Einerseits braucht niemand diese fossile analoge Schnittstelle (außer Freunde veralteter Monitore), andererseits sind mit DVI aufgrund der damit einhergehenden Bandbreitenbeschränkungen modernere Monitore nicht ansteuerbar. Einkanaliges DVI kann maximal "Full-HD" bzw. WUXGA ansteuern (1920x1080 bzw. 1920x1200), für höhere Auflösungen braucht man zweikanaliges DVI (vollbestückte Buchse und Kabel), damit ist dann aber bei 2560x1600 auch schon wieder der Anschlag erreicht. Neuere Monitore aber haben keine DVI-Anschlüsse mehr, sondern sind via HDMI oder Displayport anzusteuern. Zwar gibt es Adapter von DVI auf HDMI, die aber sind naturgemäß nur einkanalig, und damit auf 1920x1200 begrenzt. Die Bandbreite von HDMI ist ganz erheblich höher, über einen Kanal lässt sich problemlos "4K" (3840x2160) oder auch mehr übertragen. Und wer fossile Monitore betreiben will, kann das auch an einem HDMI-Ausgang, es gibt spottbillige (< 10 EUR) Adapter, die den erforderlichen DAC enthalten.
DerEgon schrieb: > Einkanaliges DVI kann maximal "Full-HD" bzw. WUXGA ansteuern (1920x1080 > bzw. 1920x1200), für höhere Auflösungen braucht man zweikanaliges DVI > (vollbestückte Buchse und Kabel), damit ist dann aber bei 2560x1600 auch > schon wieder der Anschlag erreicht. Stimmt. Aber es stinken nicht alle so nach Geld wie du. Mein Monitor ist ein ACER den ich für 200 Euro vor 7 Jahren gekauft habe. Er wird mit 1920c x 1080 angesteuert. Und oh wunder ich kann alles erkennen. ;) Ich gehöre halt zu den Leuten die ihre Dinge solange nutzen bis sie kaputt gehen, und nicht bis mir die Marketing-Abt. eines geldgeilen Unternehmen erzählt das neue ist alles besser. Das ist wie Waschmittelwerbung. Das Weißeste Weiß das es ja gab. Vorher lief ich also in dreckig grau herum. ?!?!? DerEgon schrieb: > damit ist dann aber bei 2560x1600 auch schon wieder der Anschlag erreicht. Stimmt. Genau da endet meine GK. Und die war damals 700 Euro teuer. Aktuell Ebay ca. 170 Euro. Wie gesagt. Ich kaufe was anständiges und nutze es bis es kaputt geht oder es SINNVOLLE Argumente gibt, es auszutauschen.
Schlaumaier schrieb: > Ich gehöre halt zu den Leuten die ihre Dinge solange nutzen bis sie > kaputt gehen, und nicht bis mir die Marketing-Abt. eines geldgeilen > Unternehmen erzählt das neue ist alles besser. Ich habe zwei EIZO LCDs 1600x1200 (geerbt), und einen davon noch im Einsatz, die wohl schon an die 20 Jahre alt sind. Trotzdem halte ich DVI heute für veraltet. Zu den Vorzügen von DVI,DP,HDMI gehört, dass man mit rein passivem Kabel an einen DP++ Ausgang auch HDMI- und DVI-Monitore anschliessen kann. Und so hängt der Oldie an einem noch relativ jungen Laptop.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Zu den Vorzügen von DVI,DP,HDMI gehört, dass man mit > rein passivem Kabel an einen DP++ Ausgang auch HDMI- und DVI-Monitore > anschliessen kann. Richtig. Und deshalb mag ich DVI. Ich bin flexible. Und muss nie sagen. Ups das kann ich nicht bedienen. Wenn du mal in Hotels mit mieser IT dein Lappi an einen Beamer anklemmen musst, dann weißt du was ich meine. Und die Adapter wiegen fast nix. Dann noch die 103er Gummi-Tastatur an den Lappi angeschlossen und ich bin fast so gut/Schnell wie auf meinen großen Rechner. Das die HD-7950 DVI-Anschlüsse hat ist aber Zufall. Bei mein Lappi habe ich drauf geachtet.
Schlaumaier schrieb: > Er wird mit 1920c x 1080 angesteuert. Und oh wunder ich kann alles > erkennen. ;) Ein 4K-Monitor ist schon geil. Man sieht riesige Mengen Sourcecode auf einen Blick und muss nicht ständig scrollen. Erleichtert das Arbeiten enorm gegenüber FullHD. GoPro Videos in 4K@60Hz sind der Hammer, man sieht jeden Grashalm und jeden Kieselstein, so kann man sich im kalten dunklen Winter Sommer-Feeling ins Wohnzimmer holen... Solche Monitore sind nichtmal mehr teuer, im Bereich 200-400€ findet man was. Natürlich mit DisplayPort oder USB-C angesteuert. Da weint man dem ollen VGA oder DVI keine Träne nach!
Schlaumaier schrieb: > Wenn du mal in Hotels mit mieser IT dein Lappi an einen Beamer anklemmen > musst, ... nimmt man einen der USB-C auf VGA Adapter. Kein Grund sich zuhause irgendwo VGA oder DVI anzutun, erst recht am PC.
Schlaumaier schrieb: > Richtig. Und deshalb mag ich DVI. Das spricht eigentlich eher für den DP++ Ausgang von Rechner oder Docking-Station als für den DVI-Eingang des Monitors. Und rein passiv kriegst du keinen DP oder HDMI Monitor an einen DVI-Ausgang.
Schlaumaier schrieb: > mich mit den z.t. Uralt-Beamern zu verbinden. ich räume regelmässig Vorabentwürfe z.B. von Bedienungsanleitungen auf, um genau solche Vorgänge zu verhindern. :-]
Programmierer schrieb: > sich zuhause irgendwo VGA oder DVI anzutun Mein oller Homeserver hat aber nur VGA. ;-)
Programmierer schrieb: > Ein 4K-Monitor ist schon geil. Nicht für jeden. Jenseits von ca 110 DPI ist bei mir Schluss, ohne zu skalieren. Muss ich den Inhalt passend vergrössern (was mitunter Nebeneffekte hat) reduziert sich wieder die Menge sichtbaren Materials.
Programmierer schrieb: > Solche Monitore sind nichtmal mehr teuer, im Bereich 200-400€ findet man was. Klor ich sehe die öfters im Newsletter. Das Problem ist der Domino-Effekt. Was brauche ich für Full-HD und die Grashalme. ?!?!? Genau eine neue GK die zwar aktuell im Preis fallen aber immer noch bei > 600 Euro aufwärts sind. Meine war damals die beste auf den Markt. Aktuell würde mich diese Tatsache mal locker 1.500-2.000 Euro kosten. Hab da neulich ein Test eines Top-Modell gelesen (war ja meine damals). Also kostet mich der Spass günstig gesehen 1000 Euro. Dazu kommt das mein PC die passende Schnittstelle nicht hat. Ergo noch mal 3000 Euro. (Ist der Preis den mein alter damals gekostet hat). Also kostet es mich summasumarum 4.000 - 5.000 Euro. Ich war eben auf den Klo, es kam braune Biomasse raus, keine Krügerrand-Münzen (Euros werden ja immer weniger wert, habe ich gestern gesehen im TV). Also werde ich mir die Grashalme in normalen HD ansehen. ;)
Schlaumaier schrieb: > Mein Monitor ist ein ACER > Ich kaufe was anständiges Schenkelklopfer vom Feinsten.
Onkel Hotte schrieb: > Schlaumaier schrieb: >> Mein Monitor ist ein ACER > >> Ich kaufe was anständiges > > Schenkelklopfer vom Feinsten. Letztes Jahr kaufte ich einen teuren EIZO, weil ich keine Lust hatte, mich mit schlechter Qualität rumzuärgern. Es kam wie es kommen musste: miserable Ausleuchtung. Ich musste genau das tun, was ich vermeiden wollte: ihn zurückschicken. Der Ersatz war ein wesentlich günstigerer ACER mit wesentlich besserer Ausleuchtung.
:
Bearbeitet durch User
Schlaumaier schrieb: > Was brauche ich für Full-HD und die Grashalme. ?!?!? Genau eine neue GK > die zwar aktuell im Preis fallen aber immer noch bei > 600 Euro aufwärts > sind. Quatsch. Die in halbwegs aktuellen CPUs integrierten Grafikkarten können das schon, da brauchts nichtmal ne dedizierte Karte. Eine RTX 3050 für unter 400 kann das lockerst UND hat viel Gaming-Leistung. Schlaumaier schrieb: > Also kostet es mich summasumarum 4.000 - 5.000 Euro. Aber nur wenn du absolute High-End-Ausstattung haben willst. Die braucht man aber bei weitem nicht für 4K-Videos schauen oder normales Arbeiten in 4K. Eine sehr gute Ausstattung (PC+Screen) kriegt man für 2000€, Aufrüstung (GPU+Screen) für deutlich unter 1000€.
Nur zur Einordnung, weil hohe Auflösung bei hoher Refresh-Frequenz auch Nachteile haben kann: DisplayPort 2.0 für unkomprimierte 8K@60Hz kann 80 Gbit/s bedeuten, also 10 GByte/s. Ein Rechner mit 2 DDR4-3200 Speicherkanälen hat ein Limit von 50 GB/s. Ohne Graka mit eigenem RAM ist das nicht mehr vernachlässigbar.
:
Bearbeitet durch User
(prx) A. K. schrieb: > Der Ersatz war ein wesentlich > günstigerer ACER mit wesentlich gleichmässiger Ausleuchtung. hihi Perfekt begründet wieso ICH ein habe. Ich habe mir den Monitor nämlich im Handel in Aktion betrachtet. Genau so wie bei meinen TV auch. Da das alles ein Virtuelles Empfinden ist, mache ich nie zu "Gut + Schlecht" bei Tastaturen und Monitoren eine Aussage. Außer zu technischen Daten.
(prx) A. K. schrieb: > Letztes Jahr kaufte ich einen teuren EIZO, weil ich keine Lust hatte, > mich mit schlechter Qualität rumzuärgern. Es kam wie es kommen musste: > miserable Ausleuchtung. Wenn du nicht beim Hinterhof-Kistenschieber kaufst, hast du nach einem kurzen Anruf am nächsten Tag einen neuen Monitor "direkt" von Eizo. UPS Overnight regelt. > Der Ersatz war ein wesentlich günstigerer > ACER mit wesentlich besserer Ausleuchtung. Mag sein. Acer kann grundsätzlich schon gut, aber leider nicht in EMEA. Die Produktpalette in APAC sieht deutlich anders aus, da gibt's dann auch die richtigen Business-Linien.
(prx) A. K. schrieb: > Und rein passiv > kriegst du keinen DP oder HDMI Monitor an einen DVI-Ausgang. DP nicht, aber HDMI sehr wohl, sofern die Auflösung nicht größer ist als "Full-HD" bzw. WUXGA. Da ist nämlich HDMI und DVI effektiv das gleiche, und dafür gibt es entsprechende Kabel (ein Ende HDMI, ein Ende DVI) bzw. Adapter. Was DVI halt nicht kann, ist Audioübertragung.
(prx) A. K. schrieb: > Ohne Graka mit eigenem RAM > ist das nicht mehr vernachlässigbar. Genau. Mein Rechner (8 Kerne CPU) hat aktuell 32 GB Ram. Die GK hat 3 GB GDDR5-Rams. Und ist gut 10 Jahre alt. Und unter dem mache ich es bei einen neuen Rechner nicht mal ansatzweise. Die neue GK müsste 6 GB Ram haben, eine NVIDIA sein, der Rechner min. 8 Kerne CPU , also I7 o. den neuen AMD in der besten Ausführung (Typ vergessen). Ich kaufe keine Rechner die ich in 2 Jahren austausche. Und "ARBEITEN" bedeutet für mich alles mögliche. Ich habe nur mal so nebenbei allein 4.5 Drucker im System installiert davon 3.5 unter Strom (muss nur einschalten). Mein Board hat 8 USB-Ports und an 3 hängen HUBS. Und mal eben Jeden Menge Videos umrechnen ist eher ne Nebenarbeit. Audio-Dateien schneiden, große Datenbanken bearbeiten. Eure Spielzeugrechner würden schon bei hochfahren die Zunge aus den Hals hängen lassen um um Gnade pipsen. Wenn ich ein neuen kaufen würde, würde die Installation mit allen Treibern mich mind. 3-5 Tage dauern im optimalen Fall. Allein schon weil ich für das Drecks Win-10/11 herum tricksen müsste Treiber zu finden für z.b. den Dia-Scanner. Der hast mich allein für Win-7 6-Std. Arbeit gekostet. Medion-Dreck für Win-XP halt. Aber er hat nur 5 Euro gekostet und macht TOP Bilder. ;) Ach so Nebenbei. Ich hab eine alte Futschi-Siemens-Kiste da läuft Win-10 drauf. Zum Testen der Software die ich selbst schreibe reicht das ;)
Schlaumaier schrieb: > Ich gehöre halt zu den Leuten die ihre Dinge solange nutzen bis sie > kaputt gehen, und nicht bis mir die Marketing-Abt. eines geldgeilen > Unternehmen erzählt das neue ist alles besser. > > Das ist wie Waschmittelwerbung. Das Weißeste Weiß das es ja gab. Vorher > lief ich also in dreckig grau herum. ?!?!? Das ist gut so. Man muss das tote Pferd reiten bis es vor der Apotheke kotzt! Es gibt Leute die arbeiten, kaufen sich zeitgemäße Arbeitsmittel und tun es in die Steuer und es gibt Leute die viel Freizeit haben und ihren Hardwarezirkus von der Stütze bezahlen müssen.
Onkel Hotte schrieb: > Wenn du nicht beim Hinterhof-Kistenschieber kaufst, hast du nach einem > kurzen Anruf am nächsten Tag einen neuen Monitor "direkt" von Eizo. Um Monitore so lange durchzuprobieren, bis einer dabei ist, der meinen Ansprüchen genügt, brauche ich keine EIZO. Das geht auch billiger. Von EIZO erwartete ich, das ich genau das nicht machen muss.
:
Bearbeitet durch User
Schlaumaier schrieb: > Wie gesagt. Ich kaufe was anständiges und nutze es bis es kaputt geht > oder es SINNVOLLE Argumente gibt, es auszutauschen. Für mich war das sinnvolle Argument zum Tausch meiner Monitore höhere Auflösung, d.h. mehr effektive Nutzfläche. Und bessere Bildqualität (Blickwinkelabhängigkeit, Farbstabilität etc.) Meine Augen geben das her, warum also große Klötzchen angucken, aus denen sich wenige Schriftzeichen zusammensetzen?
Karl schrieb: > das tote Pferd reiten bis es vor der Apotheke kotzt! Die Apotheke ist irrelevant, Pferde können nicht kotzen.
Schlaumaier schrieb: > Mein Rechner (8 Kerne CPU) hat aktuell 32 GB Ram. Die GK hat 3 GB > GDDR5-Rams. Und ist gut 10 Jahre alt. Und die kann kein 4K?? Selbst meine antike GTX670 aus meinem alten Rechner kann das (2 GB VRAM). Halt keine Gaming/3D-Leistung bei der Auflösung, aber darum ging's auch nicht. Schlaumaier schrieb: > Und unter dem mache ich es bei einen neuen Rechner nicht mal > ansatzweise. Solche Specs gibt's heute aber schon für 1000-1500. Schlaumaier schrieb: > Die neue GK müsste 6 GB Ram haben, eine NVIDIA sein Die billigste aktuelle Nvidia, die erwähnte 3050, hat 8 GB. Und kann natürlich 4k. Schlaumaier schrieb: > Eure Spielzeugrechner würden schon bei hochfahren die Zunge aus den Hals > hängen lassen um um Gnade pipsen. Haha, süß. Um Gnade dass du was nicht tust? Schlaumaier schrieb: > Wenn ich ein neuen kaufen würde, würde die Installation mit allen > Treibern mich mind. 3-5 Tage dauern im optimalen Fall. Das macht Windows 10 fast komplett automatisch heutzutage. Und vorinstalliert sind Treiber sowieso.
Schlaumaier schrieb: > Und mal eben Jeden Menge Videos umrechnen ist eher ne Nebenarbeit. Wer rechnet heute noch Videos um? Hast du noch eine VCD-Player? > Audio-Dateien schneiden, Kann jedes billige Smartphone > große Datenbanken bearbeiten. Definiere groß? Schlaumaier schrieb: > Mein Rechner (8 Kerne CPU) hat aktuell 32 GB Ram. Die GK hat 3 GB > GDDR5-Rams. Und ist gut 10 Jahre alt. Also eine Standheizung die nebenbei rechnen kann.
Karl schrieb: > Wer rechnet heute noch Videos um? Jene, die welche aufnehmen. Sei es, die verarbeiten sie beruflich oder privat, sei es, sie nehmen so viele davon auf, dass eine Nachkomprimierung nicht unerheblich Platz spart. Bei Bildersammlungen kann man das leicht feststellen: Wer die einmal durch einen simplen PC-Bildbearbeiter schickt, hat hinterher bei gleicher Auflösung und Qualität ein weit kleineres File. Kameras und Smartphones sind nicht dafür optimiert, möglichst wenig Platz zu verschwenden. Die haben andere Kriterien. Mit Videos habe ich das noch nicht ausprobiert. Ich würde mich aber wundern, wenn das nicht genauso ausfällt.
Karl schrieb: > Es gibt Leute die arbeiten, kaufen sich zeitgemäße Arbeitsmittel und tun > es in die Steuer und es gibt Leute die viel Freizeit haben und ihren > Hardwarezirkus von der Stütze bezahlen müssen. Ich habe und werde in mein ganzen Leben NIE mein HOBBY (Private Geräte) von der Steuer abgesetzt. Selbst dann nicht als ich sie für die Firma genutzt habe. Und selbst auf der Firma habe ich die Kisten min. 5-6 Jahre geritten wie du es so schön sagst. Da hatte ich übriges ein EIZO-Monitor. ;) Und eine G3000 Cherry-Tastatur mit Goldkontakten und Klickgeräusch. Was übrigens den Hardware-Zirkus angeht. Das meiste (außer den Hauptrechner) ist vom Flohmarkt. Ein Canon-Shelpy für 8 Euro funktioniert genau so gut wie ein Gerät was ich aus jede Menge Tüten für teures Geld pellen muss. Und mein Zeichenbrett-Teil z.b. hat 3 Euro gekostet auch Flohmarkt. Kleiner Tipp am Rande, ein größeres + moderneres gibt es aktuell bei Action-Markt für ca. 13 Euro. Mein Etiketten-Drucker 29 Euro (Newsletterangebot) mein Schneideplotter war das teuerste mit ca. 249 Euro (auch Newsletterangebot). Wenn man Angebote liest und nicht wie ein kleines Kind "das will ich JETZT" macht, kommt man zu einen sehr großen Hardware-Zirkus der mit Ausnahmen preiswerter ist als ein Kino-Besuch. Da bin ich neulich fast 70 Euro losgeworden (inkl. Karte + Popcorn und Mcdoof danach). War aber ein schöner Abend. ;) Spartipp: Kauf nicht das allerneuste. Geh über den Flohmarkt und such dir die Treiber im Internet. Dann sparst du ne richtige Menge Kohle. Und weil ich mich über den Preis der Schlagsahne (200 ml 1 Euro) neulich geärgert habe, bestelle ich die jetzt auch im Internet. 65 Cent und ich muss nicht einmal schleppen. VK-Free dank Prime. ;)
(prx) A. K. schrieb: > Bei Bildersammlungen kann man das leicht feststellen: Wer die einmal > durch einen simplen PC-Bildbearbeiter schickt, hat hinterher bei > gleicher Auflösung und Qualität ein weit kleineres File. Viel blabla, bei völliger Unkenntnis von Bildformaten.
Schlaumaier schrieb: > Und weil ich mich über den Preis der Schlagsahne (200 ml 1 Euro) neulich > geärgert habe, bestelle ich die jetzt auch im Internet. 65 Cent und ich > muss nicht einmal schleppen. VK-Free dank Prime. ;) dann meckere bitte nicht, wenn die nächstgelegene Innenstadt ausstirbt.
Karl schrieb: > Viel blabla, bei völliger Unkenntnis von Bildformaten. Wenig blabla, bei völliger Unkenntnis, was ich damit ausdrückte. Bildformat davor und dahinter gleich.
(prx) A. K. schrieb: > Von > EIZO erwartete ich, das ich genau das nicht machen muss. Und genau das habe ich bei meinen EIZO's bekommen. Privat 2 Stück. Firma 180 Stück.
Karl schrieb: > Wer rechnet heute noch Videos um? Hast du noch eine VCD-Player? JA. Sogar ein CDI-Player. ;) Karl schrieb: > Definiere groß? 6-7 Mio-Datensätze Karl schrieb: > Kann jedes billige Smartphone LÖL. Kopp + Popes abschneiden vielleicht. Aber auch aus einer alten LP ein gutes Soundfile machen. Wieso gibt es dann Software die einige 100 Euro kostet für so was. Hat mich jedenfalls meine gekostet. Karl schrieb: > Also eine Standheizung die nebenbei rechnen kann. hm. Wenn der nicht gerade Videos umrechnet liegt der Verbrauch bei ca. 150 Watt. Damit kann ich leben. (prx) A. K. schrieb: > Karl schrieb: >> Wer rechnet heute noch Videos um? > > Jene, die welche aufnehmen. Sei es, die verarbeiten sie beruflich oder > privat, sei es, sie nehmen so viele davon auf, dass eine > Nachkomprimierung nicht unerheblich Platz spart. Jene die sich auf ein einheitliches Format mit sich selbst geeinigt haben. Und auch jene die bis vor ein paar Jahren noch ein Presseausweis hatten. Und labert bitte nicht von 4k o. 8k Videos wenn ihr nicht wisst welche Datenmengen da auftreten. Ich mag sie zwar auf den Bildschirm nicht in 4k sehen können. Aber schneiden kann ich sie. Und was RAW-Fotos an Speicher fressen und welche Datenmenge da auftreten ist was anders als schrottige Handy-Fotos mit Festobjektiv.
Das war die Frage: Franz55 schrieb: > ich habe einen Rechner mit Windows 10, der eine HDMI und eine DVI > Schnittstelle hat - ich will 2 Monitore anschließen, die parallel > genutzt werden (Monitor 1, Monitor 2). Nicht die Lebenserfahrung von Schlaumaier, nicht 4k ist doch schöner, nicht welcher Monitor, welcher Hersteller ist besser... @Franz55 - nema problema...
Schlaumaier schrieb: > Wenn der nicht gerade Videos umrechnet liegt der Verbrauch bei ca. > 150 Watt. Ein auch schon ungefähr 10 Jahre alter einfacher Anwender-PC, denn ich zufällig vor ein paar Tagen am Leistungsmessgerät hatte, lag bei 15 Watt zzgl Monitor. Der Rest ist ein Rechenexempel, unter besonderer Beachtung künftiger Strompreise.
:
Bearbeitet durch User
Schlaumaier schrieb: > Und was RAW-Fotos an Speicher fressen und welche Datenmenge da auftreten > ist was anders als schrottige Handy-Fotos mit Festobjektiv. Was hat das Dateiformat mit dem Objektiv zu tun, du Wichtigtuer?
Karl schrieb: > Was hat das Dateiformat mit dem Objektiv zu tun, du Wichtigtuer? nüx- Aber mit eine Handy würde ich NIE RAW-Fotos machen. Die nutze ich nur für das wozu ich damals meine Kleinbild u.o. Pocket benutzt habe. ;)
Schlaumaier schrieb: > Wurde doch beantwortet : Sogar von mir. Ich sehe da eine wesentlich treffendere , knappere und alles beantwortende Antwort vor deiner . Du laberst wieder nur rum .
Schlaumaier schrieb: > nüx- Warum musst du es dann erwähnen? Schlaumaier schrieb: > Aber mit eine Handy würde ich NIE RAW-Fotos machen. Die nutze ich nur > für das wozu ich damals meine Kleinbild u.o. Pocket benutzt habe. ;) Das ist schön für dich. Du bist der aller Schlauste. Wenn du richtig schlau werden willst, mach deinen "Trick" mit dem Bildbearbeitungsprogramm 10 mal hintereinander! Wenn du dann noch googelst, wie jpg funktioniert könnte die Macht in dir erwachen.
Karl schrieb: > Wenn du dann noch > googelst, wie jpg funktioniert könnte die Macht in dir erwachen. Lerne mal was RAW ist. Google hilft.
Schlaumaier schrieb: > Karl schrieb: >> Wenn du dann noch >> googelst, wie jpg funktioniert könnte die Macht in dir erwachen. > > Lerne mal was RAW ist. Google hilft. Du Voll****. Wer hat denn folgendes behauptet dass es um RAW geht? (prx) A. K. schrieb: > Wer die einmal > durch einen simplen PC-Bildbearbeiter schickt, hat hinterher bei > gleicher Auflösung und Qualität ein weit kleineres File. Wenn sich der Effekt bei RAW einstellen würde, würde ich mir ein neues Programm suchen!
Karl schrieb: > Wenn sich der Effekt bei RAW einstellen würde, würde ich mir ein neues > Programm suchen! Tut er. ;) Wenn ich RAW Bilder als JPG abspeichere und ein bestimmten Komprimierfaktor wähle. ;) Wobei so Simpel ist der nicht. Weil ein BETRACHTER Speichert i.d.R. nicht.
Schlaumaier schrieb: > Tut er. ;) > > Wenn ich RAW Bilder als JPG abspeichere und ein bestimmten > Komprimierfaktor wähle. ;) Dann würde sich der Effekt nicht bei dem RAW-Bild einstellen sondern bei dem jpg oder etwa nicht? Bisschen mitdenken!
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.