Hallo wegen einer Kurzzeitig schlecht funktionierender Grafikkarte (eigentlich nur ein Einstellung...) musste ich mit einigen Begrifflichkeiten auseinandersetzen . Im meinen Fall war "auf einmal" die VPE Nutzung (NVidia grforce GT 1030) verschwunden - was man deutlich bei der Wiedergabe von 4k 60Hz Videos bemerkt hatte. Nach viel Googeln und dann noch ziemlich indirekt in der Art"Beste Einstellungen für 4k Video" bei meinen genutzten Programm -nebenbei: nicht VLC ;-) bin ich dann fündig geworden - muss wohl bei irgendeiner Aktion indirekt einen Haken entfernt haben - aber egal VPE und flüssige Videogabe von 4k60Hz (man kann sogar den Rechner sinnvoll parallel für weiter aufgaben Nutzen was ohne VPE dann überhaupt nicht mehr ging) ist jetzt wieder vorhanden - gut so (muss so sein). Was mir aber klar geworden ist: Das ist ein sehr weites Feld wo viele Sachen aufeinander aufbauen und so widersinnig es auch klingt vieles miteinander sowohl gar nichts als auch alles miteinander zu tun hat. Wie erlerne ich das? Was und woher (Lernquellen, Erdklärvideos,Grundlagenliteratur, Entwicklungshistorie...) muss man dafür wissen und nutzen? Woher weis ich an welcher "Schraube" ich drehen muss (und wann: 3D, Spiele und Video sind ja alle verwandt und trotzdem ganz anders in der Praxis). Was ist ein "guter" (der jeweils beste) Codec? Was genau ist interlacing, warum und wie welche genaue Ausführung? Wann und woher jitter - wie verhindern und warum funktioniert das dann (eventuell auch nicht)? Halt diesen ganzen Kram würde ich gerne verstehen und einigermaßen beherrschen. Die Frage ist nur: Wie lernt man das als "Gesamtpaket" und mindestens so gut das man gezielt nachfragen bzw. googeln kann? Wikipedia nutzt nur wenn man weis wonach man suchen muss und eine Begrifflichkeit im jeweiligen Artikel führt einen direkt zu neuen Fragen und Artikeln, die wiederum wieder zu weiteren fragen führen usw. Das Grafikkarten ein großes Ding bei den Gamern sind und auch viel Posen und Tuning (ähnlich wie in der Autotunerszene) dahintersteht macht es auch nicht unbedingt einfacher das alles technisch und ohne Fanboyeinfluss zu verstehen... Wie also beginnend bei Adam und Eva an die Sache herangehen`? Videonaut
Vdioenaut schrieb: > Wie erlerne ich das? Erstmal musst du überhaupt definieren, was du eigentlich lernen willst. Vorher kannst du nicht gezielt danach suchen. Es hilft auch nicht besonders, dass die ganze Thematik relativ schnellebig war und ist, also auch viele Herangehensweisen veraltet sind. > Was und woher (Lernquellen, Erdklärvideos,Grundlagenliteratur, > Entwicklungshistorie...) muss man dafür wissen und nutzen? Normalerweise muss man nichts wissen, denn es funktioniert einfach so. > Woher weis ich an welcher "Schraube" ich drehen muss (und > wann: 3D, Spiele und Video sind ja alle verwandt und trotzdem > ganz anders in der Praxis). Wenn es dir um "geile Grafik", "hohe Performance" und "gekaufte Hardware ausnutzen" geht, dann gibt es da maximal ein paar Hilfestellungen vom Hersteller, welche Knöpfe man im Treiber drücken kann sowie große Ratespiele in irgendwelchen Gamer-Foren. Vieles kann sich von einer GPU-Generation auf die nächste ändern und hat sich auch geändert. Einiges hängt vom GPU-Hersteller ab, die Treiber-GUI in jedem Fall, ebenso die Fähigkeiten der Hardware. > Was ist ein "guter" (der jeweils beste) Codec? Das hängt von der Zeit ab, in der du dich befindest, ebenso von Nutzung. In der Vergangenheit waren das so coole Dinge wie "Video 1" oder "Indeo", später dann MPEG (in verschiedenen Versionen, einschließlich H.264 und HEVC) und inzwischen wird das abgelöst (VP9, AV1). > Was genau ist interlacing, warum und wie welche genaue Ausführung? Interlacing kommt aus der analogen Welt. Damit kann man bei gleicher Bandbreite die Bildwiederholrate verdoppeln (PAL hat 576 Zeilen bei 25 Hz, aber dank Interlacing werden 50 Bilder pro Sekunde gezeichnet - mit jeweils der Hälfte der Zeilen). In der digitalen Welt ermöglicht es die gleiche Bandbreite für 720p60 und 1080i60. Dafür gibt es Artefakte und stinkt. > Wann und woher jitter - wie verhindern und warum funktioniert > das dann (eventuell auch nicht)? Jitter ist die erste Ableitung der Latenz. Es beschreibt nicht, wie lange etwas verzögert wird, sondern wie sehr diese Verzögerung über die Zeit schwankt. > Wikipedia nutzt nur wenn man weis wonach man suchen muss und eine > Begrifflichkeit im jeweiligen Artikel führt einen direkt zu neuen Fragen > und Artikeln, die wiederum wieder zu weiteren fragen führen usw. Genau so macht man das. Einfach mal in die Untiefen absaufen und sich von den Fragen zuprasseln lassen, die eventuell aufschreiben und dann der Reihe nach abarbeiten. Tauchen neue Fragen auf, kommen die mit auf die Liste. Es gibt auch ordentliche Youtube-Videos, die ein Thema gebrauchbar abarbeiten, wenn man auf sowas steht. > Wie also beginnend bei Adam und Eva an die Sache herangehen`? Such dir einen Einstieg und arbeite dich in die Tiefe. Wenn du auf Linux stehst, kannst du bei X-Video (Xv) und X-Video Motion Compensation (XvMC) anfangen - das waren die ersten APIs für hardwarebeschleunigte Videodarstellung und Videodekodierung. Dann fehlen nur noch etwa 30 Jahre Geschichte und fertig. ;-)
Vdioenaut schrieb: > Was ist ein "guter" (der jeweils beste) Codec? Das kommt schwerstens auf Deine Anforderungen an. Vdioenaut schrieb: > Wann und woher jitter - wie verhindern und warum funktioniert das dann > (eventuell auch nicht)? Interessiert Dich als Anwender eher selten. Vdioenaut schrieb: > Wie also beginnend bei Adam und Eva an die Sache herangehen Doku des Programms lesen, dessen Einstellungen Du geändert hattest.
Hallo Danke an euch beiden. Vor allem ein Dank an S.R. das hilft schon mal. Jim eben das will ich nicht, das reicht mir nicht - ich möchte verstehen und selbst sinnvoll handeln (ohne zu hoffen das jemand schon mal ein ähnliches Problem hatte und das in den weiten des Netzes beantwortet wurde). Ich komme übrigens nicht aus der gamerszene noch habe ich jemals ein wirkliches Interesse daran gehabt (Moorhuhn was das einzige "Game" was mich mal über längere Zeit interessiert hat - echte Gamer kommen da aus dem Lachen wohl nicht raus). Bin mehr der Videofreund - die technisch zu verstehen (zumindest der wille - das können...)und manchmal auch Inhaltlich zu analysieren macht mir viel Spaß - und gerade im letzten Punkt ist halt Auflösung schon wichtig da darf die Videokarte und deren Einstellungen nicht der Bremsklotz sein, auch möchte ich einfach (lol) wie jeder maximale Qualität mit möglichst wenig Berechnungszeit herausbekommen wenn ich mal (selten) selbst Videos erstelle und bearbeite. Videonaut
Videonaut schrieb: > auch möchte ich einfach (lol) wie jeder maximale Qualität > mit möglichst wenig Berechnungszeit herausbekommen wenn ich > mal (selten) selbst Videos erstelle und bearbeite. Für maximale Qualität willst du einen Software-Encoder, für maximale Geschwindigkeit willst du die Hardware codieren lassen. Das widerspricht sich also schonmal. Ich glaube, für dich ist tatsächlich erstmal das Werbematerial deiner Grafikkarte interessant, denn da steht drin, was die kann. Danach kannst du dann suchen und dich tiefer einarbeiten. Mein Wissen kommt halt viel über die Entwicklung der Linux-Treiber, die ich eine Zeit lang verfolgt habe (seit einigen Jahren nicht mehr, weil es für mich gut genug funktioniert). Immer mit einem Seitenblick auf z.B. Allwinner oder Raspberry Pi. Android verlangt Hardware-Videocodecs, daher ist das dort immer vorhanden, aber nicht unbedingt im Mainline-Kernel. Da lernt man einiges über die Hardware, dazu dann ein bisschen Vorträge von z.B. den Entwicklern freier Implementationen (ffmpeg, x265 und so). Da kommt schon einiges an Hintergrundwissen zusammen, aber eher wenig Expertenwissen. Wenn du das haben willst, musst du dich schon spezialisieren.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.