Hallo zusammen, weiß jemand, wie man folgende Angabe auf der Herstellerseite zu einem Mainboard zu verstehen hat? Es geht um das Gigabyte Mainboard Z790 UD https://www.gigabyte.com/de/Motherboard/Z790-UD-rev-10/sp#sp Da steht: Support for DDR5 7600(O.C.) /7400(O.C.) /7200(O.C.) /7000(O.C.) /6800(O.C.) /6600(O.C.) / 6400(O.C.) / 6200(O.C.) / 6000(O.C.) / 5800(O.C.) / 5600(O.C.) / 5400(O.C.) / 5200(O.C.) 4800 4000 memory modules Alles über 4800 ist mit Overclock gekennzeichnet. Ich dachte wenn ich RAM mit z.B. 6000MHz verwende, dann muß ich ihn nicht übertakten, um ihn mit 6000MHz zu verwenden. Wozu also das O.C. Oder ist das Mainboard selbst nicht über 4800MHz geeignet, so das man das Mainboard übertakten muß? Dann wäre die Auflistung aber sinnlos, da man ja nicht weiß, wie weit man das Mainboard übertakten kann. Wäre es garantiert, dann wäre es ja kein übertakten mehr. Also wenn ich gleich 6000MHz RAM kaufe und das Mainboard all die oben aufgezählten Taktraten unterstützt, was hat das ganze dann noch mit Übertakten zu tun. Beides, RAM und Mainboard unterstützen den Takt ja offiziel, also was soll das O.C. nun konkret bedeuten?
Der Speichercontroller ist nicht Bestandteil des Mainboards, sondern der CPU. Und den übertaktest Du halt. Was ziemlich sinnlos ist, denn das bringt bestenfalls einen Performancegewinn im niedrigen einstelligen Prozentbereich, dafür aber Probleme an anderen Stellen. Performancegewinne unter 50% aber kann man allenfalls messen, aber nicht spüren.
Laut Intel kann der 13600k aber 5600MHz (https://www.intel.de/content/www/de/de/products/sku/230493/intel-core-i513600k-processor-24m-cache-up-to-5-10-ghz/specifications.html). Dann hat das O.C. also keine Bedeutung. Das es in Klammern steht, bedeutet dann wohl, daß es auch CPUs gibt, bei denen das dann Overclocking wäre. Hat Gigabyte wohl ein bißchen ungeschickt ausgedrückt.
Na ist doch ganz einfach... damit sich der Schrott möglichst teuer verkaufen lässt braucht man in dieser Branche eines - verdammt hohe Zahlen. Alles andere interessiert nicht bzw. selbst versierte Kunden haben lange den Überblick verloren, was ein System bei Spielen z.B. wirklich leistet und was sie wirklich brauchen würden. Gigabreit sichert sich da einfach ab, daß wenn solche Systeme dann doch nicht zuverlässig funktionieren, man sich damit herausreden kann na gugg mal da du dummer Kunde, stand doch deutlich(*) auf der Kiste drauf, daß wir dafür nicht garantieren. (*) im meterlangen Kleingedruckten, was sowieso nur die wenigsten lesen
Harald K. schrieb: > Performancegewinne unter 50% aber kann man allenfalls messen, aber nicht > spüren. Bitte WAS? Wenn vray zum Rendern auch nur 1% weniger Zeit braucht, dann ist das schon deutlich spürbar. Denn auch 1% können viele Minuten sein je nach Länge des gesamt Clips.
Gustl B. schrieb: > Denn auch 1% können viele Minuten sein je nach Länge des gesamt Clips. Ich bewundere deine Engelsgeduld beim auf den Bildschirm gucken um das Ergebnis abzuwarten. Wenn diese 1% beispielsweise 5 Minuten darstellen, dann liegt die Gesamtlaufzeit bei 500 Minuten, also 8 Stunden und 20 Minuten. Die meisten Menschen benötigen für solche Unterschiede eine Uhr, müssen dazu also messen. Aber so wie manche Menschen das absolute Gehör haben, gibt es vielleicht auch die absolute Zeitwahrnehmung. ;-)
:
Bearbeitet durch User
Kommt drauf an was man unter "spüren" definiert. Bei manchen langfristigen Rechnereien plant man das vorher. Wenn man davor sitzt dann spürt man 1% vermutlich nicht. Aber 50% wird man sehr wahrscheinlich spüren. Und dazwischen, wo fängt das an? Also 10% weniger Zeit für etwas glaube ich könnte man schon spüren wenn man bewusst wartet.
Be B. schrieb: > weiß jemand, wie man folgende Angabe auf der Herstellerseite zu einem > Mainboard zu verstehen hat? Schon mal ins Manual geguckt? https://download.gigabyte.com/FileList/Manual/mb_manual_z790-ud-series_e_1201.pdf?v=866a267ffb717dfd6eed73bd829257dd Schonmal in die Kompatibilitätsliste geguckt? https://www.gigabyte.com/de/Motherboard/Z790-UD-AC-rev-10/support#support-memsup
Gustl B. schrieb: > Also 10% weniger Zeit für etwas glaube ich könnte man schon spüren > wenn man bewusst wartet. Reaktionszeiten auf Computer-Interaktionen sind ein altes Thema, das schon bei Mainframe-Terminals eine wichtige Rolle spielte. Und das später bei PCs zu der Erkenntnis führte, dass Programme bei der nächsten Rechnergeneration nicht schneller wurden, sondern in der neuen Version bloss entsprechend aufwändiger. Damit die Wahrnehmung als "schnell" erhalten bleibt und die Leuts nicht meckern. Unterschiede von 10% sind innerhalb des Bereichs "sehr schnell" nicht wirklich ohne Messung erfassbar, nicht spürbar, ebenso bei "viel zu langsam". Interessant ist der kritische Zwischenbereich, also sowas wie "geht noch" und "bissel zäh". Da ist man empfindlicher. Ob bereits bei 10% weiss ich nicht, ich habe dazu eher mindestens 30% im Kopf.
Be B. schrieb: > Ich dachte wenn ich > RAM mit z.B. 6000MHz verwende, dann muß ich ihn nicht übertakten, um ihn > mit 6000MHz zu verwenden. Dann schau mal nach, was das RAM im SPD stehen hat. Üblich: Auch wenn es als DDR6-6000 verkauft wird, meldet es sich erstmal als DDR5-4800. Höhere Transferraten werden nur im XMP-Profil, also beim Overclocking freigeben. JEDEC hat den Speicher m.W. nur bis DDR5-4800 spezifiziert. Alles darüber ist dann per Definition (Auslegungssache) immer overclocking.
Εrnst B. schrieb: > JEDEC hat den Speicher m.W. nur bis DDR5-4800 spezifiziert. Alles > darüber ist dann per Definition (Auslegungssache) immer overclocking. Die 4800 geben außerdem nur die Datenrate auf der Schnittstelle an. Wie schnell der Speicher tatsächlich ist, ist nochmal eine andere Sache. Ein DDR5-6000 kann je nach Anwendungsfall langsamer als DDR5-4800 sein, wenn dafür die Latenzen viel höher sind. Deshalb kann auch DDR5 langsamer sein als DDR4, das eigentlich geringere Transferraten hat, aber dafür je nach Modell sehr kurze Latenzen. Wie sehr sich das auswirkt, ist aber auch wiederum davon abhängig, wie die Software dann auf den Speicher zugreift. Gustl B. schrieb: > Harald K. schrieb: >> Performancegewinne unter 50% aber kann man allenfalls messen, aber nicht >> spüren. > > Bitte WAS? > Wenn vray zum Rendern auch nur 1% weniger Zeit braucht, dann ist das > schon deutlich spürbar. Denn auch 1% können viele Minuten sein je nach > Länge des gesamt Clips. 1% sind immer nur ein Hundertstel der Gesamtzeit und damit kaum relevant. Be B. schrieb: > Laut Intel kann der 13600k aber 5600MHz Kleine Anmerkung: Nicht 5600 MHz, sondern 5600 MT/s.
Diese Geschwindigkeits-Dinge muss man halt immer daran festmachen, was letztlich betrachtet werden soll und ob eine höhere Geschwindigkeit überhaupt sinnvoll ist. Bei Spielen z.B. ist meiner Meinung alles über 60fps Blödsinn. 60fps bedeutet sehr gut spielbar und es macht kaum einen fühlbaren Unterschied, ob man nun 60fps oder 300fps erreicht. Manch einer mag sich das bei Egoshootern vielleicht einbilden, daß er mit >100fps "besser spielt", ich halte das für Käse. Es kommt auch immer drauf an, welcher Teil eines PCs die wirklich limitierende Grenze darstellt. Wenn das z.B. die Grafikkarte oder die CPU-Cores sind, macht es schlicht keinen Sinn, den Speicher mit Gewalt auf immer neue Rekorde hoch zu prügeln. Deswegen sind vermeintlich alte CPUs und Mainboards heute bei Spielen noch absolut brauchbar, solange der Rechner eine ausreichend starke Grafikkarte besitzt (oder man eine ebenfalls ältere nicht überfordert). Und dann heulen alle rum, daß ihr PC so viel Strom verbraucht und man sich das ja kaum noch leisten könne etc... dabei bedeutet alles, was man an Geschwindigkeit hat, aber nicht braucht, einen unnötig hohen Stromverbrauch. Die Grenze, wo etwas "fühlbar schneller" wird, würde ich für mich bei etwa 10..15% ansiedeln, gemessen am Endergebnis und vorausgesetzt, daß man nicht bereits weit über den sinnvollen Grenzen liegt (sonst ist es nur Einbildung, daß die höhere Geschwindigkeit irgend etwas bringen würde). Aber nehmen wir das Thema Video-Encoding, macht es für mich schon einen Unterschied, ob die Kiste eine Stunde oder nur 50 Minuten braucht. Oder angenommen, man hat eine Rechenaufgabe, wo die Kiste 9..10 Stunden für braucht - dann wäre es für mich praktisch, wenn man diese über Nacht anstößt und das Ergebnis morgens fertig vorliegen hat. Wenn man darauf noch 1..2 Stunden warten muss, empfinde ich das als nervig.
Ben B. schrieb: > Bei Spielen z.B. ist meiner Meinung alles über 60fps Blödsinn. Zu Spielen kann ich nicht betragen, aber beim Display-Refresh kann der Unterschied tatsächlich deutlich sichtbar sein. Beispielsweise dann, wenn man beim Handy durch eine längeren Darstellung scrollt. Bei 120Hz wirkt das flüssiger als bei 60Hz.
Ben B. schrieb: > Manch einer mag sich > das bei Egoshootern vielleicht einbilden, daß er mit >100fps "besser > spielt", ich halte das für Käse. Nur weil du das für Käse hältst, heißt es nicht das es da keinen Unterschied gibt ;) Ben B. schrieb: > Oder angenommen, man hat eine Rechenaufgabe, wo die Kiste 9..10 > Stunden für braucht - dann wäre es für mich praktisch, wenn man diese > über Nacht anstößt und das Ergebnis morgens fertig vorliegen hat. Wenn > man darauf noch 1..2 Stunden warten muss, empfinde ich das als nervig. Dann muss man die Rechenaufgabe eben am Abend passend so starten das sie erwartbar zur gewünschten Zeit fertig ist. Verstehe das Problem nicht. Εrnst B. schrieb: > JEDEC hat den Speicher m.W. nur bis DDR5-4800 spezifiziert. Alles > darüber ist dann per Definition (Auslegungssache) immer overclocking. Und wie man dem verlinkten Bild entnehmen kann, wird dann auch schön die Spannung hoch gefahren. Wo sich wieder die Frage stellt, wozu man sowas dann braucht :) Da muss ich dann hier zustimmen: Ben B. schrieb: > Und dann heulen alle rum, daß ihr PC so viel Strom verbraucht und man > sich das ja kaum noch leisten könne etc...
Ben B. schrieb: > Bei Spielen z.B. ist meiner Meinung alles über 60fps Blödsinn. 60fps > bedeutet sehr gut spielbar und es macht kaum einen fühlbaren > Unterschied, ob man nun 60fps oder 300fps erreicht. Ich gehe auf die 50 zu und merke einen erheblichen Unterschied zwischen 60 und 120fps, und das nicht nur in Spielen, sondern auch schon einfach auf dem Desktop, z.B. beim Verschieben von Fenstern. Ob ich damit dann auch besser spiele als mit 60fps, weiß ich nicht. Ich denke aber schon, dass das beim "Zielen" helfen kann. > Manch einer mag sich das bei Egoshootern vielleicht einbilden, daß er mit > >100fps "besser spielt", ich halte das für Käse. Wie viel praktische Erfahrung hast du denn damit, dass du meinst, das so gut einschätzen zu können? > Es kommt auch immer drauf an, welcher Teil eines PCs die wirklich > limitierende Grenze darstellt. Wenn das z.B. die Grafikkarte oder die > CPU-Cores sind, macht es schlicht keinen Sinn, den Speicher mit Gewalt > auf immer neue Rekorde hoch zu prügeln. Generell stimmt das. Allerdings ist es auch wieder vom konkreten Programm (auch bei Spielen) abhängig, was wie stark ausgelastet ist. Beim einen bringt mehr Speicherbandbreite gar nichts, bei einem anderen macht es einen erheblichen Unterschied. > Deswegen sind vermeintlich alte CPUs und Mainboards heute bei Spielen > noch absolut brauchbar, solange der Rechner eine ausreichend starke > Grafikkarte besitzt (oder man eine ebenfalls ältere nicht überfordert). Es gibt durchaus auch recht CPU-hungrige Spiele. Und wenn man mit doppelter Framerate spielen will, verdoppelt sich nicht nur die Grafik-, sondern auch die CPU-Last. Anders sieht es bei Erhöhung der Auflösung aus. Da spielt einzig die Grafikkarte eine Rolle.
>> Manch einer mag sich das bei Egoshootern vielleicht einbilden, >> daß er mit >100fps "besser spielt", ich halte das für Käse. > Nur weil du das für Käse hältst, heißt es nicht > das es da keinen Unterschied gibt ;) Hmmm, ich weiß nicht, nenne mir einen. Ich habe für einen Gaming-PC eher alte Hardware (i7-4770K mit GTX 1080) und ich spiele Ego-Shooter heute eigentlich selten (bin mehr der Aufbauspiel- oder Strategie-Freak), aber wenn doch mal, dann sterbe ich bei sowas eher selten. Ich bin bei sowas leider kein guter Teamaufgaben-Spieler (also wenn's die Punkte für was anderes als Kills gibt), worauf viele dieser Spiele heute ausgelegt sind - aber großkalibrig auf alles feuern was sich bewegt, das kann ich gut. Auch mit 60fps. > Beispielsweise dann, wenn man beim Handy durch eine längeren > Darstellung scrollt. Bei 120Hz wirkt das flüssiger als bei 60Hz. Schwierige Frage, vor allem ob das Handy in diesem Moment überhaupt 60fps (also bei 60Hz auch jeweils ein neues Bild und nicht nur 30 gedoppelte Bilder) erreicht und konstant hält oder ob das Rendern des Inhalts zu Pausen führt. Und dann bliebe auch die Frage, ob sich für einen vergleichsweise kleinen Effekt eine Verdopplung der Leistung lohnt oder ob z.B. 80Hz/fps nicht auch schon genug wären, damit das Bild absolut flüssig erscheint.
Ben B. schrieb: > Schwierige Frage Was auch immer konkret alles dahinter steht: Der entsprechende Schalter hat beim Pixel 7 Pro deutlich sichtbare Auswirkung.
:
Bearbeitet durch User
Ram ist üblicherweise sinnvoll, wenn es a) mehr ist und b) zuverlässig. Wieviel mehr systemtechnisch auf einmal genutzt werden kann, bestimmt oft der Chipsatz. Die spannendere Frage ist eher: welche Modulgrößen sind sinnvoll, gibt es Vorteile bei der Modulkombination? Alles andere ist Firlefanz, früher gab es hier und da Overclocking - da musste der Rest des Systems mitmachen können. Heutzutage (früher aber auch schon) hätte man beim Übertakten zusätzlich ein Kühlungsproblem. Früher: Atari ST übertakten - von 8 Mhz auf 16 Mhz laufen lassen. Da brauchte man Kühlung, warum nicht mit Eisbeuteln kühlen? Wir hatten auf den Quatsch verzichtet, und lieber auf Ramausbau gesetzt. Was gibt es noch? Die FPS, die ich bei Skyrim hatte, waren nicht so dolle (so 20,22, glaube ich) aber recht stabil, da brach nichts ein, wenn mal mehr los war auf dem Bildschirm. Nur in dem Sumpfbereich zwischen Morthal und Einsamkeit brach die Framerate ein, dann hatte ich nur 10 FPS und weniger - teilweise auch mehr, auf jeden Fall ein wenig Dia-Show. Warum das war, konnte ich nicht klären - aber Ramausbau konnte man ausschließen, da der Rest vom Spiel ja weniger auffällig war. Was man außerdem braucht, das ist ein Ram-Test-Programm. Üblicherweise auf einer Linux-Cd/DVD drauf: https://wiki.ubuntuusers.de/memtest/
Rbx schrieb: > Ram ist üblicherweise sinnvoll, wenn es a) mehr ist und b) zuverlässig. > Wieviel mehr systemtechnisch auf einmal genutzt werden kann, bestimmt > oft der Chipsatz. RAM hängt schon sehr lange nicht mehr am Chipsatz, sondern an der CPU. Man kann die Situation aber noch etwas verfeinern, indem man die beiden Kanäle einer RAM-Anbindung mit unterschiedlich grossen Modulen bestückt. Etwa, weil ein Kanal verlötet ist. Bei z.B. 8+32 GB sind dann die ersten 16 GB des physikalischen Adressraums doppelt so schnell wie der Rest.
"Mehr RAM" bewirkt auch nicht immer eine deutliche Erhöhung der Geschwindigkeit. Wenn ein Programm seinen kompletten Arbeitsdatenbestand ins RAM laden kann, dann ist da die Grenze erreicht. Windows macht's dann noch so, daß alles nicht Programmen zugeordnete RAM als Cache verwendet wird, das hat zu Zeiten von rotierenden Festplatten richtig viel gebracht, heute im SSD-Zeitalter verschwindet dieser Vorteil. Bis Arbeitsspeicher wieder um einen so hohen Faktor schneller wird als Festwertspeicher, dauert's noch ein bißchen. Wieviel RAM braucht man heute... Für einen Office-PC mindestens 8GB (funktioniert brauchbar), 16GB sind besser. Für einen Gaming-PC funktioniert 16GB, 8GB sind oft schon zu wenig (führt zu Leistungsverlust). Empfehlen würde ich 32GB, man merkt selbst bei einigen älteren Spielen (z.B. GTA V) einen Unterschied zwischen 16GB und 32GB. Perspektivisch oder wenn man mit so einer Kiste viel Multitasking möchte (z.B. Video-Encoding und gleichzeitig zocken können, Paradebeispiel Streaming), werden 32GB zwingend, in ein paar Jahren 64GB empfehlenswert. Ach ja, vergessen: Wenn man auf Geschwindigkeit Wert legt, dann immer paarige Module einsetzen und Dual-Channel (bzw. Quad-Channel bei den entsprechenden Systemen) nutzen. Single Channel funktioniert und man merkt auch einen Unterschied zwischen zu wenig RAM und ausreichend viel RAM, aber wenn ein Programm das RAM wirklich fordert, macht sich Dual Channel bezahlt.
:
Bearbeitet durch User
(prx) A. K. schrieb: > gibt es vielleicht auch die absolute Zeitwahrnehmung. ;-) Ja richtig, das hat dann nix mit Zeitwahrnehmung zu tun, sondern mit purem Geld. VRay ist da zwar nun nen blödes Beispiel des Users, da dieses über die GPU läuft. Aber z.b. Cycles speichert aus der GPU über das System RAM zurück. Bei einer Animation von 10k Frames zu je 10min je Frame... Rechne dir da mal 1% aus. Im übrigen amortisiert sich da aktuelle gerade die ollen Mining Rigs als Renderengins ganz akut.. 😉
Rene K. schrieb: > Ja richtig, das hat dann nix mit Zeitwahrnehmung zu tun, sondern mit > purem Geld. Aber das merkt man erst, wenn man das Geld zählt, also nachmisst. Und es ging um Unterschiede, die man spitzkriegt, ohne nachzumessen. Etwa 1% Unterschied in der Höhe des Geldscheinstapels. ;-)
(prx) A. K. schrieb: > Etwa 1% Unterschied in der Höhe des Geldscheinstapels. ;-) Auch nur dann, wenn die Maschinenstunden das einzige sind, was Geld kostet.
Schnelleres RAM benoetigt gelegentlich auch mehr Spannung. Wenn das Mainboard die nicht parat hat, laeuft es zwar etwas schneller, aber nur instabil. Ein Bekannter musste seinen RAM dann zweimal kaufen. Das hat ihn zuverlaessig geheilt.
Harald K. schrieb: > Performancegewinne unter 50% aber kann man allenfalls messen, aber nicht > spüren. Stimmt, aber das interessiert die Overclocker nicht. Die brauchen nur einen Grund, monströse Kühler zu rechtfertigen. Wer vernünftig ist, wartet einfach ein halbes Jahr, dann gibt es die gleiche Leistung mit weniger Stromverbrauch in einem Standard-Aufbau.
Max M. schrieb: > Schonmal in die Kompatibilitätsliste geguckt? > https://www.gigabyte.com/de/Motherboard/Z790-UD-AC-rev-10/support#support-memsup Habe ich gemacht und meine ausgewählten Speicher leider nicht gefunden. Aber viele andere Modelle vom gleichen Hersteller. Muß ich mir sorgen machen, wenn ich ihn trotzdem bestelle. Das gleiche Modell mit höherer Latenz ist in der List. Ich würde gern diesen Speicher nehmen: G.SKILL Trident Z5 NEO Series 32GB (2 x 16GB) 288pin SDRAM DDR5 5600 (PC5-44800) CL28-34-34-89 1, 35V Dual Channel Desktop Memory Modell F5-5600J2834F16 GX2-TZ5 N https://www.amazon.de/gp/product/B0BFC5WDJ6 Die 4800'ter haben alle so hohe Latenzen. Wäre es überhaupt ein Übertakten: Hier steht, daß 5600 der Standard Takt für den 13600k ist. > When using DDR5 memory, the Core i5 13600K CPU officially supports > memory speeds up to 5600 MT/s. This maximum speed means that stock > DDR5 performance will be maximized using DDR5-5600 memory. https://www.techreviewer.com/best-tech/intel-13600k-ram/#which-ram-is-compatible-with-the-core-i5-13600k
:
Bearbeitet durch User
Be B. schrieb: > Die 4800'ter haben alle so hohe Latenzen. Und die hohen Latenzen wirken sich objektiv wie aus? Also so wirklich realistisch, nicht auf dem Papier.
Ich A. schrieb: > Und die hohen Latenzen wirken sich objektiv wie aus? Kommt auf das Programm an. Optimierte Massendatenverarbeitung interessiert sich mehr für den Durchsatz. Manche anderen Programme interessieren sich mehr für die absolute Latenz - etwa bei pointer chasing. Bei der Latenz muss man natürlich etwas rechnen, denn relevant sind ggf die Nanosekunden, nicht die Taktzyklen. 40 Takte zu 10ns sind ebenso 400ns, wie 50 Takte zu 8ns (willkürliche Zahlen).
:
Bearbeitet durch User
Be B. schrieb: > Wäre es überhaupt ein Übertakten: Kommt darauf an, für manche ist es erst "Übertakten", wenn Flüssigstickstoff im Spiel ist, für andere ist es schon "Übertakten", wenn man im UEFI das XMP-Profil für den Speicher lädt. Wenn Intel sagt, dass ihr Speichercontroller problemlos auf 5600 übertaktet werden kann bzw. das von sich aus standardmäßig tut, wenn der Mainboard-Hersteller sagt, dass übertakten bis 7600 kein Problem ist, und wenn der Speicherriegel-Hersteller mit DDR5-5600 wirbt, dann wird diese Kombination höchstwahrscheinlich auch mit 5600 funktionieren. Auch wenn es formal betrachtet, rein "auf dem Papier", übertaktet ist. Und wenn die JEDEC dann irgendwann mal, vielleicht in einer Woche, vielleicht in einem Jahr, vielleicht nie, auch DDR5-5600 spezifiziert, ist es plötzlich kein Übertakten mehr, auch ohne dass du irgendeine Einstellung bei dir verändern musst.
:
Bearbeitet durch User
> Und die hohen Latenzen wirken sich objektiv wie aus? > Also so wirklich realistisch, nicht auf dem Papier. Das Erlebnis kann man haben, wenn man mal den/die Cache(s) ausschaltet. Dann hat man immer die volle Latenz. :) Moeglicherweise kommt dann heute sogar das OS in Stolpern vor lauter Timeouts. Auf einem (Barebone-)Controller wird mit Cache aus "schneckig" eine Rennziege. Und das mit gerade mal 4 kByte Cache.
Bitte "Gear down mode" beachten. Such bei deiner CPU die maximale Ram Frequenz für G1 aus. Damit hast du das beste Ergebnis. edit: "G2" geht wohl auch noch bei Intel, dann den Ramtakt nicht unter 6000Mhz
:
Bearbeitet durch User
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.