minimii
Rear Admiral
- Registriert
- Dez. 2020
- Beiträge
- 5.893
So weit ist meiner noch nicht.Syrato schrieb:Und schön geköpft, so kühl
Aber geschliffen ist er 🙈
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
So weit ist meiner noch nicht.Syrato schrieb:Und schön geköpft, so kühl
Meine 4090 lass ich sogar auf 200W laufen jetzt im Sommer. Leistungsverlust etwa 10% zu @stock. Dafür bleibt sie ruhig in jeder LebenslageGarack schrieb:Ich hab ne 4090 die ist sweet im spot, säuft so 250 W im mittel aller games bisher
Siehe mein Post. Ein besseres Perf/Watt Verhältnis bekommt man höchstens mit einer 4070 noch hin. Stromverbrauch in Euro ist mir da relativ, ich will das die Kiste leise bleibt. Eine 200-250W CPU wird aber selbst mit nem großen noctua nicht wirklich leise. Aber man kann es ja nach eigenem Gusto einstellen, von daher ganz entspannt. Intel hat gerade gute Konkurrenzfähigke CPUs. Ist doch auch wieder schön.Xedos99 schrieb:Ich verstehe das ganze Gemecker nicht.Wer Leistung und Sparsamkeit haben will,kann sich
doch z.B. den 13900t kaufen.Für die Anzahl Kerne und Rechenleistung sind doch 35-60 W
optimal.Die CPU natürlich mit einer 4090 zu betreiben verbietet sich dann wohl.Aber kann
man ja trotzdem machen.
Einmal T Cpu im Desktop gehabt, wegen "Stromsparens", NIE wieder !Xedos99 schrieb:Ich verstehe das ganze Gemecker nicht.Wer Leistung und Sparsamkeit haben will,kann sich
doch z.B. den 13900t kaufen...
Wir sind wieder in den Vor-Zen-Zeiten angekommen.wern001 schrieb:Stromverbrauch ist den Herstellern doch total egal! Hauptsache mehr Performance um jeden Preis. Wie das ganze absurd geworden ist, sieht man am besten bei den Grafikkarten
Und da kommen wir langsam zum Kern des Pudels. Mit einem großen Gehäuse und guten Airflow kriegst Du Deine 4090 und den 13900K ganz sicher gekühlt. Aber miss mal den Energieverbrauch an der Steckdose, kann ja das ganze System sein. Wenn Du die CPU und die 4090 nicht einbremst, zieht der Rechner kurzzeitig bestimmt 800 W. Und dadurch wird es schön warm.RogueSix schrieb:Das war mit Abstand die lauteste Komponente, aber seit ich das ASUS Netzteil drin habe... ein Traum.
Den Hebel holst Du auch an anderer Stelle. Alleine eine Frame Limiter, um in der Gsync Range zu bleiben + DLSS knallen den Verbrauch nach unten.user_zero schrieb:
Je nach Spiel aber unterschiedlich performant bei unterschiedlicher Effizienz. Und das entfacht nicht nur Fanboy Diskussionen sondern eben auch technische fachliche Kontroversen.ddoren schrieb:Die Liefern beide, wenn es ums Zocken geht
Du hastebs doch erkannt. Was fehlt zum Verständnis?Simanova schrieb:So richtig verstehe ich Intels Ansatz nicht. Wenn man viel Leistung / Watt will, reduziert man den Takt und fügt weitere Kerne hinzu. Das wäre dann optimal für Workstations.
Will Intel nicht. Sie wollen eine Allround-CPU. Und das haben sie. Mehr als 8 Kerne nutzt kaum ein Spiel sinnvoll aus.Simanova schrieb:Wenn Intel eine Gaming CPU will, dann muss maximaler Takt auf 8 Kernen und ein großer Cache her. Kein Mensch braucht 16 E-Cores für Gaming. Völliger Schwachsinn - da würden 4 E-Cores dicke ausreichen.
L3? Sind 36 MB.Simanova schrieb:PS: Und wieder nur 32MB Cache im Top Modell.
Und... Da reicht ein 7950x @142 Watt im Eco Mode, um im multicore auf Augenhöhe zu sein...Taurus104 schrieb:Also 21% im Best Case wenn die E Cores relevant sind. Ansonsten sprechen wir hier wohl eher von 3-5%. Sehe ich persönlich eher ernüchternd. Abseits von extremen Mehr-Kern Szenarien.
Da ist der Bias wohl eher bei Sven. Die 30 W sind der Unterschied unter Vollast und nicht Single Thread. Die Überschrift ist also komplett falsch. Typischer clickbait.iNFECTED_pHILZ schrieb:Das ist der Volker Intel bias von dem ich spreche 😀