Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Aus der Community: Erfahrungen zum Umstieg von i5-3450 auf R7 7800X3D
- Ersteller andi_sco
- Erstellt am
- Zur News: Aus der Community: Erfahrungen zum Umstieg von i5-3450 auf R7 7800X3D
- Registriert
- Jan. 2018
- Beiträge
- 18.832
Hilfreicher wäre da sicherlich mal ein Vergleich, der über eine Woche lang die Verbräuche aufzeichneteRacoon schrieb:Daher muss sich AMD hier mit Intel messen und darf sich da auch Kritik einfangen.
Tornavida
Rear Admiral
- Registriert
- Okt. 2020
- Beiträge
- 5.325
Ah wieder die geile Idle Stromverbrauchsdiskussion oder wieviel sparsamer doch die AMD CPU beim Gamen ist.
War schon mal schlimmer ,meine der 5900x hat doch deutlich mehr in HWI angezeigt als der 7800x3d. Der bewegt sich um 28W. Der 12900k ist da eher um 6 bis 8 W. So riesig ist auch der Unterschied in den meisten Games auch net. Hier ist der 7800x3d schon sparsamer, meistens um 20 bis 30W. CP77 scheint ein ordentlicher Ausreisser zu sein, da sind es deutlich mehr beim 12900k.
Insgesamt Nix worüber es sich zu diskutieren lohnt bei den Kosten für die Hardware. Wer so aufs Geld schauen muss , sollte sich wohl eher nicht eine CPU um 500Euro und einen Oled anschaffen,ganz zu schweigen von einer High End GPU.Ich finde Effizienz ja auch gut aber mit der Differenz der Systeme wird jedenfalls die Welt nicht zu retten sein.
War schon mal schlimmer ,meine der 5900x hat doch deutlich mehr in HWI angezeigt als der 7800x3d. Der bewegt sich um 28W. Der 12900k ist da eher um 6 bis 8 W. So riesig ist auch der Unterschied in den meisten Games auch net. Hier ist der 7800x3d schon sparsamer, meistens um 20 bis 30W. CP77 scheint ein ordentlicher Ausreisser zu sein, da sind es deutlich mehr beim 12900k.
Insgesamt Nix worüber es sich zu diskutieren lohnt bei den Kosten für die Hardware. Wer so aufs Geld schauen muss , sollte sich wohl eher nicht eine CPU um 500Euro und einen Oled anschaffen,ganz zu schweigen von einer High End GPU.Ich finde Effizienz ja auch gut aber mit der Differenz der Systeme wird jedenfalls die Welt nicht zu retten sein.
Zuletzt bearbeitet:
@Daniel D.
Habe gerade nochmal meinen 13700K (+4090) gemessen (Steckdose):
Idle: 49W
Youtube Fullscreen(4K@60Hz): 57W (dieses Video)
Hast Du Lust auf einen Vergleich ohne GPU, also nur mit iGPU?
Habe gerade nochmal meinen 13700K (+4090) gemessen (Steckdose):
Idle: 49W
Youtube Fullscreen(4K@60Hz): 57W (dieses Video)
Hast Du Lust auf einen Vergleich ohne GPU, also nur mit iGPU?
Da ich nirgendwo PCIe 5 benötige, zudem kein WLAN, BT o.ä. späße und sogar ein m.2 Slot reicht, fehlt mir und den Arbeitsplätzen nichts. Aber jeder wie er es braucht.Daniel D. schrieb:Nur so nebenbei: Für ein 620er hätte ich kein Geld ausgegeben, da fehlt mir zu viel. (Ich weiß, dass es ein Beispiel von Dir war) Im BIOS schaue ich mich noch einmal um und vergleiche verschiedene Einstellungen.
Die Einstellungen findest du z.T. versteckt unter AMD CBS o.ä.
Die iGPU sollte sich übrigens abschalten, wenn eine GPU steckt und die Ausgänge nicht verwendet werden. Der Unterschied wundert mich also nicht.
Es gibt aber noch PCIe L1 & L2 Stromsparirgendwas (s.o. CBS...?)
Hat er so nicht geschrieben. ;-)Telechinese schrieb:Na ned der "Sockel", sondern die "Plattform" 😉👍
Wobei das ja nicht eine Plattform ist, sondern diverse.
Bei AM4 gab es diverse Plattformen von der 300er bis zur 500er Serie - da wird bei AM5 mutmaßlich auch noch was kommen. Den AM5 gleich zu verrufen halte ich für kompetenzschwierig.
Ergänzung ()
JEDEC wird seinen Grund haben warum das so ist. Anders aufgerollt:CDLABSRadonP... schrieb:Da wäre ich mir nicht so sicher. Die JEDEC-Standards sind immerhin ziemlicher Mist und es ist schade, dass die JEDEC nicht mal langsam die Kurve kriegt und auch Varianten mit ordentlichen Timings bei Standard-Spannung spezifiziert. Das hätte schon zu DDR3-Zeiten, spätestens zu DDR4-Zeiten geschehen sollen, aber es ist immer noch keine Spur davon zu sehen!
Wie viele "OC" Module kennst du, die mit 1,1 V arbeiten?
Es ist ja nicht so, als ob es verboten sei z.B. XMP Profile mit stärferen Timings bei gleicher Spannung anzubieten.
Aus Neugier habe ich gerade mal geschaut: Es existieren ein paar wenige SO-DIMM, die tatsächlich mit niedrigeren Latenzen arbeiten:
https://www.heise.de/preisvergleich/?cat=ramddr3&xf=2396_1.1V~2506_1.1~255_38~5015_5200~5828_DDR5~5830_DIMM
...die einzigen Module:
https://www.gskill.com/specificatio...A16GX1-RS-F5-5200S3838A16GA1-RS-Specification
Wenn die JEDEC grundlos zu hohe Latenzen wählen würde, wäre da sicher viel mehr zu finden.
Zuletzt bearbeitet:
Pleasedontkill
Lieutenant
- Registriert
- Nov. 2008
- Beiträge
- 537
Habe nur eine 9 Jahre alte CPu die i7 5820k.
Bis jetzt, bin ich noch nicht überzeugt einen Neukauf zu tätigen.
Ausser bei Warzine2, stehen meine Game alle auf GPU Power.
Vielleicht nächstes Jahr
Bis jetzt, bin ich noch nicht überzeugt einen Neukauf zu tätigen.
Ausser bei Warzine2, stehen meine Game alle auf GPU Power.
Vielleicht nächstes Jahr
Das kann aber nicht hinkommen mit dem idle Verbrauch. Ist das belegt und AM5 berüchtigt dafür? Kann ich mir schwer vorstellen. Hätte als erstes gedacht, dass ein Energieprofil falsch eingestellt ist, gibt ja Einstellungen im OS als auch im Bios. Oder die GPU taktet nicht ganz runter und zieht die ganze Zeit über 30 Watt...kommt auch öfter mal bei Leuten vor. Dem würde ich mal auf den Grund gehen.StefanArbe schrieb:33 Watt höherer Idle stromverbrauch, deswegen lassen ich AM5 definitiv aus.
- Registriert
- Jan. 2018
- Beiträge
- 18.832
@Pleasedontkill mit 12 Threads ja nochmal eine ganz andere Hausnummer, als der 3000er i5 hier
Nixdorf
Vice Admiral
- Registriert
- Nov. 2009
- Beiträge
- 6.462
Silencium schrieb:Wenn ich sehe wo Apple im Idle liegt und was an Effizienz allgemein möglich wäre, dann ist auch mir das zu hoch.
Die X86-Architektur ist nicht an sich ineffizient.Silencium schrieb:weg von dem Uraltzeug x86.
Effizienz ist auch immer eine Frage des optimalen Arbeitspunkts (Sweet Spot) der CPU. Ein M2 Max holt im Cinebench R23 14810 Punkten aus 35W, was 423 Punkte pro Watt sind. Der Z1 Extreme im ROG Ally als konsequent auf niedrigen Verbrauch optimierter Prozessor holt 9020 Punkte aus 15W, was mit 601 Punkten pro Watt satte 42% effizienter als die ach so überlegene ARM-Architektur ist. Bei 35W sind es dann 14173 Punkte, was mit 405 Punkten pro Watt etwas hinter Apple liegt, aber auch nur etwa 4%. Da liegt der Ryzen aber auch schon deutlich oberhalb seines Sweet Spots.
Man kann also auch X86 durchaus genau so effizient wie die derzeit beste ARM-Architektur bauen. Und in Notebooks, SFF-PCs und Geräten wie der oben genannten Handheld-Konsole sieht man das auch durchaus. Die Macs mit M-Prozessoren sind von der Bauart solchen Geräten näher als klassischen Desktops.
Vergleichsweise ineffizient wird es nämlich genau bei diesen. Dort steigt zum einen der Basisverbrauch im Idle stark an, was an der Menge an zusätzlichen Komponenten liegt, die oft verbaut sind. Zum anderen quetscht ja gerade Intel dann noch die letzten Prozent Performance aus dem Silizium, indem z.B. ein 13900K dann über 300W verbrauchen darf. Da ignoriert man bewusst Effizienz zugunsten maximaler Leistung.
- Registriert
- Jan. 2018
- Beiträge
- 18.832
Was auch die Effizienz Kerne von intel zeigen.Nixdorf schrieb:Die X86-Architektur ist nicht an sich ineffizient.
Ich weiß, die sind hier ein ungeliebtes Kind, haben aber ihre Daseinsberechtigung.
AVX und große Caches sind nicht überall von Vorteil.
A
Anonymous209
Gast
das ist aber eine derbe milchmädchenrechnung. du hast das TDP genommen und setzt das mit den cinebench punkten gleich..Nixdorf schrieb:Die X86-Architektur ist nicht an sich ineffizient.
Effizienz ist auch immer eine Frage des optimalen Arbeitspunkts (Sweet Spot) der CPU. Ein M2 Max holt im Cinebench R23 14810 Punkten aus 35W, was 423 Punkte pro Watt sind. Der Z1 Extreme im ROG Ally als konsequent auf niedrigen Verbrauch optimierter Prozessor holt 9020 Punkte aus 15W, was mit 601 Punkten pro Watt satte 42% effizienter als die ach so überlegene ARM-Architektur ist. Bei 35W sind es dann 14173 Punkte, was mit 405 Punkten pro Watt etwas hinter Apple liegt, aber auch nur etwa 4%. Da liegt der Ryzen aber auch schon deutlich oberhalb seines Sweet Spots.
Man kann also auch X86 durchaus genau so effizient wie die derzeit beste ARM-Architektur bauen. Und in Notebooks, SFF-PCs und Geräten wie der oben genannten Handheld-Konsole sieht man das auch durchaus. Die Macs mit M-Prozessoren sind von der Bauart solchen Geräten näher als klassischen Desktops.
Vergleichsweise ineffizient wird es nämlich genau bei diesen. Dort steigt zum einen der Basisverbrauch im Idle stark an, was an der Menge an zusätzlichen Komponenten liegt, die oft verbaut sind. Zum anderen quetscht ja gerade Intel dann noch die letzten Prozent Performance aus dem Silizium, indem z.B. ein 13900K dann über 300W verbrauchen darf. Da ignoriert man bewusst Effizienz zugunsten maximaler Leistung.
Nixdorf
Vice Admiral
- Registriert
- Nov. 2009
- Beiträge
- 6.462
Das habe nicht ich so gewählt, das wählen zahlreiche Publikationen so. Der Cinebench ist eine der meistgenutzten Metriken zur Ermittlung der Effizienz von CPUs, also Performance pro Watt. Die Top-500-Liste nimmt den Linpack, aber da geht es nicht um einzelne Prozessoren, sondern um komplette Superrechner. Auch die SPEC-Suite wird gerne genutzt, aber die ist eher IPC-lastig und achtet weniger auf Effizienz. Natürlich kann man sich auch irgendwas anderes suchen, das die Einheiten eines Prozessors möglichst vollumfänglich nutzt, aber auf irgendetwas muss man sich halt einigen.
Und nein, es wurde nicht die TDP genommen, sondern das jeweilige Power Limit, welches in den genannten Fällen auch ausgeschöpft wird.StefanArbe schrieb:du hast das TDP genommen
Replay86
Lt. Commander
- Registriert
- Mai 2015
- Beiträge
- 1.953
Hab nach 8 Jahren i7 4790K aufgerüstet. Das System hat eine Menge gesehen und erlebt. Erst 8GB RAM, dann aufgerüstet auf 16GB und zu guter lest 32GB RAM 2400Mhz DDR3 Quad Kit.Pleasedontkill schrieb:Habe nur eine 9 Jahre alte CPu die i7 5820k.
Bis jetzt, bin ich noch nicht überzeugt einen Neukauf zu tätigen.
Ausser bei Warzine2, stehen meine Game alle auf GPU Power.
Vielleicht nächstes Jahr
Hat paar Grafikkarten gesehen das System. GTX 750 Ti / GTX 970 / GTX 1080 / und kurze Zeit RTX 3090 Ti.
Hab damals auch die CPU geköpft, extra vom Bauer diesen Köpfer gekauft. 30€ einmal benutzt das Ding.
4 Kerne 8 Threads waren in Games am Ende. Hab es besonders bei Cyberpunk 2077 gemerkt. Aber erstaunlich, was dieses System noch geleistet hatte.
Hab jetzt ein 13900K mit DDR5 64GB und nach wie vor eine RTX 3090 Ti. Hab den Leistungsboost schon auf dem Desktop gemerkt. Bei den Games erst recht.
Wenn nichts kaputtgeht, wird das System denke ich um die 10 Jahre hier bleiben. RAM vielleicht eines Tages noch auf 128GB aufrüsten und Grafikkarte natürlich.
Mein altes System hab ich meinen Eltern geschenkt.
A
Anonymous209
Gast
du musst halt den wahren stromverbauch nehmen, nicht TDP.Nixdorf schrieb:Das habe nicht ich so gewählt, das wählen zahlreiche Publikationen so. Der Cinebench ist eine der meistgenutzten Metriken zur Ermittlung der Effizienz von CPUs, also Performance pro Watt. Die Top-500-Liste nimmt den Linpack, aber da geht es nicht um einzelne Prozessoren, sondern um komplette Superrechner. Auch die SPEC-Suite wird gerne genutzt, aber die ist eher IPC-lastig und achtet weniger auf Effizienz. Natürlich kann man sich auch irgendwas anderes suchen, das die Einheiten eines Prozessors möglichst vollumfänglich nutzt, aber auf irgendetwas muss man sich halt einigen.
wenn AMD tatsächlich mal eine effiziente CPU für den desktop bringen würde, das wäre ja super.
Nixdorf
Vice Admiral
- Registriert
- Nov. 2009
- Beiträge
- 6.462
Das habe ich oben schon ergänzt: Es handelt sich um die Power Limits, nicht die TDP. Das Wort TDP steht in dem Beitrag auch gar nicht.StefanArbe schrieb:du musst halt den wahren stromverbauch nehmen, nicht TDP.
A
Anonymous209
Gast
bringt dich trotzdem nicht weiter. es bringt dich nur der wahre, tatsächliche stromverbrauch weiter.