Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test AMD Ryzen 7 5800X3D im Test: Effizienter Gaming-Spezialist
- Ersteller Volker
- Erstellt am
- Zum Test: AMD Ryzen 7 5800X3D im Test: Effizienter Gaming-Spezialist
Sapphire Fan
Commander
- Registriert
- Jan. 2006
- Beiträge
- 2.684
Tolle CPU die AMD da geschaffen hat. Mit 91 Grad Spitzentemperatur aber wieder relativ heiß wie ich finde. Ich bleibe bei meiner für mich persönlich perfekten CPU aktuell, der Intel Core i5 12600k :-). Also ich meine, den hätte ich gerne...aktuell bin ich aber noch nicht wirklich unzufrieden mit meinem ollen 10400 ;-)
snickii
- Registriert
- Aug. 2014
- Beiträge
- 15.338
Die erreichst du als normaler Spieler mit einem Mesh Gehäuse und Lüftkühlung eher nicht.Sapphire Fan schrieb:Tolle CPU die AMD da geschaffen hat. Mit 91 Grad Spitzentemperatur aber wieder relativ heiß wie ich finde.
In meinem Pure Base 500 (geschlossen vorne) hat mein 5900X mit dem Dark Rock Pro 4 auch 89 Grad geschafft beim zocken. Jetzt mit dem Phanteks 500A hängt er bei 75-79 maximal.
Sapphire Fan
Commander
- Registriert
- Jan. 2006
- Beiträge
- 2.684
Die Frage ist ja, wie viel Einfluss das Die-Stacking auf die Temperaturen wirklich hat. Für den X3D würde ich das so pauschal noch nicht behaupten wollen, sondern dass auch mit als Grund für den niedrigen Takt vermuten.snickii schrieb:Die erreichst du als normaler Spieler mit einem Mesh Gehäuse und Lüftkühlung eher nicht.
der Unzensierte
Vice Admiral
- Registriert
- Juni 2009
- Beiträge
- 6.987
Hammer- Teil, da ist der Legendenstatus quasi vorprogrammiert. Nicht auszudenken wie das Duell wohl ausgeht wenn alle Protagonisten bei gleicher Wattage gedeckelt werden.
Da fallen mir so einige andere CPU ein (für was steht KS eigentlich - kaum schneller?) die deutlich überflüssiger im Gaming-Bereich sind. Alleine durch die Effizienz - und dann noch die Plattformkosten (in allen Punkten preiswerter, läuft auf 5 Jahre alten Brettern und ist ganz vorne dabei - wtf?) - hat AMD hier ein Produkt gebracht was deutlich ressourcenschonender seinen Dienst verrichtet. Hätte sich AMD das sparen (und Intel ersparen) können? Ganz sicher nicht.wertertzu schrieb:Hätte sich AMD sparen können...
Zuletzt bearbeitet:
wahli
Admiral
- Registriert
- Feb. 2010
- Beiträge
- 9.361
Ich habe erst kürzlich eine RX 6600 XT gekauft und die muss für ein paar Jahre reichen. Genauso mein 5800X, den ich noch gar nicht verbaut habeVitali.Metzger schrieb:@wahli
Wenn die nächste GPU Genartion aber 100% drauf packen sollte, dann sieht es vielleicht etwas anders aus.
Von daher wird es in ein paar Jahren sicherlich was besseres und schnelleres als einen 5800X3D geben (Zen 4 oder höher).
t3chn0
Fleet Admiral
- Registriert
- Okt. 2003
- Beiträge
- 10.247
Eigentlich habe ich gar keinen Bock so viel zu tippen, weil ich noch im Bett liege .
Ich glaube das Zen4 ein böses Erwachen für einige wird. Raptor Lake und ZEN4 werden sehr ähnlich unterwegs sein. Zen4 kommt ohne 3D Cache und wird dennoch schneller sein.
Das erreicht AMD über die Gesamtplattform. Höhere IPC, schnelleres IF, DDR5 und mehr Allcore Takt. Das wird definitiv zu Lasten des Verbrauchs gehen.
Das "Cache Game" ist die Büchse der Pandorra fürs Gaming, zumindest der L3 Victim Cache.
Wie man hier aber doch auch gut sehen kann, liegt Intel bei einer nicht unerheblichen Anzahl von Spielen auch noch recht deutlich vorne. Das wird unter den Tisch gekehrt.
Intel ist ja nicht dumm (gut, manchmal schon..).
Im Zweifelsfall wird man eine ähnliche Technologie anbieten. Nicht in den kommenden zwei Generationen, aber das Feld wird man AMD niemals überlassen.
Dann heulen zwar alle rum, das Intel etwas kopiert hat, aber AMD wird halt perspektivisch auch auf BIG.little umstellen müssen.
Ich wünsche einen schönen Karfreitag.
Ich glaube das Zen4 ein böses Erwachen für einige wird. Raptor Lake und ZEN4 werden sehr ähnlich unterwegs sein. Zen4 kommt ohne 3D Cache und wird dennoch schneller sein.
Das erreicht AMD über die Gesamtplattform. Höhere IPC, schnelleres IF, DDR5 und mehr Allcore Takt. Das wird definitiv zu Lasten des Verbrauchs gehen.
Das "Cache Game" ist die Büchse der Pandorra fürs Gaming, zumindest der L3 Victim Cache.
Wie man hier aber doch auch gut sehen kann, liegt Intel bei einer nicht unerheblichen Anzahl von Spielen auch noch recht deutlich vorne. Das wird unter den Tisch gekehrt.
Intel ist ja nicht dumm (gut, manchmal schon..).
Im Zweifelsfall wird man eine ähnliche Technologie anbieten. Nicht in den kommenden zwei Generationen, aber das Feld wird man AMD niemals überlassen.
Dann heulen zwar alle rum, das Intel etwas kopiert hat, aber AMD wird halt perspektivisch auch auf BIG.little umstellen müssen.
Ich wünsche einen schönen Karfreitag.
Dr@gonXP
Lieutenant
- Registriert
- Nov. 2001
- Beiträge
- 761
Gamefaq schrieb:Bios Updaten, alten 2700x raus den 5800X3D rein, dazu zeitgemäßen DDR4 RAM (hab "nur" 3000er drin da der ja für den 2700x das Optimum ist und bis heute Problemlos läuft)
RAM kannst du auch drin lassen. Offiziell unterstützt der 5800X3D 3200-er Ram, so wie auch hier getestet. Das ist nicht viel mehr als 3000, die du hast. Da lohnt sich nicht den Ram zu ersetzen. Zumal der x3D durch den großen Cache, den etwas langsameren Speicher ganz gut ausgleichen kann...
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.174
snickii schrieb:Die erreichst du als normaler Spieler mit einem Mesh Gehäuse und Lüftkühlung eher nicht.
In meinem Pure Base 500 (geschlossen vorne) hat mein 5900X mit dem Dark Rock Pro 4 auch 89 Grad geschafft beim zocken. Jetzt mit dem Phanteks 500A hängt er bei 75-79 maximal.
Oder Auslese Fehler andere Seiten haben nicht soviel aber was auffällt mit einer RX6900XTX verbrät der Intel noch viel mehr warum ist dass so.
LukS
Rear Admiral
- Registriert
- Dez. 2009
- Beiträge
- 5.140
Beim Rest stimme ich zu, aber warum sollte man zwangsweise auf BigLittle umstellen müssen?t3chn0 schrieb:Dann heulen zwar alle rum, das Intel etwas kopiert hat, aber AMD wird halt perspektivisch auch auf BIG.little umstellen müssen.
Was wenn AMD etwas entwickelt um teile seiner Kerne so abzuschalten, dass er ein "Little" Kern ist und bei bedarf ein Big.
Was wenn die Kerne noch effizienter gestaltet werden?
Was wenn einfach alte Teile fallen gelassen werden, welche effizienz kosten?
Was wenn man die Kerne anders gestalten kann, um strom zu sparen, wenn wenig last drauf ist?
Also es gibt da sicher einige Möglichkeiten, wie man die Kerne effizienter gestalten kann ohne gleich auf BigLittle umstellen zu müssen.
Ist ja nicht so, dass BigLitte nur vorteile hat.
Einen Zwang in richtung BigLittle sehe ich noch nicht. Ich glaub solange man alles in einem großen Effizienten Kern unterbringen kann, wird man das auch machen.
Mal schauen wie sich das entwickelt.
CrustiCroc
Lt. Commander
- Registriert
- Nov. 2014
- Beiträge
- 1.957
Ja, ist ja gut...wir wissen jetzt das du Intel wie die Pest hasst ! :-DGortha schrieb:Wiederhole mich zwar, aber R.I.P. @ Gaming 12900K(S)^^
AMD liefert wie versprochen das Ergebnis was sie auch versprochen haben.
Wenn man das Teil mit IF1900+ betrieben kann und gutem SpeicherOC Setup, sieht der 12900XX die Rücklichter Well Done AMD.
Und das mit nur einem Bruchteil der Leistung und Hitze die wegzukühlen ist!
Danke für das Review.
Davon ab ist deine R.I.P Aussage völlig übertrieben. Gehts noch ?
MiniM3
Lt. Commander
- Registriert
- Dez. 2007
- Beiträge
- 1.305
Es ist natürlich die Frage offen warum diese cpu so viel weniger verbraucht bzw. herunter getaktet ist... Ist schon irgendwie verschenkte Leistung, man hätte ja eher mehr Verbrauch erwartet.
Es wird sicherlich eine technische Grenze sein.
Wenn diese Technologie richtig ausreift und die cpus unterstützen kann ohne das diese gedrosselt werden müssen dann wird das ein krasser Sprung sein... Bzw. Noch krasser als jetzt.
Ich meine..
"hej kleben wir da mal noch bissl Cache auf dem Cache und machen ein bisschen microcode dazu"
bääm 20% spieleleistung... Das ist schon heftig
Sonst braucht man für sowas ne neue cpu Generation oder mehr
Good job
Es wird sicherlich eine technische Grenze sein.
Wenn diese Technologie richtig ausreift und die cpus unterstützen kann ohne das diese gedrosselt werden müssen dann wird das ein krasser Sprung sein... Bzw. Noch krasser als jetzt.
Ich meine..
"hej kleben wir da mal noch bissl Cache auf dem Cache und machen ein bisschen microcode dazu"
bääm 20% spieleleistung... Das ist schon heftig
Sonst braucht man für sowas ne neue cpu Generation oder mehr
Good job
CrustiCroc
Lt. Commander
- Registriert
- Nov. 2014
- Beiträge
- 1.957
Stimme dir 100 % zu ! Einfach nur Kindergarten.Creeping.Death schrieb:Wenn ich solche Kommentare lese, dann stelle ich mir immer vor, wie der Autor dieser Zeile gerade im Sandkasten mit Mona aus der Sternengruppe spielt.
Das ist doch kindisch. Ja, der 5800X3D ist - wie erwartet - ein sehr interessanter Prozessor, der bei relativ wenig Leistungsaufnahme exzellente Gaming-Leistung liefert. Aber muss man deswegen solche Sprüche kloppen?
Aber lese einfach seine Kommentare, dann erkennt man relativ schnell das man den Typ auch nicht all zu Ernst nehmen sollte.
Das sind einfach Trolle.
Zwirbelkatz
Fleet Admiral
- Registriert
- Juni 2006
- Beiträge
- 44.007
Nun kennen wir also den Grund dafür, dass Intel sich zum Himmel streckt.
Mein Worst-Case-Szenario sind die Ladezeiten von Diablo2 Ressurected. Da ich lediglich ein B450 ohne pcie-4.0 habe und nicht weiß, ob der 5800x3D überdies dort skaliert, bin ich reichlich skeptisch.
Vielleicht den guten DDR4-Ram doch lieber auf AM5 mitnehmen? Vermutlich wird das ja funktionieren. Einen Raptor Lake i3 13100kf fände ich aber auch noch geil ...
Der 5800x3D ist eine tolle CPU, die ihre Abnehmer finden wird. Selbst zu diesem Preis. Für Nutzer von Ryzen 1xxx muss das Upgrade eine regelrechte Messe sein.
Mein Worst-Case-Szenario sind die Ladezeiten von Diablo2 Ressurected. Da ich lediglich ein B450 ohne pcie-4.0 habe und nicht weiß, ob der 5800x3D überdies dort skaliert, bin ich reichlich skeptisch.
Vielleicht den guten DDR4-Ram doch lieber auf AM5 mitnehmen? Vermutlich wird das ja funktionieren. Einen Raptor Lake i3 13100kf fände ich aber auch noch geil ...
Der 5800x3D ist eine tolle CPU, die ihre Abnehmer finden wird. Selbst zu diesem Preis. Für Nutzer von Ryzen 1xxx muss das Upgrade eine regelrechte Messe sein.
Angeblich liegts an den 1,35v; um den Cache zu schonen.MiniM3 schrieb:Es ist natürlich die Frage offen warum diese cpu so viel weniger verbraucht bzw. herunter getaktet ist...
Phobsen
Lt. Junior Grade
- Registriert
- Nov. 2009
- Beiträge
- 417
AMD hat doch mit dem 5800X3D soeben eindrucksvoll bewiesen das sie kein BIG.little benötigen.t3chn0 schrieb:
Wurde ähnliches nicht auch in der ersten Präsentation des 5800X3D von ihnen so kommuniziert ?
Für mich persönlich ist das Bug.little Prinzip bei Intel aus der Not heraus geboren.
AMD ist mit immer mehr Kernen vorangeprescht, während man selber Schwierigkeiten hatte mehr als 8 Kerne vernünftig auf einen Die zu bekommen.
Da geht entweder mehr Takt bei mehr Leistungsaufnahme, oder mehr Kerne bei weit geringeren Takt.
Hoher Takt und viele Kerne bei moderater Leistungsaufnahme gibt der Intel7 aktuell wohl einfach nicht her.
Zuletzt bearbeitet von einem Moderator:
Ähnliche Themen
- Antworten
- 287
- Aufrufe
- 26.420
- Antworten
- 87
- Aufrufe
- 21.296
- Antworten
- 810
- Aufrufe
- 132.768
- Antworten
- 15
- Aufrufe
- 1.622
- Antworten
- 8
- Aufrufe
- 1.336