Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestAMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill
Doch, momentan halt (leider) schon. Fast alle Kerne sogar ziemlich auf Anschlag. Ich hoffe wirklich das die nächsten Updates das CPU Limit eher Richtung GPU Limit schieben.
oder anders ausgedrückt: Du hast viel Geld für einen für dich überdimensionierten 13900k rausgeballert, obwohl wahrscheinlich schon ein 5600er oder max ein 5800X3D gereicht hätte. Sehr beeindruckend.
Es muss schlimm um Intel stehen, wenn sich die Fanboys inzwischen ins Preis-Leistungs-Verhältnis retten. Und selbst das gewinnt Intel nur haarscharf (7950X3D 5% teurer, aber 3% schneller als 13900KS) und auch nur dann, wenn man die AMD-UVP zum Launch mit dem Intel-Straßenpreis vergleicht.
Abgesehen davon, dass der Zielgruppe 40€ Aufpreis zum 13900KS sowieso völlig egal sind. Wer aufs Preis-Leistungs-Verhältnis schaut, holt sich zum Zocken weder einen 13900K(S), noch einen 7950X(3D).
schön, dass es endlich Tests & Tatsachen gibt.
So ein richtiges "haben-wollen-Gefühl" kommt in mir noch nicht auf.
Generell würde ich das CPU Limit gerne etwas verschieben, da es ja aktuell doch ein Thema ist. Aber mein Bauch sagt mir, dass ich eher auf einen 13900k setzen würde. Nur ist der Sockel ja schon wieder am Ende was für mich gleichzeitig auch ein klares "nein" für einen Kauf setzt.
Gespannt bin ich auf die Verfügbarkeit morgen. Ich werde wohl die Preisentwicklung der nächsten Monate abwarten und schauen, ob sich das Ganze irgendwann in ein gutes P/L Verhältnis bewegt.
So wie die Average und Maxwerte bei den Leistungsaufnahmen liegen, kann man einen 7950X3D in einem ITX-Zwerg verbauen und auf 65W TDP / 88W PPT reduzieren, ohne dabei wirklich an Leistung zu verlieren.
Wäre da ein AM5 mit iGPU nicht sinniger? Wäre ein spannender Test, wie viel Leistung man da einbüßt und ob sich das dann trotzdem gegenüber einer 7xxxG CPU lohnt. Mein nächster Gamingrechner wird auf jeden Fall kein Tower mehr, deshalb finde ich das durchaus spannend.
Auch bei höheren Auflösungen verbrauchten die CPUs nicht unwesentlich weniger. Du kannst hier also noch locker mit mindestens 50 bis 60 Watt Differenz rechnen.
Kenjiii schrieb:
Wenn ich jeden Tag im Jahr 2h zocke und 40 Watt pro Std. weniger verbrauche, dann hab ich im Jahr ca. 30 Kwh gespart, also satte ~12€. 🤔
Mit angenommenen 60 Watt und 3 Stunden Zocken pro Tag wären das schon rund 65 kWh und somit 26 € pro Jahr. Wenn man die Nutzungsdauer mal mit 4 Jahren annimmt, wären das in diesem Fall schon über 100 € Unterschied. Das ist jetzt nicht astronomisch, aber am Ende schon ein guter Schritt. Vor allem gibt es ja positive Nebeneffekte, wie etwa ein geringerer "Verschleiß" (unter anderem des Netzteils), niedrigere Temperaturen und somit auch eine potenziell geringere Geräuschkulisse. Alles in allem also sehr begrüßenswert, zumal heutzutage ja nicht nur die Kosten, sondern auch die Energiebilanz von Bedeutung sind.
Klar juckt mich das. Warum soll ich neben der CPU schon wieder ein neues Board holen gehen und fünf Stunden an meiner Wakü und dem System rumbasteln wenn der 14900K kommt wenn ich stattdessen auch einfach nur ne neue CPU reinballern kann in 10 Minuten ?
Na komm, wenn der 7950X nächste Gen zu langsam und zu alt wird (schafft er doch nur theoretische 500 fps statt 545 wie der 8590X) kann man sich ja auch dann ein neues Board welches besser zu dem neuesten 8950X passt leisten oder?
ThirdLife schrieb:
Das ist mein Grund für AM5 gewesen. Die Möglichkeit nochmal 1-2 CPUs sicher draufknallen zu können ohne jedesmal einen Riesenaufwand zu haben dabei noch Geld rauszufeuern im Unverstand.
Ich wüsste ja nicht warum man Geld rausfeuern sollte für einen 8950X wenn man schon einen 7950X hat, aber jeder wie er möchte. Für mich persönlich wäre das Geldverbrennerei (nur meine Meinung).
Aber das beiseite, den News zufolge wird LGA1700 wohl weiterhin mit der nächsten Gen supported wenn ein Raptor Lake refresh kommt. Da hättest du also locker auf dein MB genauso einen 14900KS schnallen können wenn der Refresh kommt.
Ich muss sagen: Hatte die CPU Auslastung höher in Erinnerung. Ist mein MP Server bei Sons of the Forest, allerdings bin ich da gerade alleine drauf um nen Screenshot zu machen, vielleicht liegt es auch daran. Muss ich morgen mal schauen wenn wieder Leute drauf sind da mein PC der "Host" ist.
3440x1440, RTX 4090, R9 5900X. Grafikdetails alles auf Anschlag, DLSS auf Performance.
Die 4090 pennt, CPU 1 auf dem Bild bei 80%, CPU9 bei 86%. 65FPS bei 12,9 Frametimes. Die FPS sind avg würde ich sagen. Gibt Szenen da komm ich auf 50-55 FPS, gibt aber auch Szenen da komm ich auf 80-90 FPS.
Die Spieleauswahl ist leider größtenteils mal wieder nur der typische Einheitsbrei. Ich hätte mir mehr Simulationen&co gewünscht, wo man die Stärke dieser Chips sehen kann.
Die Zen 4-Kerne verbrauchen im Idle tatsächlich fast nichts, der Verbrauch kommt fast ausschließlich vom I/O-Die. Die 16 Kerne meines 7950X fressen im Idle zusammen etwa 2 Watt, die Package-Power liegt jedoch bei etwa 20 Watt. Intel liegt hier meines Wissens nach bei etwa 6 bis 7 Watt, somit ist die Differenz auch beim 16-Kerner "nur" bei etwa 13 bis 14 Watt. In Relation ist das natürlich trotzdem unfassbar viel, es ist ja in etwa das 3-fache wie bei Intel. Ich hoffe, dass AMD hier in Zukunft noch nachbessert, der I/O-Die ist echt ein Krampf
Na komm, wenn der 7950X nächste Gen zu langsam und zu alt wird (schafft er doch nur theoretische 500 fps statt 545 wie der 8590X) kann man sich ja auch dann ein neues Board welches besser zu dem neuesten 8950X passt leisten oder?
Nur weil man etwas kann ist es nicht zwingend schlau das zu tun ausser ich hab einen deutlichen Mehrwert.
Klever schrieb:
Ich wüsste ja nicht warum man Geld rausfeuern sollte für einen 8950X wenn man schon einen 7950X hat, aber jeder wie er möchte. Für mich persönlich wäre das Geldverbrennerei (nur meine Meinung).
Weil Spiele gar nicht mein Haupteinsatzgebiet sind. Aber wenn man produktiv damit arbeitet und von CPU zu CPU 25% Leistung holt macht das in der Rechenzeit einen deutlichen Unterschied aus. Mir ist meine Zeit halt wichtig, darum will ich auch nicht jedesmal das Board tauschen und mein Loop zerlegen oder Stunden mit RAM OC verbringen und darum nehme ich gerne zusätzliche Leistung mit.
Zumal man das eben machen kann, gerade WEIL der Sockel das zulässt. Alte CPU verticken, dann nochmal 200€ drauflegen und wieder für ein Jahr ne aktuelle, schnellere CPU.
Ist für mich vertretbarer als jedesmal das halbe System zu tauschen.
Klever schrieb:
Aber das beiseite, den News zufolge wird LGA1700 wohl weiterhin mit der nächsten Gen supported wenn ein Raptor Lake refresh kommt. Da hättest du also locker auf dein MB genauso einen 14900KS schnallen können wenn der Refresh kommt.
Das ist Aufgabe der Grafikkarte nicht der CPU. Was nützt Dir ein 4K Test wenn die CPU nie ins Limit kommt?
Je höher die Auflösung umso weniger Rolle spielt die CPU beim Rendern bzw. hat mehr Luft. Daher ist es richtig dass es mit 720p und weniger getestet wird.
Sieht man auch hier mit RTX 4090 wie minimal die Unterschiede in 4k sind zwischen 9900k bis 13900k
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Feiern könnte man AMD, wenn die die 3D direkt gebracht hätten. Insofern können sich die AMD Fanboys bei Intel bedanken. Ohne RPL hätten die noch ewig gebraucht analog zum 5800X3D.
Das ist Quatsch und ich möchte dir auch sagen, warum. Als der 5800X3D den Markt als fertiges Produkt erreicht hatte, war Zen 4 bereits durchgeplant. Zu dem Zeitpunkt hätte man nichts mehr ändern können, ohne den Start massiv nach hinten zu verschieben. Niemand wusste, ob das mit der Massenproduktion so gut funktionieren würde oder ob in der Praxis die gewünschten Effekte erreicht werden würden, wie es sich mit der Hitze verhalten würde usw. Das musste als Massenprodukt erst noch getestet werden. Daher gab es auch keine anderen Varianten des 3D-Caches mit Zen 3. Der Test war erfolgreich, weshalb wir nun die X3D-Variante des Zen 4 heute bestaunen können.
Zum Test: Ich bin beeindruckt, gerade auch nachdem ich Igors Video dazu gesehen habe, ob der Leistung und noch viel mehr ob der wahnsinnigen Effizienz der CPU. Intel wurde hier regelrecht zerstört. Wir reden hier um den Faktor 2. Die Intel-Ingenieure mussten hinter verschlossene Türen ja völlig verzweifelt gewesen sein, als sie das neueste Stück AMD-Silizium in die Finger bekamen und testeten.