News AMD Ryzen 5000: Zen-3-CPUs ab 309 Euro erstmals im Handel gelistet

Chiaki schrieb:
Meines Wissens nach geht nahezu 100% der primärseitigen Leistung in einer CPU in sekundärseitige Verlustwärme auf - hast du Quellen für mich, die etwas anderes nahelegen?

Ich glaube nicht das Chillaholic etwas anderes behauptet hat, aber offensichtlich ist es doch so, dass wenn ich ein File in einen übergeordneten Folder verschiebe, ein Teil der elektrischen Energie in potentielle Energie gewandelt wird.
 
Chillaholic schrieb:
Ist eher ne Ausnahme, im Normalfall interessiert das die Boards eher weniger. Selbst der Aldi-PC boostet, auch wenn er sich strikt an die TDP hält, das ist in Intels TDP-Szenario nicht der Fall. Hier wird auschließlich der Basistakt eingesetzt, ein sehr abwegiges Szenario.

Selbst in diesem 4000 Euro Gaming PC mit i9-9900k wird die CPU dauerhaft auf 95W (= TDP) eingebremst. Ebenfalls ein CB-Test. Und das selbe mit einem HP Omen Obelisk (auch CB). Ich gehe davon aus, dass die ganzen Fertig-Rechner aus dem Handel innerhalb dieses Limits betrieben werden - erst Recht wenn es ein Multimedia oder Office PC ist.

"Damit fällt der Takt nach ca. 20 bis 25 Sekunden deutlich, während das Mainboard von Asus aus dem Handel die TDP ignoriert und der CPU immer so viel Verbrauch gewährt, wie sie zur Nutzung des maximalen Turbos benötigt."

Das Szenario ist lediglich hier im Forum abwegig. Der Normalfall sieht wohl anders aus.
 
  • Gefällt mir
Reaktionen: Rockstar85
Weiß man schon ob die Reviews wirklich erst mit dem Marktstart im November kommen?
 
Hatsune_Miku schrieb:
Ansich könnte AMD das portfolio auch so lassen und alles unter 6c/12t endlich mal sterben lassen. Ich würde es begrüßen.
Wer 4 Kerne oder sowas braucht wird mit Zen 2 fündig.
Auch einen 3600 find ich perse überfrlüssig. Da gibts ebenfalls in dem preisbereich genug auswahl.
Der 3300X war im Spieleportfolio nur dummerweise schneller als der 6-Kerner, gleichauf mit den 8-Kernern und hing lustigerweise selbst im Multithread dem 6-Kerner nicht erwartungsgemäß 33% hinterher, sondern nur 25%.
Da 80% in diesem Forum wohl überwiegend spielen, hätten sich viele das Geld für teure CPUs schenken können - nur mal rein wirtschaftlich betrachtet. Das Streben nach vielen Kernen ist wohl eher psychologisch begründet -> viel hilft viel.

Oder andersrum. Ist hier jemand mit seiner aktuellen Grafikkarte im CPU-Limit gelandet? Ich schaffe es mit der Radeon 5600XT nicht mal auf 40%, während die Karte eigentlich immer am Anschlag läuft. Total grob abgeschätzt müssten sich Nvidia 3080 und AMD 3600 bei jeweils 100% treffen.
 
  • Gefällt mir
Reaktionen: Neronomicon
downforze schrieb:
Total grob abgeschätzt müssten sich Nvidia 3080 und AMD 3600 bei jeweils 100% treffen.
Hängt von den Einstellungen und dem Spiel ab....

Aber ja, wer in höheren Auflösungen und Settings zockt, wird wohl wie immer kaum von der gesteigerten CPU-Leistung profitieren.

Persönlich kann ich sagen, dass ich bei KingdomComeDeliverance etwas mehr CPU-Leistung gebrauchen könnte um durchgängig die 60fps zu halten.... ist allerdings noch ein 2600er und soooo dringend ist es auch nicht.
 
M-7MkF7-D schrieb:
Hängt von den Einstellungen und dem Spiel ab....

Aber ja, wer in höheren Auflösungen und Settings zockt, wird wohl wie immer kaum von der gesteigerten CPU-Leistung profitieren.

Persönlich kann ich sagen, dass ich bei KingdomComeDeliverance etwas mehr CPU-Leistung gebrauchen könnte um durchgängig die 60fps zu halten.... ist allerdings noch ein 2600er und soooo dringend ist es auch nicht.
Das würde ich völlig unterschreiben. Aber mit 720p dürften wohl die wenigsten unterwegs sein und mit dem Anstieg der Auflösung wirkt sich die Polygonberechnung (die Position) auch auf die CPU aus, aber eben deutlich stärker auf die GPU.
Ich spiele in FullHD, was wohl die meistgenutzte Auflösung sein sollte.
 
Zuletzt bearbeitet:
downforze schrieb:
Ich spiele in FullHD, was wohl die meistgenutzte Auflösung sein sollte.
In FullHd wurde hier auf CB schon diskutiert, das wohl die CPU bei einer 3080 schon eine Limitierung darstellen kann. Sind ja schon ziemliche hohe FPS die eine 3080 dann leisten kann/könnte.
 
  • Gefällt mir
Reaktionen: Celinna
Chillaholic schrieb:
Also, wie ich oben bereits sagte bemisst die TDP nicht den Verbrauch der CPU sondern der Verbrauch den das Kühlsystem abführen muss.

Aha und der unterscheidet sich in wie fern? Ich wusste nicht, dass eine CPU 25% der Leistung die sie aufnimmt in mechanische Arbeit umwandelt.

Ich hab übrigens einen Master in Physik, falls dir das ausreicht. Wenn eine CPU 90W zieht dann müssen 90W über den Kühler angeführt werden (naja, wenn man mal von Kleinkram wie der Erhitzung des Sockels absieht) , so einfach ist das, egal was irgendeine Marketing-TDP sagt.
 
  • Gefällt mir
Reaktionen: Chiaki und downforze
HorstSan schrieb:
Aha und der unterscheidet sich in wie fern? Ich wusste nicht, dass eine CPU 25% der Leistung die sie aufnimmt in mechanische Arbeit umwandelt.
Du zitierst den Satz nun zum wiederholten Mal, ich habe mein Statement dazu bereits gegeben.
https://www.computerbase.de/2018-08/cpu-tdp-verbrauch-amd-intel/
Die TDP berechnet sich halt mit unterschiedlichen Formeln.
Wenn du nen Master in Physik hast, musst du mir also auch keine dümmlichen rhetorischen Fragen stellen.
Dass die TDP geringer als die Energiezufuhr ist hast du übrigens gerade selber zugegeben.
 
M-7MkF7-D schrieb:
In FullHd wurde hier auf CB schon diskutiert, das wohl die CPU bei einer 3080 schon eine Limitierung darstellen kann. Sind ja schon ziemliche hohe FPS die eine 3080 dann leisten kann/könnte.
Das lässt sich ganz gut rausfinden:
Wenn man die Auslastung von GPU zu CPU verlagern will, stellt man die Auflösung auf 720p und deaktiviert Antialiasing und Anisotr. Filtering. Jetzt sollte normalerweise die CPU-Last steigen. Ist das Spiel jetzt "flüssig", muss die GPU getauscht werden und nicht die CPU. Verbessert sich die Performance nicht, ist die CPU das Problem.

Chillaholic schrieb:
Du zitierst den Satz nun zum wiederholten Mal, ich habe mein Statement dazu bereits gegeben.
https://www.computerbase.de/2018-08/cpu-tdp-verbrauch-amd-intel/
Die TDP berechnet sich halt mit unterschiedlichen Formeln.
Wenn du nen Master in Physik hast, musst du mir also auch keine dümmlichen rhetorischen Fragen stellen.
Dass die TDP geringer als die Energiezufuhr ist hast du übrigens gerade selber zugegeben.
Da hat er schon Recht. Die TDP ist laut Intel nur ein Durchschnittswert der Leistungsaufnahme in Watt bei hoher Auslastung. Was die Kühlung wirklich schaffen muss, ist mit PL2 angegeben, nämlich die maximale Leistungsaufnahme.
 
Zuletzt bearbeitet:
@Chillaholic Ich behalte mir auch vor die Frage so oft zu stellen, bis sie mir beantwortet wird, oder die Leute aufhören blind das Marketing-Geblubber von AMD zu wiederholen.

Die Formeln kenn ich auch. Leider sind diese für die Fragestellung komplett nutzlos: da werden Zieltemperaturen und eine Kühlerperformance eingesetzt und darüber errechnet welche CPU unter diesen Annahmen maximal möglich wäre. Da kann man alles mögliche einsetzen wenn man will. Mindestens ist das Ganze also absolut intransparent, weil AMD die Ausgangswerte nicht nennt.

Die 2W oder sowas die über den Sockel abgehen können wir für die Diskussion hier getrost vergessen.
 
VelleX schrieb:
Bzw ein Ryzen kommt nie bis auf den TDP Wert als Verbrauch runter. Wann verbraucht denn schon mal ein 3700W nur 65? Eventuell beim Zocken.
In Battlefield 5 braucht mein 3800X je nach Map 40 bis 57Watt, laut Package Power. Ein 3700X braucht in den selben Settings 40 bis 55Watt. Haben wir im RAM OC Discord getestet. BF5 ist ein sehr anspruchsvolles Spiel was CPU betrifft. Also da sind wir trotzdem weit weg von 65 und 105 Watt TDP...
downforze schrieb:
Oder andersrum. Ist hier jemand mit seiner aktuellen Grafikkarte im CPU-Limit gelandet? Ich schaffe es mit der Radeon 5600XT nicht mal auf 40%, während die Karte eigentlich immer am Anschlag läuft.
Ich spiele Battlefield 5 und Stellaris. Bei BF5 hänge ich zu 80% der Zeit im CPU-Limit. Ich spiele auf 2560x1440, niedrig, TAA ein, keine FPS Limiter. 1080Ti ist je nach Scene zu 40 bis 90% ausgelastet. In engen Räumen geht es auch auf 97 bis 99% GPU Auslastung rauf.
Bei Stellaris hänge ich zu 100% der Spielzeit im CPU-Limit. GPU dümpelt mit 20 bis 40% rum.
Was anderes spiele ich momentan nicht.
 
HorstSan schrieb:
@Chillaholic Ich behalte mir auch vor die Frage so oft zu stellen, bis sie mir beantwortet wird, oder die Leute aufhören blind das Marketing-Geblubber von AMD zu wiederholen.

Die Formeln kenn ich auch. Leider sind diese für die Fragestellung komplett nutzlos: da werden Zieltemperaturen und eine Kühlerperformance eingesetzt und darüber errechnet welche CPU unter diesen Annahmen maximal möglich wäre. Da kann man alles mögliche einsetzen wenn man will. Mindestens ist das Ganze also absolut intransparent, weil AMD die Ausgangswerte nicht nennt.

Die 2W oder sowas die über den Sockel abgehen können wir für die Diskussion hier getrost vergessen.
Warum ihr euch über die TDP streitet, ist mir nicht so richtig klar. Das ist nur ein Messwert in einer von Intel festgelegten Konfiguration. Das bringt doch keinem was für die Praxis.

LukS schrieb:
Ich spiele Battlefield 5 und Stellaris. Bei BF5 hänge ich zu 80% der Zeit im CPU-Limit. Ich spiele auf 2560x1440, niedrig, TAA ein, keine FPS Limiter. 1080Ti ist je nach Scene zu 40 bis 90% ausgelastet. In engen Räumen geht es auch auf 97 bis 99% GPU Auslastung rauf.
Bei Stellaris hänge ich zu 100% der Spielzeit im CPU-Limit. GPU dümpelt mit 20 bis 40% rum.
Was anderes spiele ich momentan nicht.
Das widerspricht dem Test auf CB völlig, denn selbst der billige AMD 3100 ist quasi identisch mit dem i9 9900KS
https://www.computerbase.de/2020-05...test/2/#diagramm-test-battlefield-v-3840-2160
https://www.computerbase.de/2020-05...mm-test-performancerating-fuer-spiele-fps-uhd
Erst bei FullHD gibt es wieder Unterschiede, weil die Belastung der CPU steigt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
OldZocKerGuy schrieb:
Warum darf AMD kein gutes Geld für ein gutes Produkt verlangen? Ist das nur zb. Intel, NV, Apple vorenthalten?
Intel, NV und besonders Apple sind alle hoffnungslos überteuert, aber es gibt leider immer wieder Geisteskranke Konsumenten welche diesen Wahnsinn mitmachen. Siehe zb. 2080TI oder aktuell MSI mit ihrem eBay nebenbei Geschäft.
Hoffe AMD rutscht nicht dahin ab, waren bisher immer der Preis-Leistungs Sieger meiner Meinung nach. Finde auch das die neuen CPUs teuer, aber noch nicht überteuert sind. Preise werden sich auch dem Markt anpassen und etwas runter gehen. Meine nächste CPU wird aufjedenfall wieder von AMD kommen.
 
  • Gefällt mir
Reaktionen: Waaargh
downforze schrieb:
Warum ihr euch über die TDP streitet, ist mir nicht so richtig klar. Das ist nur ein Messwert in einer von Intel festgelegten Konfiguration. Das bringt doch keinem was für die Praxis.

Naja es ist bei Intel schon so, wie hier korrekt bereits von jemandem erwähnt, dass die CPU im PL1 relativ exakt gleich der TDP läuft.

Aber ja, die ursprüngliche Aussage von mir war ja das der Unterschied zwischen dem "65W" hypothetischem 5700X und dem "105W" 5800X in real nicht so groß ist, wie es die TDP suggeriert, da beide Angaben nichts mit dem realen Betrieb zu tun haben. Da stimme ich dir insofern zu.
 
Alex Shep schrieb:
Der Releasepreis meines alten i5 2500k war damals 190€ (nach Inflation 214€). Die neue Mittelklasse ist jetzt gut 50% teurer als damals. Auch in den i5 wurde viel Geld für R&D gesteckt, also ist das keine gute Begründung für den Anstieg. Keine Ahnung, warum das hier die wenigsten juckt, dass sie deutlich mehr bezahlen. Bei einem Duopol hat am Ende immer der Kunde das Nachsehen.

Ja, in der Tat. Die Preise für CPUs sind extrem hoch gegangen. Für meinen Phenom II X4 945 C3 habe ich ANNO 2011 oder ANNO 2012 (?) knapp 100€ bezahlt und der läuft selbst heute noch recht gut.
 
  • Gefällt mir
Reaktionen: gartenriese
PogoPogo schrieb:
Intel, NV und besonders Apple sind alle hoffnungslos überteuert, aber es gibt leider immer wieder Geisteskranke Konsumenten welche diesen Wahnsinn mitmachen. Siehe zb. 2080TI oder aktuell MSI mit ihrem eBay nebenbei Geschäft.
Hoffe AMD rutscht nicht dahin ab, waren bisher immer der Preis-Leistungs Sieger meiner Meinung nach. Finde auch das die neuen CPUs teuer, aber noch nicht überteuert sind. Preise werden sich auch dem Markt anpassen und etwas runter gehen. Meine nächste CPU wird aufjedenfall wieder von AMD kommen.

Aha. Sind also alles Geisteskranke, die bei schlechter Verfügbarkeit trotzdem kaufen oder einfach nur hohe Preise zahlen für ein Highend-Produkt.
Du musst mal über den Tellerrand schauen. Was für dicht teuer ist, kann für andere Peanuts sein.
Das gilt generell für alle Highend-/Luxus-Güter.
 
HorstSan schrieb:
Naja es ist bei Intel schon so, wie hier korrekt bereits von jemandem erwähnt, dass die CPU im PL1 relativ exakt gleich der TDP läuft.

Aber ja, die ursprüngliche Aussage von mir war ja das der Unterschied zwischen dem "65W" hypothetischem 5700X und dem "105W" 5800X in real nicht so groß ist, wie es die TDP suggeriert, da beide Angaben nichts mit dem realen Betrieb zu tun haben. Da stimme ich dir insofern zu.
Ich kann da jetzt nur für AMD sprechen. Sobald die Einstellung auf PBO2 true gesetzt wird, befindet sich die CPU im Benchmark dauerhaft im vorgesehenen Limit - das wären dann 88W. Das ist von 65W dann schon etwas entfernt und es ginge sicher noch höher.
Da ist aber auch die TDP keine Messung, sondern eine Formel:
TDP (Watt) = (tCase (°C) - tAmbient (°C))/Wärmewiderstand Kühler)
 
Zuletzt bearbeitet:
downforze schrieb:
Der 3300X war im Spieleportfolio nur dummerweise schneller als der 6-Kerner, gleichauf mit den 8-Kernern und hing lustigerweise selbst im Multithread dem 6-Kerner nicht erwartungsgemäß 33% hinterher, sondern nur 25%.
Das liegt aber daran, dass der 3300X die einzige Zen2 CPU ist, die nur ein CCX nutzt und dadurch Latenzvorteile hat. Diesen Vorteil kann ein Zen3 4-Kerner garnicht mehr haben, da schon der 5800X nur noch ein CCX hat.

Trotzdem würde ein 5300(X) für viele Low-Budget Gamer wohl mehr Sinn machen als ein 3600
 
  • Gefällt mir
Reaktionen: valnar77
Zurück
Oben