Test AMD Ryzen 3000 im Test: Das ist die Krönung

DannyA4 schrieb:
Nun habe ich mal beim Hersteller meines bestellten Speichers(Corsair Ballistix Elite BLE2K8G4D36BEEAK) in die Kompatibilitätsliste geschaut und sehe, dass der Speicher nicht mit dem von mir bestellten Board (Gigabyte x570 Elite) kompatibel sein soll. :( In der Beschreibung des Speichers steht allerdings "Bereit für AMD® Ryzen™ ".

Draufpacken und glücklich sein. ;D

Ich habe noch NIE nach diesen Listen gearbeitet (auch bei den Ryzen Systemem nicht die ich gebaut habe). - Aus dem einfachen Grund weil die Mainboardhersteller nie alle auf dem Markt verfügbaren Riegel testen können und werden.

Es ist ein Indiz aber mehr auch nicht. Lass dich nicht verunsichern^^ Wenn bei den Riegeln schon mit "Ryzen Ready" geworben wird, wird das wohl passen. :D
 
  • Gefällt mir
Reaktionen: DannyA4 und yummycandy
DisOrcus schrieb:
Es ist ein Indiz aber mehr auch nicht. Lass dich nicht verunsichern^^ Wenn bei den Riegeln schon mit "Ryzen Ready" geworben wird, wird das wohl passen. :D
Ist eher umgekehrt. In den QVLs stehen die Module die auf jeden Fall funktionieren. Andere können, aber müssen eben nicht. Und wenn schon "for Ryzen" drauf steht, dann sollte der auch laufen. :D
 
  • Gefällt mir
Reaktionen: DannyA4
Am interessantesten scheint dann wieder die Zen-Generation zu sein, die mit dem nächsten Shrink von Intel konkurriert. Die anhaltenden Probleme mit der Fertigung haben AMD halt die Möglichkeit gegeben, schneller aufzuholen, als es vielleicht ohne diese Probleme möglich gewesen wäre.

Ich sehe nun auch nicht viel Potential in der kommenden Generation, wenn Intel an 95W TDP festhält. Man sieht, wie der Verbrauch explodiert, wenn man den 9900k ungezügelt betreibt oder sogar überaktet. Das wird wohl in der nächsten Gerneration nicht anders sein und dort hat man dann noch 2 Kerne mehr zu versorgen und abzuführen.

Wenn Intels Shrink allerdings kommt, können sie wieder zeigen, wie gut sie ihre CPU's weiterentwickeln können und der Wettlauf mit AMD wird neu entfacht. Ich hoffe auf ein Kopf-an-Kopf Rennen ohne wirklichen Sieger :)
 
Sun_set_1 schrieb:
Ich hätte da eine :) bzw. eine Anmerkung.
Nur zu :)

Also, wie wir wissen schafft es Nvidia (somehow) die CPU "zeitkritisch" zu entlasten. Am deutlichsten war es damals bei AC: Paris (Titel vergessen :freaky: ). Zieht sich seit dem aber fort. Mal völlig unabhängig von dem Wie.
Nebst der Instruktionen, die von einem Spiel an die DX API geschickt werden haben wir noch mehrere "Stationen" dazwischen.
Die erste Station ist der Treiber, der die Daten entgegennimmt und dann in einer für die Grafikkarte verständlichen Form an die GPU weiterreicht. Dahinter kommt dann bereits die Aufgabenverteilung bzw. der scheduler.

Der Unterschied zwischen AMD und nvidia ist, dass das scheduling flexibler gestaltet ist und man bereits über den Treiber gewisse Steuerungsoptionen mitschicken kann, so dass man mit dieser Lösung etwas mehr in die Verarbeitungspipeline drücken kann.

Teste ich in 720p, dann wird die Grafikkarte entsprechend entlastet. CPU-Last bleibt wie von Dir geschrieben gleich.
Genau

AMD hat hier nachgebessert, kann das aber weiterhin nicht so gut wie NV.
Was in Zukunft mit den low level grafik APIs eher Egal ist, weil dort das optimierte scheduling eben direkt vorgenommen werden kann. Du hast dann seitens AMD quasi auf API Basis die Möglichkeiten, die früher auf Treiberebene den nvidia Karten vorbehalten waren.

Nun hat die Grafikkarte unter 720p aber viel Potenzial brach liegen, was dem Nvidia Treiber dann überproportional mehr Potenzial zur Verfügung stellt, als unter >=1080p.
Deswegen testet man das CPU Limit möglichst immer nur mit einem Typ Grafikkarte (am besten dem schnellsten, der gerade zu haben ist).
Sonst würde man eben das API-/Treiberlimit einer Grafikarchitektur noch mittesten

Und er dadurch natürlich noch mehr Last von der CPU auf die GPU verlagern kann. Wenn nun die Auflösung ansteigt, steigt die Last auf der Grafikkarte und entsprechend weniger Leistungspotenzial steht dem Treiber zur Entlastung der CPU zur Verfügung.
Was wiederum innerhalb einer Messreihe dadruch egalisiert wird, dass man diese nur mit einem GPU- Typen durchführt.

Somit schwächt sich dieser Effekt logischer Weise ab, desto höher die Auflösung wird. Hinzu kommt natürlich, dass mit steigender Auflösung sowieso die Graka zum Bottleneck wird, weshalb wir den Effekt der Overhead-Verlagerung nicht klar abgrenzen, bzw. ermitteln können.
Siehe oben. Deshalb führt man den Vergleichstest mit der gleichen Grafikkarte durch.

In jedem Fall kann das aber dazu führen, dass eben unter 720p ein falsches Leistungspotenzial für die CPU dargestellt wird. Zumindest, wenn ich als Besitzer einer AMD-Karte Rückschlüsse aus einem Test ableiten möchte der mit einer Nvidia durchgeführt wurde.
Bingo! Jedoch zeigt sich in der Praxis, dass der architektonische Verlust einer Grafikkartengattung bisher proportional verhält. Das heisst z.B. dass die Grafikkarten der GCN 1 Familie ein schlüssiges Verhalten durch die gesamte Linie beibehalten.

Zu allem übel ist dem meistens so und zwar direkt in Form einer 2080. Und da hier dann das Verhältnis der Overhead Reduktion zwischen den Herstellern auch noch mal variiert, geht viel Aussagekraft verloren.
Letzenendes eben nicht, weil sich die Verluste durch die verschiedenen Grafikkartenfamilien eben gleichförmig gestalten.

Du gehst in Deinen Ausführungen (auch in den Absaätzen oben) von der irrigen Annahme aus, dass der Overhead mit Sinken der Auflösung weniger würde. Er bleibt aber gleichförmig.
Die Skalierung über die Auflösung findet zum Großteil in der GPU statt.

Somit, finde ich, haben 720p Tests nur noch eine bedingt Ableitungskraft für höhere Auflösungen.
Siehe oben- Du verschiebst in Deiner Annahme zu viel von den Arbeitsschritten in Renderpipeline weg von der Grafikkarte auf die Softwareebene (API/Treiber).

Genau das. In meinem Beispiel gehe ich nun davon aus, dass eine CPU in Kombi mit NV unter 720p soweit entlastet wird, dass sie plötzlich 105 Instruktionen schicken kann. Eben da der Treiber durch Aufgabenverlagerung etwas Platz macht.
Ja- Dann geh jetzt mal in Dich und frag Dich, wo dann der Flaschenhals sitzt?
Genau- HINTER der CPU. Somit würde da Szenario, was Du hier zeichnest als klassisches GPU Limit bezeichnet werden.
Das GPU Limit zählt nämlich schon ab Übergabe zum Treiber.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu
cRoss. schrieb:
Ich sehe nun auch nicht viel Potential in der kommenden Generation, wenn Intel an 95W TDP festhält. Man sieht, wie der Verbrauch explodiert, wenn man den 9900k ungezügelt betreibt oder sogar überaktet. Das wird wohl in der nächsten Gerneration nicht anders sein und dort hat man dann noch 2 Kerne mehr zu versorgen und abzuführen.
Zwar immer noch TDP != Verbrauch, aber Comet Lake kommt wohl so:

10C/20T
TDP 35W - 120W
PCIe 3.0
400 Series PCH
USB3.1 Gen2
THB3

https://twitter.com/momomo_us/status/1149299212850348033
 
Ja, aber es ist trotzdem gekoppelt und wenn er zB in OEM Systeme eingebaut wird, die sich an solche Vorgaben halten, dann macht sich das gut bemerkbar.
 
TheCornInGrove schrieb:
Denn für alle AAA Games (die viele dann ja logischerweise in höheren Auflösungen genießen) "reichen" die meisten CPU's, da tut's ja schon ein 2600er... (denn ich versteh nicht, wofür man für AAA/Offline Games mehr als 60FPS braucht)

Weils smoother ist und sich 100x besser anfühlt wenn man AAA-Shooter zB mit 100-140 statt 60 fps spielt?
Du magst es nicht glauben, aber auch offline profitiert man von 144hz+, geringeren Latenzen und "smoothness" - Und das trägt zum Spielgefühl bzw. Erlebnis bei ^^
 
  • Gefällt mir
Reaktionen: Unnu und iceshield
Zum 3900X muss man ja sagen, dass sich wahrscheinlich nicht nur ein paar Enhusiasten Gamer drum prügeln, sondern auch Content Creator, Streamer, Workstation Nutzer also Leute die damit produktiv sind.

Da bekommst mit dem 3900X eben derzeit den meisten Bang for the bug. HEDT bei Intel und AMD bis rauf zum 16Kerner ist preislich auf einmal völlig unattraktiv und mit dem 3950x wirds noch schlimmer. Die Nachfrage gerade zu Beginn nach dem 12 Kerner wundert mich nicht. Nur Schade, dass sie die Nachfrage nicht decken können. Ich habe alles hier für ein Systemupdate: M2 NVME SSD, 32GB 3600 CL16 RAM, MSI ACE ... was fehlt ist der 3900X.
 
@Jan
3600X 4.4ghz Max / 4.1GHz all core (PBO)
ASUS CH7 wifi
4x 8GB Corsair Vengeance Pro RGB 3200MHz CL16
SC: 498
MC: 3696
 

Anhänge

  • IMG_20190711_155330.jpg
    IMG_20190711_155330.jpg
    106,5 KB · Aufrufe: 488
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu, grtty, KCX und 4 andere
SKu schrieb:
Na, dann liefert MF mir meinen 3900X wohl erst übernächste Woche. :D

Heute stand aber kurzzeitig bei MF der 3900x lieferbar mit 5Stück+, habe dann gleich geordert später war es gleich wieder weg ob es ein Fehler war, keine Ahnung war kurz nach 12Uhr...

Beim X1800 habe ich damals "ealy Adopter" gemacht der kam 560€ da finde ich den 3900x als sehr angemessen im Preis...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu
Dai6oro schrieb:
Da bekommst mit dem 3900X eben derzeit den meisten Bang for the bug.

*buck :P

Und ja, das stimmt.
Nur kaufen den 3900x auch Leute die den überhaupt nicht brauchen - Herrlicher Hype :D
Ich hatte ihn ja schon bestellt - dabei zocke ich und hab paar Chrome Tabs, Voice, Musik etc. nebenbei laufen. Das packta auch der 6/12er :D

Andererseits muss man auch sagen, dass so ein 12 Kerner jahrelang top sein wird.
Wer weiß wo die Entwicklung hingeht, in 2-3j könnte es sein, dass ein 8 Kerner nen Flaschenhals darstellt. Ich glaube es nicht, aber alles möglich mit den neuen Konsolen.
 
  • Gefällt mir
Reaktionen: Unnu und Dai6oro
Javeran schrieb:
@Jan
3600X 4.4ghz Max / 4.1GHz all core (PBO)
ASUS CH7 wifi
4x 8GB Corsair Vengeance Pro RGB 3200MHz CL16
SC: 498
MC: 3696
Im Bild ist der 2400G zu sehen?

Edit: Du willst beide Ergebnisse einreichen, oder?
 
muzafferamg58 schrieb:
Asus b450-i, ist wohl derzeit mit dem x470-i das Beste mini itx Board und hat keine Probleme mit dem 12 Kerner
ASRock Fatal1ty B450 Gaming-ITX WLAN/ac hat ebenso alle 3000er auf der Kompatibilitätsliste.
 
Sorry falsches Bild erwischt, nun passt es.
 
cRoss. schrieb:
Am interessantesten scheint dann wieder die Zen-Generation zu sein, die mit dem nächsten Shrink von Intel konkurriert. Die anhaltenden Probleme mit der Fertigung haben AMD halt die Möglichkeit gegeben, schneller aufzuholen, als es vielleicht ohne diese Probleme möglich gewesen wäre.
genaugenommen konkurriert zen2 mit der nächsten generation von intel. klar, durch intels probleme mit 10nm ist jetzt zen2 schneller draußen als comet lake obwohls eigentlich andersrum geplant war, aber das ändert nichts daran, dass die beiden am markt aufeinandertreffen werden. die reihenfolge ist nun natürlich zum vorteil von amd.

Ich sehe nun auch nicht viel Potential in der kommenden Generation, wenn Intel an 95W TDP festhält. Man sieht, wie der Verbrauch explodiert, wenn man den 9900k ungezügelt betreibt oder sogar überaktet. Das wird wohl in der nächsten Gerneration nicht anders sein und dort hat man dann noch 2 Kerne mehr zu versorgen und abzuführen.
das ist doch nur der tatsache geschuldet, dass intel mit dem takt so stark an die grenzen gehen musste. das taktpotential hat sich bei intel doch seit sandy nicht wesentlich verändert. mein kumpel hat seinen sandy-e auch schon auf 5,4 ghz übertaktet gehabt. aber gegen den bulldozer konnte intel massig luft nach oben lassen. mein 2500k lief auch immer ca. 50% übertaktet. dadurch wird der nichtmal heiß. wenn intel mit comet lake wieder nachlegt, werden die nicht mehr so dicht an die kotzgrenze gehen wie beim 9900k, sondern wieder mit takt und tdp so weit runter, wie es die konkurrenzsituation erlaubt. und nach ersten erkenntnissen siehts diesbezüglich ganz gut aus.

Wenn Intels Shrink allerdings kommt, können sie wieder zeigen, wie gut sie ihre CPU's weiterentwickeln können und der Wettlauf mit AMD wird neu entfacht. Ich hoffe auf ein Kopf-an-Kopf Rennen ohne wirklichen Sieger :)
wieso wettlauf entfachen? der ist doch grad in vollem gange und intel ist zwar angeschlagen aber eben noch nicht geschlagen. der 9900k(s) hält die fahne für intel hoch.
 
Zurück
Oben