Test AMD Ryzen 3000 im Test: Das ist die Krönung

ZeroStrat schrieb:
@SKu Wenn du CapFrameX nicht im Vollbildmodus "abfotografierst", eher so bei 50%, dann kann man die Werte, Skalen usw. viel besser erkennen. :)

Das ist etwas was ich nicht verstehe. Beim Single Record hast du eine Screenshot-Funktion eingebaut aber bei Comparison gibts den Button nicht. :>
 
SKu schrieb:
Das ist etwas was ich nicht verstehe. Beim Single Record hast du eine Screenshot-Funktion eingebaut aber bei Comparison gibts den Button nicht. :>

Das kann ich dir leicht erklären: Berg Arbeit, aber wenig Zeit. :D Aber ich kremple die Comparison Seite eh gerade um, dann wird's eine Screenshotfunktion geben!
 
  • Gefällt mir
Reaktionen: Gortha
Geil, jetzt wird der 3900X auch für mein Board auf der Asus Homepage gelistet. Da kann sich Intel echt mal eine Scheibe abschneiden. Dann bekommt mein Unterbau irgendwann einen zweiten Frühling :daumen:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: !_!Mr.Q!_!
//differentRob schrieb:
Grundsätzlich ja und dennoch würde ich es noch von weiteren Faktoren abhängig machen.
Wie lange soll die Plattform genutzt werden? Ist es kurz-mittelfristig (1-3 Jahre) kann man ruhig ein bisheriges Board nehmen. Soll die Plattform aber 4-8 Jahre machen, dann würde ich schon gezielt zu einem x570 greifen.

Gibt es auch ein echtes Argument zu deiner These? Oder einfach nur "Neuer ist immer besser"?

Ein X370 ist schon fast identisch zum X470. PCIe4 bringt praktisch nicht, auch nicht in 5 Jahren, und sonst sehe ich nur das X570 mehr USB 3.1 Gen 2 Stecker anbietet. Wow... Das ist bestimmt total wichtig in 4-8 Jahren! Not.

Und wenn ich den Lebenszyklus des Sockels anschaue dann KÖNNTE es ja sogar sein das mit Ryzen 3000 der AM4 sowieso endet. Falls nicht -> Ich denke der X370/X470 wird genauso kompatibel sein wie bisher (solange BIOS Chip groß genug :D)

Ich werde meinem Vater für seinen neuen Rechner wahrscheinlich sogar ein X370 Board kaufen statt einem B450. 99€ und man hat ein High-End Board der (vor)letzten Generation welches keinerlei Nachteile hat, neu ist und mir volle Garantie bietet, guten Soundchip hat, komplett kompatibel ist und ne großartige Spannungsversorgung bietet.
 
Für diejenigen, die immernoch nicht verstanden haben, wann und warum CPU- Tests mit niedrigen Auflösungen gefahren werden:

Wenn man ein Objekt auf den Bildschirm zeichnen will, so sieht die Instruktionskette für die CPU immer gleich aus.
z.B. zeichne Kreis auf Koordinate X,Y,Z mit einem Radius von Y.

In der Grafikkarte wird die Instruktion dann angenommen und in eine "Projektionsmatrix" übersetzt, die die Werte dann in Relation zur Auflösung an entsprechende Stelle und mit entsprechender Größe positioniert. Die CPU ist ab diesem Zeitpunkt schon raus.

Der Irrtum, den hier einige unterliegen ist, dass viele die Vorstellung im Kopf haben, dass bei niedrigerer Auflösung zeitgleich weniger Details von der CPU berechnet werden müssen, da ja z.B. kleinere Objekte mit sinkender Auflösung am Horizont "unsichtbar" werden.
Diese Objekte werden aber vom Prozessor weiterhin voll berechnet!

Unabhängig der Auflösung wird also der immergleiche Datensatz an die Grafikkarte geschickt.
Nur in der Bildausgabe verschmilzt der Farbwert der Pixel eines kleinen oder weit entfernten Objektes mangels Auflösungsvermögen, nach Gewichtung, irgendwann mit dem Farbwert der umliegenden Pixel und das Objekt wird somit nicht mehr erkennbar.
Es geht im "Pixelbrei" unter, wird aber technisch gesehen noch voll berechnet.

Also können wir festhalten, dass das, was ein Prozessor bei der Spieleberechnung zu tun hat, unabhängig der Auflösung passiert.

Was passiert nun, wenn ich wissen will für wieviele FPS eine CPU bei Spiel XY maximal gut ist?
->Ich muss dafür sorgen der CPU alle Flaschenhälse aus dem Weg zu räumen, die diese "bremsen" bzw. in den Wartemodus versetzen könnten.

Womit wir bei den Grafikkarten/der Auflösung wären.
Wie oben bereits beschrieben, werden Grafikkarten im Gegensatz zur CPU mit steigender Auflösung und Pixelzahl immer mehr belastet.
Das geht so lange, bis diese nicht mehr hinterherkommen, die Instruktionen der CPU schnell genug in entsprechender Auflösung in ein Bild umzuwandeln. (Das nennt man GPU Limit).
Der Prozessor legt dann Wartezyklen ein, bis er seine Daten an die Grafikkarte loswerden kann.

Dass es nicht sinnvoll ist, die Maximalleistung eines Prozessors bei Spiel XY messen zu wollen, wenn dieser ständig auf die Bereitschaft der Grafikkarte warten muss, sollte jedem einleuchten.

Nun- Warum macht man nun das Ganze?
Angenommen die Grafikkarte ist nicht der beschneidende Faktor und es stellt sich heraus, dass die CPU bei Titel XY minimal für 50 und maximal für 100 FPS Instruktionen an die Grafikkarte schicken kann, so kann er dies über alle Auflösungen hinweg so lange tun, bis die Grafikkarte in die Knie geht.

Liefert bei mir das Spiel, das lt. CPU- Test 50 und max. 100FPS liefern soll, bei meinem System nur 50 FPS, so weiss ich dann folglich, dass diese CPU zwar mehr liefern könnte, aber meine Grafikkarte dahinter zu schwach ist, um die Instruktionen der CPU schnell genug abzuarbeiten.

Ich weiss aber auch, dass ich mir mit dieser CPU keine Grafikkarte reinsetzen brauche, die bei der von mir gewünschten Auflösung mehr als doppelt so stark ist, weil dann wiederum die CPU zu schwach wäre.

Ergo- Die Messung einer CPU bei einem Spiel XY gibt einem wertvolle Informationen über das Potenzial, welches diese besitzt, die künftig kommenden, schnelleren Grafikkarten bedienen zu können.

Zudem lässt sich bei einer umfangreicheren Messung mit mehreren Titeln tatsächlich eine Tendenz ableiten, ob eine CPU generell für Spiele gut geeignet ist oder eher weniger.

Das ist schon die ganze Magie, die dahintersteckt.
Für weitere Fragen, bitte an mich wenden.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LukS, rolandm1, zera13 und 11 andere
Kann sein, dass ich das übersehen habe.
Wie sieht es mit einer cTDP Funktion aus? Gibt es sie, bzw. funktioniert sie?

Beim 2000x scheint sie zu funktionieren. Ein 12/16 Kerner auf weniger Watt gestellt sollte immer noch in Anwendungen (Rendern) schneller sein und vielleicht sicherer auf einem alten Board lauf.
 
Einige Leute hier haben echt einen sehr eingeschränkten Horizont, wie Heimrechner verwendet und erweitert werden (können). Das ist nicht nur Gaming und bisschen Surfen oder twitchen ...

Kleiner Einblick in meine Welt...

Ich plane ein Heimnetzwerk mit 10gbit, => braucht Karte, pcie 4.0 x1 würde reichen
Ich will dann USB 4.0 nachrüsten => pcie 4.0 wäre klar von Vorteil
In naher Zukunft wird eine PCIE Kontrollerkarte für m2 SSDs ins System wandern => schnelle SSD für Bildbearbeitung => zweiter 16x schnappt sich die 8 Lanes des ersten PEG.

So und nun soll ich das, alles mit einem Board mit pre x570 Chipsatz machen, welches mir ab Chipsatz nur pcie 2.0 liefert. Ich hoffe ihr seht das Dilemma => zu wenig Lanes und Slots.

Leute, erweitert euren Horizont!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DerHotze
cvzone schrieb:
Wieso macht das keinen Sinnn? Bei der geringen maximalen Leistung kann man mit so einem Kühler doch probemlos passiv kühlen.
Das war wohl nicht ganz so ernst gemeint.... ;)
 
  • Gefällt mir
Reaktionen: Unnu, Hagen_67 und cvzone
ZeroZerp, du bist ein sehr guter ErklärBär! Danke dir für deine sehr gute Erklärung!
Komisch nur, dass die Profis auf vierschiedenen Seiten es NIE so erklären konnten!
 
  • Gefällt mir
Reaktionen: Unnu und .Sentinel.
@ZeroZerp Oder du betrachtest es aus einer anderen Perspektive (und mal ohne irgendeine Zukunftstauglichkeit für eventuell schnellere Karten), nämlich den praxisrelevanten Bereich zwischen der geringsten in der Praxis verwendeten Auflösung (1080p) und der schnellsten Consumer-Karte (2080 Ti). Was außerhalb liegt ist zwar leicht verschwommen/gedeckelt durch GPU-Limit, aber eben auch irrelevant für die Praxis, weil man mehr "CPU-FPS" ja nie haben wird. Außerdem ist 1080p und 2080 Ti bereits ein unrealistischer Spread.
 
  • Gefällt mir
Reaktionen: Unnu, iron_monkey, blackTEHhawk und eine weitere Person
hat eigentlich schon jemand einen 3900X erhalten?
bei Mindfactory schiebts ja täglich den Versand nen Tag nach hinten.

Zelle_92 schrieb:
Am Sonntag hieß es bei MF er kommt am 8.7.
Dann am Montag er kommt am 9.7.
Dienstag hieß es 10.7.
Mittwoch 11.7.
Jetzt am Donnerstag angeblich der 12.7
 
  • Gefällt mir
Reaktionen: Rock Lee und Bubbles Devere
konnte einen 3900X in FFMPEG (Build von April) durchtesten lassen.

Stand jetzt ist er vergleichbar mit einem Ryzen TR 1950 mit 16C @ 4 Ghz.
Braucht für mein Testfile:

3900X @ stock
encoded 1497 frames in 390.82s (3.83 fps), 20051.42 kb/s, Avg QP:22.89
Time elapsed: 0:06:33,75

i9 7980XE @ 16x4,0ghz
encoded 1497 frames in 193.97s (7.72 fps), 18003.11 kb/s, Avg QP:23.29
Time elapsed: 0:03:14,51

Intern arbeitet da FFMPEG wohl anders, zeigt auch das unterschiedliche Result. Ggf nutzt er bei Skylake X AVX 512
Der Unterschied ist ziemlich massiv wie ich finde, auch wenn der i9 30% mehr Kerne hat.

Allerdings ist mein FFMPEG vor 1-4 Monaten gebaut worden, also nicht 100% up to date
C:\Users\kraut\Desktop\benchmark>ffmpeg.exe -version
ffmpeg version N-93402-gce6301a46f-ffmpeg-windows-build-helpers Copyright (c) 2000-2019 the FFmpeg developers
built with gcc 8.2.0 (GCC)
configuration: --pkg-config=pkg-config --pkg-config-flags=--static --extra-version=ffmpeg-windows-build-helpers --enable-version3 --disable-debug --disable-w32threads --arch=x86_64 --target-os=mingw32 --cross-prefix=/home/buildserver/build/ffmpeg-windows-build-helpers/sandbox/cross_compilers/mingw-w64-x86_64/bin/x86_64-w64-mingw32- --enable-libcaca --enable-gray --enable-libtesseract --enable-fontconfig --enable-gmp --enable-gnutls --enable-libass --enable-libbluray --enable-libbs2b --enable-libflite --enable-libfreetype --enable-libfribidi --enable-libgme --enable-libgsm --enable-libilbc --enable-libmodplug --enable-libmp3lame --enable-libopencore-amrnb --enable-libopencore-amrwb --enable-libopus --enable-libsnappy --enable-libsoxr --enable-libspeex --enable-libtheora --enable-libtwolame --enable-libvo-amrwbenc --enable-libvorbis --enable-libvpx --enable-libwebp --enable-libzimg --enable-libzvbi --enable-libmysofa --enable-libaom --enable-libopenjpeg --enable-libopenh264 --enable-liblensfun --enable-libvmaf --enable-libsrt --enable-demuxer=dash --enable-libxml2 --enable-nvenc --enable-nvdec --extra-libs=-lharfbuzz --extra-libs=-lm --extra-libs=-lpthread --extra-cflags=-DLIBTWOLAME_STATIC --extra-cflags=-DMODPLUG_STATIC --extra-cflags=-DCACA_STATIC --enable-amf --enable-libmfx --enable-gpl --enable-avisynth --enable-frei0r --enable-filter=frei0r --enable-librubberband --enable-libvidstab --enable-libx264 --enable-libx265 --enable-libxvid --enable-libxavs --enable-avresample --extra-cflags='-mtune=generic' --extra-cflags=-O3 --enable-static --disable-shared --prefix=/home/buildserver/build/ffmpeg-windows-build-helpers/sandbox/cross_compilers/mingw-w64-x86_64/x86_64-w64-mingw32 --enable-nonfree --enable-decklink --enable-libfdk-aac
libavutil 56. 26.100 / 56. 26.100
libavcodec 58. 47.103 / 58. 47.103
libavformat 58. 26.101 / 58. 26.101
libavdevice 58. 6.101 / 58. 6.101
libavfilter 7. 48.100 / 7. 48.100
libavresample 4. 0. 0 / 4. 0. 0
libswscale 5. 4.100 / 5. 4.100
libswresample 3. 4.100 / 3. 4.100
libpostproc 55. 4.100 / 55. 4.100

Testset ink Batch und Commandline hier:
https://1drv.ms/u/s!Ar_eIBtD4lGqhZR7Gi2uGZhK7LDwOw?e=fpLKX9

HEVC commandline ist:
Code:
ffmpeg -y -i "%%f" -map 0:v -map 0:1 -c:v libx265 -x265-params "rc-lookahead=35:ssim-rd=1:ctu=32:crf=!CQ!:pbratio=1.22:subme=3:aq-mode=3:aq-strength=1.2:qcomp=0.64:no-sao=1:rd=4:psy-rd=2.5:psy-rdoq=3.5:rdoq-level=2:bframes=8:no-strong-intra-smoothing=1:weightb=1:b-intra=1:rect=1:limit-modes=1" -c:a libopus -b:a !a_bitrate!k -af aformat=channel_layouts="7.1|5.1|stereo" -vbr on -compression_level 10 -c:s copy "%outputdir%/%%~nf_x265.mkv"

lastet problemlos mit nem 4 K file 36 Threads aus und skaliert gut.

Ich versuche mal noch nen neuen nightly build der FFMPEG zu machen. Ggf tut sich ja schon was bei ZEN 2.
 
  • Gefällt mir
Reaktionen: yummycandy
Laut Alternate soll das Asus Board x570-E am 16.07. und Ryzen 9 3900X am 15.07. bei denen eintreffen...
Also noch warten -.-
 
Ich merke schon ich hab alles richtig gemacht doch auf den 3700x zu gehen. :D

Meiner kommt heute und ich kann dann morgen Abend fein in Ruhe basteln und das komplette System umkrempeln. :)

Gespannt bin ich auf jeden Fall wegen meinem Aorus Ultra und der Chipset-Fan Steuerung. Auf Reddit gibts da schon diverse Threads. - Beim Master hat Gigabyte wohl was verseilt. Andere Boards von GB sollen dann wieder unauffällig sein.

The-Beast schrieb:
Laut Alternate soll das Asus Board x570-E am 16.07. und Ryzen 9 3900X am 15.07. bei denen eintreffen...
Also noch warten -.-

Auch mit dem 16.07. wäre ich mir nicht sicher. - Asus hat den X570 Launch irgendwie komplett versemmelt. Alle "besseren" Boards sind katastrophal Verfügbar. Bei den ganzen Distris die ich sehe (auch Alternate) ist sogar erst Ende Juli (30.07.) gelistet.

Mit ein Grund warum ich auf das Aorus Ultra umgeschwenkt bin. Wollte erst auch das E-Gaming.
 
Zelle_92 schrieb:
hat eigentlich schon jemand einen 3900X erhalten?
bei Mindfactory schiebts ja täglich den Versand nen Tag nach hinten.


Jetzt am Donnerstag angeblich der 12.7

Es kann auch sein, dass AMD selbst über die AMD-Seite verkaufen möchte?
Foundersedition lässt grüßen ;)
 
Zurück
Oben