Test GPU-Testparcours 2020: Grafikkarten von AMD und Nvidia im Vergleich

(1) AMD spart am PCIe-Anschluss.
(2) Ein Schreiber testet Grafikkarten im Speichermengenlimit.

Daraus schlussfolgert @RuhmWolf, dass GPU-Tests zukünftig mit einem langsameren Prozessor durchgeführt werden sollen.

Ein Glück, dass heute schon Freitag ist, und das Jahr jetzt durch. :heilig:
 
  • Gefällt mir
Reaktionen: Esenel, captain kirk und Oneplusfan
ZeroStrat schrieb:
Da würde ich schon gerne mal wissen, warum hier die Ryzens so derbe abstinken.

Grund ist die Unreal Engine 4, freigegeben Anfang 2014. Damals waren zwei CPU-Kerne Mainstream und Intel-CPUs ein quasi-Monopol.
UE4 unterstützt kein Multi-Threading. Jedenfalls nicht von Haus aus. Damit ist die SIngle-Thread-Performance maßgeblich für hohe FPS-Raten. Es ist bekannt, dass Spieleentwickler praktisch ausschließlich auf der intel-Architektur entwickeln und dafür optimieren. Das ist ein sehr entscheidender Punkt.

Nach dem Launch von Zen1 hat AMD mit enigen Spieleentwicklern zusammengearbeitet und binnen Monaten die Performance um 20-30% verbessern können. Also Entwicklung, Test und Freigabe binnen Monaten für eine Aufgabe, die sicherlich keine hohe Priorität seitens der Hersteller hatte.
Damit will ich zeigen, wie entscheidend eine Optimierung Einfluss hat.
 
incurable schrieb:
(1) AMD spart am PCIe-Anschluss.

AMD spart nicht am PCIe-Anschluss; Korrekt wäre: AMD spart an den maximal verwendbaren Lanes

incurable schrieb:
(2) Ein Schreiber testet Grafikkarten im Speichermengenlimit.

"Es darf betont werden, dass es sich hier um keine Spezial-Benchmarks handelt, sondern um die ganz normale FullHD-Auflösung mit maximalen Details. Wird die Speichermenge auf acht GiByte verdoppelt, fallen die Leistungseinbußen durch PCI-E 3.0 geringer aus. Dennoch kann die RX 5500 XT 8G um bis zu zehn Prozent durch PCI-E 4.0 zulegen."

"Red Dead Redemption 2 beispielsweise nutzt ebenso die Vulkan-API, geht aber gänzlich anders mit dem vorhanden Speicher um. Stellt man der 4-GiByte-GPU eine Zen-2-CPU zur Seite, bessern sich die Frameraten bereits um 85 Prozent, was sich spürbar auf die Frametimes auswirkt. Mit 8 GiByte ist man schließlich auf der sicheren Seite, kann mit PCI-Express 4.0 unter FullHD aber immer noch 15 Prozent mehr Performance herausholen."


incurable schrieb:
Daraus schlussfolgert @RuhmWolf, dass GPU-Tests zukünftig mit einem langsameren Prozessor durchgeführt werden sollen.

Ein Glück, dass heute schon Freitag ist, und das Jahr jetzt durch. :heilig:

Der langsamere Prozessor ist in diesem Fall aber der 9900K. Das Problem würde es nicht geben, wenn die Grafikkarte 16-fach angebunden wäre, was man AMD ankreiden kann, aber sich nun mal beim Testen nicht ändern lässt.

Es wäre also schön, wenn es mindestens einen Hinweis darauf geben würde oder die Grafikkarte gemäß ihrer Spezifikationen getestet wird.
 
Zuletzt bearbeitet:
RuhmWolf schrieb:
Der langsamere Prozessor ist in diesem Fall aber der 9900K.
Du redest dummes Zeug

Wenn man sich die Grafikkarte absichtlich auf ×8 verkrüppelt bei der Anbindung ,ist klar wo das hinführt bei PCIe 3.0

Die Intel Plattform kann aber ×16 !!, Somit müsste AMD erstmal darlegen was dieser x8 Stunt bei der Grafikkarte sollte
Ob da der Praktikant nur vergessen hat die 8 weiteren Lanes drannzutackern ,wie es eigentlich bisher üblich war, oder ob da andere Absichten im Vordergrund standen, wird wohl niemand preis geben.

Aber dieses Hütchenspiel um die teureren PCIe 4 0 Mobos zu puschen ,scheint ja bei einigen zu fruchten ,wie es scheint

Mal sehen ob der nächste Highendchip dann gar mit 4 Lanes daherkommt ,um auch wirklich auf Nummer sicher zu gehen, das keiner mehr PCIe 3.0 kauft

Naja egal solange NVIDIA nicht mit dem Blödsinn anfängt, braucht sich der nachdenkende Rest der Gesellschaft diesbezüglich keine Gedanken machen, mit der Next Gen Grafikkarte u der schnellsten Spieleplatform

PCGHW bekommt auch noch nen rotten Tomato Oscar für manipulative Tests ,bei denen idiotische Anbindung ,der Speicherpool (4GB) u Spieleauswahl nebst Gamesetting so gewählt wurde, das der Worst Chase eintreten musste, und dann die absurde "neumodische"×8 Anbindung nur als Randnotiz Erwähnung findet

Wenn die Radeon Group schon so arm ist das sie sich keine 16 Lanes auf dem PCB mehr leisten kann, sollten die Fans vielleicht mal sammeln gehen ,damit die Grafikkarten auch noch auf allen Platformen ohne Propeller ihren Dienst so verrichten wie angedacht^^

Letzteren Absatz vielleicht nicht ganz so salty ,hätte ich mir von einem analysierenden Hardwaremagazin erwartet , und nicht "Tests" die einzig u allein dem Absatz der 4.0 Platinen zuträglich sind
 
Zuletzt bearbeitet:
nazgul77 schrieb:
Grund ist die Unreal Engine 4
Die UE4 mag vor Allem Nvidia Grafikkarten, bei den CPUs ist der Unterschied aber weniger stark, zeig mir mal ein anderes aktuelles UE4 Spiel, in dem ein 2600 halb so schnell ist wie ein 8700K
 
Es ist schade, dass ihr zusätzlich zu den bestehenden Test nicht DXR Tests für unterstützte Games anbietet.
Im aktuellen Testparcours sind ja fünf Games vorhanden mit Battlefield V, Metro: Exodus, Shadow of the Tomb Raider, Call of Duty: Modern Warfare und Control.
Alle Titel sollten auch mit den GTX Karten laufen. AMD hat ja leider noch keinen Treiber geliefert, sobald sich da was tut, könnte man die Tests ja nachliefern.

Ich denke, dass es der "Diskussion" in den Kommentaren gut tun würde, über Daten und Fakten anstatt Mutmaßungen, Wunschdenken und Verschwörungstheorien zu schreiben.

Ist natürlich mit einem gewissen Aufwand auf eurer Seite verbunden, aber seht es doch einfach als Beta für 2021, wenn die ersten Multi-Plattform-Games mit Raytracing released werden 😉

EDIT:
Außerdem muss sowieso neben der Rasterisation-Performance auch die Raytracing-Perfermance zwischen Turing und Ampere Mitte 2020 (und evtl. RDNA2) verglichen werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pietcux
Solange DXR nur von Nvidia unterstützt wird, wird das Thema leider irgendwie totgeschwiegen. Ist ja hoffentlich bald vorbei.
 
Es fehlt auf jeden fall die GeForce GTX 1080 Ti noch.
 
AtomLord schrieb:
Zumal bringt RT momentan Null, die Paar Spiele die das unterstützen zocke ich eh nicht, darum ist RT für mich so nötig, wie ein Loch in einer Brücke. Vorallem frisst das Leistung ohne Ende. Und wenn man bei Metro auf einer GTX 1080 das RT zuschaltet, dann hat die die selbe Leistung wie eine RTX 2060, da sieht man dann direkt, dass die achso geilen RT Cores n Scheiß machen und alles über die Shader Units läuft. 😂

So ein Quatsch, in Metro Exodus erreicht die Titan XP gerade mal die 0.1% Min FPS einer RTX 2060
2019-04-16-image-5.png

https://www.techspot.com/review/1831-ray-tracing-geforce-gtx-benchmarks/
 
  • Gefällt mir
Reaktionen: captain kirk, Mumusud und pietcux
Affe007 schrieb:
So ein Quatsch, in Metro Exodus erreicht die Titan XP gerade mal die 0.1% Min FPS einer RTX 2060
Anhang anzeigen 855997
https://www.techspot.com/review/1831-ray-tracing-geforce-gtx-benchmarks/

Also, ich habe 31 - 42 Fps in Metro unter RT. System ist ein i7 5820k @ 4GHz, AsRock X99X Killer, 24 GB Ram @2666 CL-14-14-14 im Quad Channel, Zotac 1080 Mini und Asus Strix DLX Soundkarte. Ich hab das mit meinem Kumpel verglichen, der hat eine 2060 und wir sind fast gleichauf in Metro. :D
 
Zuletzt bearbeitet:
AtomLord schrieb:
Also, ich habe 31 - 42 Fps in Metro unter RT. System ist ein i7 5820k @ 4GHz, AsRock X99X Killer, 24 GB Ram @2666 CL-14-14-14 im Quad Channel, Zotac 1080 Mini und Asus Strix DLX Soundkarte. Ich hab das mit meinem Kumpel verglichen, der hat eine 2060 und wir sind fast gleichauf in Metro. :D
Na dann poste bitte mal genau deine Settings und die Auflösung.
 
pietcux schrieb:
Na dann poste bitte mal genau deine Settings und die Auflösung.

Bitteschön :p

Traue keiner Statistik, die du nicht selbst gefälscht hast :D ... Macht sogar mehr mit dem aktuellen Treiber 😁

Mit dem RT Geraffel heizt die Karte aber richtig bei 85°C ... Sonst hat die 10° weniger beim zocken... Ist aber auch nur mein zweit PC, muss die Karte also nicht oft so leiden ... 😆
IMG_20191223_152410.jpg
IMG_20191223_152419.jpg
IMG_20191223_152431.jpg
IMG_20191223_152449.jpg
 
Zuletzt bearbeitet:
Dann ist es eventuell besser geworden. Meine (inzwischen verkaufte) GTX 1080 lag bei 10 fps, Basis war allerdings ein FX8320 im Altrechner.
 
pietcux schrieb:
Dann ist es eventuell besser geworden. Meine (inzwischen verkaufte) GTX 1080 lag bei 10 fps, Basis war allerdings ein FX8320 im Altrechner.
Ja, NV hat wohl die Sperre weggemacht, wie es aussieht. 🤨 ... Zumal, der FX 8320 ist ein totaler Bremsklotz für die 1080. Die CPU taugt nichts, ich hatte die ja auch und da ist jeder i5 2500K schneller, als das Ding. 😁
 
nice try eine bis ans Erbrechen übertaktete GTX 1080 ti ,zudem noch mit nicht verifizierten Werten irgendwo aus dem Game gegriffen ,mit einer Standardtakt RTX 2060 zu verwursteln ,hat schon einen gewissen Beigeschmack

oder es mit deinen Worten zu sagen

Traue keiner Statistik, die du nicht selbst gefälscht hast :D

der Smile war da gewiss nicht deplatziert

und by the way hast du dir mal die Größen der beiden im selben Node hergestellten Chips betrachtet

die Wachablösung für die riesige Ti ist gewiss nicht der Winzling 2060

Und unter der Prämisse darf man schon erwarten , das hier vernünftige Schlussfolgerungen folgen

pietcux schrieb:
Dann ist es eventuell besser geworden.
Metro hat sich generell gesteigert ,auch auf den RTX Karten
 
Zuletzt bearbeitet:
captain kirk schrieb:
nice try eine bis ans Erbrechen übertaktete GTX 1080 ti ,zudem noch mit nicht verifizierten Werten irgendwo aus dem Game gegriffen ,mit einer Standardtakt RTX 2060 zu verwursteln ,hat schon einen gewissen Beigeschmack

oder es mit deinen Worten zu sagen



der Smile war da gewiss nicht deplatziert

und by the way hast du dir mal die Größen der beiden im selben Node hergestellten Chips betrachtet

die Wachablösung für die Ti ist gewiss nicht der Winzling 2060

Ist in der Wüste, beim Zug die 1080 fällt nicht unter 30 Fps auf der Karte... An der stelle hatte ich vorher auch 18 - 25 Fps durchgehend. Und das ist eine Zotac 1080 @ Stock und keine Ti übrigens 🤪
pc2.png
 
Zuletzt bearbeitet:
Genau deswegen soll CB die Benchmarks endlich auch mit DXR machen. Ich trau techspot.com ehrlich gesagt mehr als Herr AtomLord 😏
 
  • Gefällt mir
Reaktionen: captain kirk und pietcux
xexex schrieb:
Das hat sich Nvidia auch gedacht und hat mit DLSS versucht die Kerne entsprechend auszulasten. Ich sehe im Moment aber leider zu wenig Nutzen für die Einheiten

Und ich bin nach dieser Meldung über den neuen Orin für den autonom fahrenden Sektor ,einmal mehr überzeugt das wir auch im Grafiksektor ein schnell schaltendes 8bit Tensor/Raytracing Monster bekommen werden, und die ordinären "schweren" 32bit Shader nicht mehr die Rolle spielen, wie noch zu Pascal Zeiten



Nvidia macht bei den SOC zwar spezielle Anpassungen für die Autoindustrie , nur wird der GPU Part(Ampere???) eben wie auch Volta zuvor in Xavier mehrfach verwurstet , so wie die Autoindustrie das quasi auch zelebriert und VW, Skoda,Seat u wie sie alle heißen die selbe Plattform nutzen
 
Zuletzt bearbeitet:
captain kirk schrieb:
nice try eine bis ans Erbrechen übertaktete GTX 1080 ti

Da läge der Takt dann aber irgendwo um die 2Ghz+

Bis ans Erbrechen sieht anders aus. 2Ghz liefert meine schon mit Standard OC via Afterburner OC Scanner und läuft dann ins Powerlimit bei 300-315W. Davon abgesehen hat er eine 1080 non Ti. ;)

Interessant wird der RT Vergleich halt erst in Szenarien wo sehr viel RT eingesetzt wird, wenn man in bestimmten Games nur wenig RT nutzt für Kleinigkeiten kann auch eine GTX noch was reissen, sobald aber ein Grossteil der Beleuchtung über RT geht wirds natürlich sehr schnell übel.
 
Zuletzt bearbeitet:
Zurück
Oben