Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test GPU-Testparcours 2020: Grafikkarten von AMD und Nvidia im Vergleich
- Ersteller Jan
- Erstellt am
- Zum Test: GPU-Testparcours 2020: Grafikkarten von AMD und Nvidia im Vergleich
nazgul77
Lieutenant
- Registriert
- Feb. 2006
- Beiträge
- 779
ZeroStrat schrieb:Da würde ich schon gerne mal wissen, warum hier die Ryzens so derbe abstinken.
Grund ist die Unreal Engine 4, freigegeben Anfang 2014. Damals waren zwei CPU-Kerne Mainstream und Intel-CPUs ein quasi-Monopol.
UE4 unterstützt kein Multi-Threading. Jedenfalls nicht von Haus aus. Damit ist die SIngle-Thread-Performance maßgeblich für hohe FPS-Raten. Es ist bekannt, dass Spieleentwickler praktisch ausschließlich auf der intel-Architektur entwickeln und dafür optimieren. Das ist ein sehr entscheidender Punkt.
Nach dem Launch von Zen1 hat AMD mit enigen Spieleentwicklern zusammengearbeitet und binnen Monaten die Performance um 20-30% verbessern können. Also Entwicklung, Test und Freigabe binnen Monaten für eine Aufgabe, die sicherlich keine hohe Priorität seitens der Hersteller hatte.
Damit will ich zeigen, wie entscheidend eine Optimierung Einfluss hat.
incurable schrieb:(1) AMD spart am PCIe-Anschluss.
AMD spart nicht am PCIe-Anschluss; Korrekt wäre: AMD spart an den maximal verwendbaren Lanes
incurable schrieb:(2) Ein Schreiber testet Grafikkarten im Speichermengenlimit.
"Es darf betont werden, dass es sich hier um keine Spezial-Benchmarks handelt, sondern um die ganz normale FullHD-Auflösung mit maximalen Details. Wird die Speichermenge auf acht GiByte verdoppelt, fallen die Leistungseinbußen durch PCI-E 3.0 geringer aus. Dennoch kann die RX 5500 XT 8G um bis zu zehn Prozent durch PCI-E 4.0 zulegen."
"Red Dead Redemption 2 beispielsweise nutzt ebenso die Vulkan-API, geht aber gänzlich anders mit dem vorhanden Speicher um. Stellt man der 4-GiByte-GPU eine Zen-2-CPU zur Seite, bessern sich die Frameraten bereits um 85 Prozent, was sich spürbar auf die Frametimes auswirkt. Mit 8 GiByte ist man schließlich auf der sicheren Seite, kann mit PCI-Express 4.0 unter FullHD aber immer noch 15 Prozent mehr Performance herausholen."
incurable schrieb:Daraus schlussfolgert @RuhmWolf, dass GPU-Tests zukünftig mit einem langsameren Prozessor durchgeführt werden sollen.
Ein Glück, dass heute schon Freitag ist, und das Jahr jetzt durch.
Der langsamere Prozessor ist in diesem Fall aber der 9900K. Das Problem würde es nicht geben, wenn die Grafikkarte 16-fach angebunden wäre, was man AMD ankreiden kann, aber sich nun mal beim Testen nicht ändern lässt.
Es wäre also schön, wenn es mindestens einen Hinweis darauf geben würde oder die Grafikkarte gemäß ihrer Spezifikationen getestet wird.
Zuletzt bearbeitet:
captain kirk
Lieutenant
- Registriert
- Okt. 2019
- Beiträge
- 720
Du redest dummes ZeugRuhmWolf schrieb:Der langsamere Prozessor ist in diesem Fall aber der 9900K.
Wenn man sich die Grafikkarte absichtlich auf ×8 verkrüppelt bei der Anbindung ,ist klar wo das hinführt bei PCIe 3.0
Die Intel Plattform kann aber ×16 !!, Somit müsste AMD erstmal darlegen was dieser x8 Stunt bei der Grafikkarte sollte
Ob da der Praktikant nur vergessen hat die 8 weiteren Lanes drannzutackern ,wie es eigentlich bisher üblich war, oder ob da andere Absichten im Vordergrund standen, wird wohl niemand preis geben.
Aber dieses Hütchenspiel um die teureren PCIe 4 0 Mobos zu puschen ,scheint ja bei einigen zu fruchten ,wie es scheint
Mal sehen ob der nächste Highendchip dann gar mit 4 Lanes daherkommt ,um auch wirklich auf Nummer sicher zu gehen, das keiner mehr PCIe 3.0 kauft
Naja egal solange NVIDIA nicht mit dem Blödsinn anfängt, braucht sich der nachdenkende Rest der Gesellschaft diesbezüglich keine Gedanken machen, mit der Next Gen Grafikkarte u der schnellsten Spieleplatform
PCGHW bekommt auch noch nen rotten Tomato Oscar für manipulative Tests ,bei denen idiotische Anbindung ,der Speicherpool (4GB) u Spieleauswahl nebst Gamesetting so gewählt wurde, das der Worst Chase eintreten musste, und dann die absurde "neumodische"×8 Anbindung nur als Randnotiz Erwähnung findet
Wenn die Radeon Group schon so arm ist das sie sich keine 16 Lanes auf dem PCB mehr leisten kann, sollten die Fans vielleicht mal sammeln gehen ,damit die Grafikkarten auch noch auf allen Platformen ohne Propeller ihren Dienst so verrichten wie angedacht^^
Letzteren Absatz vielleicht nicht ganz so salty ,hätte ich mir von einem analysierenden Hardwaremagazin erwartet , und nicht "Tests" die einzig u allein dem Absatz der 4.0 Platinen zuträglich sind
Zuletzt bearbeitet:
Taxxor
Fleet Admiral
- Registriert
- Mai 2011
- Beiträge
- 20.680
Die UE4 mag vor Allem Nvidia Grafikkarten, bei den CPUs ist der Unterschied aber weniger stark, zeig mir mal ein anderes aktuelles UE4 Spiel, in dem ein 2600 halb so schnell ist wie ein 8700Knazgul77 schrieb:Grund ist die Unreal Engine 4
Affe007
Lt. Commander
- Registriert
- März 2004
- Beiträge
- 1.463
Es ist schade, dass ihr zusätzlich zu den bestehenden Test nicht DXR Tests für unterstützte Games anbietet.
Im aktuellen Testparcours sind ja fünf Games vorhanden mit Battlefield V, Metro: Exodus, Shadow of the Tomb Raider, Call of Duty: Modern Warfare und Control.
Alle Titel sollten auch mit den GTX Karten laufen. AMD hat ja leider noch keinen Treiber geliefert, sobald sich da was tut, könnte man die Tests ja nachliefern.
Ich denke, dass es der "Diskussion" in den Kommentaren gut tun würde, über Daten und Fakten anstatt Mutmaßungen, Wunschdenken und Verschwörungstheorien zu schreiben.
Ist natürlich mit einem gewissen Aufwand auf eurer Seite verbunden, aber seht es doch einfach als Beta für 2021, wenn die ersten Multi-Plattform-Games mit Raytracing released werden 😉
EDIT:
Außerdem muss sowieso neben der Rasterisation-Performance auch die Raytracing-Perfermance zwischen Turing und Ampere Mitte 2020 (und evtl. RDNA2) verglichen werden.
Im aktuellen Testparcours sind ja fünf Games vorhanden mit Battlefield V, Metro: Exodus, Shadow of the Tomb Raider, Call of Duty: Modern Warfare und Control.
Alle Titel sollten auch mit den GTX Karten laufen. AMD hat ja leider noch keinen Treiber geliefert, sobald sich da was tut, könnte man die Tests ja nachliefern.
Ich denke, dass es der "Diskussion" in den Kommentaren gut tun würde, über Daten und Fakten anstatt Mutmaßungen, Wunschdenken und Verschwörungstheorien zu schreiben.
Ist natürlich mit einem gewissen Aufwand auf eurer Seite verbunden, aber seht es doch einfach als Beta für 2021, wenn die ersten Multi-Plattform-Games mit Raytracing released werden 😉
EDIT:
Außerdem muss sowieso neben der Rasterisation-Performance auch die Raytracing-Perfermance zwischen Turing und Ampere Mitte 2020 (und evtl. RDNA2) verglichen werden.
Zuletzt bearbeitet:
heiko-soft
Ensign
- Registriert
- Jan. 2004
- Beiträge
- 129
Es fehlt auf jeden fall die GeForce GTX 1080 Ti noch.
Affe007
Lt. Commander
- Registriert
- März 2004
- Beiträge
- 1.463
AtomLord schrieb:Zumal bringt RT momentan Null, die Paar Spiele die das unterstützen zocke ich eh nicht, darum ist RT für mich so nötig, wie ein Loch in einer Brücke. Vorallem frisst das Leistung ohne Ende. Und wenn man bei Metro auf einer GTX 1080 das RT zuschaltet, dann hat die die selbe Leistung wie eine RTX 2060, da sieht man dann direkt, dass die achso geilen RT Cores n Scheiß machen und alles über die Shader Units läuft. 😂
So ein Quatsch, in Metro Exodus erreicht die Titan XP gerade mal die 0.1% Min FPS einer RTX 2060
https://www.techspot.com/review/1831-ray-tracing-geforce-gtx-benchmarks/
AtomLord
Lieutenant
- Registriert
- Dez. 2018
- Beiträge
- 735
Affe007 schrieb:So ein Quatsch, in Metro Exodus erreicht die Titan XP gerade mal die 0.1% Min FPS einer RTX 2060
Anhang anzeigen 855997
https://www.techspot.com/review/1831-ray-tracing-geforce-gtx-benchmarks/
Also, ich habe 31 - 42 Fps in Metro unter RT. System ist ein i7 5820k @ 4GHz, AsRock X99X Killer, 24 GB Ram @2666 CL-14-14-14 im Quad Channel, Zotac 1080 Mini und Asus Strix DLX Soundkarte. Ich hab das mit meinem Kumpel verglichen, der hat eine 2060 und wir sind fast gleichauf in Metro.
Zuletzt bearbeitet:
pietcux
Lt. Commander
- Registriert
- Juli 2007
- Beiträge
- 1.810
Na dann poste bitte mal genau deine Settings und die Auflösung.AtomLord schrieb:Also, ich habe 31 - 42 Fps in Metro unter RT. System ist ein i7 5820k @ 4GHz, AsRock X99X Killer, 24 GB Ram @2666 CL-14-14-14 im Quad Channel, Zotac 1080 Mini und Asus Strix DLX Soundkarte. Ich hab das mit meinem Kumpel verglichen, der hat eine 2060 und wir sind fast gleichauf in Metro.
AtomLord
Lieutenant
- Registriert
- Dez. 2018
- Beiträge
- 735
pietcux schrieb:Na dann poste bitte mal genau deine Settings und die Auflösung.
Bitteschön
Traue keiner Statistik, die du nicht selbst gefälscht hast ... Macht sogar mehr mit dem aktuellen Treiber 😁
Mit dem RT Geraffel heizt die Karte aber richtig bei 85°C ... Sonst hat die 10° weniger beim zocken... Ist aber auch nur mein zweit PC, muss die Karte also nicht oft so leiden ... 😆
Zuletzt bearbeitet:
AtomLord
Lieutenant
- Registriert
- Dez. 2018
- Beiträge
- 735
Ja, NV hat wohl die Sperre weggemacht, wie es aussieht. 🤨 ... Zumal, der FX 8320 ist ein totaler Bremsklotz für die 1080. Die CPU taugt nichts, ich hatte die ja auch und da ist jeder i5 2500K schneller, als das Ding. 😁pietcux schrieb:Dann ist es eventuell besser geworden. Meine (inzwischen verkaufte) GTX 1080 lag bei 10 fps, Basis war allerdings ein FX8320 im Altrechner.
captain kirk
Lieutenant
- Registriert
- Okt. 2019
- Beiträge
- 720
nice try eine bis ans Erbrechen übertaktete GTX 1080 ti ,zudem noch mit nicht verifizierten Werten irgendwo aus dem Game gegriffen ,mit einer Standardtakt RTX 2060 zu verwursteln ,hat schon einen gewissen Beigeschmack
oder es mit deinen Worten zu sagen
der Smile war da gewiss nicht deplatziert
und by the way hast du dir mal die Größen der beiden im selben Node hergestellten Chips betrachtet
die Wachablösung für die riesige Ti ist gewiss nicht der Winzling 2060
Und unter der Prämisse darf man schon erwarten , das hier vernünftige Schlussfolgerungen folgen
oder es mit deinen Worten zu sagen
Traue keiner Statistik, die du nicht selbst gefälscht hast
der Smile war da gewiss nicht deplatziert
und by the way hast du dir mal die Größen der beiden im selben Node hergestellten Chips betrachtet
die Wachablösung für die riesige Ti ist gewiss nicht der Winzling 2060
Und unter der Prämisse darf man schon erwarten , das hier vernünftige Schlussfolgerungen folgen
Metro hat sich generell gesteigert ,auch auf den RTX Kartenpietcux schrieb:Dann ist es eventuell besser geworden.
Zuletzt bearbeitet:
AtomLord
Lieutenant
- Registriert
- Dez. 2018
- Beiträge
- 735
captain kirk schrieb:nice try eine bis ans Erbrechen übertaktete GTX 1080 ti ,zudem noch mit nicht verifizierten Werten irgendwo aus dem Game gegriffen ,mit einer Standardtakt RTX 2060 zu verwursteln ,hat schon einen gewissen Beigeschmack
oder es mit deinen Worten zu sagen
der Smile war da gewiss nicht deplatziert
und by the way hast du dir mal die Größen der beiden im selben Node hergestellten Chips betrachtet
die Wachablösung für die Ti ist gewiss nicht der Winzling 2060
Ist in der Wüste, beim Zug die 1080 fällt nicht unter 30 Fps auf der Karte... An der stelle hatte ich vorher auch 18 - 25 Fps durchgehend. Und das ist eine Zotac 1080 @ Stock und keine Ti übrigens 🤪
Zuletzt bearbeitet:
captain kirk
Lieutenant
- Registriert
- Okt. 2019
- Beiträge
- 720
dann nimm doch zur Vergleichbarkeit als aller erstes mal Stock Werte u den selben Benchmarkparcour wie Techspot
captain kirk
Lieutenant
- Registriert
- Okt. 2019
- Beiträge
- 720
xexex schrieb:Das hat sich Nvidia auch gedacht und hat mit DLSS versucht die Kerne entsprechend auszulasten. Ich sehe im Moment aber leider zu wenig Nutzen für die Einheiten
Und ich bin nach dieser Meldung über den neuen Orin für den autonom fahrenden Sektor ,einmal mehr überzeugt das wir auch im Grafiksektor ein schnell schaltendes 8bit Tensor/Raytracing Monster bekommen werden, und die ordinären "schweren" 32bit Shader nicht mehr die Rolle spielen, wie noch zu Pascal Zeiten
Zusammen mit zusätzlichen Beschleunigerkernen soll Orin eine besonders hohe Rechenleistung in den Anwendungsbereichen des Machinellen Lernens (Deep Learning) und Machinellen Sehens (Computer Vision) entfachen. Nvidia spricht pro Orin-SoC von kombiniert 200 Billionen Operationen pro Sekunde (200 TOPS INT8
Nvidia macht bei den SOC zwar spezielle Anpassungen für die Autoindustrie , nur wird der GPU Part(Ampere???) eben wie auch Volta zuvor in Xavier mehrfach verwurstet , so wie die Autoindustrie das quasi auch zelebriert und VW, Skoda,Seat u wie sie alle heißen die selbe Plattform nutzen
Zuletzt bearbeitet:
ThirdLife
Commander
- Registriert
- Aug. 2019
- Beiträge
- 2.989
captain kirk schrieb:nice try eine bis ans Erbrechen übertaktete GTX 1080 ti
Da läge der Takt dann aber irgendwo um die 2Ghz+
Bis ans Erbrechen sieht anders aus. 2Ghz liefert meine schon mit Standard OC via Afterburner OC Scanner und läuft dann ins Powerlimit bei 300-315W. Davon abgesehen hat er eine 1080 non Ti.
Interessant wird der RT Vergleich halt erst in Szenarien wo sehr viel RT eingesetzt wird, wenn man in bestimmten Games nur wenig RT nutzt für Kleinigkeiten kann auch eine GTX noch was reissen, sobald aber ein Grossteil der Beleuchtung über RT geht wirds natürlich sehr schnell übel.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 877
- Aufrufe
- 276.443