Test GPU-Testparcours 2020: Grafikkarten von AMD und Nvidia im Vergleich

Die letzten 5 Seiten hätte man auch mit einem Satz abkürzen können:

Alle Leistungsmerkmale, die meine Lieblingskarte / mein Lieblingshersteller nicht implementiert hat, sind irrelevant. (aber nur bis meine neue Lieblingskarte bzw. deren Hersteller sie unterstützt!)
 
  • Gefällt mir
Reaktionen: Schattenspender, pietcux, Mumusud und eine weitere Person
Laphonso schrieb:
AMD hat da NICHTS im Angebot, das ist die Antwort. Nvidia wird mit den 3000ern bereits die zweite Iteration an RT Technik launchen, irgendwann 2020. Nicht nur im High End, auch in RT Features ist Nvidia vorne.
Und du kannst dir sicher sein ,das die die RT Cores jetzt ordentlich aufstocken werden mit der nächsten Ausbaustufe,nachdem klar ist das die Konsolen mitziehen werden

AMD hat gleich mehrere Hürden zunehmen ,zum einen müssen sie die Effizienz u die Performance steigern, denn die ist mit den 7nm Hallenvorteil derzeit schlicht u ergreifend grottig, und sie müssen auf dem Silizium Platz für Raytracing schaffen, was sie bisher nicht als Ballast eingeplant haben, und zudem keine über 1 Jährige Praxiserfahrung mit DXR im Treiberteam besitzen
 
Zuletzt bearbeitet:
Ich weiß ned warum, aber mich regt es tierisch auf das ich vor ned mal einem Jahr eine RTX2070 gekauft habe, dafür richtig Asche aufn Tisch gelegt habe und ned mal ein Jahr später wird nur noch die RTX2070 Super in Benchmarks geschrieben. Aber ne Alte 1080 wird seit gefühlten Ewigkeiten gelistet.
 
  • Gefällt mir
Reaktionen: pietcux
captain kirk schrieb:
Und du kannst dir sicher sein ,das die die RT Cores jetzt ordentlich aufstocken werden mit der nächsten Ausbaustufe,nachdem klar ist das die Konsolen mitziehen werden

Ich finde den Weg über dedizierte RT Cores allerdings suboptimal, vergrößert es doch den sowieso schon riesigen Chip, macht die Karten dadurch teuer und trotzdem halten sich die Vorteile für den Kunden, wegen der wenigen Titel in Grenzen. Für die kommenden Nvidia GPU Generation würde ich mir eine bessere Auslastung der Chips wünschen und "Universaleinheiten", die nach Bedarf sowohl für normale als auch für RT Berechnungen genutzt werden können.

Man stelle sich vor, es wäre möglich die Tensor und RT Kerne sinnvoll in die normalen Berechnungen einfließen zu lassen, dann würde eine RTX2060 Runden um alle aktuellen AMD Karten drehen.
 
Das klassische Rendering wird doch nach u nach mehr u mehr verdrängt werden
Somit ist ein simultaner Ausbau mit dedizierten Cores gar nicht mal so verkehrt
Einheiten die alles abdecken ,sind von ihrem Wirkungsgrad her ,auch nicht das gelbe vom Ei
Wenn man es schafft von Generation zu Generation den Raster u Raytracingpart ausgewogen einzupflanzen bzw abzuspecken, so dürfte die Separierung schon das bessere weil effizientere Resultat liefern
Somal die modernen Grafikengines auch darauf hin getrimmt werden adaptiv sich anzupassen
Wenn halt ne Karte sich anmeldet mit Mörder RT Cores im Gepäck ,wird halt auch mehr der Berechnungen dorthin verlagert ,und bei ner old School Karte gibts halt nen Backfall auf Rasteroptik
 
Zuletzt bearbeitet:
captain kirk schrieb:
Somal die modernen Grafikengines auch darauf hin getrimmt werden adaptiv sich anzupassen

Das hat sich Nvidia auch gedacht und hat mit DLSS versucht die Kerne entsprechend auszulasten. Ich sehe im Moment aber leider zu wenig Nutzen für die Einheiten und die benötigte Fläche gibt es nicht umsonst. Bleibt es bei der aktuellen Architektur, wird eine 3080Ti locker die 2000€ Marke sprengen, wenn sie in allen Bereichen an Rechenleistung zulegen will. und trotzdem werden die Nutzer vermutlich "nur" 30% Mehrleistung bei Titeln ohne RT bekommen.
 
  • Gefällt mir
Reaktionen: Laphonso
xexex schrieb:
Das hat sich Nvidia auch gedacht und hat mit DLSS versucht die Kerne entsprechend auszulasten. Ich sehe im Moment aber leider zu wenig Nutzen für die Einheiten und die benötigte Fläche gibt es nicht umsonst. Bleibt es bei der aktuellen Architektur, wird eine 3080Ti locker die 2000€ Marke sprengen, wenn sie in allen Bereichen an Rechenleistung zulegen will. und trotzdem werden die Nutzer vermutlich "nur" 30% Mehrleistung bei Titeln ohne RT bekommen.

Stellt sich die Frage wie gross der Markt für so eine Karte ist. Ich würde mal behaupten mikroskopisch klein. Ich stehe auch auf Leistung, gerne so viel wie möglich...aber irgendwo hat alles Grenzen. 😅
 
Wie gesagt alle neuen Grafikengines werden schon daraufhin getrimmt adaptiv zu Arbeiten
Von daher muss eine Karte deren Hauptaugenmerk auf dem Ausbau der RT Performance legt ,bei der Rastergrafik nicht auch noch zulegen, den Teil erledigt dann eben die Tensor Abteilung

Wenn sie es schafft die old School Spiele ,die das noch nicht inne haben adäquat abzudecken, ist der Drops doch schon gelutscht
Und das schafft selbst jetzt schon die erste Turing Generation

Von daher würde ich was den Rasterpart angeht ,gar keine großen Überraschungen mehr erwarten

Ich tippe darauf das die 3000er Reihe jetzt ein richtiges Tensor Monster wird,mit der Fähigkeit mehrere Effekte potent mit RT abzudecken ,und der Rasterpart bestenfalls konstant gehalten wird

Sollten irgendwann alle Engines adaptiv mit RT arbeiten können,gebe es quasi keinen Grund mehr Raster Hardware zu verbauen, sofern die Chips bis dahin schon leistungfähig genug wären ,für bedingungsloses RT
 
Zuletzt bearbeitet:
captain kirk schrieb:
Und das schafft selbst jetzt schon die erste Turing Generation

Also ich kenne keine Karte die ein RDR2 mit min. 60 FPS Ultra darstellen kann in UHD. Auch keine 2080 Ti. Bestenfalls 40-50fps reden wir da. Es fehlt also noch an Leistung in diesem Segment und zwar nicht zu knapp.
 
captain kirk schrieb:
Von daher muss eine Karte deren Hauptaugenmerk auf dem Ausbau der RT Performance legt ,bei der Rastergrafik nicht auch noch zulegen, den Teil erledigt dann eben die Tensor Abteilung

Wie erwähnt, sehe ich eben nicht so!

Im kommenden Jahr werden vielleicht mehr Titel mit RT Unterstützung kommen, der Markt dafür bleibt aber noch jahrelang entsprechend klein. Deine Rechnung würde aufgehen, wenn man zum Beispiel bei BFV komplett auf normale Spiegelungen verzichten würde und nur noch auf RT Kerne setzen würde. Allerdings war das bis heute bei keinen Titel der Fall und die Entwickler haben DXR praktisch On-Top auf die auch sonst schon benötigte Leistung gesetzt.

Was du erzählst wäre die Wunschvorstellung und etwas womit Nvidia die RTX Karten angepriesen hat. Statt mühselig Fake Effekte einzubauen und damit Rechenleistung verschwenden, setzt man einfach auf DXR und lässt die Arbeit den Renderer übernehmen. Zwischen Realität und Vorstellung wird aber noch viele Jahre eine große Diskrepanz herrschen.
 
Zuletzt bearbeitet:
@ThirdLife
Und wenn diese Leistung die noch fehlt,ersetzt wird durch den größer werdenden RT Part, ist doch der Sprung genauso vorhanden

Mal ganz davon ab das Rockstar über kurz oder lang bei der nächsten Konsolengeneration auch einen adaptiven Ansatz wählen muss, wenn sie nicht hinten runter fallen wollen beim zur Verfügung stehenden Featureset

Das Beispiel RD2 ist somit also jetzt schon auf dem sterbenden Ast

Mit Turing 1.0 musste man noch vorsichtig sein ,wohin sich die gesamte Industrie bewegt, jetzt mit Bestätigung der Rt Fähigkeit der Konsolen ,kann die zweite Generation jetzt aber quasi aus den vollen schöpfen, da man jetzt Planungssicherheit hat,sowohl auf Hardware als auch Softwareebene

xexex schrieb:
Deine Rechnung würde aufgehen, wenn man zum Beispiel bei BFV komplett auf normale Spiegelungen verzichten würde und nur noch auf RT Kerne setzen würde. Allerdings war das bis heute bei keinen Titel der Fall
Die Rechnung geht wie gesagt schon auf wenn die Engine eine Info bekommt "Karte ist potent genug für Spiegelungen ,Verschattungen mit RT ec pp,und dann den entsprechenden Raytracing Layer auflegt,oder eben zurück schaltet auf Rastergrafik

Somit ist es quasi dem Hersteller überlassen ,ob er sich dazu entschließt Effekte mit RT oder altbacken per Hardware zu supporten,und muss nicht simultan beides weiter ausbauen, wenn RT das bessere Endresultat auf den Monitor zaubert

Rastergrafik wird nach u nach verschwinden ,eben weil man diesem Ansatz mit dem adaptiven Modell Rechnung trägt
 
Zuletzt bearbeitet:
Super Test weiter so im nächsten Jahr.
 
  • Gefällt mir
Reaktionen: Laphonso
Sun-Berg schrieb:
Ich finde nicht, dass AMD das verpennt hat. Nvidia ist wie gesagt, mit der Technik vorgesprungen und hat AMD unter Zugzwang gesetzt, klar. Aber anhand der handvoll sinnvollen Umsetzungen bei denen Nvidia selbst mit angepackt hat, besteht sehr wenig Zwang und bis es wirklich im Mainstream angekommen ist, wird es auch von AMD eine Lösung geben. Ob die dann gut ist oder nicht wird sich zeigen müssen.

Sehe ich auch so!
Das Geschrei wäre groß gewesen, wenn Navi@RT in 1440p net 60fps liefern würde. Reicht ja ne Gen später.

btw.
NV kanns ja net mal mit der Ti in HighQuality. Bei 4k ist ganz die Luft raus.(muss schon auf 1080p@DLSS runter)
Das DLSS ist auch net so der Bringer. Da schaut RIS deutlich besser aus.
Von einem kompletten Lineup von NV würde ich daher derzeit net sprechen.
Ok, die Ti mit Augen zu und durch.
 

Anhänge

  • Control@Ti.jpg
    Control@Ti.jpg
    214 KB · Aufrufe: 375
Zuletzt bearbeitet:
GerryB schrieb:
Sehe ich auch so!
Das Geschrei wäre groß gewesen, wenn Navi@RT in 1440p net 60fps liefern würde. Reicht ja ne Gen später.

btw.
NV kanns ja net mal mit der Ti in HighQuality. Bei 4k ist ganz die Luft raus.(muss schon auf 1080p@DLSS runter)
Das DLSS ist auch net so der Bringer. Da schaut RIS deutlich besser aus.
Von einem kompletten Lineup von NV würde ich daher derzeit net sprechen.
Ok, die Ti mit Augen zu und durch.
Die Anzahl der Leute mit halbwegs Durchblick, die irgendwo eine 4K GPU gesehen haben bisher war Null.
(Positiv formuliert: Wer das bisher analysiert hat, erkennt, dass wir noch eine ganze Ecke entfernt sind von soliden 60+ avg fps unter Ultra oder nahezu max Details, selbst die 2080Ti kam zum Release nicht infrage dafür)

Die 2080Ti bekomme ich unter 1440p bereits brutal (zum Teil weit) unter dreistellige fps und bis zu 70-75 gedrückt, je nach Spiel und Engine.
Für mich als gfx+fps Junkie, der Effekte, graphische Immersion und Design liebt, veredelt mit Reshade Effekten etc, blieb nur die 2080Ti, und selbst die könnte noch schneller sein, wenn es nach mir ginge.
Mein Bruder ist auch so irre, aber sogar ich bin bei 1500 Euro ausgestiegen für eine 2080Ti Waterforce, die ist zumindest souverän im 60fps 4K (Ultra) Umfeld oder "in der Nähe", aber immer noch zu langsam.

Zu AMD brauchen wir da gar nicht schauen, das vergießt nur Tränen, die sind ja völlig aus dem Rennen in dem gfx+fps Enthusiasten Segment.

In diesem Sinne ja, weder Nvidia noch AMD haben 4K GPUs im Portfolio.
Meine Schwelle ist da nicht "spielbar", sondern 4 K mit Effekten+Schatten und allem,w as die gfx Designer so eingebaut haben.
 
Zuletzt bearbeitet:
Vllt. gibts ja ne Wende zu mGPU. Mit 2x Ti geht schon Was.
btw.
Bei NV scheint ja sogar in RDR2@VLK mGPU zu funzen.(AMD leider net)
 
captain kirk schrieb:
@ThirdLife
Und wenn diese Leistung die noch fehlt,ersetzt wird durch den größer werdenden RT Part, ist doch der Sprung genauso vorhanden

Mal ganz davon ab das Rockstar über kurz oder lang bei der nächsten Konsolengeneration auch einen adaptiven Ansatz wählen muss, wenn sie nicht hinten runter fallen wollen beim zur Verfügung stehenden Featureset

Das Beispiel RD2 ist somit also jetzt schon auf dem sterbenden Ast

Mit Turing 1.0 musste man noch vorsichtig sein ,wohin sich die gesamte Industrie bewegt, jetzt mit Bestätigung der Rt Fähigkeit der Konsolen ,kann die zweite Generation jetzt aber quasi aus den vollen schöpfen, da man jetzt Planungssicherheit hat,sowohl auf Hardware als auch Softwareebene
Erstens sind das sehr viele wenns und könnte und zweitens ist das kein Prozess der auch nur im Ansatz so kurzfristig stattfinden wird wie du es jetzt sagst. Es nutzt nVidia garnix eine 3080 Ti hinzuknallen mit 10% mehr Raster Performance aber 50% mehr RT Power wenn es gefühlt drei Spiele gibt die das nutzen. Bis es mal genügend Games gibt steht wohl schon Generation 4xxx oder 5xxx vor der Tür und es langt auch erst DANN wirklich so etwas zu liefern als jetzt wo es noch nicht gebraucht wird und der Fokus noch auf Raster liegt.

Dass es da hin gehen könnte und das auch faszinierend wäre, dem stimme ich zu. Gespannt bin ich sowieso.


Laphonso schrieb:
In diesem Sinne ja, weder Nvidia noch AMD haben 4K GPUs im Portfolio.
Meine Schwelle ist da nicht "spielbar", sondern 4 K mit Effekten+Schatten und allem,w as die gfx Designer so eingebaut haben.

Und selbst dann wäre das immer noch nix zum abfeiern wenn man dann vor seinem 165Hz UHD Screen sitzt und alles mit 60fps endlich läuft. Ich hab das Gefühl nVidia agiert derzeit wie Intel dazumals, alle zwei Jahre mal einen neuen Quad raushauen mit 5% mehr Leistung und wieder dasselbe oder mehr Geld verlangen.

Mangels Konkurrenz können sie das ja leider auch tun und müssen nur das Nötigste abliefern um vorne dran zu bleiben. Ich will gar nicht wissen welche Marge auf den Chips liegt. 50-100€ Kosten und 1500 Verdienst im VK zum Release...
 
RizzoSpacerat schrieb:
Ich weiß ned warum, aber mich regt es tierisch auf das ich vor ned mal einem Jahr eine RTX2070 gekauft habe, dafür richtig Asche aufn Tisch gelegt habe und ned mal ein Jahr später wird nur noch die RTX2070 Super in Benchmarks geschrieben.
Ist wie bei 1070 Ti und 1080, einfach nach der 2060 Super schauen, minimal nach oben anpassen, und schon weißt Du, wo Deine Karte landet.
Ergänzung ()

xexex schrieb:
Das hat sich Nvidia auch gedacht und hat mit DLSS versucht die Kerne entsprechend auszulasten. Ich sehe im Moment aber leider zu wenig Nutzen für die Einheiten
DLSS ist Upscaling für Benchmarkbalken. Funktioniert leider nur, wenn der Tester vor dem Bildschirm blind oder Unschärfefetischist ist.

Aber hey, die Funktionseinheiten waren eh im Chip, da kann man damit auch "irgendwas mit AI" vermarkten, gibt ja keine Nachteile.
 
Zuletzt bearbeitet:
GerryB schrieb:
Sehe ich auch so!
Das Geschrei wäre groß gewesen, wenn Navi@RT in 1440p net 60fps liefern würde. Reicht ja ne Gen später.

btw.
NV kanns ja net mal mit der Ti in HighQuality. Bei 4k ist ganz die Luft raus.(muss schon auf 1080p@DLSS runter)
Das DLSS ist auch net so der Bringer. Da schaut RIS deutlich besser aus.
Von einem kompletten Lineup von NV würde ich daher derzeit net sprechen.
Ok, die Ti mit Augen zu und durch.
Ich kann dir versichern, dass Control heute wesentlich besser läuft. WQHD mit DLSS auf der RTX2080FE sind 70-90 fps in high.
Die RT2060 Super macht dann eine vergleichbare Leistung in FHD mit DLSS.
Und DLSS ist nach mehreren Patches wesentlich besser geworden. Kann ich mir jederzeit geben. Es sieht echt phantastisch aus und macht Lust auf mehr. Gerne in Zukunft auch auf AMD oder Intel Hardware. Da bin ich völlig schmerzfrei.
 
  • Gefällt mir
Reaktionen: Esenel, captain kirk und Laphonso
pietcux schrieb:
Ich kann dir versichern, dass Control heute wesentlich besser läuft. WQHD mit DLSS auf der RTX2080FE sind 70-90 fps in high.
Die RT2060 Super macht dann eine vergleichbare Leistung in FHD mit DLSS.
Und DLSS ist nach mehreren Patches wesentlich besser geworden. Kann ich mir jederzeit geben. Es sieht echt phantastisch aus und macht Lust auf mehr. Gerne in Zukunft auch auf AMD oder Intel Hardware. Da bin ich völlig schmerzfrei.
BF V 1440p mit RT Ultra ist auch von 60-70 fps auf 100-110 fps gesprungen (ohne RT 130-150 fps). Einige hängen noch sehr an den First Day fps Impressions. RT kostet Leistungen, aber hat zumlGlück bereits lange nicht mehr diese brutalen Einbrüche wie Ende 2018, das ist mittlerweile angenehm optimiert.
Und in Metro Exodus ist RT ein fach nur "geil". Es geht danach nicht mehr "ohne", Licht und Schatten sind das, im Doppelsinne :D
 
  • Gefällt mir
Reaktionen: Esenel, captain kirk und pietcux
"Keine Anpassungen wurden am Testsystem vorgenommen, das weiterhin auf den bekannten Core i9-9900K setzt"

Können wir bitte nochmal den gleichen Test mit einer aktuellen CPU sehen, die keine Hochfrequenzbremskerne hat?

Zum Beispiel macht hier im Test die 5500XT in Battlefield V nur 51,9 in 99,8th Percentile.

Wenn man die Intel Bremse gegen einen Ryzen 3600 tauscht, dann erreicht man 17% höhere 99,8th Werte! (wohlgemerkt bei der 8GB Variante!)

Genau das gleiche gilt auch für andere Spiele wie zum Beispiel Assassin's Creed: Odyssey und Wolfenstein Youngblood.

Die kleine 4GB Version ist doppelt so schnell mit PCIe 4.0 in Youngblood (FullHD: 16 zu 39 in 99th Percentile und 21,2 zu 39,1 in average FPS) und selbst die 8GB Variante ist 19% schneller!

https://www.pcgameshardware.de/Rade...pecials/PCI-Express-3-vs-PCI-E-4-GPU-1339415/
 
Zurück
Oben