Test GPU-Testparcours 2020: Grafikkarten von AMD und Nvidia im Vergleich

Mal ne kleine interessante Gegenüberstellung der winzige 40 Watt verbrauchende Orin und der schleppt ja noch ARM Cores mit sich rum, würde bei der reinen
8bit Tensor Core Performance sich schon fast anschicken , die riesen Chips Volta V100 und ebenso Titan RTX nahezu aus dem Socken zu hauen.

Und jetzt stell sich jemand mal vor, Nvidia modifiziert diese Units noch zu reinen RT Cores fixed Function, wie bei Turing bereits geschehen

Orin Tops.jpg


bei 130 Watt ist man die reine Tensor Core Leistung betreffend bereits 4 mal so schnell wie der riesige Volta V100 und über 3 mal schneller wie Turing

Dazu immer noch bedenken das diese next Gen Chips in den Steuergeräten ,eher der 106er Klasse Chips entspringen sofern sich seit Xavier nix verändert hätte

Die 100er"Ampere" GPU hätte hier also noch um einiges mehr Potential ,sowohl von der Siliziumfläche als auch vom zur Verfügung stehenden Energiebudget , das locker nochmal 130 Watt mehr aufrufen könnte

Auch schön zu sehen bei LV5 Autonomie , wo noch zusätzlich reine GPUs dazu kommen ,ohne ARM Part als Klotz am Bein wie bei Orin only , sich das Ganze nochmals zuspitzt bei der Tensor Performance
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pietcux
Die Frage ist dann aber, ob noch mehr RT Kerne überhaupt was bringen. Man müsste wissen, wo aktuell der Flaschenhals ist.

Ich ging immer davon aus, dass die normalen Shader (die ja immer noch wichtige Teile in der RT Pipeline darstellen) bisher der limitierende Faktor sind.

Bin sehr gespannt, ob Ampere einen größeren Leistungssprung in RT Szenarien schafft und ob man weiterhin DLSS mitnehmen wird. DLSS X2 sind sie uns ja immer noch schuldig.

Immerhin läuft DLSS nun auch in BFV und Control (einigermaßen) ansehnlich und mit super Performance.
 
Nun wenn man irgendwann FullSize Raytracing für alle Effekte nebst Physik anstrebt gibt es derzeit kein Limit für die RT Cores. Normale 32/64 bit Shader funktionieren zwar auch sind aber von ihrer Größe u Geschwindigkeit her viel zu ineffizient
Allenfalls ein gesundes Gleichgewicht zwischen Raster u RT muss derzeit noch gewahrt werden in der Umbruchzeit, dafür braucht man noch weiter ordinäre Shader
Der Flaschenhals ist also eher die Größe des Chips
Wie man aber von Orin schon ableiten kann, wird Nvidia hier ordentlich was aufbrummen, bei den Tensor/RT Cores, da können die next Gen Konsolen nur von träumen
Aber bis wir an das Optimum für RT kommen ,dauert es noch Jahre ,wenn nicht gar ein Jahrzehnt
 
Zuletzt bearbeitet:
Chismon schrieb:
Meine Güte, die Menge an dämlich anmutendem nVidia Turing RTX Marketing-Gesülze einiger hier nimmt langsam schon bedenkliche Züge an (als ob diese Leute von nVidia für Ihre hohle Propaganda Provision bekommen).

Ihr könnt Euch zuhause ja gerne einen nVidia Schrein bauen und "der Lederjacke" huldigen, aber bitte verschont uns mit dem ewigen, weltfremden Gelobhudle fern jeder Realität.

RTX ist Stand jetzt immer noch ein ziemliches Windei gemessen an der Zahl bisher verfügbarer Spiele und den wenig ruhmreichen Umsetzungen und wie lange nach RTX Turing Marktstart, so dass der großkotzig mit "Super"lativen nur so um sich schmeissende nVidia CEO Huang eher kleinlaut geworden ist und wohl selber gemerkt, dass seine Versprechungen eher lauwarme Luft waren und man erst einmal kleinere Brötchen backen muss.

Die RTX Turing Karten dürften mit Ausnahme der immer noch exorbitant teuren RTX 2080Ti eher schlecht altern und dann schon ziemlich alt aussehen, sobald in 2020 Ampere auf den Markt kommt (wenn es denn ein echter Shrink auf 7nm werden sollte und der Leistungszuwachs nicht so (bewusst) bescheiden ausfallen sollte wie von Pascal zu Turing (Vanilla)).
Was deine RTX Bewertung angeht stimme ich dir vollkommen zu !
Da gibt es nichts schön zu reden.

Nur müsste im Umkehrschluss, die mit Superlativen um sich schmeissende Lisa ebenso klein Brötchen backen,
denn im Grunde ist Navis Effizienz für 7nm, im Vergeich zur, zum Release "alten" Nvidia 12nm Gen. ein Witz ! Auch unter Berücksichtigung des deutlich späteren Releases.

Ebenso ist die Leistung eher so "okay" oder "angemessen".

Wäre mal zeitnah ein Big Navi gekommen, würde ich auch Beifall klatschen, aber so ?

Will sagen, beide Unternehmen bekleckern sich nicht mit Ruhm in mancherlei Hinsicht.

Grafikkarten sind in beiden Lagern dazu viel zu teuer. Selbst die als "Freund der User" stigmatisierte Firma AMD ist gierig geworden.
Ergänzung ()

Laphonso schrieb:
Wäre AMD nicht den Großteil des Jahrzehnts irrelevant im Enthusiastensegment und nicht bereits 14 Monate ohne RT Technik, würde das auch anders klingen.
AMD hats hier verpennt, Dein Nvidia Bashing ist völlig absurd.
Perfekt geantwortet. Kann man nicht besser zusammenfassen.
 
  • Gefällt mir
Reaktionen: Laphonso
Besser späte Antworten nach dem Urlaub als keine Antworten:D

sialickiz schrieb:
CB@ Ich habe eine frage die sicherlich viele interessieren wird.
Testet ihr die Spiele komplett durch bevor ihr die Benchmarks veröffentlicht oder ist das bei euch aus zeitgründen etc. nicht möglich ?
Ich bitte um eine ehrliche Antwort.

Da mache ich kein Geheimnis durch: Ich spiele Spiele nur selten durch, um Benchmark-Szenen zu finden. Das liegt primär einfach daran, dass dazu viel zu viel Zeit fehlt. Meistens wird die Szene ja entweder direkt nach dem Release oder kurz davor (wenn es eine spielbare Vorbaversion gibt) gespielt. Da muss es dann schnell für den Artikel gehen. Natürlich brauche ich aber eine gewisse Erfahrung mit dem Spiel. Sprich,es wird schon etwas Zeit investiert und ich muss mir verschiedene Gebiete im Spiel anschauen, um einen Eindruck bekommen zu können, was eine gute Benchmark-Szene ist.

Anders ist es, wenn ich eine Szene von einem Spiel suche, dass bereits draußen ist und es keinen Benchmark-Test geben soll. Dann spiele ich das Spiel nicht unbedingt durch (bzw. das tue ich dann bei Spielen, die ich auch selber gut finde), aber doch schon deutlich weiter als sonst. Und wenn es verwertbare Savegames im netz gibt, nutzte ich die auch, um mir möglichst viele Sequenzen anschauen zu können. Das habe ich zum Beispiel in RDR2 gemacht.

Affe007 schrieb:
Es ist schade, dass ihr zusätzlich zu den bestehenden Test nicht DXR Tests für unterstützte Games anbietet.
Im aktuellen Testparcours sind ja fünf Games vorhanden mit Battlefield V, Metro: Exodus, Shadow of the Tomb Raider, Call of Duty: Modern Warfare und Control.
Alle Titel sollten auch mit den GTX Karten laufen. AMD hat ja leider noch keinen Treiber geliefert, sobald sich da was tut, könnte man die Tests ja nachliefern.

Naja, das macht bei allgemeinen Grafikkarten-Benchmarks imo noch keinen Sinn. Das ändert sich dann, wenn auch AMD Raytracing unterstützt. Oder natürlich für Spezialtests, bei denen es explizit um Raytracing geht. Aber nicht bei etwas allgemeinem.

captain kirk schrieb:
ich glaube der Parcour ist Updatewürdig wie es den Anschein macht kommt da mal wieder viel Arbeit auf euch zu nach dem Treiberrelease
Den Treiber, den wir verwenden, hat die Verbesserungen auch drin. Seit da an, hat sich nichts mehr getan :)
 
  • Gefällt mir
Reaktionen: Gandohar und captain kirk
captain kirk schrieb:
Mal ne kleine interessante Gegenüberstellung der winzige 40 Watt verbrauchende Orin und der schleppt ja noch ARM Cores mit sich rum, würde bei der reinen
8bit Tensor Core Performance sich schon fast anschicken , die riesen Chips Volta V100 und ebenso Titan RTX nahezu aus dem Socken zu hauen.



Anhang anzeigen 857036

Nvidia Ampere: Angeblich halber Verbrauch und 50 Prozent schneller als Turing

passt zu dem was man bereits bei Orin in Zügen erkennen kann

7nm u Architektursprung , das muss einfach diesmal ordentlich reinhauen
 
Wolfgang schrieb:
Naja, das macht bei allgemeinen Grafikkarten-Benchmarks imo noch keinen Sinn. Das ändert sich dann, wenn auch AMD Raytracing unterstützt.

Also hältst du solche Benchmarks, um die Leistungsfähigkeit der einzelnen NVidia Karten einordnen zu können nicht für sinnvoll, solange AMD da gar nicht mitspielt? Was ist das für ne Logik?

Wenn man sich die Verkaufszahlen anschaut, kommen für viele AMD GPUs sowieso anscheinend nicht in Frage. Die Leser müssen aber auf Tests verzichten, weil AMD nach knapp zwei Jahren es noch immer nicht geschafft DXR zu unterstützen?

Wenn es die passenden Titel gibt, dann sollten die Features auch getestet werden, sonst ist es so als würdet ihr nur Applikationen testen die nicht mehr als 8 Kerne unterstützen, nur weil Intel gerade maximal 8 Kerne im Mainstream hat.

Ob AMD oder NVidia gerade den längsten hat interessiert mich und vermutlich auch die meisten Leser nicht die Bohne, durchaus aber welche Leistung man von welcher Grafikkarte erwarten kann.
 
  • Gefällt mir
Reaktionen: Draguspy, pietcux und Affe007
Seh ich genauso. Ich hab gedacht, dass ihr einen Grafikkartenvergleich macht und kein AMD vs. NVIDIA Schwanzvergleich.
 
xexex schrieb:
Ob AMD oder NVidia gerade den längsten hat interessiert mich und vermutlich auch die meisten Leser nicht die Bohne, durchaus aber welche Leistung man von welcher Grafikkarte erwarten kann.
Affe007 schrieb:
Seh ich genauso. Ich hab gedacht, dass ihr einen Grafikkartenvergleich macht und kein AMD vs. NVIDIA Schwanzvergleich.

Sehe ich ein wenig anders. Mir hilft es, um mich grundsätzlich entscheiden zu können. Wenn ich dann z.B. weiß, ob es eine 5700er werden soll, steige ich da ein und fokussiere mich bei meiner Recherche auf diesen Chipsatz.
 
Aio schrieb:
Wenn ich dann z.B. weiß, ob es eine 5700er werden soll
Wer sich ohne Blick auf die Leistungsergebnisse schon auf ein Produkt festgelegt hat, ist in diesem Artikel sowieso an der falschen Haltestelle ausgestiegen.
 
  • Gefällt mir
Reaktionen: pietcux
Aio schrieb:
Sehe ich ein wenig anders. Mir hilft es, um mich grundsätzlich entscheiden zu können.

Das ist aktuell "grundsätzlich" ganz simpel, wenn du DXR willst kriegst du bei AMD nichts zu kaufen. Dann stehst du wieder am Anfang, weil Wolfgang es nicht für nötig hält, die Leistung der Karten in diesem Bereich zu testen.

Es gibt aktuell sieben GPUs mit Hardware-RT Unterstützung und die verfügbaren Spiele haben über die Zeit viele Optimierungen in diesem Bereich bekommen, aber CB wartet doch lieber noch ein Jahr, bis AMD auch soweit ist und zu den sieben bestehenden Karten noch 1-2 von AMD dazu kommen? Tolle Logik!

Wieso wartet man dann nicht gleich noch auf Intel? Dann sehen wir irgendwann in 2-3 Jahren auch bei CB vollständige GPU Leistungstests.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Affe007, Draguspy und pietcux
Spätestens mit Cyperpunk Release sollte man das wirklich mal ins Auge fassen ,einen entsprechende Leistungsindex für RT mit zu präsentieren.
Somal es von da an auch nicht mehr soweit ist ,bis Konsolen u damit auch AMD im dedizierten Bereich Lösungen anbieten will
Imo muss jeder Interessent der sich dafür erwärmen kann ,quasi Rätselraten welche Karte zu seinem Profil passen würde
 
  • Gefällt mir
Reaktionen: Draguspy und pietcux
Artikel-Update: ComputerBase hat wie versprochen fünf weitere Grafikkarten dem neuen Testparcours hinzu gefügt. Neu mit dabei ist die oft gewünschte GeForce GTX 1080 Ti, die sowohl Full HD, WQHD als auch Ultra HD über sich ergehen lassen muss. Zusätzlich gibt es nun auch Full-HD-Benchmarks der Radeon RX Vega 56 sowie der GeForce GTX 1070. Und die „ganz alte Garde“ in Form der GeForce GTX 970 und der Radeon R9 390 darf in 1.920 × 1.080 auch noch einmal ran.
 
  • Gefällt mir
Reaktionen: Affe007, Modar, Celinna und 19 andere
Ich bin schwer begeistert, dass CB die besagten 5 Kandidaten in den Parcour aufgenommen hat!
Das ist TOP!
 
Hurra, und die gute 1070 ist nun auch dabei! Danke euch.
 
Danke! Die 970er mit aufzunehmen war exakt was ich gebraucht habe. Wirklich perfekt, auch im Timing :-)
 
Cool :)
Nur schade, dass die V56 und 1070 nicht in den WQHD-Parcour geschickt wurden :(
 
  • Gefällt mir
Reaktionen: gartenriese, JackTheRippchen, jlnprssnr und eine weitere Person
Zurück
Oben