Test GeForce RTX 2080 Super im Test: In allen Belangen gut, aber nicht super

Palmdale schrieb:
Gleichzeitig muss AMD Raytracing in Hardware ergänzen, was einen ähnlich kleineren Sprung bei der "regulären" Leistung bedeuten könnte wie der auf RTX

Allerdings scheint AMD bei Raytracing einen etwas anderen Weg zu gehen. Statt dedizierter Einheiten, wie bei den RTX-GPUs, wird das wohl hauptsächlich in funktionell erweiterten TMUs und Software (Shader?) gemacht. Wir werden sehn, wie gut das funktioniert. Auf jeden Fall dürfte es auf AMDs kommenden GPUs weniger Transistoren geben, die in allem außer RT ungenutzt brach liegen.
 
Nozuka schrieb:
Was soll denn das bringen? Ich will möglichst viele verschiedene Spiele getestet sehen... wenn alle die gleichen Testen (was ja leider jetzt schon zu einem grossen Teil so ist), brauch ich mir auch nicht so viele Tests anschauen...
Ja schön und gut, wenn ich dann aber 20 Tests lesen muss, um überhaupt erstmal zu erkunden, wo die Leistung liegt, weil zwischen den verschiedenen Test Unterschiede von 15-20% liegen, dann läuft auch etwas nicht richtig.
 
  • Gefällt mir
Reaktionen: McTheRipper
Herdware schrieb:
Allerdings scheint AMD bei Raytracing einen etwas anderen Weg zu gehen. Statt dedizierter Einheiten, wie bei den RTX-GPUs, wird das wohl hauptsächlich in funktionell erweiterten TMUs und Software (Shader?) gemacht. Wir werden sehn, wie gut das funktioniert. Auf jeden Fall dürfte es auf AMDs kommenden GPUs weniger Transistoren geben, die in allem außer RT ungenutzt brach liegen.
Der weg ist nicht wirklich etwas anders, sondern im Endeffekt gehen sie den gleichen Weg wie nVidia, nur dass sie eben die Funktionen nicht als dedizierte Einheiten im Chip unterbringen, sondern TMUs um entsprechende Funktionen erweitern.

In beiden Funktionsweisen geht es darum, dass ein Strahl den BVH-Tree durchläuft und man prüft ob der Strahl auf einen Gegenstand trifft und wenn ja, welche Strahlen von dort ausgesendet werden, die auch auf einen Strahl treffen.

Sieht man sich die verschiedenen Patente an, stellt man schnell fest: Die Funktionsweise der speziellen Funktionen in der TMU bei AMD unterscheiden sich nicht so sehr von den BVH-Funtkionen alias RT-Cores bei AMD. Nur kann eben AMD nicht "stumpf" die RT-Cores von nVidia kopieren, Urheberrecht als auch Patentrecht zwingen sie dazu, die Funktionen anders implementieren.

Der Hauptunterschied nun ist, dass AMD neben diesen Funktionsblöcken für die BVH-Durchforstung in den TMUs - wird dort implementiert, da der Zugriff auf den Cache von den TMUs aus schneller läuft - die Shader und TMUs untereinander kommunizieren können und man daher wohl flexibler auf Anfragen für den BVH-Baum reagieren kann, also ob man diese Anfrage wirklich absendet und die TMU rechnen lässt oder ob man keine Anfrage braucht, weil ohnehin kein Strahl ausgesendet wird.

Es kann daher durchaus so sein, dass der Chip als ganzes "besser" ausgelastet wird, da bestimmte Shader in der Zeit, während andere auf BVH-Daten warten, bereits weiter rechnen können.
 
  • Gefällt mir
Reaktionen: Palmdale und Herdware
Arcamemnon schrieb:
Wie vertrauenswürdig sind eigentlich die User Benchmarks?
https://gpu.userbenchmark.com/Compare/Nvidia-RTX-2070-Super-vs-AMD-RX-5700-XT/4048vs4045

Ich mein hier soll die 5700 XT (nicht custom) die 2070 Super (Custommodel!) um ein paar Prozentpunkte abhängen (overall), bei ordentlich €€€ weniger.

Durchaus glaubwürdig. Es geht da nicht nur Spielebenchs, wenn du genauer hinguckst. Vergleich mal die 1080 mit der 64,
bei genau den gleichen Punkten ist die 64 da auch deutlich besser, nur sind 45%+ bei "peek complex splatting" natürlich nicht
automatisch 45%+ in Spielen. Es sind halt Benchs, die keine gamingbenchs ersetzen sollen, die kommen normalerweise weiter unten vor, wenn sich denn genügend User einfinden, die das abliefern.
 
Pyrodactil schrieb:
Was fürn Marketinggag, die +3 FPS lassen sich auch aus der 2080er rauskitzeln. Wenn Nvidia langeweile hat, sollten se die Voltera früher rausbringen.
Diesen Trick hasst Nvidia xD
 
amd so: komm wir bringen x70er nachfolger zum doppelten preis und mit guenstigeren nicht hbm speicher.
nvidia so: komm wir reduzieren teilweise bei super modelen unseren preis.
nvidia hater: Nvidia ist das boese und treibt die preise rauf.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: proko85, Aduasen und Stuntmp02
Jens1882 schrieb:
AMD Bringt x70er Karten mit guenstigeren Speicher fuer doppelten Preis im vergleich zu vegas.
nvidia so: komm wir reduzieren teilweise bei super modelen unseren preis.

Doppelten Preis? Die UVP für Vega betrug 499 und 399€ als Aktion, danach hat es 480€ und 550€ gekostet.
 
daivdon schrieb:
Durchaus glaubwürdig. Es geht da nicht nur Spielebenchs, wenn du genauer hinguckst. Vergleich mal die 1080 mit der 64,
bei genau den gleichen Punkten ist die 64 da auch deutlich besser, nur sind 45%+ bei "peek complex splatting" natürlich nicht
automatisch 45%+ in Spielen. Es sind halt Benchs, die keine gamingbenchs ersetzen sollen, die kommen normalerweise weiter unten vor, wenn sich denn genügend User einfinden, die das abliefern.
Was ist daran glaubwürdig? Der Test suggeriert, dass die 5700XT stock 3% vor der 2070 Super Custom liegt. Und das ist Quatsch. Allein schon so zu testen, dass am Ende ein verfälschtes Ergebnis rauskommt, ist fragwürdig. Früher hat man theoretische Benchmarks genommen und die Hersteller ihre Treiber auf die Benches hin manipuliert, teilweise die Settings runtergefahren, um einen möglichst hohen Wert zu erreichen. Seiten haben die Spiele getestet, die AMD optimiert oder NVidia-optimiert sind, je nach gusto. Eigentlich habe ich gedacht, wir haben diese Zeiten hinter uns. Entscheidend ist, was im Spiel bei raus kommt, denn das entscheidet darüber, ob das Game ruckelt oder nicht.
Auch wenn man sich den Rest des Vergleiches anschaut, gehört der eigentlich nur in die Tonne, weil die Hälfte der Ergebnisse damit mitverfälscht werden (zB Value, Bewertung, etc). Auf den Vergleich gebe ich nichts
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard
Diese läppischen 5% Leistungsplus zur normalen 2080 wird noch kleiner wenn man bedenkt, dass OC-Versionen für die normale 2080 der Partner existieren die locker einen GPU Maximaltakt von 1950 und höher erreichen.
 
guillome schrieb:
Diese läppischen 5% Leistungsplus zur normalen 2080 wird noch kleiner wenn man bedenkt, dass OC-Versionen für die normale 2080 der Partner existieren die locker einen GPU Maximaltakt von 1950 und höher erreichen.

Die wird es allerdings auch für die 2080 Super geben und somit das Verhältnis gleich bleiben.
 
xexex schrieb:
...somit das Verhältnis gleich bleiben.

Kommt drauf an. Wenn das automatische OC gut darin ist, den maximal möglichen Takt herauszukitzeln, den Kühlung und Verbrauch erlauben, dann dürften gute Custom-Modelle der 2080S und alten 2080 auf ganz ähnliche Turbo-Taktraten kommen. Sind letztlich ja die selben Chips mit den selben Kühlern und der selben Stromversorgung usw.
Tatsächlich könnte die alte 2080 beim Takt sogar etwas besser abschneiden, weil sie ja ein paar deaktivierte Einheiten hat und so bei selbem Takt etwas weniger verbrauchen (und damit aufheizen) müsste.
 
Lohnt ja überhaupt nicht wenn man upgraden würde von 2080 auf Super^^
 
Nichtmal mehr für einen DVI-Anschluss hat es gereicht, hör mir auf mit DisplayPort
 
>_< schrieb:
Nichtmal mehr für einen DVI-Anschluss hat es gereicht,...

Ich habe das Problem mit einem billigen, passiven DP-auf-DVI-Kabel (Amazon Basics) gelöst. Funktioniert perfekt mit meinem alten DVI-Zweitmonitor. Der wird im Control-Panel sogar als per DVI angeschlossen angezeigt. 🙂
 
Herdware schrieb:
Kommt drauf an. Wenn das automatische OC gut darin ist, den maximal möglichen Takt herauszukitzeln, den Kühlung und Verbrauch erlauben, dann dürften gute Custom-Modelle der 2080S und alten 2080 auf ganz ähnliche Turbo-Taktraten kommen. Sind letztlich ja die selben Chips mit den selben Kühlern und der selben Stromversorgung usw.
Tatsächlich könnte die alte 2080 beim Takt sogar etwas besser abschneiden, weil sie ja ein paar deaktivierte Einheiten hat und so bei selbem Takt etwas weniger verbrauchen (und damit aufheizen) müsste.
Der Logik kann ich nicht folgen. Die 2080S hat ein angehobenes Powerlimit von 215W auf 250W, hat 2

Streaming-Multiprocessoren mehr und ist deutlich besser zu übertakten und hat schon einen von Haus aus höheren Takt. Die sollte sehr wohl in der Lage sein, einen Abstand zur "non S" zu halten.
 
Smartin schrieb:
Die 2080S hat ein angehobenes Powerlimit von 215W auf 250W

Das Powerlimit könnte theoretisch etwas bringen. Wobei Custom-OC-Karten mit eigenem Design für die Stromversorgung da ja eh ihr eigenes Ding machen. Die kümmern sich auch nicht um Nvidias Angaben zum maximalen Turbo. (Wie gesagt taktet meine ASUS 2080 ohne manuelles OC bis über 2GHz.)

Und die zusätzlichen Funktionseinheiten der 2080S sorgen zwar für mehr Leistung pro Takt, aber sollten theoretisch eher kontraproduktiv sein, was die zu erreichenden Turbo-Taktfrequenzen angeht.

Ich rechne nicht damit, dass 2080S-Custom-Karten nur auf 2080-Niveau liegen, aber der Vorsprung könnte gegenüber dem Vergleich der FE-Modelle durchaus etwas schrumpfen.
 
Herdware schrieb:
Kommt drauf an. Wenn das automatische OC gut darin ist, den maximal möglichen Takt herauszukitzeln, den Kühlung und Verbrauch erlauben, dann dürften gute Custom-Modelle der 2080S und alten 2080 auf ganz ähnliche Turbo-Taktraten kommen.

Der Geschwindigkeitsvorteil kommt ja nicht alleine durch den Takt, sondern durch den schnelleren Speicher, zusätzliche Shader und höheres Powerlimit und das wird auch bei den Partnerkarten der Fall sein. Bei Nvidia war eben oft der Powerlimit ein begrenzender Faktor und nicht umsonst gibt es Tools und diverse Guides um diesen aufzuheben.
 
xexex schrieb:
Bei Nvidia war eben oft der Powerlimit ein begrenzender Faktor und nicht umsonst gibt es Tools und diverse Guides um diesen aufzuheben.

Die meisten Custom-Karten halten sich aber eh nicht an Nvidias Powerlimit-Vorgaben, die für die FE-Modelle gelten. Die gehen schon ohne zusätzliches, manuelles OC deutlich darüber hinaus. (Meine ASUS 2080 zieht regulär bis zu 260-270W. Wenn man das Powerlimit zusätzlich anhebt, knackt sie die 300W.)
Deshalb rechne ich ja mit keinem wesentlichen Taktvorteil für die 2080S bei guten Custom-Karten. Da bleiben dann nur die zusätzlichen Funktionseinheiten und eventuell der höher getaktete Speicher.
 
Smartin schrieb:
Der Logik kann ich nicht folgen. Die 2080S hat ein angehobenes Powerlimit von 215W auf 250W, hat 2
Streaming-Multiprocessoren mehr und ist deutlich besser zu übertakten und hat schon einen von Haus aus höheren Takt. Die sollte sehr wohl in der Lage sein, einen Abstand zur "non S" zu halten.
wäre mir da nicht so sicher, ich habe die vermutung das die alten A chips etwas besser sind als die neuen standardisierten, bzw weniger varianz haben.
Ich kriege meine 2080 FE locker auf 2100 mhz stabil übertaktet mit dem speicher auf 8000mhz OC. auch bei der 2080FE lässt sich zudem das Powerlimit noch anheben. damit knacke ich bei timespy im graphics score ziemlich entspannt die 12000 punkte.
bin gespannt was die partnerkarten da noch bieten, wäre mir aber nicht so sicher das man damit zwingend besser bedient ist als mit einer "alten" 2080 mit a chip.
normalerweise läuft meine mit nem UV auf 0.925mv bei 1920mhz, damit bin ich ziemlich genau da wo die super auch ist, bei deutlich entspannteren Lüfterdrehzahlen.
würde lügen wenn ich behaupten würde das ich gerne mit einer super tauschen würde, noch nichtmal für lau.
 
Hmm klar man kann sagen was wollen die Leute denn 5% mehr Leistung und 10% mehr Preis oder so jeh nachdem wie die Preise nach release sich einpendeln nicht überragend aber auch nicht schlecht, aber ich denke man muss das auch mal aus ner anderen Sicht sehen.

Nvidia hatte mit der 2080 Serie ne hohe Marge, nun releasen sie eine Karte die von der Hardware fast identisch ist außer einen billigeren Kühler, Overclocken das ein bisschen, schalten ne Hand voll Shader frei die auf der normalen 2080 aber auch vorhanden war, also auch keine Mehrkosten, der Speicher ist schneller aber der wird billiger sein wie der Speicher beim 2080 release da die Speicherpreise stark gefallen sind seit der Zeit.

Das heisst die Herstellung der Karte ist BILLIGER für Nvidia wie es die 2080 war aber der Preis ist höher, also ist das einzige was daran super ist, das Nvidia dort deren Marge auf auf Super aufgeblasen hat.

Und man muss bedenken das die 2080 schon wegen schlechter Preis/Leistung bekannt war, weil von der Rohleistung der Abstand zur 1080 zu gering war für den Aufpreis, nur wenn man dieses Raytracing feature das es für 5 Spiele gibt nutzt und einem das sehr wichtig ist machte die Karte irgendwie Sinn.

Also eine Karte die wegen schlechter Preis/Leistung in der Kritik stand wurde in der Preis-Leistung nochmal verschlechtert und das bei höherer Marge, und warum das ganze um das TI Spitzenmodell das noch schlechtere Preis/Leistung hat nicht komplett Sinnlos zu machen.

Klar kann man sagen in dem Leistungssegment hat Nvidia quasi ein Monopol, aber muss man das wirklich so sehr ausnutzen? Das man quasi eine (halb versteckte) Preiserhöhung nach der anderen macht, trotz sinkenden Produktionskosten? Vielleicht bin ich naiv und Amd würde das 1:1 auch so machen, aber ich finde das verwerflich, und auch zu kurzfristig gedacht. Machen das alle Marktführer das sie ständig ihre Produkte verteuern und das Preis-leistungsverhältnis verschlechtern, obwohl sie schon teuer sind? Wird Photoshop auch Jahr für Jahr 10% teurer?
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Zurück
Oben