Test GeForce RTX 2080 Super im Test: In allen Belangen gut, aber nicht super

KlaraElfer schrieb:
Das Speicher OC ist krass, damit ist die Karte wohl was für Übertakter. 9% alleine durch das Speicher OC ist heftig viel.
9% Mehrleistung zusammen mit der Chipübertaktung.
 
Preis/Leistung ist natürlich komplett im Mülleimer bei den Grünen. Kann man nur hoffen das NV mal so richtig auf die Fresse fliegt.
 
  • Gefällt mir
Reaktionen: McTheRipper und Inxession
duskstalker schrieb:
big navi kommt definitiv. das ist nicht eine frage "ob?", sondern "wann?"
Vega20 ist für 2020 angekündigt. Genauso wie Ampere. Wen sich die Gerüchte als war bvestätigen und Ampere bei Samsung gefertigt wird, könnte dort Amper ab Q1 2020 vom Band laufen.
 
Irgendwie macht nur die 2060 Super in meinen Augen Sinn. Einfach wegen des grösseren Speichers. Die anderen Modelle sind zwar von der Leistung natürlich toll, aber irgendwie sinnfrei aufgrund der normalen Modelle.
 
PR3D4TOR schrieb:
Ich hatte nicht genügend Speicher mit meiner RTX 2080. Das war der Grund, warum ich sie verkauft habe. Die Leistung hat mir gereicht, der Speicher nicht. Ist das so schwer zu verstehen? Wo ist die Pauschalisierung die du hier andeutest mit deinem Geschwafel von Einzelfall? Ich lese nichts von Karte = unbrauchbar in meinem ersten Posting. Dort steht sogar in meinen Titel/Settings
Dann hattest du also einfach nur ein Bedürfnis, uns deinen Einzelfall mitzuteilen und eigentlich nichts generell an der Karte zu kritisieren? Weil wenn dieser Kritikpunkt nur dich betrifft (+ ein paar wenige andere), gibt es ja allgemein nichts zu bemängeln.

PR3D4TOR schrieb:
Ist sie nicht, denn mir hat es nicht gereicht.
Nein, du kannst ein Produkt nicht anhand eines Einzelfalls kritisieren. Das ist einfach Käse. Sonst ist jedes Produkt kacke, weil keines davon auf meine persönlichen Bedürfnisse perfekt zugeschnitten ist. Ich kann auch einfach einsehen, dass es an diesem Umstand nichts zu beanstanden gibt, weil ich nicht der Nabel der Welt bin. Unternehmen richten ihre Produkte entweder an der Masse aus, oder bedienen spezielle Randgruppen, welche i.d.R. dann aber auch tiefer in die Tasche greifen müssen (Nachfrage und Angebot eben). Du kannst nVidia schlecht vorwerfen, die 2080 hätte zu wenig VRAM, weil es dir persönlich zu wenig ist, während nVidia sich einfach nur an der Masse orientiert. Deine Forderung nach mehr Speicher in einer 2080 ist schlicht weniger wirtschaftlich und daher gibt es daran auch erst etwas zu kritisieren, wenn die Masse mehr VRAM in dieser Leistungs-/Preis-Klasse verlangt.

PR3D4TOR schrieb:
Das größte Manko bleibt allerdings: 8GB Speicher für so eine Karte. Das ist zu wenig. Knapp bemessen. Ich kann aus eigener Erfahrung sagen, dass mir 8GB nicht ausreichen in meinen Titeln/Settings.
So wie du es hier geschrieben hast, wird es übrigens jeder so verstehen, dass die Kritik allgemein gemeint ist, was du nur mit deiner eigener Erfahrung begründest... Und wenn du uns nur mitteilen willst, dass dieses Manko nur dich persönlich betrifft, dann ist das keine wirkliche Kritik an der Karte, denn sachliche Kritik ist immer allgemein gehalten. Wenn ein Kritikpunkt nur die allerwenigsten betrifft, dann kann man den kaum beanstanden. Zumal nVidia hier ja, wie bereits gesagt nicht mehr wirtschaftlich arbeiten würde, wenn sie ihre Produkte für jeden persönlich ausrichten.
 
  • Gefällt mir
Reaktionen: Loopman
DerHechtangler schrieb:
Die werden trotzdem gekauft wie blöde...
Obwohl sie gut und konkurrenzlos sind werden sie trotzdem gekauft?
Das ist ja echt total verwunderlich... :rolleyes:
 
  • Gefällt mir
Reaktionen: Mumusud, Viper80511 und Cpt.Willard
DerHechtangler schrieb:
Die werden trotzdem gekauft wie blöde...
Genauso, wie sinnlose Kommentare bereits eine Minute nach Erscheinen des Reviews gepostet werden ;)

@Redaktion:
Wie immer vielen Dank für diesen tollen Test. Mir erschließt sich die Daseinsberechtigung dieser "Super"-Karten leider nicht ganz - auch dann nicht, wenn man es noch so sehr als nVidia-Jubiläum abtun möchte. AMD hat mit der 5700 und der 5700 XT einen tollen Wurf aus dem Ärmel gezaubert. Nicht ganz so beeindruckend, wie der Ryzen 3, aber definitiv ein großer Schritt in die richtige Richtung! Preis-Leistung ist gut (das war's bei AMD eigentlich schon immer), aber der Stromverbrauch konnte deutlich gesenkt werden, womit das letzte, große Pro-nVidia-Argument langsam dahinschwindet.

Das sind Worte aus einem eigentlich eingefleischten Intel+nVidia-Benutzer (wobei ich jedem immer sein Ding lasse). Aber ich sehe natürlich deutlich, dass AMD es scheinbar nach so vielen Jahren endlich wieder schafft, nicht nur im Bereich der Prozessoren, sondern auch auf dem Grafikkartenmarkt konkurrenzfähig zu sein und das freut mich als Konsument natürlich umso mehr.
 
  • Gefällt mir
Reaktionen: Thraker und Cpt.Willard
ZeroStrat schrieb:
Wie gesagt, Navi ist eine sehr gut skalierende Arch. Einfach mal 50% mehr Shader und so ein Big Navi wäre vor der 2080 Ti. Das ist realistisch machbar denke ich.
Also wenn ich mir die 5700 und die 5700XT ansehe, skaliert da eigentlich nichts wirklich gut.

Der durchschnittliche Takt, denn sie in den Spielen hatten ist ~1680MHz(5700) und ~1840MHz(5700XT)
Ein Taktunterschied von 9,5%.

Der Unterschied in der Performance zwischen den beiden hier im Test ist 13%(1440p) bzw 12%(1080p).
Bleiben im Bestfall noch 3,5% Unterschied übrig, der von den CUs kommen könnte.
Der CU Unterschied liegt mit 40 zu 36 bei 11%, also mit 11% mehr CUs hat man Taktnormiert 3,5% mehr Performance bekommen.
Wenn man jetzt eine 64CU Karte nimmt(60% mehr), würden bei gleicher Skalierung ca 19% mehr Performance zur 5700XT rauskommen.
Und das eben nur, wenn die Skalierung von 40 zu 64 gleich verläuft wie von 36 zu 40, was zumindest bei GCN nach oben hin immer weniger wurde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer und .Sentinel.
NikoNet schrieb:
Mir fiel auf, dass bei diesem Diagramm scheinbar nicht bei Null angefangen wird.
Die Relation der Längen passt zu den Faktoren nicht.
Bei anderen Diagrammen passt das eigentlich.
Leider ist der Sprung zu gering ausgefallen.
15% wie bei der 2070Super wären gut gewesen.

Du bist vielleicht etwas verwirrt, da Dezibel halt nicht linear ist, sondern alle 10 dB die Lautstärke für doppelt so laut empfunden wird. Das berücksichtigt das Diagramm.

KlaraElfer schrieb:
Das steht nicht im Text.
Doch. Auf Seite drei, letzter Abschnitt, vorletzter Satz.
 
  • Gefällt mir
Reaktionen: ChrisMK72
Wolfgang schrieb:
Doch. Auf Seite drei, letzter Abschnitt, vorletzter Satz.

"Auch mit einem Plus von satten 1.251 MHz lief das Speicher-OC fehlerfrei. Das ergibt einen Takt von 9.004 MHz. In Spielen lässt sich durch diese Maßnahme die Performance um etwa 9 Prozent erhöhen. Eine GeForce RTX 2080 Ti bleibt damit aber immer noch ein gutes Stück schneller. "

Laut Text ist damit eindeutig nur der RAM gemeint, weil der Bezug nicht mehr zum Chiptakt hergestellt wird.
Auch ist diese Messung nur in einem einzigen Szenario erfolgt.
Dazu fehlt die Angabe, in welchem Spiel die Merhleistung erzielt wird.
 
  • Gefällt mir
Reaktionen: McTheRipper und Oneplusfan
Die Karten sind gelungen und was man aus dieser Fertigung mit geringem finanziellen Aufwand herausholt ist beachtlich.

Nur sind die Preise mindestens doppelt so hoch wie sie sein dürften.

Diese Salamitaktik geht mir auf den Zeiger.
Wie viele Turing karten haben wir jetzt schon?
Aber keine Sorge, ein paar passen sicher noch rein.
Das 1600 Euro Topmodell ist noch nicht mal draußen.

Einfach nur peinlich, diese schamlos zur Schau gestellte blanke Gier.
Ich würde mich schämen.

Wann hat es bei NV die letzte P/L Verbesserung gegeben?

So eine 2080 Super Karte kostet keine 150Euro in der Fertigung.
(mittlerweile ist 12nm Fertigung ein alter Hut und 8GB Speicher gibt es fast geschenkt)
Echt geil das so viel von der Preisersparnis beim Endverbraucher ankommt.

So kann man auch zeigen was man vom Kunden hält.

Kann auch schiefgehen.
Ich kann es kaum erwarten bis das Karma zurückschlägt.
 
Zuletzt bearbeitet:
Vitali.Metzger schrieb:
Wenn es die 2080ti Leistung für 500€ gibt, dann kommt für mich auch wieder ein Upgrade in Frage. Mal sehen wie der Markt so aussehen wird wenn die neuen Konsolen draußen sind.

Na dann hast du ja noch ca. 3-4 Jahre Zeit bis zum Upgrade :)
 
Taxxor schrieb:
Der CU Unterschied liegt mit 40 zu 36 bei 11%, also mit 11% mehr CUs hat man Taktnormiert 3,5% mehr Performance bekommen.
Wenn man jetzt eine 64CU Karte nimmt(60% mehr), würden bei gleicher Skalierung ca 19% mehr Performance zur 5700XT rauskommen.

Würde dafür sprechen, dass noch viel GCN in Navi steckt und in erster Linie die Shader von der größe pro Shader aufgebohrt wurde, sowie die Taktbarkeit. Sollte des bei RDNA 2 noch bestand haben, dürfte das schwer für AMD werden. Es sind in 4K von 5700XT zur 2080 Ti 56%. Ich halte das ohne nochmalige deutliche Arch-Verbesserungen nicht ansatzweise für möglich da heranzukommen. Dafür ist die Leistungsaufnahme schon zu hoch. Außer man geht auf >300 Watt, wie mit der Radeon Vega Liquid.
 
@KlaraElfer Big Navi(Navi 21) soll ja wohl auch RDNA2 werden soweit ich weiß, also mal abwarten was da kommt.
Navi10 scheint nicht auf mehr als 40CUs ausgelegt zu sein.
 
Taxxor schrieb:
Also wenn ich mir die 5700 und die 5700XT ansehe, skaliert da eigentlich nichts wirklich gut.

Der durchschnittliche Takt, denn sie in den Spielen hatten ist ~1680MHz(5700) und ~1840MHz(5700XT)
Ein Taktunterschied von 9,5%.

Der Unterschied in der Performance zwischen den beiden hier im Test ist 13%(1440p) bzw 12%(1080p).
Bleiben im Bestfall noch 3,5% Unterschied übrig, der von den CUs kommen könnte.
Der CU Unterschied liegt mit 40 zu 36 bei 11%, also mit 11% mehr CUs hat man Taktnormiert 3,5% mehr Performance bekommen.
Wenn man jetzt eine 64CU Karte nimmt(60% mehr), würden bei gleicher Skalierung ca 19% mehr Performance zur 5700XT rauskommen.
Und das eben nur, wenn die Skalierung von 40 zu 64 gleich verläuft wie von 36 zu 40, was zumindest bei GCN nach oben hin immer weniger wurde.
Du machst direkt einen entscheidenden Kardinalfehler: Takt skaliert nie 1:1. Du kannst nicht sagen, dass +9,5% Takt auch +9,5% Performance bringen und dann nur noch den Rest den Shadern zuschreiben. So funktioniert das nicht. ;)
 
@Linmoum, da wäre es doch mal schön, wenn ein 5700XT Besitzer das real testen könnte und seinen Takt mal auf 1800 und dann auf 1650 setzt, das sind 9% weniger, und mal berichtet, wie viel Performance er verliert.

Aber das Takt nie 1:1 skaliert ist auch falsch, ein 7700K war z.B. genau so viel schneller als ein 6700K, wie er mehr an Takt hatte^^
 
  • Gefällt mir
Reaktionen: .Sentinel.
KlaraElfer schrieb:
Laut Text ist damit eindeutig nur der RAM gemeint, weil der Bezug nicht mehr zum Chiptakt hergestellt wird.
Auch ist diese Messung nur in einem einzigen Szenario erfolgt.
Dazu fehlt die Angabe, in welchem Spiel die Merhleistung erzielt wird.
Ach, das meintest du. Da haben wir dann wohl aneinander vorbei geredet. ich dachte, du meintest, dass das mit den +9 Prozent überhaupt nicht drin stehen würde.
Die Formulierung ist so in der Tat nicht klar, habs geändert.
 
  • Gefällt mir
Reaktionen: McTheRipper, Chaos Theory, KlaraElfer und eine weitere Person
Zurück
Oben