News Nvidia GeForce RTX: „Super“-Benchmarks noch vor AMD Radeon RX 5700 (XT)

scratch schrieb:
Ist FF15 nicht schon von Anfang an ein NVidia-Titel? Sagt nichts über die Leistungsfähigkeit der AMD-Karten aus, wenn man sie mit Gameworks bombardiert.
Ergebnisse scheinen auch starken Schwankungen zu unterliegen. Als Vergleich innerhalb der Produkte eines Herstellers kann er aber brauchbar sein. da ist die 5700 dann knapp vor der VII, die 5700XT ein gutes Stück voraus
 
Sharangir schrieb:
Ich habe noch ne R9 290 und bin happy damit.

Nvidia kommt mir nicht ins Haus.

Ich habe noch ne GTX 1070 und bin happy damit.

AMD kommt mir nicht ins Haus.

Einfach nur mal so, weil solche Kommentare so herrlich sinnfrei sind.

scratch schrieb:
Sagt nichts über die Leistungsfähigkeit der AMD-Karten aus, wenn man sie mit Gameworks bombardiert.

Innerhalb der AMD-Produkte sagt es schon etwas aus. Du kannst immerhin die Abstände von 5700(XT) zu Vega56/64 oder der Radeon VII anschauen und als Anhaltspunkt annehmen.
 
yummycandy schrieb:
Es gibt wohl Probleme bei den Yields mit N7, wenn die Chips größer werden. Genau deshalb stellt man erstmal die kleineren Versionen her. Bei Zen2 ist das kein Problem, weil die Dies dementsprechend klein sind. Ist wohl auch der Grund, warum NVidia bis zu EUV bei 12nm geblieben ist.

Dazu weiß man nichts genau, aber es gibt durchaus sehr große 7nm Chips die im Bereich von 700mm²+ angesiedelt sind. Wenn die Ausbeute so schlecht ist, dass man schon Mittelgroße Chips so teuer bepreisen muss, dann dürfte es fast eine Unmöglichkeit sein, solch große Chips überhaupt zu produzieren.

7nm macht für Nvidia keinen Sinn aktuell. Die erste RTX Generation ist dafür zu früh auf den markt gekommen und war zu früh in der Entwicklung. Die RTX Super Karten kann man dank erneuter 12nm Fertigung recht günstig mit den gleichen masken fertigen. Nvidia war bei der Adaption neuer Fertigungen in den letzten Jahren ja auch nicht unbedingt super schnell. Konkurrenzdruck haben sie hier auch nicht zu sehr. AMD ist mit 14nm auch erst in die Effizienzregionen vorgestoßen, die Nvidia bereits mit 28nm+ erreicht hat.

Es ist schlicht aktuell günstiger für Nvidia noch auf 12nm zu setzen. Davon ab haben sie sich den 12nm Prozess von TSMC ja speziell anpassen lassen. Kann mir vorstellen, dass damit auch bestimmte Abnahmemengen verbunden sind.

v_ossi schrieb:
So was habe ich mir nämlich schon kurz nach der E3 gedacht und einfach mal in den Raum geworfen.
Würde schließlich erklären, warum die Karten so teuer verkauft werden (müssen?) und evtl. sogar, warum der Stromverbrauch trotz 7nm so hoch ist. (Weniger 'aggressive' Spannungen um mehr Chips verwerten zu können)

Wie gesagt, würde die Ausbeute bei unter 300mm² bereits so schlecht sein, dann wären 700mm² Chips wohl ein Ding der Unmöglichkeit. Dann hätte man die Radeon II mit noch größerem Chip und dem HBM auch noch teurer verkaufen müssen.
 
durchaus möglich das die Architekturänderungen und/oder größere Caches die Leistungsminderung von Gameworkseffekten etwas abfedern
 
DocWindows schrieb:
Innerhalb der AMD-Produkte sagt es schon etwas aus. Du kannst immerhin die Abstände von 5700(XT) zu Vega56/64 oder der Radeon VII anschauen und als Anhaltspunkt annehmen
In jedem anderen Szneario wird eine Radeon VII aber vor 5700/5700 XT liegen, der Benchmark scheint RDNA lediglich nur schlecht zu liegen und nicht ganz schlecht wie Vega/Polaris.

Alos höchstens um die NV-Karten untereinander zu vergleichen macht es mMn Sinn, da kommen die 13 % Leistungsplus der 2070 S zur 2070 wohl auch hin
 
Zuletzt bearbeitet:
Viper2000 schrieb:
Es ist zwar schön dass aktuell 6 oder 8GB reichen, allerdings steht uns mit den neuen Konsolen PS5 und Co nächstes Jahr ein großes Hardware-upgrade bevor und dann....wird auch wieder verschwenderischer (oder großzügiger) mit der VRAM Nutzung umgegangen.

Damit meinst du: Es besteht die realistische - aber bisher unbestätigte ? - Chance, dass PS5 und Co nächstes Jahr überhaupt richtigen VRAM haben ;).

Mein ja nur, die PS4 Pro hat 8 GB RAM - und den dürfen sich GPU und CPU teilen! Also ja: 6-8GB dedizierter VRAM ist da bereits ein großes Hardware-Upgrade.
Da Konsolen mittlerweile vereinfacht sowieso nur noch PCs mit dem Ziel "möglichst günstig" sind, erwarte ich aus dieser Richtung nichts bahnbrechendes...
Auch weil ich denke, dass (für PC-Verhältnisse) spektakulären VRAM Microsoft zumindest mal erwähnt hätte - anstatt zu erwähnen, dass Teile der SSD als virtueller RAM verwendet wird (Ähmm... What?).

Viper2000 schrieb:
Jeder der argumentiert dass die 6GB reichen würden und die Karte (falls sie nicht mehr reichen) eh nicht mehr genug Rohleistung hätte liegt einfach falsch.

VRAM hängt eben extrem von deiner Auflösung ab.

Willst in QHD oder sogar 4K spielen, würde ich von der 6GB 2060 abraten; und das auch weil mehr Rohleistung dafür nicht verkehrt ist.
Aber spielst du sowieso nur in FullHD, brauchst du deutlich weniger RAM. 2060 ist einfach niedrigste Klasse = Kompromisse. Mit nicht höchsten AA und vielleicht Texturen Sehr Hoch anstatt Ultra (was FullHD wohl keinen Unterschied machen sollte). Also wenn dann die 6GB nicht reichen, reichen die 11 GB der 2080 TI 4K Ultra auch nicht ;).
 
  • Gefällt mir
Reaktionen: askling
Shoryuken94 schrieb:
Dazu weiß man nichts genau, aber es gibt durchaus sehr große 7nm Chips die im Bereich von 700mm²+ angesiedelt sind.[...]

Öhm... mal so rein aus Interesse, welche sollen das denn sein?

Dachte bisher, dass die Radeon VII den bisher größten 7nm Chip hat. Und da sind ja 4 der 64 CUs deaktiviert um die Ausbeute zu erhöhen.

Chismon schrieb:
[...]Zudem hat RDNA1 immer noch GCN-Relikte und einen richtigen Schub erwarte ich sowieso erst mit (von GCN dann hoffentlich fast vollkommen entkoppelter) RDNA2-Architektur, wenn diese auch seitens der Entwickler (und damit meine ich nicht nur RT-Raytracing) unterstuetzt wird oder besser noch darauf Spiele optimiert werden, aber damit wird man - analog wie bei RX Vega - wohl vermutlich noch mindestens ein Jahr nach RDNA2 Start warten muessen (um das im Ansatz einschaetzen zu koennen).[...]

Irgendwann muss der Schuss aber auch mal sitzen. AMD hat inzwischen leider eine Tradition von GPUs, die irgendwo zwischen ganz gut und enttäuschend hin und her pendeln.

Erst sollte Fury der Heilsbringer sein, dann sollte Vega es raus reißen (man erinnere sich nur an das Poor Volta Guerilla Marketing), dann Navi und jetzt wird schon von dessen Start die Hoffnung auf die RDNA 2 Implementation gelegt.
Das soll jetzt keineswegs heißen, dass Fury oder Vega auf ganzer Linie durchgefallen wären, aber beide sind nicht der durchschlagende Erfolg, den AMD gebraucht hätte. Einzig Polaris war mMn eine durchweg ausgewogene GPU, die aber spätestens mit den 580 und 590 Re-Releases den Ruf einer lauten, heißen, stromhungrigen Grafikkarte weg hatte.
 
Zuletzt bearbeitet:
Tuxgamer42 schrieb:
VRAM hängt eben extrem von deiner Auflösung ab.
Ein wenig schon, ja. Aber als extrem würd ich das nicht ansehen.
 
Shoryuken94 schrieb:
Dazu weiß man nichts genau, aber es gibt durchaus sehr große 7nm Chips die im Bereich von 700mm²+
Hab noch nichts von so etwas gehört. Mir war auch so, als wenn AMD die derzeit größten Chips bei ihnen fertigen läßt. Wäre aber sehr interessant zu wissen, wer die bestellt hat. :)
 
yummycandy schrieb:
... gibt wohl Probleme bei den Yields mit N7, wenn die Chips größer werden. Genau deshalb stellt man erstmal die kleineren Versionen her. Bei Zen2 ist das kein Problem, weil die Dies dementsprechend klein sind ... Grund, warum NVidia bis zu EUV bei 12nm geblieben ist.

Das macht in jedem Fall Sinn, da die 7nm Fertigung bei TSMC ja noch nicht so lange laeuft (selbst fuer die Smartphone Chips) und damit natuerlich einer moeglichen Kostenexplosion dort vorgebeugt werden kann.

Allerdings wundert es mich sehr, dass man bei den (noch wichtigeren) kleineren Chips/GTX Turing Konkurrenz (also RX 5500(XT) und 5600(XT)), die - eben wegen der fuer Navi RX 5700(XT) zu Beginn relativ hoch angesetzten Preise - eigentlich noch deutlich wichtiger fuer AMD/RTG sein duerften (da diese von Anfang noch erschwinglich sein sollten fuer interessierte Kunden und auch als neue mobile Einsteiger-dGPUs herhalten duerften) bisher als Konkurrenz zu den GTX 1650 und GTX 1660(Ti) Karten noch gar nichts gehoert hat (und mit der Veroeffentlichung leider wieder einmal hinterher hinkt (zumal nVidia aktuell keinen "Super"-GTX Turing Refresh geplant zu haben scheint).
 
Revan1710 schrieb:
In jedem anderen Szneario wird eine Radeon VII aber vor 5700/5700 XT liegen, der Benchmark scheint RDNA lediglich nur schlecht zu liegen und nicht ganz schlecht wie Vega/Polaris.

Siehste. Da haste deine Aussage ja schon. RDNA scheint in diesem Spiel/Benchmark besser zu performen als Vega56/64/VII. Ist der Benchmark also doch zu was nütze.
Wenn eine neue Architektur nicht besser als die Ältere wäre, müsste das einen natürlich auch echt wundern.

Und was in jedem anderen Szenarion passiert kann dann ja jedes andere Szenario zeigen, so ab dem 07.07.

Ich vermute einfach mal, dass sich die RDNA-Karten als konstant besser herausstellen als die älteren GCN-Only Karten. Somit wären sie innerhalb der AMD-Produktwelt auch eine klare Kaufempfehlung für die UVP.

Tuxgamer42 schrieb:
VRAM hängt eben extrem von deiner Auflösung ab.

Nö, eigentlich nicht. Ich behaupte einfach mal ohne es getestet zu haben dass ein Spiel auf 4K@LowTexture Einstellung weniger VRAM braucht als das gleiche Spiel in FullHD@HighTexture Einstellung.
 
Zuletzt bearbeitet:
tek9 schrieb:
Das gleiche bei Radeon 7950 vs GTX 770

Du koenntest sogar die GTX 670 (Kepler (1)) als direkten Gegenspieler anfuehren (die vom Erscheinungsdatum naeher an der HD 7950 liegt als die GTX 770 (Kepler (2) Refresh) ;).

Ich habe mich damals leider auch fuer Kepler entschieden (nVidia damals noch finanziell unterstuetzt, eine Fermi/Thermi haette ich mir auch niemals gekauft und Tahiti war eben leider doch etwas teurer als Kepler in meinem Fall), wobei ich im nachhinein immer noch sehr mit meiner 670er zufrieden war/bin (was aber auch an Gigabyte liegt), obwohl der Speicher nVidia-typisch etwas ungluecklich mager war (die 4GB Version war Wucher und stand in keiner gesunden Relation zu Preis) und man eben heutzutage natuerlich mehr limitiert ist als bei einer 7950er, keine Frage.
 
@DocWindows
Dass RDNA wohl auch besser bei den Spielen abschneidet, wo GCN immer ziemlich schlecht aussieht glaube ich auch. Amd hätte wohl sonst kaum für ihre Folie Spiele wie Hitman 2 genommen, wo GCN bspw. total schlecht abschneidet.

Trotzdem suggeriert der FF-Benchmark mMn ein völlig falsches Bild. Die Radeon VII wird nur in diesen ganz speziellen Szenarien, in denen GCN total underperformt hinter den Navi(s) landen, aber ganz bestimmt nicht über einen breiten Spiele-Parkour. Zumal auch die 5700/5700XT hier alles andere als eine gute Figur macht
 
r4yn3 schrieb:
Ein wenig schon, ja. Aber als extrem würd ich das nicht ansehen.
"Extrem" ist natürlich relativ - und hängt selbstverständlich auch vom Spiel ab. Aber kannst durchaus Full HD <-> 4K doppelten VRAM-Verbrauch sehen, wie z.B. (auf die schnelle gefunden) beim Tomb Raider:

Bild (source)

Bei anderen Spielen kann der Unterschied auch deutlich geringer sein. Musst aber natürlich auch Faktoren wie z.B. Texturauflösung berücksichtigen.

DocWindows schrieb:
Nö, eigentlich nicht. Ich behaupte einfach mal ohne es getestet zu haben dass ein Spiel auf 4K@LowTexture Einstellung weniger VRAM braucht als das gleiche Spiel in FullHD@HighTexture Einstellung.

Ähm, die Sache mit den Äpfeln und den Birnen? Bestätigst du hier nicht sogar meine Aussage, wenn du ein mal niedrige Texturen und ein mal Hohe Texturen wählen musst?
 
Revan1710 schrieb:
Trotzdem suggeriert der FF-Benchmark mMn ein völlig falsches Bild. Die Radeon VII wird nur in diesen ganz speziellen Szenarien, in denen GCN total underperformt hinter den Navi(s) landen, aber ganz bestimmt nicht über einen breiten Spiele-Parkour.

Halte ich nicht für ausgeschlossen dass es so kommt. Diese erste Generation von RDNA soll ja noch nicht komplett neu sein, sondern noch etwas GCN beinhalten. Die nächste RDNA wird dann endgültig neu sein (inkl. Raytracing). So zumindest lauten Gerüchte.

Dass eine halbneue RDNA@7nm auf 2070-Level eine alte GCN@7nm grundsätzlich schlägt ist absolut möglich. Die VII ist zwar auf 2080--Level, aber bringt spieleübergreifend alles andere als konstante Leistungen. Dass eine VII schneller als eine 5700XT ist, könnte daher eher die Ausnahme als die Regel werden.

Tuxgamer42 schrieb:
Ähm, die Sache mit den Äpfeln und den Birnen? Bestätigst du hier nicht sogar meine Aussage, wenn du ein mal niedrige Texturen und ein mal Hohe Texturen wählen musst?

Ich verstehe deine Aussage so, dass der VRAM-Bedarf hauptsächlich mit der Wahl der Auflösung zu tun hat (-> extrem), und das ist halt nicht so ganz richtig. Natürlich steigt der Bedarf wenn man jeweils die gleichen Detaileinstellungen setzt, aber das muss man ja nicht unbedingt machen.
Der vermeintliche Bedarf nach 8GB statt 6GB den User verspüren, ist ja der Annahme geschuldet, dass alles @Maxsettings immer besser aussieht als beispielsweise alles @hoch. Selbst wenn man nur FullHD Auflösung hat.
 
Zuletzt bearbeitet:
DocWindows schrieb:
Ich vermute einfach mal, dass sich die RDNA-Karten als konstant besser herausstellen als die älteren GCN-Only Karten. Somit wären sie innerhalb der AMD-Produktwelt auch eine klare Kaufempfehlung für die UVP.

Davon war natuerlich auch auszugehen (dass die neue Architektur die alte ausstechen wird), dazu braucht es eigentlich nicht den verhunzten FF15 Benchmark, um das feststellen zu koennen ;).

Nach wie vor duerfte der grosse Chip der Radeon VII aber deutlich vor der RX 5700(XT) liegen, bis mehr Spiele auf den Markt kommen, die die RDNA-Architektur (ansatzweise) ausreizen und dann schleichend die Radeon VII an Land verlieren wird (und im kommenden Jahr wohl gegen die Navi20/21 GPU (5800(XT)/5900(XT)) ausgemustert werden duerfte).

Zudem hat RDNA1 immer noch GCN-Relikte und einen richtigen Schub erwarte ich sowieso erst mit (von GCN dann hoffentlich fast vollkommen entkoppelter) RDNA2-Architektur, wenn diese auch seitens der Entwickler (und damit meine ich nicht nur RT-Raytracing) unterstuetzt wird oder besser noch darauf Spiele optimiert werden, aber damit wird man - analog wie bei RX Vega - wohl vermutlich noch mindestens ein Jahr nach RDNA2 Start warten muessen (um das im Ansatz einschaetzen zu koennen).

Als Uebergangsloesung duerfte RDNA1 aber schon zu gebrauchen sein, aber wie gesagt, preislich aktuell leider (noch) zu hoch angesetzt (vermutlich auch der 7nm Fertigung geschuldet und weil es der Markt/die geneigte Kundschaft eben aktuell hergibt).
 
  • Gefällt mir
Reaktionen: Revan1710
Chismon schrieb:
Zudem hat RDNA1 immer noch GCN-Relikte und einen richtigen Schub erwarte ich sowieso erst mit (von GCN dann hoffentlich fast vollkommen entkoppelter) RDNA2-Architektur, wenn diese auch seitens der Entwickler (und damit meine ich nicht nur RT-Raytracing) unterstuetzt wird oder besser noch darauf Spiele optimiert werden, aber damit wird man - analog wie bei RX Vega - wohl vermutlich noch mindestens ein Jahr nach RDNA2 Start warten muessen (um das im Ansatz einschaetzen zu koennen).
Das wurde zwar so angenommen, stimmt aber laut AMD nicht. RDNA1 enthält schon so viele Veränderungen, daß man von einer neuen Architektur reden kann. Allerdings teilt es mit GCN die gemeinsame ISA.
 
Zurück
Oben