News RDNA 2: Next-Gen-Radeon erscheint vor den Next-Gen-Konsolen

Status
Für weitere Antworten geschlossen.
Gewinner sind auf jeden fall Leute die sich vor jahrzehnten für Pascal entschieden haben (Anfang 2016)
So viel "mal wieder" zum Thema : Nvidia optimiert nicht mehr Pascal.:D

Der Test ist von heute und in "Wolfenstein - Youngblood" und co. siehts ähnlich aus.

PCGH schrieb:
Darüber hinaus haben die Grafikkartenhersteller ihre Treiber für die Vulkan-Schnittstelle optimiert. Insbesondere Nvidia war in den letzten Monaten sehr auf eine Verbesserung der Vulkan-Performance bedacht. Offenbar waren die Bemühungen in vielerlei Hinsicht erfolgreich, viele aktuelle Vulkan-Titel laufen auffällig gut auf Nvidia-Grafikkarten, insbesondere den jüngeren. Wir können in nicht wenigen Titeln aber auch Zuwächse für die älteren Pascal-GPUs verzeichnen - so auch in Doom 2016: Die GTX 1080 hat beispielsweise seit unseren letzten Benchmarks beträchtlich zulegen können, Gleiches gilt für die GTX 1070, welche die zuvor weit vorauseilende Vega 56 nun zumindest in Schlagdistanz halten kann. Andersherum stürzt die GTX 970 im Vergleich zu früheren Messungen kräftig ab, was an der knapper Speicherausstattung sowie deren gehandicapter Anbindung liegt.

https://www.pcgameshardware.de/Doom-2016-Spiel-56369/Specials/Performance-Grafik-Tuning-1351418/

Das ist der mit abstand neueste Benchmark zu Wolfenstein.

https://www.pcgameshardware.de/Gefo...-2070-Super-Phoenix-GS-Test-Review-1342191/2/



Screenshot_2020-06-04 Gainward Geforce RTX 2070 Super Phoenix GS im Test Schneller, leiser und...png


In RDR2 hat sich das blatt mit höchster wahrscheinlichkeit auch gewendet, beziehe mich auf Vega und Pascal.

....da muss schon mehr kommen als Turing, damit ein wechsel überhaupt lohnt. Turing ist nicht nennenswert schneller und effizienztechnisch hat sich auch so gut wie nichts getan.

Pascal war die mit abstand beste GPU-Generation der vergangenen jahre ohne wenn und aber.

Ich hoffe das Ampere an diesen extremen erfolg anschließen kann.
A truly CLASSIC !

Von RDNA2 erwarte ich nicht zu viel, schätze ca. 6-8% schneller im durchschnitt als RTX2080Ti
Viel zu spät, viel zu langsam. Vega Part 2 ?

Ich hoffe es kommt anders aber bin ich bin auch realist, ziemlich unwahrscheinlich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beitrag
Bin mal gespannt wo die Karte nachher liegt, grade was Preis und FPS angeht.
Meine letzten CPUs und GPUs waren zwar alle AMD, aber Ryzen 4000 & B450/X470 hat ja jüngst gezeigt das AMD genauso kalkuliert wie Intel und Nvidia wenn man das Ass im Ärmel hat.

Wenns 2080ti Leistung gibt wirds ja auch einen 2080ti Preis sein, erwarte nicht wesentlich geringere Preise solange Nvidias 30x0 nicht ordentlich bei Preis/Leistung aufdreht.
Wieso sollte AMD GPU-Preise drücken wenn's nur an der Marge frisst, am Ende alles Konzerne mit $-Augen.
Tippe eher drauf das die Preise schrittweise sinken wenn Preis/Leistung bei beiden ähnlich ist.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
@KlaraElfer

Sach bloß, sowas ähnliches haben sie bereits bei der 1080Ti vs 2080 gemacht und ich kann mich an keine Kritik deinerseits erinnern.
Die die Chips waren ähnlich groß, die Karten ähnlich schnell, ähnlich teuer und man verlor für die RTX Geschichte 3 GB Grafikspeicher.

Ich kann kich aber dunkel erinnern das du einer derjenigen warst die abgestritten hatten das die neuen Ti Modelle deutlich oberhalb der alten Ti angesiedelt sein dürften.
Also die gleiche Nummer die du jetzt abziehst.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
matty2580 schrieb:
Der Takt ist ja auch nur ein Faktor von vielen für eine gute Leistung.
Bis Bulldozer hatte Intel z.B. immer einen viel niedrigeren Takt als AMD, und trotzdem mehr Leistung, und heute ist dass teilweise umgedreht. ^^
Ist so nicht ganz richtig- die AMD-CPUs der Phenom II- Serie hatten einen höheren Takt und waren damit für Spiele ein bisschen besser geeignet. Intels i5 und i7 hatten die bessere IPC und waren darüber in Anwendungen schneller. Beim i7-970 weiß ich nur nicht mehr, ob er trotzdem auch in Spielen schneller war.
Das hab ich doch schonmal irgendwo gehört...
 
@sialickiz

Waren die Wolfenstein Spiele nicht die wo die Geforce Karten von hause aus weniger berechnen müssen weil an den Shader Details gespart wird?
 
  • Gefällt mir
Reaktionen: Schranz0815
KuestenNebel schrieb:
Na, welcher alte Sack erinnert sich noch? :D
Ich bin ein alter Sack hier mit 47 Jahren, und als Autist habe ich ein sehr gutes Erinnerungsvermögen.^^
 
  • Gefällt mir
Reaktionen: Onkel Föhn und GERmaximus
matty2580 schrieb:
Laut Steam hat die breite Masse gar nichts akzeptiert.
Da führen immer noch Pascal und Maxwell-GPUs die Top 10 an bei den dGPUs, und Navi muss man weit unten suchen.......
Da die Masse nicht jede Generation mitmacht, ist das natürlich nicht verwunderlich aber ja, in Vergleich zu Pascal ist Turing viel schlechter angekommen. Die 1000er Karten waren schon recht früh weit oben in den Steam-Umfragen.

mMn sollte man aber auch bedenken, dass es früher jedes Jahr 'ne neue Gen gab und nach Pascal nicht mehr ohne dass die Sprünge größer geworden sind. Also weniger Leistungssteigerung pro Jahr. Das heißt, man wird seine Karten in Zukunft auch länger im Rechner behalten können - ein genereller Trend.

Nichtsdestotrotz haben viele, auch ich, anfangs über die RTX-Preise geschimpft. Nvidia könnte auch billiger, haben 'ne große Marge. Aber wenn man Marktführer und der Konkurrenz voraus ist, presst man so viel wie möglich aus den Kunden.
 
matty2580 schrieb:
als Autist habe ich ein sehr gutes Erinnerungsvermögen

Autismus impliziert nicht, dass man ein gutes Erinnerungsvermögen hat. Davon abgesehen scheinst Du aber jene Zeit verschlafen zu haben :D
 
Wadenbeisser schrieb:
@sialickiz

Waren die Wolfenstein Spiele nicht die wo die Geforce Karten von hause aus weniger berechnen müssen weil an den Shader Details gespart wird?

Netter versuch ! :heul: Das ist doch in allen anderen Vulkan-Spielen das selbe mittlerweile, siehe zb. Zombie Army 4 oder Detroit Become Human. ;)

https://www.pcgameshardware.de/Zomb...enchmark-Test-PC-Steam-Release-Uncut-1343125/
https://www.pcgameshardware.de/Detr...8/Specials/PC-Test-CPU-GPU-Benchmark-1339541/


Pascal ist in den meisten Vulkan-Spielen flotter als Vega, oftmals sind die Unterschiede gravierend, siehe oben.

Von der mit abstand verbreitesten Engine (DX11) mal lieber ganz zu schweigen. VII kämpft im jeden zweiten non-aaa Titel mit GTX1080, siehe "pclab", "pcgh", "gamegpu" und co.

Das ist mehr als ernüchternd um es mal vorsichtig auszudrücken.
 
@sialickiz

Nix mit netter Versuch, ich weiss nur nicht ganz ob das auch auf den aktuellen Titen so zutraf.
Beim Vorgänger wurde meiner erinnerung nach nvidias adaptive shading eingeführt was letztendlich shader detaisl spart, die Karten so weniger zu berechnen haben und sie so in den Benchmarks nach vorn schiebt.
Sofern das inzwischen nicht auch für die Radeons gilt bleibt es bei meiner Aussage das sie bei dem Spiel vor allem deshalb schneller sind weil sie weniger zu berechnen haben.
 
Hoffentlich sind die Nvidia Ampere und RDNA2 Grafikkarten effizienter im Idle sowie Streams gucken.
Vorallem ist ~10W im Idle einfach zuviel.
 
Eigentlich impliziert es das schon KuestenNebel, da es sich um eine Veränderung im Gehirn handelt.
Ich habe zwar nicht das eidetische Gedächtnis von Sheldon aus Big Bang Theory, kann mich aber trotzdem sehr gut erinnern. Mein Freundeskreis bestätigt das immer wieder, weil ich mich an Ding erinnere die für andere völlig irrelevant sind, und dass selbst nach sehr vielen Jahren. Und angeblich sind wir Autisten ja eine mögliche Evolution von uns Menschen, und damit die nächste Stufe der Entwicklung.

Jetzt aber genug aus dem Nähkästchen geplaudert, und bbt please.....
 
Wadenbeisser schrieb:
@sialickiz

Nix mit netter Versuch, ich weiss nur nicht ganz ob das auch auf den aktuellen Titen so zutraf.
Beim Vorgänger wurde meiner erinnerung nach nvidias adaptive shading eingeführt was letztendlich shader detaisl spart, die Karten so weniger zu berechnen haben und sie so in den Benchmarks nach vorn schiebt.
Sofern das inzwischen nicht auch für die Radeons gilt bleibt es bei meiner Aussage das sie bei dem Spiel vor allem deshalb schneller sind weil sie weniger zu berechnen haben.
...behaupten kannst du viel (Wolfenstein), wo sind den deine Quellen ?
Warum gehst du nicht auf "Metroit Become Human" und "Zombie Army 4" ein, hmm ?

Ich kann es mir denken, biege dir weiterhin alles zurecht, wenn´s hilft. ;)
 
Wadenbeisser schrieb:
Sach bloß, sowas ähnliches haben sie bereits bei der 1080Ti vs 2080 gemacht und ich kann mich an keine Kritik deinerseits erinnern.

Es gab ja von AMD keinerlei Konkurrenz, inkl. DLSS, Raytracing und Tensor Cores, womit man in die Profikarten reinschnuppern konnte. Ich fand den Preis daher in Anbetracht der Konkurrenz in Ordnung, nicht mal die Radeon VII kam ran und die war am Anfang eher etwas teurer, stromhungriger und lauter.

Wadenbeisser schrieb:
Die die Chips waren ähnlich groß, die Karten ähnlich schnell, ähnlich teuer und man verlor für die RTX Geschichte 3 GB Grafikspeicher.

Die 2080 ist schon ~10% schneller, außerdem war der Chip 545mm² groß, der Chip der 1080Ti kam auf 471mm² + die ganzen Zusatzfeatures. Wer was damit anfangen kann, für den ist das schon was wert.

Wadenbeisser schrieb:
Ich kann kich aber dunkel erinnern das du einer derjenigen warst die abgestritten hatten das die neuen Ti Modelle deutlich oberhalb der alten Ti angesiedelt sein dürften.

Keine Ahnung, habe diesbezüglich keine Stellung genommen, allerdings könntest du ja meine Frage beantworten, wie viel Geld AMD aus deiner Sicht für eine Karte mit 2080Ti Leistung, 2 Jahre später noch nehmen soll, das würde diese Debatte wesentlich abkürzen und da könntest du mal zeigen, ob du die gleichen Maßstäbe bei AMD und Nvidia anlegst.

Wadenbeisser schrieb:
Waren die Wolfenstein Spiele nicht die wo die Geforce Karten von hause aus weniger berechnen müssen weil an den Shader Details gespart wird?

Ist im Test deaktiviert , spielt somit keine Rolle, aber man kann damit nochmal 7% unter Quality ohne BQ Verlust herausholen.
 
Wadenbeisser schrieb:
@danyundsahne

Das betraf meines Erachtens aber auch nur die Grafik Berechnungen denn bei Compute Geschichten konnten die Karten gut Gas geben. War nicht auch mal von einem kommenden Compute Chip auf GCN Basis die Rede der mit deutlich mehr Shadern zum Einsatz kommen sollte? Vermutlich wurde dort der Grafik Flaschenhals gleich komplett wegrationalisiert um das zu ermöglichen.
Ja genau, bei Compute steht Vega nach wie vor sehr gut da.
Vega kann eben Grafik und Compute beides relativ gut. Compute natürlich viel besser als Grafik. Daher wurde ja auch Vega20 nochmal als Workstation Karte vor kurzem Released. Da spielt sie ganz vorne mit und ist teilweise auf Volta Niveau. Allerdings sieht er gegen Ampere auch kein Land mehr. Vega als Gamerkarte weiß man ja wo man steht....ist eine gute obere Mittelklasse Karte, mehr leider nicht mehr.

Und der neue Chip mit deutlich mehr Shadern wird wohl höchstwahrscheinlich Arcturus sein mit seinen 8192 Shadern. Ich denke er wird auch gegen GA100 relativ gut dastehen was Compute angeht, da Arcturus komplett auf Grafikeinheiten verzichtet, welche Ampere ja noch an Board hat.
 
  • Gefällt mir
Reaktionen: Colindo
Wadenbeisser schrieb:
Ich hoffe nur das sie nicht wieder den Fehler begehen den Takt zu hoch anzusetzen denn dabei war bei den letzten Generationen die Effizienz den Bach runter gegangen. Lieber 10% weniger Takt und dabei 30% Strombedarf gespart, gern auch über eine Umschaltung auf eine andere Firmware.
Du hast doch bei so gut wie jeder Karte sowieso 2 BIOS Versionen, wobei das zweite BIOS mehr auf Effizienz getrimmt ist

Ghostshield schrieb:
Ja aber dort befindet sich auch eine Menge unsinn drin, was im Gaming Design verschwinden könnte.
Dadurch wäre der Chip nochmal ein ganzes Stück kleiner.
Und dadurch würde auch die Zahl der Shader sinken, also ebenfalls in den erwarteten Bereich von Big Navi.
 
modena.ch schrieb:
Ja schon der Professionelle A100
Aber für die Ti wird es weit weniger geben, sonst wäre die Karte nicht zu zahlen in 7NM.
Seh ich auch so der A100 Chip ist so groß wie ne Pfanne zum Spiegelei braten.
Das wird wenn es hoch kommt 2/3 der Größe vom A100. Und das in der Titan Serie.
Meiner Meinung nach. Wissen werden wir es erst nach der Vorstellung der GPU's
 
...und ich hoffe das RDNA2 die DX11 schwäche wenigstens ein wenig beseitigt.:rolleyes:
Es ist ein Armutszeugnis das die deutlich jüngere RX5700XT on par mit der GTX1080 ist.

Link:
https://www.pcgameshardware.de/Call...MW2-Remastered-PC-Release-Benchmarks-1349427/



Screenshot_2020-06-04 Call of Duty Modern Warfare 2 Campaign Remastered im Techniktest Sharpen...png



https://www.pcgameshardware.de/Mafi...Definitive-Edition-Test-Benchmarks-1350369/2/

und in Mafia 2 positioniert sich GTX1070 sogar vor VII.
OMG

Nein, kein cherry-picking. Das sind die neuesten zwei Titel und in den "kleineren" ist es oftmals noch viel extremer, leider.

Das ist einer der Gründe warum AMD für mich persönlich nicht in frage komme, überhaupt keine konstanz.

Navi ist zwar in dieser hinsicht deutlich besser als Vega aber leistet sich häufig, viel zu viele "gravierende" patzer. Das sieht man zb. in Mechwarrior 4 usw. usw.
 
Zuletzt bearbeitet:
Wen juckt noch DX11? Hat eh keine Zukunft mehr. Vulkan und DX12 sind jetzt am Zug
 
  • Gefällt mir
Reaktionen: m2020 und tunichgut
@sialickiz

Reicht das als erste Info?
https://www.computerbase.de/2018-11/geforce-rtx-adaptive-shading-wolfenstein-2-test/

Zum Thema DX11 Spiele Performance, das hat eine komplett andere Ursache und die liegt in den Unzulänglichkeiten bei der CPU Lastverteilung von DX11 selbst.
Nvidia hat das Problem mit deren Software Sheduler Design lediglich besser umgangen als AMD mit ihrer Hardware Lösung. Der zusätzliche Verwaltungsaufwand kostet zwar mehr CPU Rechenleistung aber das ist angesichts der sonst brach liegenden Rechenleistung ziemlich egal und für die Ursachen interessierte sich ohnehin kaum jemand.
Das fiel einem dann gern wieder bei DX12/Vulkan und deren erheblich besser CPU Lastverteilung wieder auf die Füße und äußerte sich in einem Performance Boost für AMD (weil die vorhandenen CPU Leistung endlich nutzbar war) und einen leichten Leistungsverlußt (zusätzlicher Overhead der Software Lösung) für die Geforce Karten.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben