Bericht AMD Navi: Radeon RX 5700 XT ($449) und RX 5700 ($379) sind offiziell

scratch schrieb:
Es ist nur beschissene GRAFIK, mehr nicht.
Dann kannste dir doch auch ne KArte für unter 100€ kaufen, in 1024 und allen Details auf niedrig läuft da sicher auch noch alles. Is doch nur beschissene Grafik!

Sorry, aber wer solche Argumente bei Grafikkarten ab Midrange bringe, hat doch den Schuss nicht gehört. Wozu kauft man sich den Karten für diese Kosten wenn nicht wegen der Grafik? Das Spielprinzip eines Spiles hat noch nie eine Grafikkarte geändert. Also ja, man kauft sich diese Karten einzig und allein wegen der beschissenen Grafik und nichts sonst und wenn beide Hersteller gleichviel kosten, der eine aber ein Feature vermissen lässt, was in der Zukunft eine Rolle spielen wird (nur mit RT sind physikalisch korrekte Echtzeitspiegelungen möglich, davon abgesehen würde die Filmindustrie wohl kaum darauf so viel wert legen, wenn es unnötig wäre), dann ist das ein klarer, objektiver Nachteil. Das man da überhaupt anfängt zu diskutieren....
 
  • Gefällt mir
Reaktionen: .Sentinel. und Cpt.Willard
Oneplusfan schrieb:
Dem kann ich nur zustimmen.

ABER:

Hier geht es nunmal um Grafikkarten. [...]

Da gebe ich Dir Recht, mein Gameplay-Seitensprung hat da eigentlich nichts zu suchen, wenn man streng ist. Dennoch, RT mag schön aussehen, aber es braucht momentan einfach zuviel Leistung. Da bin ich wohl nicht Grafikfetischist genug, um den Sinn zu verstehen. Dem möchte ich noch folgendes anfügen:

xexex schrieb:
Leider werden die kommenden Navi Karten aber alles andere als günstig sein und heute 500€ für eine Grafikkarte auf dem technischen Stand von 2017 auszugeben, halte ich schlichtweg für eine Geldverschwendung.

Wer sich für 300€ eine Vega im Abverkauf zulegt, soll es doch gerne tun, bei 500€ erwarte ich aber schon eine Karte, mit der ich für ein paar Jahre noch hohe Qualitätssettings nutzen kann und das erfordert nun mal eine Karte die auch RT Hardwarebeschleunigung mitbringt.

Den Unterschied zwischen High und Ultra sieht man ohne Lupe bei den meisten Spielen nicht, den Unterschied zwischen RT und keinem RT sieht hingegen auch ein "blinder" sofort.

Erstmal sind die Preise noch nicht da, zweitens redet @xexex hier von Langzeitnutzen und vermengt Hardwareleistung und RT-Leistung. Sicherlich Dinge, die diskutiert sein sollten, aber da muss ich doch sagen führt die Diskussion langsam ins sehr, sehr Ungewisse. Spiele haben kontinuierlich steigende Anforderungen. Zu meinen, dass eine heutige RT-Karte, selbst eine 2080er, noch in 4-5 Jahren RT in Verbindung mit steigenden Anforderungen noch reibungslos über die Bühne kriegt, ist Unsinn. Das wird einfach nicht funktionieren. Wer heute deshalb eine RT-fähige Karte kauft, um in diesem Zeitraum spezifisch RT nutzen zu können, der wird sich, so glaube ich, über diese hohe Investition bald ärgern. Ein Blinder sieht heute schon nicht bloß den Unterschied non-RT zu RT, er sieht auch die FPS droppen.


Mustis schrieb:
Dann kannste dir doch auch ne KArte für unter 100€ kaufen, in 1024 und allen Details auf niedrig läuft da sicher auch noch alles. Is doch nur beschissene Grafik!

Sorry, aber wer solche Argumente bei Grafikkarten ab Midrange bringe, hat doch den Schuss nicht gehört.

Es war ein überspitztes Argument. Hätte ich vielleicht klarer ausdrücken müssen. Aber es darf wohl erlaubt sein, zum Nachdenken anzuregen.
 
Zuletzt bearbeitet:
scratch schrieb:
Aber es darf wohl erlaubt sein, zum Nachdenken anzuregen.
Selbstverständlich! Das habe ich ja bei dir getan. Zu argumentieren, man brauche bei gleich teuren KArten RT nicht, weil es ist ja nur GRafik, gleichzeitig aber die Grafik auch über die FPS in den Vordergrund zu rücken, ist halt komplett unlogisch.

Ich kann mit RT definitiv immer und stets flüssig zocken. Und selbst wenn die FPS droppen, kann ich mir bei der einen Karte immer überlegen ob ich RT an oder ausstelle, bei der anderen Karte nicht und latzte trotzdem das selbe. Deswegen nochmal: Solange ich das selbe bezahle und keine anderen Vor-/Nachteile technischer Natur existent sind, ist jedes Feature weniger ganz objektiv ein Nachteil, immer und völlig indiskutabel.

PS: die Frames droppen auch wenn ich statt in 1024 in Full HD und darüber zocke. Das ist so ziemlich bei jedem bildverbesserndem Feature der Fall...
 
Wurde das hier noch gar nicht thematisiert?
794803


AMD Ryzen 3900X + 5700XT a little faster than intel i9 9900K+ RTX2070 in the game, World War Z.Today, AMD hosted a media briefing in Seoul, Korea. air-cooled Ryzen, water cooled intel.

Und damit bleibt für heute vorerst einmal der letzte Wert. Der stammt von einem System mit Ryzen 9 3900X und Radeon RX 5700XT gegen eines mit Core i9-9900K und Geforce RTX 2070. In World War Z ist das AMD-System laut Reddit einen Hauch schneller. Es liefert 6.296 Framescore, das Intel-System 6.184 Framescore. Oder 106 gegen 103 Fps in 2.560 x 1440. Das AMD-System scheint die CPU etwas besser auszulasten. Der 3900X ist ein 12-Kerner mit 3,8/4,6 GHz, 70 MiB Cache, 105 Watt TDP und 499 USD Ausgabepreis. Der 9900K ist ein 8-Kerner, 3,6/5,0 GHz, 16 MiB Cache, 95 Watt TDP und 499 USD Ausgabepreis.

Quelle Text
Quelle Bild

Ich kann zu der neuen Generation wenig sagen da habe ich nicht das nötige Wissen zu, um das alles richtig zu deuten was nun warum wie viel besser oder schlechter ist.
Ich habe mir gerade eine Asus Arez RX56 Strix für 230€ gegönnt mit der habe ich genug zu kämpfen da ich das verhalten was sie zeigt so gar nicht kenne.
Muss mich dazu erstmal schlau machen danach mache ich mir Gedanken über kommende Generationen :daumen:
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Das AMD-System scheint die CPU etwas besser auszulasten.
Die sehen aber schon, dass dort "GPU Load" steht, oder?
Das Intel System wurde also etwas mehr vom 9900K ausgebremst, skaliert man die 93% auf 97% hoch, landet man bei 107fps.
Aber da ist dann auch die Frage, wer mit einer 5700XT auf DX11 spielt. Für Nvidia ist DX11 in dem Titel ja best case, für AMD worst case.
 
@Mustis
Klar, das macht auf jeden Fall Sinn. Habe aber auch nicht über gleich teure Karten gesprochen - der Preis der AMD-Karte muss stimmen, sonst kann man natürlich auch zu einem RT-fähigen Pendant greifen. Irgendwo hier habe ich 500€ für die 5700XT gelesen - ich halte 400€ für realistischer, auch wenn der Einstiegspreis sicher höher sein wird. Ich bin gespannt, da ich auch Interesse an einem Upgrade hätte, aber dann auch mit praxistauglichem Design eines Drittanbieters. Lassen wir uns mal überraschen, wie das Anfang Juli aussieht.
 
Das RT Argument zieht hier einfach nicht. Wer will bitte bei einer 500€ aufwärts Karte mit einem 1440p oder 4k Bildschirm, in FullHD mit weniger als 60FPS in medium Details zocken. Von den FullHD Besitzern ganz zu schweigen. RT ist einfach nur ein scheiß Gimmick und mehr nicht zur Zeit.

Wofür Nvidia einfach mal 100-250€ der Gen. zuvor drauf geschlagen hat. Und das bei nicht einmal ein paar Handvoll Titel die den Mist unterstützen. Weis nicht was ihr hier rum diskutiert. Einfach nur pure Abzocke genauso wie die Preiserhöhungen seit Maxwell.

Und ja AMD ist nicht besser wenn sie meinen den P/L Kurs von Nvidia zu fahren und nun neue Navi Karten raus bringen die, die Leistung einer etwas schnelleren GTX1080 haben, die schon vor 2 Jahren so viel gekostet hat.

Aber bitte, feiert ruhig weiter den bullshit den sie uns hier verkaufen.
Ergänzung ()

Verak schrieb:
Am Beispiel der Top Karten der letzten Generationen Nvidia MSI, AMD Sapphire Preise zum Release:

Nvidia
580: 450€
680: 530€
780: 580€
980: 580€
1080: 770€
2080: 900€

AMD:
5870: 370€
7970: 530€
R9 290: 400€
Fury: 580€
Vega64: 750€
RVII: 750€
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Blaze1987 und Cpt.Willard
Verak schrieb:
Das RT Argument zieht hier einfach nicht. Wer will bitte bei einer 500€ aufwärts Karte mit einem 1440p oder 4k Bildschirm, in FullHD mit weniger als 60FPS in medium Details zocken.
Das muss ich nicht wenn ich RT anschalte, schau dir bitte BF FPS NACH den Patches an....

Die Preise der AMD Karten sind doch offiziell? Die Preise, die AMD aufrufen wird sind bekannt. Daraus kann man ziemlich exakt den Preis in Deutschladn in € ableiten und der liegt auf dem Niveau der Nvidia Pendants.

@Verak

Feiern tut hier keiner. Es geht um einen Vergleich. Und da muss RT berücksichtigt werden. Subjektiv kann man seine Meinung zu RT und den Preisen haben, objektiv bei einem Vergleich AMD/Nvidia kann ich RT nicht behandeln wie du es tust.
 
Verak schrieb:
Das stimmt nicht. AMD liegt selbst unter DX11 vor Nvidia.
Und was ändert das an der Aussage, dass DX11 trotzdem worst Case für AMD ist?
 
Verak schrieb:
Und ja AMD ist nicht besser wenn sie meinen den P/L Kurs von Nvidia zu fahren und nun neue Navi Karten raus bringen die, die Leistung einer etwas schnelleren GTX1080 haben, die schon vor 2 Jahren so viel gekostet hat.

Warum sollte AMD massiv den Preis drücken!? Mal ganz davon abgesehen, dass das hier UVP sind, die Straßenpreise werden eh niedriger sein. Es werden wie immer die P/L-technisch besseren Karten sein.

Ob RTX bzw. Echtzeit-Raytracing (Um mal nicht den proprietären nVidia Slang zu verwenden) nun in dieser Generation schon Sinn ergibt, oder nicht, muss jeder selber entscheiden. Aber Nett wäre es auf jeden Fall gewesen. So werde ich persönlich dann wohl doch eher auf RDNA2 warten mit dem Upgrade.
 
Finde ich eher enttäuschend... vorallem wenn die Super nochmal 15% zulegen soll.
 
Edelgamer schrieb:
https://wccftech.com/radeon-rx-5700xt-time-spy-leak-matches-geforce-rtx-2070/

Gute Nachrichten. Aber leider muss man wohl auf Partnerkarren warten für eine niedrige Geräuschkulisse.

Das wäre aber nicht gut. Da wäre die Karte langsamer als eine FE.
Die müsste normalerweise schneller als die 2070 sein.

Wenn Nvidia Anfang Juli die Super-Karten launchen sollte, ist es eh vorbei mit Navi zu den Preisen.
Ergänzung ()

Verak schrieb:
Und was mit der R9 290 ging, geht auf einmal heute nicht mehr ? schaut euch mal die Preisentwicklung der 780 im Release Zeitraum der 290 an.

Die 780 hatte einen wesentlich größeren Chip als die 290. Ein größerer Chip kann nicht günstiger sein als ein kleinerer.

Wenn man mal googlet, dann findet man auch Schätzungen zu den Kosten beim Chip-Design & Co.
Bei 7nm liegen die geschätzen Kosten für EIN Chip-Design bei 271 Millionen USD.
 
Zuletzt bearbeitet:
weshalb sie zum Release der 290 ja auch den Preis entsprechend angepasst haben, siehe auch die Preishistory der GTX780
 
SKu schrieb:
Wenn Nvidia Anfang Juli die Super-Karten launchen sollte, ist es eh vorbei mit Navi zu den Preisen.

Ja genau, Nvidia torpediert die eigenen Karten.

50th A. 5700XT: 499 USD
5700XT: 449 USD
5700: 379 USD

https://www.heise.de/newsticker/mel...hitektur-7nm-und-PCI-Express-4-0-4443318.html

Super 2080: 799 USD
Super 2070: 599 USD
Super 2060: 429 USD

https://wccftech.com/nvidia-rtx-super-graphics-cards-msrp-leaked/

Das sind einfach ti's (wobei 2080ti und super 2080 nicht gleich sind) - mehr nicht. Warum sollte da Nvidia die Preise für die alten RTX-Karten senken? Das hätte man ohne "Super" haben können.
 
Heschel schrieb:
Ja genau, Nvidia torpediert die eigenen Karten.

50th A. 5700XT: 499 USD
5700XT: 449 USD
5700: 379 USD

https://www.heise.de/newsticker/mel...hitektur-7nm-und-PCI-Express-4-0-4443318.html

Super 2080: 799 USD
Super 2070: 599 USD
Super 2060: 429 USD

https://wccftech.com/nvidia-rtx-super-graphics-cards-msrp-leaked/

Das sind einfach ti's (wobei 2080ti und super 2080 nicht gleich sind) - mehr nicht. Warum sollte da Nvidia die Preise für die alten RTX-Karten senken? Das hätte man ohne "Super" haben können.

Die einzigen Karten, die für einen Navi-Konter nötig sind sind 2060 und 2070.
 
SKu schrieb:
Die einzigen Karten, die für einen Navi-Konter nötig sind sind 2060 und 2070.

Und was hat das jetzt mit der Antwort auf deine Aussage zu tun?

Warum kommst Du jetzt mit "Konter"?

Für den Preis sind die Navis gut positioniert (manche Karten werden etwas billiger, andere etwas teurer sein) - zu den Gegenstücken bei Nvidia. Warum also zum Teufel nochmal nimmst Du jetzt die "Super"-Nvidia-Karten mit ins Spiel und warum sollte der Preis nicht haltbar sein, wenn nach deiner Aussage oben es lediglich einer 2060 und 2070 bedarf?
 
Heschel schrieb:
Und was hat das jetzt mit der Antwort auf deine Aussage zu tun?

Warum kommst Du jetzt mit "Konter"?

Für den Preis sind die Navis gut positioniert (manche Karten werden etwas billiger, andere etwas teurer sein) - zu den Gegenstücken bei Nvidia. Warum also zum Teufel nochmal nimmst Du jetzt die "Super"-Nvidia-Karten mit ins Spiel und warum sollte der Preis nicht haltbar sein, wenn nach deiner Aussage oben es lediglich einer 2060 und 2070 bedarf?

Nein, sind sie nicht.
Sie haben ein geringeres Feature-Set als die RTX-Karten, haben eine erbärmliche TBP für 7nm und sind nicht mal konkurrenzfähig. Dazu kommen sie erst einmal als Brüllwürfel auf den Markt. Das ist höchstens interessant für Wakü-Nutzer.

Die Super-Karten sind der Navi-Konter. Mehr muss Nvidia nicht machen.
 
  • Gefällt mir
Reaktionen: xexex
SKu schrieb:
haben eine erbärmliche TBP für 7nm
Wie der reale Verbrauch aussehen wird, wird man dann in 9 Tagen sehen, die Radeon VII verbraucht hier im Test auch nur 275W, Igor misst 288W, trotz 300W TBP. Also käme man mit 225W TBP vielleicht auch um die 210W hin, womit man nicht so weit von den 185W der RTX2070 FE weg ist, mit der man sie in der Präsentation verglichen hat.

Wenn dann am Ende 10% mehr Performance bei rauskommen sollten, dann ist die Effizienz zumindest ziemlich gleich.
Trotzdem bleibt es 7nm gegen 16/12nm, da hätte ich wirklich eher mit 150W TB für diese Leistungsklasse gerechnet. Es hängt also weiterhin an der Architektur und ich hoffe, dass RDNA2 das weiter ausbauen wird.


Aber insgesamt muss man schon sagen, dass hier wohl mal wieder am meisten geschönt wurde bei der Präsentation. Diese 1,5x Perf/Watt beziehen sich auf den Vergleich mit der Vega64, die im Grunde die schlechteste Perf/Watt der letzten Jahre bietet.
Gegen eine Vega56 sieht das vmtl. schon eher nach 1,3x aus.
 
Zurück
Oben