News Navi-GPU: AMDs Radeon RX 5700 verkaufen sich gut

Hallo zusammen,

@ Fraggball
Fraggball schrieb:
Ähhhhhhmmmmm... Nein...

Ähhhhhhhhhhhhhmmmmm...Ja...Und ob...

So long...
 
Luxmanl525 schrieb:
Hallo zusammen,

@ Fraggball


Ähhhhhhhhhhhhhmmmmm...Ja...Und ob...

So long...

Nein. Eine 2070S ist im Schnitt schneller als eine 5700XT und eine 2080 non S ist schneller als eine 2070S.
Es gibt Ausnahmen, wo eine 5700XT wirklich ziemlich nah an eine 2080 kommt. Sie überholt sie aber nicht.
Das Pro AMD Spiel hier ist Call of Duty. Extrem gut, extrem schnell. Dann sieht man sich mal Tomb Raider an. Da setzt sich eine 5700XT gerade mal knapp vor die 2060S. Noch übler wirds dann in Spielen wie Anno. Da überholt selbst eine 2060S die 5700XT - alles in 1440p.

Call of Duty, Battlefield und evtl. so ein Vulkan Titel wie World War Z sind so Ausnahmen FÜR AMD. Das sagt aber nichts über die generelle Leistung aus. Gilt natürlich auch vice versa für Nvidia.

Daher: Im Schnitt ist die 2070S 9% schneller als die 5700XT in 1440p. Die 2080 ist 18% schneller als die 5700XT. Die 2080S legt dann nochmals 6% oben drauf.
 
  • Gefällt mir
Reaktionen: Fraggball, Destyran und Luxmanl525
Julz2k schrieb:
Viel zu teuer. Meine 1070 hat 190 Euro gekostet und die wird es noch mehrere Jahre machen, denn 4k gaming in 60fps gibt es sowieso erst in 5 Jahren.
1) Nein, AMD war selten viel zu teuer und in den letzten Jahren seit dem erneuten Aufschwung eigentlich garnicht.

2) Ja deine 1070 wird es noch ne Zeit lang machen, aber 4k60 Gaming gibt es zum Glück schon seitdem die 1080ti auf den Markt kam.
----------------------------

BTT

Is ja auch so, grade die XT (welch Wunder, das AMD sich mal auf DAS Kürzel schlechthin wieder besonnen hat!) ist ne echt gute Karte! Nach jahrelangen Hängern (so Glanzlichter wie die Fury mal ausgenommen) kommt AMD gewaltig zurück und das ist gut, denn es hilft dem Wettbewerb.

Hätte ich zuwenig Geld für die nächste eingeplant, wäre die 5700XT wohl auch die Nachfolgerin meiner 780ti (R.i.P) geworden.
 
  • Gefällt mir
Reaktionen: bad_sign
Hallo zusammen,

@ SKu
SKu schrieb:
Nein. Eine 2070S ist im Schnitt schneller als eine 5700XT und eine 2080 non S ist schneller als eine 2070S.

Du hast völlig Recht. Ich habe die 2070 ohne und mit "S" Respektive der 2080 mit und ohne "S" durcheinander gebracht. Mein Fehler. Sorry auch an den Kollegen @ Fragball, dein Einwand war berechtigt.

Irgendwie heute nicht mein Tag, vorhin habe ich in einem Beitrag zigmal "Blue Ray" anstatt "Blu-Ray" geschrieben, wie es korrekt gewesen wäre.

So long...
 
  • Gefällt mir
Reaktionen: Chismon und Fraggball
Gelbsucht schrieb:
1) Nein, AMD war selten viel zu teuer und in den letzten Jahren seit dem erneuten Aufschwung eigentlich garnicht.

2) Ja deine 1070 wird es noch ne Zeit lang machen, aber 4k60 Gaming gibt es zum Glück schon seitdem die 1080ti auf den Markt kam.
----------------------------

BTT

Is ja auch so, grade die XT (welch Wunder, das AMD sich mal auf DAS Kürzel schlechthin wieder besonnen hat!) ist ne echt gute Karte! Nach jahrelangen Hängern (so Glanzlichter wie die Fury mal ausgenommen) kommt AMD gewaltig zurück und das ist gut, denn es hilft dem Wettbewerb.

Hätte ich zuwenig Geld für die nächste eingeplant, wäre die 5700XT wohl auch die Nachfolgerin meiner 780ti (R.i.P) geworden.
Ach so, ich erinnere mich noch als mining lukrativ war, AMD hat die Preise selbst hoch gehalten. Man konnte ein Jahr lang keine Grafikkarte zum normalen Preis kaufen.

Davon mal abgesehen bist du ziemlich verblendet, die 4k60fps Lüge haben wir in den Beiträgen nach meinem schon aufgeklärt, die meisten sind der Meinung, daß man die Details nicht auf Mittel runter Schrauben sollten/muss, nur um stabile 60fps unter 4k mit einer 1000 Euro Grafikkarte zu erreichen.
 
  • Gefällt mir
Reaktionen: Laphonso
muzafferamg58 schrieb:
Die RTX 3070 wird 8GB VRAM haben 👍
Ergänzung ()


AMD benötigt auch Kohle um das Alles zu machen, indem man einen 9900K kauft und keinen Ryzen und dazu noch im Forum rumheult wird sich nichts aendern. Daran sind solche Kunden wie du schuld an der Situation.
Zu dem Zeitpunkt meines Kaufs vor einem Jahr hatte AMD für 1440p Ultra Gaming der 2080Ti nichts (haben sie heute auch nicht) und dem 9900K (haben sie heute endlich schon) entgegenzusetzen als Alternative.
Heute würde ich den 9900K nicht kaufen sondern einen AMD 3900X.

Da man hier im Forum immer pointiert, dass die Enthusiasten eh eine Minigruppe darstellen, ist meine "Schuld" (da musste ich lachen, sorry :D) entsprechend irrelevant.
 
  • Gefällt mir
Reaktionen: JohnVescoya
Call of Duty, Battlefield und evtl. so ein Vulkan Titel wie World War Z sind so Ausnahmen FÜR AMD. Das sagt aber nichts über die generelle Leistung aus. Gilt natürlich auch vice versa für Nvidia.

Daher: Im Schnitt ist die 2070S 9% schneller als die 5700XT in 1440p. Die 2080 ist 18% schneller als die 5700XT. Die 2080S legt dann nochmals 6% oben
Reine Glauben$$ache, Anhänger deines Glaubens werde ich nicht😈
 
Deine Zusammenfassung ist sicherlich schlüssig.

Nur hier liegst du falsch:

duskstalker schrieb:
da sind immer wieder full node sprünge dazwischen - so wie auch 7nm einer ist - und auch auf dem weg hat sich der mm² preis pro wafer verdoppelt. und auch hier wächst langsam aber stetig die CU anzahl.

Der Preis für einen 7nm Wafer ist doppelt so hoch wie ein 14nm Wafer, siehe

AMD-Wafer-Price.png


Ergo ist es logisch das 7nm Karten deutlich teurer zu haben sind.

Desweiteren lässt sich die Anzahl der CU von RDNA nicht mit GCN vergleichen weil RDNA ein völlig anderes Design als GCN ist. GCN wurde auf Datendurchsatz getrimmt, während RDNA ähnlich wie bei Nvidia Touring/Pascal auf Rechenleistung hin designed wurde und mit weniger, aber komplexeren Shadern daher kommt

Siehe:

So liegen die direkten nVidia-Gegenspieler der neuen AMD-Grafikkarten bei 1920 bis 2176 Shader-Einheiten – während alternativ eine Radeon RX Vega 64 mit vollen 4096 Shader-Einheiten noch nicht einmal gänzlich die Performance der Radeon RX 5700 mit 2304 Shader-Einheiten erreicht

https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-5700-5700-xt

Der Nachfolger der Polaris Midrange wird die RX5600 auf Basis eines 7nm/170mm werden, siehe

https://www.3dcenter.org/news/amds-naechster-navi-chip-tritt-mit-1536-shader-einheiten
 
  • Gefällt mir
Reaktionen: Unnu, MaverickM und KlaraElfer
Julz2k schrieb:
die 4k60fps Lüge
Für mich ist nicht mal die 2080Ti eine 4K 60 fps GPU. Eigentlich erst die einzige vollwertige 1440p Ultra Karte, alle darunter, auch die 2080 S haben schon Einschränkungen an den Reglern in einer Handvoll Games, insbesondere Square Enix und Ubisoft Games (sofern man konsequent das Ultra Setting als Maßstab nimmt = das, was die devs als Maxium optisch anbieten)
 
  • Gefällt mir
Reaktionen: Pisaro und Julz2k
tek9 schrieb:
Deine Zusammenfassung ist sicherlich schlüssig.

Nur hier liegst du falsch:



Der Preis für einen 7nm Wafer ist doppelt so hoch wie ein 14nm Wafer, siehe

Anhang anzeigen 832265

Ergo ist es logisch das 7nm Karten deutlich teurer zu haben sind.

Desweiteren lässt sich die Anzahl der CU von RDNA nicht mit GCN vergleichen weil RDNA ein völlig anderes Design als GCN ist. GCN wurde auf Datendurchsatz getrimmt, während RDNA ähnlich wie bei Nvidia Touring/Pascal auf Rechenleistung hin designed wurde und mit weniger, aber komplexeren Shadern daher kommt

Siehe:



https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-5700-5700-xt

Der Nachfolger der Polaris Midrange wird die RX5600 auf Basis eines 7nm/170mm werden, siehe

https://www.3dcenter.org/news/amds-naechster-navi-chip-tritt-mit-1536-shader-einheiten

Klar, 7nm ist teurer, allerdings ist deine Grafik von 2017, die kosten sind vor allem am Anfang der fertigung sehr hoch, mittlerweile sollten deutlich mehr wafer eingespart werden, die Produktion ist effizienter, kann hier nur schätzen, halte aber höhere Kosten von unter 1,5x nach zwei Jahren für realistisch.
 
Es wird nie eine 60p/4k GPU geben wenn man den Anspruch hat dabei alles auf Max haben zu wollen. Dafür sorgte man als Game Entwickler schon indem man das höchste Preset entsprechend der GPU Power auslegt bis die Performance wieder im Keller ist. Egal ob man den Unterschied dann noch sieht.
 
  • Gefällt mir
Reaktionen: Gelbsucht, Chismon, JohnVescoya und 3 andere
Hallo zusammen,

@ Julz2k
Julz2k schrieb:
Ach so, ich erinnere mich noch als mining lukrativ war, AMD hat die Preise selbst hoch gehalten. Man konnte ein Jahr lang keine Grafikkarte zum normalen Preis kaufen.

Aus meiner Sicht ist eine Differenzierung hier fehl am Platz. Denn Nvidia hat da auch Interesse dran gehabt und auch seinen Teil dazu beigetragen, soweit machbar. Ganz allgemein nimmt sich von den beiden keiner etwas voneinander.

Es sind beides Wirtschaftsunternehmen und wenn einer eine gute GPU hat, wie AMD jetzt mit den RX 5700ern, ist nicht einzusehen, weshalb sie nicht auch daran ihren Teil verdienen sollten. Das gleiche gilt Äquivalent dazu betrefffend Nvidia, wobei aus meiner Sicht der letzte wirklich gute Wurf eher in Form von Pascal angesiedelt war. Aber das ist meine eigene Persönliche Ansicht die sich nicht jeder zu Eigen machen muß.

So long....
 
Laphonso schrieb:
Heute würde ich den 9900K nicht kaufen sondern einen AMD 3900X.

Da man hier im Forum immer pointiert, dass die Enthusiasten eh eine Minigruppe darstellen, ist meine "Schuld" (da musste ich lachen, sorry :D) entsprechend irrelevant.
Bei 1440P ist dann der Mehrwert eines 9900K im Vergleich zum 2700X 5-10%
https://www.techspot.com/review/1730-intel-core-i9-9900k-core-i7-9700k/page4.html

Spiele auch auf 1440P und habe mich zwischen dem 9900K und dem Ryzen für den Ryzen entschieden und die 5-10% tun mir nicht weh.
Ich respektiere dein Hobby, aber dein Konsumverhalten (egal ob du eine kleine Gruppe bist) ist nicht schön.
Dazu haettest du jetzt den Ryzen verkaufen und einen 3900X kaufen können und haettest 50% mehr Kerne ;)
 
duskstalker schrieb:
nur sehe ich da nirgends einen preisanstieg im midrange bereich um die 250mm², außer bei navi.

Weil bei Navi zum ersten mal der Shrink keine Kostenvorteile bringt - das kann man doch überall nachlesen.
Die Fertigungskosten pro mm² haben sich verdoppelt, also steigt auch der Preis, auch GDDR6 ist teurer.
 
CastorTransport schrieb:
Von daher ist eine 5700 XT für mich in 1440p der "sweet pot".

Wenn dein "pot" "sweet" ist, solltest du die Sorte wechseln :D

*duckundweg
 
  • Gefällt mir
Reaktionen: bad_sign, Unnu und Alphanerd
@Julz2k Ja gut dann lass die 7nm Wafer nur noch 50 Prozent teuer sein.

Wenn man noch diesen Inflationsrate dazu nimmt und berücksichtigt das Chips mit mehr Transistoren auch teurer in der Entwicklung sind und heute weniger PC produziert werden, sprich die Kosten für R&D auf geringere Stückzahlen umgelegt werden, dann erklärt sich der Preisunterschied.
 
muzafferamg58 schrieb:
Bei 1440P ist dann der Mehrwert eines 9900K im Vergleich zum 2700X 5-10%
https://www.techspot.com/review/1730-intel-core-i9-9900k-core-i7-9700k/page4.html

Spiele auch auf 1440P und habe mich zwischen dem 9900K und dem Ryzen für den Ryzen entschieden und die 5-10% tun mir nicht weh.
Ich respektiere dein Hobby, aber dein Konsumverhalten (egal ob du eine kleine Gruppe bist) ist nicht schön.
Dazu haettest du jetzt den Ryzen verkaufen und einen 3900X kaufen können und haettest 50% mehr Kerne ;)
Dazu ist der 9900K noch zu unangefochten in den Gamebenchmarks vorne. Dass AMD nicht die schnellste Gaming CPU stellt, verhindert den finalen Intel Knockout.
 
  • Gefällt mir
Reaktionen: muzafferamg58
ZeroZerp schrieb:
Autsch-
Sind die Preise günstig, Lob für AMD
Sind sie es nicht, ist aber die Konkurrenz schuld?

Unlogische Sichtweise....
Wieso unlogisch?
Bei vergleichbarer Leistung ist AMD auch jetzt günstiger als die "Konkurrenz". Sind sie eigentlich immer, daher der Lob.

Was glaubst du, wo die Graka-Preise wohl ohne AMD wären? Hat man ja bei den CPUs vor ZEN zu genüge erlebt, was Quasi-Monopol eines Herstellers für den Verbraucher bedeutet.
 
Zurück
Oben