Bericht AMD Navi: Radeon RX 5700 XT ($449) und RX 5700 ($379) sind offiziell

D3Spieler schrieb:
Wer sich eine fucking halbe Stunde Rant über die Navi anguckt, der hat sowieso die Kontrolle über sein Leben verloren. Kauft euch ne Vega 56 und gut ist, werden aktuell ständig für ~260€ angeboten. Best bang for the buck heißt die Redewendung im Englischen.
Wieso sollte man eine laute (Rerenz Design) Grafikkarte kaufen, die zudem noch 100W mehr Strom aus der Steckdose zieht und vielleicht 1-6% mehr Leistung im min fps Bereich bringt im Gegensatz zur Konkurrenz?
 
Julz2k schrieb:
Wieso sollte man eine laute (Rerenz Design) Grafikkarte kaufen
Wer spricht von Referenz?
https://www.idealo.de/preisvergleic...ega56-pulse-8gb-hbm2-sapphire-technology.html

Julz2k schrieb:
die zudem noch 100W mehr Strom aus der Steckdose zieht
TBP 220W und das verbraucht sie auch, die TBP der 5700XT ist 225W

Klar ist die 5700XT dann gute 20% schneller als dieses Custom Modell, aber von 1.5x Perf/Watt ist da nichts zu sehen. Und bei Perf/€ sieht es noch schlechter aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: McTheRipper und Cpt.Willard
@Taxxor ich wollte damit eher eine 56 zu 1070 im Stromverbrauch vergleichen. Werte zur neuen Gen haben wir noch nicht, denn ich glaube nicht, dass die 5700XT so eine Stromschleuder sein wird.

Power Consumption Results: The AMD Radeon RX VEGA 56 video card is rated at 210W and the GeForce GTX 1070 is rated at 150W, so the outcome here is to be expected. We hit 444 Watts on the Vega 56 and just 352 Watts on the GeForce GTX 1070 while playing BF1. The AMD Radeon RX Vega 56 used 92 Watts more power in this game title!


Read more at https://www.legitreviews.com/amd-ra...eforce-gtx-1070_197186/13#BhKTsQwVCYs6xYhg.99
 
Julz2k schrieb:
Werte zur neuen Gen haben wir noch nicht, denn ich glaube nicht, dass die 5700XT so eine Stromschleuder sein wird.
Naja sie hat immerhin 225W TBP bekommen, 5W mehr als die Vega56 hat. Das wird schon seinen Grund haben.

Der Verbrauch aus dem Link ist übrigens "peak power" und kein Durchschnitt. Und für die kurzen Spitzen ist Vega ja mittlerweile bekannt^^
 
Ich denke nicht, dass die Karte in Games so viel Power ziehen wird. In Synthetischen Benchmarks kann man die TBP sicherlich voll auslasten.
 
Wir werden sehen, ich hoffe ja auch auf einen Verbrauch um die 180W, wobei selbst das in Anbetracht des kleineren Die und der 7nm vs 12nm schon kein gutes Ergebnis wäre, wenn man gleich schnell oder nur minimal schneller als die 2070 ist.
 
  • Gefällt mir
Reaktionen: Julz2k
@Eli0t
Alles gut bei dir?
Ich mache mir gerade ernsthaft Sorgen.

Aber der Entertainmentfaktor ist klasse. Also mach weiter :)
 
Zotac2012 schrieb:
Dass sich viele über die Preise der neuen AMD Navi Grafikkarten aufregen ist doch verständlich, da AMD doch mit diesen neuen Grafikkarten den Mainstream Markt bedienen wollte. Allerdings gibt es hier ein deutliches Missverhältnis, was den Mainstream Markt betrifft,]...]
Ich kann die Preisgestaltung nachvollziehen. Die wollen weg vom Billigkeimer-Image. Darauf bezogen finde ich die UVP nicht zu hoch, auch wenn ich mir als Konsument niedrigere Preise wünsche... sollte die Leistung einer 5700XT wirklich auf GTX2070 Niveau sein, kann AMD auch einen ähnlichen Preis aufrufen (den - ganz nebenbei nVidia dank seiner kaufwilligen Kunden einführen konnte). Die billigste 2070, eine Zotac Mini, kostet aktuell knapp 460€. Warum sollte AMD das drastisch unterbieten?
 
  • Gefällt mir
Reaktionen: stevefrogs und rg88
Kurze Frage eines Dummies:

Würde eine APU bestehend aus Ryzen 3700 und RX 5700 nicht das Nonplusultra sein? Oder habe ich da einen groben Denkfehler?
 
Wenn die Dinger wirklich abliefern was amd verspricht dann dürften wir Bewegung in dem segment sehen Nvidia wird das nicht auf sich sitzen lassen. Die "super" Chips sind ein guter Indikator dafür.
Ergänzung ()

ridgero schrieb:
Kurze Frage eines Dummies:

Würde eine APU bestehend aus Ryzen 3700 und RX 5700 nicht das Nonplusultra sein? Oder habe ich da einen groben Denkfehler?
Sowas in der Art dürften wir in den nächsten Konsolen sehen.
 
EchoeZ schrieb:
Die billigste 2070, eine Zotac Mini, kostet aktuell knapp 460€. Warum sollte AMD das drastisch unterbieten?

Vermutlich deshalb weil sie letztlich weder mehr Speicher, noch weniger Verbrauch und schon gar nicht eine RT Hardwarebschleunigung bieten? Vor allem aber, weil sich mit knapp 10% Marktanteil, kaum jemand für sie interessiert?

Realistisch betrachtet sind die Karten schlichtweg uninteressant, wenn man nicht gerade eine rote Brille auf hat, oder sich irgendwas von PCIe 4.0 verspricht und ein entsprechendes Board und CPU sein eigen nennt.

Es spricht schlichtweg nichts für AMD in diesem Markt und wenn man als positives Argument, die kommenden Konsolen heranzieht, muss man die fehlende RT Unterstützung herausrechnen.

Für 250-300€ wären die Karten eine interessante Alternative für die 1660 Ti und ein würdiger Nachfolger für die bisherigen RX Karten. So sind die Karten letztlich absolut irrelevant und überteuert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard und latexdoll
Immer wenn ich lese, dass 449$ für 251mm² zu teuer wären, muss ich mir vorstellen wie sich diese User dann 25 kg Silizium für 2,49€ in den Rechner kippen: https://toom.de/p/spielsand-25-kg/4340009 - Und das Beste daran: der ist sogar extra für Gamer :evillol:
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Taxxor schrieb:
Der Verbrauch aus dem Link ist übrigens "peak power" und kein Durchschnitt. Und für die kurzen Spitzen ist Vega ja mittlerweile bekannt^^
Das ist AMDs grösstes Problem mit den diversen Leistungsaufnahme-Messungen. Allgemein wird diese mittels Software ausgelesen, dabei sind diese Werte nur als Anhaltspunkte zu betrachten, eigentlich dienen diese Messpunkte nur fürs interne Power-Managment.
Oder Messungen mittels träger Multimeter, die eben hauptsächlich an den Peaks hängen bleiben.
Einzig die Messung mit schnellen Oszilloskopen kann man ziemlich genau den 'echten' Verbrauch messen, aber wer im Netz ausser Igor macht das schon.
Der große Unterschied (zudem) ist auch AMDs großzügigere Limitierung der Leistungsaufnahme, nVidia riegelt da rigoroser ab weswegen dort die 'simple' Art der Messung schon eher passt.
AMD hat es lediglich bei der Fury Nano und aktuell der VII nachgemacht und das Powerlimit aggresiver eingestellt.
Bin auf Igors Messschriebe gespannt, wie AMD das mit RDNA handhabt ...
die Einzige Art der Leistungsaufnahmemessung im Netz die ich nachvollziehen und damit auch glauben kann...
 
  • Gefällt mir
Reaktionen: Acedia23, Schranz0815, McTheRipper und 2 andere
EchoeZ schrieb:
Ich kann die Preisgestaltung nachvollziehen. Die wollen weg vom Billigkeimer-Image.
Aber das Image haben sie doch schon seit Vega nicht mehr, die waren doch teils deutlich teurer als die Gegenstücke in Form von den Pascal Grafikkarten!
EchoeZ schrieb:
Darauf bezogen finde ich die UVP nicht zu hoch, auch wenn ich mir als Konsument niedrigere Preise wünsche... sollte die Leistung einer 5700XT wirklich auf GTX2070 Niveau sein, kann AMD auch einen ähnlichen Preis aufrufen
Man darf aber auch nicht vergessen, das Nvidia neben dem GPU-Chip auch noch die Recheneinheiten von Raytracing auf dem Chip haben, was bei AMD komplett fehlt. Und der Preis in Euro liegt meist noch um einiges höher als in Dollar, ich finde den Preis der Navi 5700XT um 100,00 Euro zu hoch [wenn ich mal von einem Preis bei Release von 489,00 / 499,00 Euro ausgehe bei der Navi 5700XT!].
 
  • Gefällt mir
Reaktionen: Cpt.Willard und wal
Taxxor schrieb:
wobei selbst das in Anbetracht des kleineren Die und der 7nm vs 12nm schon kein gutes Ergebnis wäre,
Wieso? Der Die ist sehr klein und hat relativ wenig Shader (jaja, ich weiß, dass man das eigentlich nicht mit GCN vergleichen kann). Drum geht man eben den Weg des Taktes.
Takt kostet nichts, außer Effizienz, an einem größeren Die geht aber der Gewinn flöten und vorallem hat man viel weniger Spielraum für Preissenkungen.
Denk denn irgendjemand, dass AMD aktuell an Vega56 etwas verdient?
ridgero schrieb:
Würde eine APU bestehend aus Ryzen 3700 und RX 5700 nicht das Nonplusultra sein? Oder habe ich da einen groben Denkfehler?
ja, ein rießiger Hotspot wäre das dann. Zumindest bei diesen Taktraten. Viel Spaß da 250-300 Watt mit einem CPU-Kühler auf so kleiner Fläche wegzuschaufeln ;)
Und du vergisst dabei auch, woran die aktuellen APUs schon Probleme haben: Die Speicheranbindung.
Drum kommt in den Konsolen ausschließlich Grafikspeicher zum Einsatz. Selbst für die Spiele und das OS. Das wäre für einen Desktop eine miese Lösung von der Performnace her. Konsolen haben aber nur ein Aufgabengebiet, da kann man das machen
 
Was diese Watt-Verbrauchs-Vergleiche immer sollen.

Nach einem Jahr, wenn man wirklich jeden Tag knapp 10h heftig zocken würde, wären 100Watt mehr Verbrauch ca. 100€ mehr Stromkosten. Da aber niemand 10h lang 365 Tage im Jahr zocken kann/wird, kannst man diesen Wert realistisch auf 50€ mehr Stromkosten im Jahr runter brechen. Und man wäre dann immer noch übelst am suchten/dauerzocken. Jeden Tag 5h lang vollgas AAA+ Titel - auch im Urlaub, auch an Weihnachten, Sylvester, am Geburtstag - immer.

50€ mehr Stromkosten im Jahr, und das auch nur als Power-User, sind absolut zu vernachlässigen. 4€ mehr pro Monat - oh nein! Wahrscheinlich kommen da aber eher 30€ nach einem Jahr raus.

Und ich glaube, das jemand der sich mal eben eine Grafikkarte für ~250 bis 400€ kauft, drauf scheißt ob ihn das Teil 30€ mehr im Jahr kostet.

Wirklich interessant ist dann eher Lautstärke & Wärmeentwicklung wegen den 100 mehr Watt im Verbrauch. Aber ansonsten ist das absolut scheissegal.
 
  • Gefällt mir
Reaktionen: p4z1f1st, Zelle_92, McTheRipper und 2 andere
xexex schrieb:
weil sich mit knapp 10% Marktanteil, kaum jemand für sie interessiert?
100% Marktanteil nächstes Jahr bei 4k(-8k?) Spielekonsolen sind sicherlich nicht uninteressant. Zumal hier gerade eine neue Architektur in der Mittelklasse eingeführt wird.
Ich würde das Modell eher als Testballon sehen und als Spielwiese für 7nm. Die "richtigen" Karten kommen dann später mit deutlich mehr Shadern, wenn die Fertigung das wirtschaftlich zulässt.
Grundsätzlich ist der Architektursprung durchaus mit Annerkennung zu sehen. Von GCN her ist da doch ein deutlicher Sprung zu sehen
 
xexex schrieb:
Vermutlich deshalb weil sie letztlich weder mehr Speicher,
aber auch nicht weniger
noch weniger Verbrauch
wird man sehen
und schon gar nicht eine RT Hardwarebschleunigung bieten?
Na klar, RT, DAS Killerfeature :rolleyes:
Vor allem aber, weil sich mit knapp 10% Marktanteil, kaum jemand für sie interessiert?
Oh wow, was für ein Totschlagargument... deshalb nimmste se nichtmal geschenkt, was? :baby_alt:
Ergänzung ()

Piecemaker schrieb:
Was diese Watt-Verbrauchs-Vergleiche immer sollen.

Nach einem Jahr, wenn man wirklich jeden Tag knapp 10h heftig zocken würde, wären 100Watt mehr Verbrauch ca. 100€ mehr Stromkosten.
Die Typen haben dann aber ganz andere Sorgen als ihre Stromrechnung, die sind mMn reif für die Klapse ;)
 
  • Gefällt mir
Reaktionen: McTheRipper und rg88
rg88 schrieb:
100% Marktanteil nächstes Jahr bei 4k(-8k?) Spielekonsolen sind sicherlich nicht uninteressant.

Diesen "Marktanteil" hat AMD jetzt, wenn man Nintendo nicht berücksichtigt auch. Trotzdem kauft sich deshalb niemand eine AMD Grafikkarte und in der Zukunft wird es erst recht niemand tun, weil man im Gegensatz zu den Konsolen, keine RT Beschleunigung anbietet.

EchoeZ schrieb:
Na klar, RT, DAS Killerfeatur

Killerfeature oder nicht ist an dieser Stelle irrelevant, es ist ein Feature von vielen, was fehlt.

Eine Radeon VII kann mir 16GB VRAM auftrumpfen, braucht auch kaum jemand, aber es ist mehr als 8GB. Was spricht hingegen für die 5700? Praktisch gar nichts.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
latexdoll schrieb:
also bei den Video auf 1080p, da kotzt doch die 2060 förmlich und die CPU röchelt im Gleichklang. Da ist beides am Limit ;-) Nun stellen wir uns mal vor die 2060 würde bei DXR auf ultra stehen ;-) Also da würde ich eher eine 2070 "Super" nehmen ^^

Aha- 78FPS im Schnitt ist bei Dir also schon "kotzen" und alles "röchelt".
Muss jeder selbst wissen...

LG
Zero
 
  • Gefällt mir
Reaktionen: KlaraElfer
Zurück
Oben