Test AMD Radeon RX 5700 (XT) im Test: Navi ist schneller als RTX ohne Super und ähnlich effizient

Liebe Gemeinde,
habe die Sapphire RX5700 XT eingebaut, gestartet. Nichts von der Grafikkarte, Monitor sagt auch kein.eingangssignal. Noch ein paar Mal probiert, habe den PC nicht einmal Mal aufgestellt, sondern gleich auf dem Tisch gelassen.
Weder HDMI noch DP geht. Der Schriftzug leuchtet nicht bei der RX, dachte kein Strom, habe daraufhin meine alte 290X eingebaut, bei der drehen zumindest die Lüfter aber auch hier kein Bild mehr... Habe ich mir mein MB zerschossen?
 
Hatte eben das Vergnügen mir bei nem Kumpel seine heute von Alternate erhaltene 5700 XT anzuschauen.

Er hat einen gut belüfteten Full Tower, was aber eigentlich bei Blowerkarten eher weniger ne Rolle spielt.

Waren uns ziemlich einig, der Kollege ist sogar harter AMD Fan :

Die Karte ist Scheisse ! 90 Grad unter Vollast, die Karte ist verdammt laut. Ein richtig ekelhaftes Pfeifen.

Der Takt pendelt sich dann auch bei nur 1740 Mhz. ein.

Manuelle Lüfterkurve ( agressiver ), führt zwar zu max. 83 Grad und 1890 Mhz.
Die Karte ist dann aber so extrem laut, das es nicht mehr feierlich ist.

Der Kollege schickt sie zurück.
Sowas geht 2019 nicht, warum AMD so einen Schrottkühler verbaut. Unbegreiflich.

Customs werden sicher ne schöne Alternative zu den RTX sein aber die Referenzkarte ist unbrauchbar.

Ehrlich gesagt finde ich das frech die Karte so auszuliefern, und auch relativ dämlich.

Mit nem Kühler im RTX FE Style wäre es doch ein leichtes gewesen die GPU 10 Grad kühler und 100 Mhz + zu halten.

Dann wären in den für AMD wichtigen Tests die Balken noch deutlich länger gewesen.

Die Referenzkarte ist ein richtiger Fail.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: proko85, NMA, Cpt.Willard und eine weitere Person
Eine solche Referenzkarte kauft man sich auch nur um entweder einen Morpheus drauf zu schnallen oder eben diese unter Wasser zu setzen. Die meisten werden onehin auf Customkarten warten.

Bis dahin werden wahrscheinlich die ein oder anderen Fehler ausgemerzt sein und man hat im GPU-Markt gute Alternativen (außer High End). Potenzial ist auf jedenfall da...

797945





Bin gespannt ob Nvidia früher oder später doch die Preise anpassen wird...
 
  • Gefällt mir
Reaktionen: evo789
IXI_HADES_IXI schrieb:
Bin gespannt ob Nvidia früher oder später doch die Preise anpassen wird...

Später bestimmt. Im Moment hat allerdings NVidia den Vorteil 4-6 Wochen lang Partnerkarten auf dem Markt zu haben, während AMD nur mit den wenig gelungenen Blowern auftritt. Das dürfte auch einige Benchmarks zunächst zugunsten NVidias verschieben.
 
  • Gefällt mir
Reaktionen: Cpt.Willard, Benji18 und IXI_HADES_IXI
IXI_HADES_IXI schrieb:
Eine solche Referenzkarte kauft man sich auch nur um entweder einen Morpheus drauf zu schnallen oder eben diese unter Wasser zu setzen. Die meisten werden onehin auf Customkarten warten.
Welchen Sinn soll das haben???
Bei den Zusatzkosten kann er sich gleich ne RTX kaufen.
Hoffe Customs kosten nicht über 500€. Dann haben sie es schwer.
 
Man weiß doch das Referenzkarten von der Kühlung her nicht sonderlich gut sind. Heißt also abwarten wenn man was anständiges haben möchte oder man hilft eben selber nach. Wenn man so oder so eine Wakü daheim hat und eh vor hat die Karte unter Wasser zu setzen warum sollte man sich dann eine überteuerte RTX-Karte kaufen wenn es auch günstiger und ebenbürtig geht? Unter Wasser setzen kostet bei beiden Geld, egal ob grün oder rot.

Ich denke nicht das die Custom all zu teuer werden. Bei Nvidia waren die Referenzkarten teilweise teurer als gute Customkarten. Lassen wir uns überraschen...
 
Sprechen sich NVIDIA und AMD etwa ab? Fast gleiche Specs! Wahnsinn!
797946

Quelle: PCGH
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Breaker10
IXI_HADES_IXI schrieb:
Man weiß doch das Referenzkarten von der Kühlung her nicht sonderlich gut sind. Heißt also abwarten wenn man was anständiges haben möchte oder man hilft eben selber nach. Wenn man so oder so eine Wakü daheim hat und eh vor hat die Karte unter Wasser zu setzen warum sollte man sich dann eine überteuerte RTX-Karte kaufen wenn es auch günstiger und ebenbürtig geht? Unter Wasser setzen kostet bei beiden Geld, egal ob grün oder rot.
Da ist eben der Punkt ! Die Nvidia Referenzkarte ist brauchbar. Auch dort gehen Customs, Höher, Schneller, Weiter....
Die grosse Navi hat jedoch einen Kühler des Grauens. Da liegen Welten zwischen.
 
Rage schrieb:
Ein "popeliger" Midrange-Chip schafft es, die RTX 2060 Super/RTX 2070 anzugreifen, von der Chipfläche ist noch so viel mehr Luft nach oben, dass man es in absehbarer Zeit auch mit nVidias aktuellem Highend aufnehmen kann.

Ja, wenn AMD die Karte vor einem Jahr gebracht hätte, würde ich dir zustimmen. So ist das nur ein Versuch den Rückstand aufzuholen. Die Strukturgröße spielt dabei keine Rolle. Die (nicht realen 7nm) bewirken bezgl. Leistung und Energieeffizienz im Vgl. zu NV keine Wunder.

Wenn AMD wenigstens einen Highend Chip zeitgleich mit veröffentlicht hätte, wäre ich überrascht und begeistert gewesen, aber so wird das (zumindest im GPU Bereich) nichts. NVIDIA kann getrost im Frühjahr eine neue Waffe raushauen und AMD wird mit dem Highend Chip wieder nur reagieren...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Labberlippe
ralf1848 schrieb:
Da ist eben der Punkt ! Die Nvidia Referenzkarte ist brauchbar. Auch dort gehen Customs, Höher, Schneller, Weiter....
Die grosse Navi hat jedoch einen Kühler des Grauens. Da liegen Welten zwischen.

Ja der Referenzkühler von AMD ist wesentlich schlechter da stimme ich zu. Daher werden sich mit den Partnerkarten die Benchmark Ergebnisse nochmals ein gutes Stück zugunsten AMD in die bessere Richtung verschieben.

Der Abstand von einer Referenznvidia zu Partnerkarten ist ja eher gering.
 
xexex schrieb:
In dieser Leistungsklasse wird sich RT auf Konsolen die nächsten Jahre bewegen und auch AMD GPUs werden höchstwahrscheinlich nicht mit einer höheren RT Leistung starten.
Ah ja, du kennst also bereits sämtliche Specs der PS5 und der neuen XBox, weißt wie viele TMU sie hat und damit ggf. die Anzahl der "RT-Cores". Ebenso weißt du natürlich auch bereits, wie die Lösung von AMD agiert und so weiter und so weiter.

Im Endeffekt kommt es hier doch darauf an, als was der neue "Navi" nächstes Jahr wirklich kommt, wie die RT-Unterstützung in die TMUs gegossen wird und ob jetzt jede TMU RT-Funktionen hat, oder nur ein paar usw.

Für mich gibt es aktuell zu viele Unbekannte in diesem Fall und wir haben aktuell von der neuen XBox zum Beispiel nur theoretische Zahlen von MS und Vermutungen, das war es. Dazu eben ein Patent zur "RT"-Funktion von AMD, aus dem man zwar viel Vermuten kann, am Ende aber kann es anders kommen.

Sollte z.B. jede TMU die RT-Funktion bekommen, hätte alleine die 5700XT theoretisch schon 160 RT-Cores, eine GeForce RTX 2080 kommt auf "magere" 48. Klar ist dann die Frage, wie mächtig sind sie von AMD, wie mächtig von nVidia usw.

Mit Einschätzungen wäre ich aktuell - was das angeht - mehr als vorsichtig.

xexex schrieb:
Ob es einem Wert ist oder nicht muss zwar jeder für sich entscheiden, optisch gesehen macht DXR aber einen wesentlich höheren Unterschied aus, als irgendwelche Ultra Settings, die man in Spielen einstellen kann.
Ach wirklich? Die Spiegelungen in BF sind nett, keine Frage, nur sind diese in der Form nicht wirklich neu oder viel besser, als manche der Tricklösungen die bereits heute eingesetzt werden. Klar, bei denen Tricklösungen muss getrickst werden und sie sind nicht so 100%-physikalisch korrekt, aber die Tricks gibt es eben falls.

Auch die Schatten in Tomb Raider sind - wenn man sie mal gesehen hat im Vergleich - doch eher enttäuschend als die wahre Offenbarung.

Und selbst Metro Exodus ist da - wenn auch bisher für mich am besten zu sehen - noch nicht wirklich auf der Höhe.

Wirklich beeindruckend für mich ist eher Quake 2 RTX und selbst da streiten sich ja die geister, weil es entsprechend tolle Versionen gibt.

Optisch gesehen - stand aktuell - macht DXR eine eher durchwachsenen Eindruck, weil immer nur Teileffekte übernommen werden, da aber oft bereits gute Tricks gefunden wurden um ähnliche Ergebnisse vorzutäuschen.

Was DXR wirklich bringen wird, wird sich in Zukunft zeigen und ich hege wirklich große Hoffnungen, aber man sollte mal den Teppich auf dem Boden halten.



xexex schrieb:
mag man fehlende RT Unterstützung noch eher verschmerzen, als bei einer 500€ Karte mit die man eigentlich mehrere Jahre nutzen wollte.
Wenn man bereits sieht, wie bei "gängigen" Auflösungen bereits je nach Effekt schon die 2080Ti ihre Probleme hat mit DXR-Effekten, kann ich jetzt schon sagen, dass man AKTUELL seine Kaufentscheidung eher weniger von RT abhängig machen sollte. Quake 2 RTX zwingt bei all seinen Effekten eben bereits die 2080Ti in die Knie - okay ich übertreibe etwas, aber 60FPS bei 1440p nur durch RT-Funktionen bei "so" einem Spiel sind schon eine Hausnummer.

Was dann erst mit "aktuellen" Spielen passiert, wenn man diese wirklich vollständig auf DXR umstellen würde.

xexex schrieb:
Für einige dürfte schon das im kommenden Jahr heiß erwartete Cyberpunk, als guter Grund für den Kauf einer DXR fähigen Grafikkarte reichen, oder das Fehlen der Unterstützung eben gegen den Kauf sprechen.
Bleibt ab zu warten, wie viele, welche und vor allem wie gut die DXR-Effekte in dem Spiel werden und wie sichtbar der Unterschied am Ende auch wirklich ist.

Egal wie man es aktuell dreht und wendet, wir befinden uns aktuell in einer Übergangszeit, was DXR angeht und ich persönlich bezweifel ernsthaft, dass die RTX-Karten - gerade die 2060 und 2070 - am Ende wirklich genug "Reserven" haben um aufwendige Spiele bei 1080p und 1440p mit DXR-Effekten darzustellen, ohne dass man in anderen Bereichen massive Abstriche machen muss und dann ist wirklich die Frage ob sich es lohnt.


ralf1848 schrieb:
Waren uns ziemlich einig, der Kollege ist sogar harter AMD Fan.
Hättest du jetzt den Schwachsinn weggelassen, hätte man sagen können: Joarp, war ja so zu erwarten, wenn man den Tests folgt. So entwickelt das aber wieder ein "Fanboy" Geschmäckle. ;)
 
Vitec schrieb:
WoW! Also die Karten sind ja mal richtig gut geworden,allerdings muss man bedenken das AMD hier schon 7nm nutzt und mit Nv gleichziehen kann . Da dürfte Nv mit 7nm noch einen schönen Buffer haben.
Wieso heißt die 5700XT nicht 5800XT, wenn sie doch Mittelklasse ist ?

Meine Vermutung, nächstes Jahr kommt Navi mit RDNA und 7nm+. Sprich weitere Arch-Entwicklungen sind möglich sodass der Gap vllt weiterhin kleiner bleibt. Selbst wenn Navi10 bestehen bleibt, ist nach oben hin Platz für eine 5800 und 5900er Serie, mit RDNA 2.0 GPUs und 7nm+
 
Meint ihr ein Xeon 1230v3 ist ein harter Bottleneck für die 5700XT? Ist ja vergleichbar mit dem 4770k denke ich mal. Wollte von meiner 980Ti aufrüsten und bin bisher mit dem System so eigentlich noch zufrieden. Aber mehr Grafikpower geht halt immer.
 
@KlimBim

Kommt auf das Spiel und die Settings an. Un CSGO wirst du keine Unterschiede spüren und die CPU limitiert ziemlich deutlich, wenn du jetzt The Witcher in 4K zockst, dann ist die CPU auch egal.
 
Shoryuken94 schrieb:
dann sprechen wir aber auch von 400+ watt

hehe...du bist nahe dran....

die vorgabe war (nein ich nenne keine quellen) einen vega64 (von der leistung) mit unter 150 watt zu bauen und den bis 2020 in 7nm+ unter 300watt zu pressen, wenn man ihn 2mal neben einander baut. :D

aktuell sieht es aus, wie eine punktlandung....

die 20tera für 2020 werden gehalten werden können und für die 40 tera in 2022 bin ich auch zuversichtlich. natürlich rede ich von fp32, nicht von fp16 :evillol:

mfg
 
Chismon schrieb:
Nun, die 70er nVidia Karten waren immer (beschnittene/untere) Performance-/Oberklasse und als solche eben etwas ueber den 60er nVidia Karten (einfache Mittelklasse) angesiedelt und dann gab es eben zeitweise noch 60Ti oder jetzt eben 60 Super Karten (der oberen/gehobenen Mittelklasse).

Preislich sind die aktuellen Navi Karten eben auch nicht mehr einfache Mittelklasse sondern orientieren sich an den nVidia RTX 2060 (Super) und 2070 (Super) Karten.

Nur hat Nvidia das Namensschema geändert ;) Ja bis zur GTX 570 waren die x70 Karten beschnittene Versionen der Oberklasse. Ab Kepler wurden die Namen geändert, da man mit dem Mittelklasse Chip (GK104) nun den größten AMD Chip schlagen konnte. Den eigentlichen GTX 580 Nachfolger hat man anschließend als Titan für den doppelten Preis verkauft, da es seitens AMD keine Konkurrenz zu dem Chip gab, bzw. erst deutlich später gekommen ist.

Durch das geänderte Namensschema konnte Nvidia für Mittelklasse Chips nun Oberklasse Preise Verlangen und für High End hat man seine ganz eigene Klasse erfunden, mit deutlich höheren Preisen geschaffen. Rate mal ab wann bei Nvidia Umsatz und Gewinn so richtig durch die Decke gegangen ist. Genau, zu der Zeit, als man angefangen hat Mittelklasse Chips zu Oberklasse Preisen zu verkaufen. AMD reagiert auf genau diese Preise nun auch. (warum auch nicht, der Markt hat sie ja anscheinend angenommen).
 
  • Gefällt mir
Reaktionen: Achim_Anders
Teralios schrieb:
Ah ja, du kennst also bereits sämtliche Specs der PS5 und der neuen XBox, weißt wie viele TMU sie hat und damit ggf. die Anzahl der "RT-Cores". Ebenso weißt du natürlich auch bereits, wie die Lösung von AMD agiert und so weiter und so weiter.

Nö! Aber man kann die Größe von dem Chip durchaus einschätzen und zaubern wird da niemand.
797965


Wir wissen, dass die neuen Konsolen RT mitbringen und wir wissen auch, wie gross der Konsolenchip auf keinen Fall sein wird.
797966


Selbst mit einem 50% Shrink von 12nm auf 7nm wird der Chip nicht die Leistung einer 2080Ti beherbergen können, also wird die Leistung maximal der einer 2080 entsprechen und somit wird auch jede Grafikkarte ab einer 2070S mit der RT Leistung mithalten können. Vermutlich reicht da sogar die Leistung einer "normalen" 2070.
 
Zuletzt bearbeitet:
Shoryuken94 schrieb:
@KlimBim

Kommt auf das Spiel und die Settings an. Un CSGO wirst du keine Unterschiede spüren und die CPU limitiert ziemlich deutlich, wenn du jetzt The Witcher in 4K zockst, dann ist die CPU auch egal.

Spiele eigentlich alles und nutze auch ganz gerne mal Downsampling. Also eher so Spiele wie das aktuelle Metro, Assassins Creed, PUBG, F1 2019, Battlefield V etc.
Ein CPU Upgrade hatte ich mehr für nächstes Jahr angedacht, wenn Zen3 eventuell da ist.
 
USB-Kabeljau schrieb:
Was für eine krasse Enttäuschung.
Guckt man auf das 99,7% Percentil werden die Karten von RTX 2060 bzw. RTX 2060 S abgehangen.
Und das ist das, was am Ende zählt. Ich will ja nicht 60fps mit Rucklern haben, sondern 60fps stabil.

Hab jetzt extra nochmal nachgeguckt. Aber hier finde ich es nich.
 
  • Gefällt mir
Reaktionen: schkai
Zurück
Oben