Test Radeon RX 5700 XT Strix OC im Test: Das Custom Design von Asus ist schnell & leise

Bully|Ossi schrieb:
Man braucht eben Fläche, vielleicht kommt ja noch etwas größeres mit RDNA, die Richtung stimmt ja generell schon mal.

Man könnte die Fläche ja auch irgendwie derart vergrößern, in dem man Chipfläche rein zur Kühlung schafft. Also ohne Funktion, nur der größeren Oberfläche wegen. Quasi Heatpipes im Die selbst.
 
Asus typisch. Hawaii, Vega, jetzt Navi. Deren NV Kühler ist einfach Mist, für AMD Karten.
So ein rießen Klopper und sie bekommen noch nicht einmal den Speicher gekühlt.
MSI hat dazu gelernt, mal sehen, wie die es bei Navi umsetzen. Asus ist ein hoffnungsloser Fall.
Sapphire, XFX und PowerColor können da kaum schlechter werden, wie Asus.
Erschreckend im Test finde ich, das die Asus von der Leistung und Stromverbrauch eigentlich eine R VII ist. Das ist ein BigChip und hat 16 GB Speicher. Und die lässt sich auch übertakten.
Igor hat die R VII mit Wasser auf 2,1 GHz getaktet. Mit Navi und Wasser, ist er auf 2,2 GHz gekommen.
 
Danke für den Test! Wie zu erwarten, Asus wieder nur Mittelmaß bei AMD (zu Premiumpreisen vermutlich). Aber was viel wichtiger ist:
...noch weitere Custom-Modelle der Radeon RX 5700 XT testen und so schon in wenigen Stunden ein umfassenderes Bild über Partnerkarten mit Navi-10-GPU geben können.
Ich freu mich drauf :)
 
  • Gefällt mir
Reaktionen: Heschel
Also erst einmal +5% in der Auflösung ist ja nicht nichts.

Aber wenn das RAM OC +3% bringt dann macht man doch eher nur das... Leistung und Stromverbrauch passen dann...

Generell finde ich aber den Testparcour für Grafikkarten zu klein bei CB. Daraus was ablesen ist eigentlich nicht möglich das "Ausreißer" das Ergebnis zu schnell zu sehr verzerren können...
 
DaBo87 schrieb:
Man könnte die Fläche ja auch irgendwie derart vergrößern, in dem man Chipfläche rein zur Kühlung schafft. Also ohne Funktion, nur der größeren Oberfläche wegen. Quasi Heatpipes im Die selbst.
Daran hab ich auch mit meinem Laienhaften Verständnis gedacht... aber dann hat man trotzdem schöne Kosten :freak: ...und Probleme mit "den Wegen"?! Latenzen+ ...k.A. - vllt. ist 7nm zu klein und 10nm wäre der optimale Spagat gewesen.
 
Wenn man noch ueberlegt, dass die Karte wahrscheinlich circa 100 Euro mehr kosten wird als eine Sapphire Pulse oder die Powercolor Red Dragon, muss sich ASUS schon Kritik gefallen lassen.

Ich denke man faehrt mit den exklusiven Partnerkarten besser, wenn man denn AMD kaufen moechte, die anderen werden hauptsaechlich einfach ihre Kuehler draufschnallen und gut ist. Das ist seit laengerem ein Problem und dem sollten die Kunden dann auch Rechnung tragen. Eventuell ueberrascht uns Gigabyte ja diesmal (sonst kann man die bei AMD ja vergessen) mit der Gaming OC, denn der Kuehler ist generell ja leise und sollte normalerweise ausreichend stark sein fuer die 5700XT.

Sapphire und Powercolor werden es schon richten und bevor man eine ASUS ROG Strix OC kauft, kann man besser direkt eine Wasserkuehlung draufschnallen. Wird wahrscheinlich aehnlich viel Kosten, sollte aber in jeder Hinsicht besser sein .....
 
  • Gefällt mir
Reaktionen: Cpt.Willard
zwergimpc schrieb:
5% sind natürlich witzlos, zumindestens für mich als 980ti user m spekuliere nun auf nen günstiges "Abverkauf" Angebot der fe oder ich müsste zur 270super greifen

was 5 %, an Mehrleistung !? Also zur 980ti bestehen aber mehr als 5 % Mehrleistung 🤔
 
  • Gefällt mir
Reaktionen: Rage
Bei Asus Grafikkarten mit AMD Chips gilt wie immer: nicht kaufen. Der Idle Verbrauch ist fast doppelt so hoch wie bei der Referenz Navi, peinlich. Fetter Kühler und trotzdem so hohe Temperaturen btw Lautstärke. Ich frag mich ob bei Asus Ingenieure für Grafikkarten verantwortlich sind oder Praktikanten.
 
  • Gefällt mir
Reaktionen: SebHey, russianinvasion und oldi46
@Jan @Wolfgang habt ihr die Speichertemperatur mit Tools ermittelt ?
Hier gibt es einen interessanten Beitrag von Igor im RX 5700(XT) Erfahrunfsthread.
FormatC schrieb:
Die Gutgläubigkeit in Tools ich echt erschreckend.

Ich habe teilweise ein Delta von 30 Grad gemessen, was technisch unmöglich ist zwischen Unter- und Oberseite der Platine. Denn auch GDDR6 ist Flip-Chip, wo das Silizium fast auf denn Balls aufliegt. also nach unten zeigt. Zumal eine Menge Dinge sogar durchkontaktiert sind.

Ich habe mit Michael gechattet, der GPU-Z programmiert und die wissen ganz offenbar selbst nicht genau, was AMD da wirklich liefert. Man traut wohl auch dort diesen "Sensor"werte eher weniger und auch deren offizielle Anfrage an AMD ist bisher unbeantwortet geblieben. Ich halte die aktuelle Panikmache daher für vollends übertrieben. Ein solches Modul setzt genze 2 Watt in Wärme um, maximal. Ich habe das auf einer 2060 mal ohne Kühler getestet - da muss schon die Platine ringsum von den VRM extrem aufgeheizt werden, um da mal groß über 90 °C zu kommen.
 
  • Gefällt mir
Reaktionen: M4deman, russianinvasion und Cpt.Willard
DaBo87 schrieb:
Man könnte die Fläche ja auch irgendwie derart vergrößern, in dem man Chipfläche rein zur Kühlung schafft. Also ohne Funktion, nur der größeren Oberfläche wegen. Quasi Heatpipes im Die selbst.
Das geht nur effektiv, indem man die Dichte der Transistoren etc. ändert. Das wiederum beeinflusst die Leistung und Kosten, da durch die längeren Wege höhere Latenzen und mehr nötige Waferfläche entstehen.

Den Chip einfach vergrößern durch z. B. außen mehr "leere" Fläche anbringen, bringt leider fast genau nichts, da Wärmetransfer flächenabhängig ist und der Querschnitt der Außenfläche der Seiten des Chips sehr klein ausfällt.
 
  • Gefällt mir
Reaktionen: DaBo87 und Cpt.Willard

Deutlich mehr Spiele getestet:
https://www.techpowerup.com/review/asus-radeon-rx-5700-xt-strix-oc/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kalsarikännit, dohderbert, failXontour und 2 andere
Gewohnt schlecht von Asus. Next!
 
  • Gefällt mir
Reaktionen: tunichgut und JulianBlack
die wirds schonmal nicht - wenig überzeugend der Trümmer. Die nächste bitte!

Schön wäre es, die Leistung des Referenzdesigns kühl, leise und ohne Mehrverbrauch zu bekommen.
 
  • Gefällt mir
Reaktionen: ImpactBlue
Asus-like wird das Ding sehr teuer.
85 Grad im Q Bios finde ich doch sehr warm.
Da war die GB Gaming OC 2070 Super doch ein besseres Gesamtpaket.
Schade :-/

Undervoltingergebnisse der beiden Kandidaten würden mich interessieren.
 
Kalsarikännit schrieb:
...
Schön wäre es, die Leistung des Referenzdesigns kühl, leise und ohne Mehrverbrauch zu bekommen.

Jep! Mehr wollen wir wir doch gar nicht:-)
 
  • Gefällt mir
Reaktionen: Acedia23, Schnipp959, TheUngrateful und 2 andere
MR2 schrieb:
Jep! Mehr wollen wir wir doch gar nicht:-)
This.
Das Plus an Performance ist nice to have, aber eigentlich sind doch v.a. leise Karten ohne Leistungsverlust zu einem ordentlichen Preis viel interessanter.
Das bisschen an Performance lässt sich dann je nach dem immernoch durch eigenhändiges OC rausholen.
 
rasenschach schrieb:
Eventuell ueberrascht uns Gigabyte ja diesmal (sonst kann man die bei AMD ja vergessen)

Bei den X570-Mainboards war Gigabyte diesmal überraschend gut - vielleicht bekommt 5700 ja auch ein wenig Liebe/Aufmerksamkeit.
 
Piep00 schrieb:
Ich habe den Eindruck, dass Asus spätestes seit dem GPP bei AMD-Chips stark nachgelassen hat. Auch hier scheint es wieder nur für Mittelmaß zu reichen. Mal schauen ob das XFX oder Sapphire besser machen. Spannend wird bleiben, ob ihr mit eurer Vermutung recht behalten werdet, dass der Chip zu klein ist, um ihn souverän zu kühlen. Das wäre für die Zukunft interessant (Kühlbarkeit von AMDs und Nvidias 7nm Chips).
Evtl werden halt auch einfach Mal andere Aufbauten bei den GPU erforderlich. Bspw dass die Karten zwischen 2 Kühler gesandwiched werden sodass man beidseitig kühlen kann...
 
Bully|Ossi schrieb:
Man bekommt die Hitze nur schlecht übertragen.

natürlich ist bei kleinerer fläche die übertragung schwieriger.

schon 2012 hatten cpu´s im oc bereich eine krankere wärme entwicklung pro mm² betrachtet, als atomkraftwerke.

die hitze muss weg :smokin:

heutige grafik karten setzen dem ganzen dann noch die krone auf und mit methoden, die für 1998er generationen noch ausreichend waren, kann man heute halt keinen blumen topf mehr gewinnen.....neue wege braucht das land.

heatpipes, vapor chamber und gerne auch gekapselte systeme im unterdruck bereich ohne luft....es gibt schöne neue ideen....da geht noch einiges. ← ja, der luftleere raum überträgt ohne träger medium die wärme, einfach mal die sonne fragen, wie die das macht :heilig:

das kostet halt leider. trotzdem denke ich, werden grakas in ca. 10 jahren locker ihre 300+ watt verbraten und niemanden interessiert es wenn er solche monster noch kauft und nicht in der cloud abhängt. :evillol:

mfg

edit

Eggman schrieb:
größerer Kühlfläche

die fläche ist halt leider winzig....stelle dir vor, du sollst auf deinem fingernagel 300 watt abführen (3 x 100 watt glüh birne) und jetzt mach dir einen plan.

erst mal muss die wärme weg, dann kannst du darüber nachdenken, wie du sie aus dem trägermedium wieder heraus bekommst.

man kann ja chips schlecht leuchten lassen, so wie glühbirnen.

theor. wäre das zwar denkbar (sauerstoff ist für verbrennung nötig) leider wäre dass dann aber jenseits von "gut und böse".

da ist es besser, das ganze system in kalte, nicht leitende flüssigkeiten zu tauchen wie z.B. flüssigen stickstoff.

unsere luft, die wir atmen, hat für diese krassen dinge halt einfach schlechte thermische eigenschaften. :bussi:

aber auch hier haben unsere vorfahren ja gute arbeit geleistet. kein mensch wäre auf die idee gekommen, eine glühbirne ohne den glaskörper drum rum zu bauen. die luft hätte den glühfaden schneller verbrannt, als ein man ein lichtlein gesehen hätte :evillol:

irgend wann wird auch hier den technikern ein licht aufgehen.
 
Zuletzt bearbeitet:
Schade, dass Asus es scheinbar immer noch nicht hinbekommt vernünftige Kühllösungen auf AMD GPUs zu verbauen.

Bei einem Quiet BIOS würde es mir gefallen wenn der Takt grob auf Referenzniveau gehalten wird, dafür aber dank größerer Kühlfläche der Chip ganz entspannt bei rund 70 °C leise arbeitet. Ein leichtes Absenken der Spannung seitens des Herstellers könnte den Effekt hier noch verstärken.

Für alle, die möchten dass der Chip ausgereizt wird mit allen Konsequenzen, wäre dann das Performance-BIOS.

Mal sehen was die Mitbewerber abliefern können :)
 
Zurück
Oben