Test AMD Radeon R9 Nano im Test: Die schnellste kleine Grafikkarte für Mini-ITX

Bei der ganzen Diskussion um Effizienz frage ich mich, bei welchem Gaming - PC das Thema relevant ist.

Mobile GPU´s - Ja
Server - Ja
Office PC - Ja
Gaming PC - NEIN

Die meisten die hier nach Effizienz schreien, die Karte sofort wegen 30 Watt improvement kaufen würden, haben am besten noch ne OC-CPU im PC und nen 1000W Netzteil an Bord:rolleyes:
Effizienz spielt zumindest für mich bei meinem Anforderungsprofil keine Rolle.
Und das wird für die Masse an PC-Usern mMn ebenfalls zutreffen.

Eine theoretische Diskussion zu dem Thema zu führen, ist immer richtig und die Argumentation beider Seiten ist auf jedenfall spannender, objektiver und informativer zu lesen als das ständige Fan-Girl Rot vs. Grün gequatsche.
 
Naja die Effizienz spielt gerade bei so kleinen Systemen durchaus eine Rolle. Dabei geht es ja nicht unbedingt um den Verbrauch ansich sondern der daraus resultierenden stärkeren Wärmenetwicklung. Und die spielt dabei durchaus eine Rolle, da die Wärme ja abgeführt werden muss, ohne das Innere des Gehäuses aufzuheitzen.
 
Zuletzt bearbeitet von einem Moderator:
Fury X, Fury, nun Fury Nano. Wo bleibt eigentlich die Fury X2?

El B. schrieb:
Wenn es stimmiges Spiele-Bundle dazu geben würde, könnte ich u.U. schwach werden! Aber ich glaube hier liegt zur Zeit Nvidia in Front...

Es muss gar nicht stimmig sein, allein wenn es sowas überhaupt mal wieder geben würde, wäre cool. Gibt es da keine Ankündigungen?

berkeley schrieb:
Am Beispiel einer R9 290X, wo der Chip selbst nur ca. 150W schluckt (auch der "volle" Fiji schluckt nur ca. 150W) und ca. 100W auf das Interface, Speicher, PCB, sonstiges entfallen, verbraucht die Karte insgesamt ca. 250W.

Ist denn diese Betrachtung sinnvoll? Aus Sicht eines Technik-Freaks sicher, aber letztlich zählt das, was die Karte während des Gamings verbraucht. Aber trotzdem die Frage an Dich: Wer hat diese Aufteilung auf die einzelnen Bereiche einer 290X gemessen?
 
Faust2011 schrieb:
Aber trotzdem die Frage an Dich: Wer hat diese Aufteilung auf die einzelnen Bereiche einer 290X gemessen?
In dem Fall hat es AMD gemessen. http://www.tomshardware.de/hbm-speicher-radeon,news-250622.html
In dem R9 Nano Vorstellungs-Twitchstream wurde auch nochmal erwähnt, dass der Nano GPU-Chip für sich selbst bis zu 150W genehmigen darf. Der restliche Verbrauch entsteht durch HBM sowie anderen fixen Verbrauch. Zusammen ergibt das ca. 185W für die Nano.
Das sind ca. 35W ggü. 70-100W GDDR5+Interface(usw.) lt. AMD. Da eine 290X je nach Temperatur 225W-250W verbraucht, kann man relativ einfach auf den reinen GPU-Chip Verbrauch schließen.
http://www.tomshardware.de/raijintek-morpheus-vga-cooler-hawaii-review,testberichte-241525-7.html

Der 290X GPU Chip verbraucht selbst keine 250W. Und GDDR5+Interface verbrauchen nicht nur vernachlässigbare 35W wie bei der Nano. Insofern lässt sich auch nicht stumpf und pauschal behaupten, dass die Effizienz beim "übertakten" (t+v konstant) immer sinkt oder maximal identisch bleibt, sofern man den Verbrauch der gesamten Grafikkarte betrachtet und nicht nur den des GPU-Chips. Wie bereits mit einem Rechenbeispiel auf Seite 17 belegt.
 
Zuletzt bearbeitet:
berkeley schrieb:
Da eine 290X je nach Temperatur 225W-250W verbraucht, kann man relativ einfach auf den reinen GPU-Chip Verbrauch schließen.

Schwerer Denkfehler denn die Einzige 290x die in den 230W Bereich kam war das Referenz Modell im Quiet Modus weil die begrenzte Lüfterdrehzahl im Zusammenspiel mit dem Temperatur Target ganz einfach nicht mehr zuließ.
Verbesserte man die Kühlung geht als aller erstes erst einmal die Taktfrequenz rauf und die Karte haut nochmal richtig rein und nähert sich der 300W Marke. Erst wenn sie auf der vollen Taktfrequenz läuft und die Kühlung noch genug Spielraum hat um die Temperatur unter das Target zu drücken fängt der Spareffekt durch die geringere Temperatur an. Modelle mit einem leistungsfähigen Custom Kühler und einem Verbrauch von ca. 250W gehörten da schon zu den sparsamen Modellen.
Ergänzung ()

@Kasmopaya
Überall da wo die Speichermenge nicht limitiert ist der Doppelpack ganz einfach schneller und da dazu auch diverse Spiele in UHD zählen dürfte diese Leistungssteigerung für den einen oder anderen sehr willkommen sein.
 
Kasmopaya schrieb:
Was soll das für einen Sinn machen 2x4GB Vram? Schon die 4GB der normalen Fury saufen gnadenlos ab wenn man mal richtig aufdreht. Bei der doppelten Rohleistung geht ja dann gar nix mehr.

Gibt es denn schon Tests darüber wie sich HBM bei hohem Speichervebrauch verhält?
 
Wie ganz gewöhnlicher Vram, kein Wunder, die PCIe Anbindung zum Ram ist ja nicht schneller geworden, nur die Refresh Zyklen haben sie sehr hoch gesetzt damit man es kaschiert. Das geht aber zu Lasten der Frametimes. Guggst du im Fury X Test bei den Kommentaren, da hat einer von jedem Test im Internet ein Beispiel gefunden wo die Frametimes nicht passen, zb. wenn der Vram überläuft. Hier bei CB wars glaub ich bei Mordor der Fall.

Überall da wo die Speichermenge nicht limitiert ist der Doppelpack ganz einfach schneller
Nur wenn CF Lust hat zu arbeiten. Wenn man sich schon ein Vram Krüppel CF aufbauen will kann man das ja dann mit 2x Fury X machen. Da muss AMD nicht einen Vram Krüppel auf die Leute los lassen. Wäre das dümmste was sie machen könnten. Das würde wieder negativ PR sein ohne Ende. Genau so wie die NV Vram Krüppel dual GPUs immer ihr Fett weg bekommen bei den Tests. Mittlerweile sogar von den Testern selber. Man ist ja lernfähig.
 
Zuletzt bearbeitet:
Nur benötigt man dann auch entsprechend viel Platz denn so belegt die Karte locker 3 Slots oder mehr.
 
FormatC schrieb:
Sie benötigt exakt 2,5 Slots

0.5 Slot zu viel, auch wenns überall passen sollte. Trotzdem tolle Arbeit, hat Spass gemacht sie anzuschauen.

Finds einfach nur lustig, dass einer der ersten Kommentare in eurem Forum gemeint hat, dass AMD die Kühlung wieder versaut hätte und bla bla. Aber, dass der grössere Lüfter entsprechend Platz nimmt und man nicht mehr mit 2.0 Slots glänzen kann (geht ja schliesslich um die kleinste High-End Karte), das wird sofort ignoriert.
Finds schade. Da überzeugt endlich mal ein Produkt (mal vom Preis abgesehen) und trotzdem wird gemeckert. Wenns Nvidia gewesen wär, gäbs eine Party.
 
Zuletzt bearbeitet:
Da werden die mini ITX Gaming Systeme in Zukunft noch kompakter. Super :)
 
Absoluter Unsinn dieser Test. Die Nano soll nicht effizienter sein wie eine Fury?
Käse hoch ³.

Jeder erdenkliche Test zeigt die R9 Nano fast auf Fury Niveau mit ca 80 Watt weniger Strombedarf.
 
@Kasmopaya
Ich weiss ja nicht wo du die Flecken auf deiner grünen Brille her hast aber in dem Test ist sie eindeutig schneller als 3/4 der Geforce Karten des Tests. Das mit der höheren Effizienz durch eine geringere Taktfrequenz und harte Limits hat nvidia bei ihren Referenz Modellen und Test Samples ja bereits perfektioniert. Gleiches Recht für alle.
 
Die Fury tritt gegen Big Maxwell an. Das die kleinen Modelle auch mit 3,5 und 4GB vor sich hinkrüppeln ist klar. Ich hab nie gesagt das das gute GPUs sind. Wer sich für solche Preise 4GB GPUs kauft ist selber schuld. In dem Test kommen übrigens keine AIO Wakü NV Karten zum Einsatz, sondern die mit 85 Grad vor sich hin kochende Referenz Modelle. Das die Effizienz auf Seiten Nvidias ins negative beeinflusst.
 
Zuletzt bearbeitet:
Zurück
Oben