Test AMD Radeon R9 Nano im Test: Die schnellste kleine Grafikkarte für Mini-ITX

@nospherato:
Bin mir nicht ganz schlüssig worauf du hinaus willst. Du hast einfach nur behauptet, dass AMD und NVIDIA momentan keine Sprünge mehr machen, weil sie lieber noch die Kunden melken!
Man will die Kuh natürlich solange melken, wie möglich, also wird es künstlich natürlich kleinere Sprünge geben, als eigentlich möglich ist.
Ich sage aber, dass AMD und NV an der Grenze des Möglichen sind, da es einfach super unwirtschaftlich wird noch größere Chips als Fiji und GM200 zu fertigen.
Mit 14nm wirds dann anfangs noch schwieriger große Chips zu fertigen.
Wie gesagt, vllt bekommen sie anfangs 20% mehr transistoren drauf, damit grob 20% mehr Shader, dann noch nen bisschen an der Architektur feilen, eventuell noch 10% mehr Takt und dann kommen wir ganz grob auf 40% mehr Leistung. Wann hab ich was von 100% gesagt?
 
Custom Designs sind nicht erlaubt: sind damit nur PCB Umgestaltungen gemeint oder verbietet AMD den Herstellern das Referenzdesign mit einem eigenen kühler trotzdem verbessern?
 
Customdesign sind erlaubt aber ich gehe davon aus, dass sie sich
1. an einen bestimmten Formfaktor halten müssen (also keine 30cm Kühler oder ähnliches).
2. an den 1x 8 Pin Anschluß um eine Obergrenze für den Verbrauch zu haben.

Alles andere denke ich sollte erlaubt sein inklusive Custom PCBs.
 
venom667 schrieb:
Tja ich hab meine 980ti im Mini-ITX Gehäuse. Passt wunderbar. Und ist auch schön kühl und leise.

Wichtigtuer :D. Außer den Lesern hier vorzureden, welche Grafikkarte du hast, trägst du zur Diskussion über die Nano nichts bei. Sowas nennt man auch Fanboydasein. Provozieren und null beitragen. Ich finde AMD macht gerade einiges richtig mit den neuen Grafikkarten. Hoffentlich in der nächsten Generation noch etwas mehr (z. B. beim Preis), und eine AMD / ATI könnte wieder bei mir im Rechner landen. Bis dahin... ich zocke eh nur Diablo 3 / Rocket League / WoW und LoL, da tut es auch meine 3 Jahre alte Grafikkarte noch bestens.
 
Hakubaku schrieb:
Wichtigtuer :D. Außer den Lesern hier vorzureden, welche Grafikkarte du hast, trägst du zur Diskussion über die Nano nichts bei. Sowas nennt man auch Fanboydasein. Provozieren und null beitragen. Ich finde AMD macht gerade einiges richtig mit den neuen Grafikkarten. Hoffentlich in der nächsten Generation noch etwas mehr (z. B. beim Preis), und eine AMD / ATI könnte wieder bei mir im Rechner landen. Bis dahin... ich zocke eh nur Diablo 3 / Rocket League / WoW und LoL, da tut es auch meine 3 Jahre alte Grafikkarte noch bestens.

Tja also wenn es jetzt schon Wichtigtuerei ist wenn man auf einen Beitrag antwortet in dem behauptet wird das ne 980ti nicht in einem m-ITX Gehäuse zu betreibhen ist, obwohl es ohne Probleme möglich ist, dann bitte ich vielmals um Entschuldugung der Herr.
Jeden weiteren Kommentar spare ich mir lieber und setzte dich direkt mal auf die Ignore Liste...
 
Moon_Knight schrieb:
@tic-tac-toe-x-o

muckeandi schrieb:
Und mal eben die deutlich höheren Werte bei Downsampling, WHQD oder 4K nicht berücksichtigen.


Interessiert keinen Menschen. Das ist eine itx-Karte. Wenn dann landet die in 95% der Fälle an einem FHD-TV.

Wie bitte? :lol: Ich denke, dass ein itx System mit dieser Karte 1400p, 1620p zumindest locker schafft :D. 4K in einigen Fällen sicherlich auch.
 
Kann mal wer das Power Target seiner Fury X runter setzen und schauen, wie sich die Karte bei gleichem Stromverbrauch taktet?
Dann wissen wir ja, ob es handverlesene Chips mit besonders niedriger Spannung sind oder generell jede Fiji XT in diesem Sweetspot so wenig verbraucht. Damit wäre GCN 1.2 ja sogar generell effizienter als Maxwell...
 
Hakubaku schrieb:
Wie bitte? :lol: Ich denke, dass ein itx System mit dieser Karte 1400p, 1620p zumindest locker schafft :D. 4K in einigen Fällen sicherlich auch.

Es ging nicht ums "schaffen", sondern wo das hauptsächliche Einsatzgebiet einer solchen itx-Karte liegt. Das sind nun mal Wohnzimmer-PCs/HTPCs, die eine "Konsole auf Steroiden" imitieren. Da nur HDMI 1.4 am Start ist, wird sie FHD-TVs befeuern.

Also erst verstehen und dann "lol"en.
 
Ob das so super ist, kann ich nicht beurteilen. Kommt auf das Spiel an, würde ich direkt unterstellen (wie verschwommen die Texte dargestellt werden und ähnliche Kinderkrankheiten).
Bei 700€ würde ich mir eine native und keine emulierte 4k Unterstützung wünschen (ich hoffe, man versteht den Satz mit dem nötigen Augenzwinkern Richtung grünes Lager und momentaner Diskussionen dort ;)), wird Fury ja mit 4k beworben.
 
4k TVs sind mir zu teuer und brauch ich auch nicht. Aber mein Final Fantasy XIV sieht in 4 k Downsampling echt super aus ;-) das kompensiert das fehlende AA des Spiels (das bietet selber leider nur n bissl schlechtes Pseudo-AA)
 
Lars_SHG schrieb:
Was ich von dieser Karte entnehme ist, die offensichtliche Dreistigkeit die bei der Fury X eingezogen ist!
Warum hat man bei der Fury X eine mangelhafte Wasserkühlung eingesetzt, wenn doch der Chip so leicht zu kühlen ist, dass eine so winzige Kühllösung ausreicht?
Für das OC kann es ja nicht sein, schließlich wissen wir, OC-Fähigkeiten kann man der Fury X nicht zusprechen!
Einfach nur sinnlos........

Mann ist das denn so schwer zu verstehen, Fury X ist maximale Leistung, Nano maximale Effizienz. Fury X zieht nun mal 250W, die kannst du mit so einem winzigen Kühler bzw einem Radialkühler nicht leise abführen. Bei 250W Karten finde ich AiO Lösungen absolut sinnvoll, weil stark, leise und DHE.

Ich denke man sieht endlich ganz deutlich, dass GCN doch eine effiziente Architektur ist, nur werden sie GPUs immer außerhalb des Sweetspots betrieben, um in den Benchmarks möglichst lange fps Balken zu haben. Ich fände es besser, wenn AMD die GPUs so takten würde wie die Ingenieure es vorgesehen haben, denn für sie ist ein möglichst hoher Wirkungsgrad das Hauptziel. Ich denke man könnte auf die letzten 10% Leistung verzichten, und ebenso auf das Image von stromhungrigen GPUs. Dafür wäre halt der OC Spielraum deutlich größer, wem Effizienz nicht so wichtig ist, der freut sich über die ordentlichen Leistungsreserven.

Die erste GCN Karte, HD7970, war ja (wenn ich mich nicht täusche) mit 925MHz getaktet, was offensichtlich der Sweetspot der GCN Architektur ist. Die Karte verbrauchte etwa 180-190W. Dann kam Nvidia mit höher getakteten Karten, und die Marketing Abteilung von AMD meinte, man müsse in dem Benchmarks unbedingt vor Nvidia liegen. Das Ergebnis war die HD7970 GHz Edt mit 250W und sehr lautem Kühler.

Insgesamt ist es schon beachtlich wie AMD, trotz hoher Verluste und geringem R&D, mithält. Man hat eine sehr langlebige Architektur entwickelt, und konnte mit geringfügigen Optimierungen bis heute mithalten und auf eine komplett neue Architektur verzichten. Nvidia benötigt wegen der AS Geschichte sogar eher eine neue Architektur, obwohl Maxwell v2 erst 1 Jahr alt ist...
Bis 600€ hat AMD durchgehend die besseren oder zumindest gleichwertigen Produkte. Fury ist besser als 980, 390 ist besser als 970, 380 besser als 960, 950 wegen ded 270X völlig unnötig. Und dennoch ist die Marktsituation mit 82 zu 18% höchst ungesund. Es ist einfach das Marketing, man kauft Nvidia weil es Nvidia ist..
 
Moon_Knight schrieb:
Ob das so super ist, kann ich nicht beurteilen. Kommt auf das Spiel an, würde ich direkt unterstellen (wie verschwommen die Texte dargestellt werden und ähnliche Kinderkrankheiten).
Wie gut VSR auf AMDs funktioniert, kann ich dir sagen: Super gut.
Mit einer 290 kann ich effektiv zwar nur 1440p und 1800p nutzen, das jedoch ist eine enorme Verbesserung ggü. den nativen 1080p, und zwar in jedem Spiel. Da ist nichts unscharf und es gibt auch keine "Kinderkrankheiten" mehr (zumindest bei mir in keinem Spiel mehr).

Ich spiele ehrlich gesagt auch seit dem Omega Treiber (also schon fast 1 Jahr) kein einziges Spiel mehr in 1080p, weil es einfach scheiße aussieht ggü. 1440p. Gar nicht erst Vergleichbar mit 1800p.

Allerdings habe ich bereits mehrfach gelesen, dass das bei Nvidia anders sein soll (z. B. auch im CB-Test VSR vs DSR). Mit DSR soll das Bild unschärfer sein und eher zum Flimmern neigen, wobei das von unterschiedlichen Faktoren abhängig ist. Wie das konkret aussieht weiß ich allerdings nicht, da ich grad keine Nvidia habe.
 
Zuletzt bearbeitet:
Coole Karte!
Ein ITX-Board kostet meist mehr als ein vergleichbares ATX-Board. Eben so wie ein flacher CPU-Kühler mit vergleichbarer Leistung eines Tower-Kühlers. Das kann man so weiter spinnen...
Alles was nicht Standart ist kostet mehr und ist in anbetracht der einzigartigkeit vom Preis her gerechtfertigt!
Wenn Nvidia eine vergleichbare Karte bringen würde, müssten die eine 980ti schrumpfen. Was meint Ihr wie hoch der Preis seien würde!?
 
Faust2011 schrieb:
Wenn FullHD und DX11, dann Nvidia. Genau so, wie Du es gemacht hast ;)
Wer zum derzeitigen Zeitpunkt Nvidia kauft, dem ist nicht mehr zu helfen...


GevatterTod schrieb:
Natürlich verkauft AMD den Chip zu dem besten Preis, der für sie möglich und sinnvoll ist. Die Frage ist, warum der Chip und besonders die R9 Nano so teuer ist, wenn der Preis nicht durch eine dünne Chip-Ausbeute (ob es nun die GPU oder der HBM-Speicher ist) diktiert wird, wie der Beitrag, auf den ich mich bezogen habe, impliziert hat. Die R9 Nano ist doch nicht so teuer, weil man im BIOS genügsamere Targets hinterlegt hat. Warum ist die Karte also so teuer? Weil die Chip-Ausbeute für den freigeschalteten Fiji bei dem gewählten Power Target nicht ausreicht, um den Preis nach unten zu korrigieren? Das erscheint mir nachwievor logisch. Der HBM-Speicher tut dann den Rest.

Warum ist die 980 TI oder Titan X so teuer?

zeedy schrieb:
Ich denke man sieht endlich ganz deutlich, dass GCN doch eine effiziente Architektur ist, nur werden sie GPUs immer außerhalb des Sweetspots betrieben, um in den Benchmarks möglichst lange fps Balken zu haben. Ich fände es besser, wenn AMD die GPUs so takten würde wie die Ingenieure es vorgesehen haben, denn für sie ist ein möglichst hoher Wirkungsgrad das Hauptziel. Ich denke man könnte auf die letzten 10% Leistung verzichten, und ebenso auf das Image von stromhungrigen GPUs. Dafür wäre halt der OC Spielraum deutlich größer, wem Effizienz nicht so wichtig ist, der freut sich über die ordentlichen Leistungsreserven.

Die Leute interessiert eigentlich nur die Balkenlänge. veringerst du du die Balkenlänge erwarten die Leute, dass auch der Preis sinkt.
Wer effizienz sinkt muss untertakten.

Stell dir mal vor die R9 Nano würde nicht explizit für eine Mini-ITX Graka gehalten werden....
Der Scheiterhaufen wäre schon längst gut vorgeheizt...
 
Pintion schrieb:
Was die Leute immer denken! Ist dir mal aufgefallen, dass Fiji und GM200 knapp 600mm^2 groß sind! Als ich das nem E-Techniker Kollegen von mir erzählt habe ist dem die Kinnlade runtergefallen, weil das so riesig ist!
Das ist nur möglich, weil der 28nm Prozess schon so ausgereift ist, aber viel grösser geht es jetzt einfach nicht mehr. Bei 14nm kann man natürlich die gleiche Anzahl Transistoren auf einer deutlich kleineren Fläche unterbringen, aber ich bin mir sicher, dass wir vor 3 Jahren keinen 600mm 14nm chip sehen werden! Ich schätze 450mm wird erstmal Obergrenze sein, dafür eventuell etwas mehr takt, wobei viel mehr als bei Maxwell kann ich mir kaum vorstellen, nen bisschen bessere Performance durch die Architektur, limitiert durch die maximal mögliche Fläche vllt 20% mehr Transistoren, wobei NV ja auch noch ACUs unterbringen muss.... Läuft vllt auf 40-50% mehr Leistung hinaus, wenn wir Glück haben!

Spannend wird die Frage wer die Diegrößen in 14nm trifft die das betriebswirtschaftliche Optimum aus Leistung vs. Ausschuß vs. Teildeaktivierung darstellen.
 
derGrimm schrieb:
Die Leute interessiert eigentlich nur die Balkenlänge. veringerst du du die Balkenlänge erwarten die Leute, dass auch der Preis sinkt.
Erzähl das mal den Damen vom Horizontalgewerbe :D

Die Leute die die über den Preis meckern, sollten die Komunisten wählen. Wir leben in einer Marktwirtschaft und so funktioniert die Preisfindung in dieser nun mal.
 
GevatterTod schrieb:
Was übersehe ich hier? Sind die Furys einfach von Grund auf so teuer, dass diese bei einer annehmbaren Leistung in der gehobenen Mittelklasse nicht in attraktivere Preisregionen vordringen können? Sollten die quasi von Haus aus übertakteten größeren Furys nicht teurer sein als die Nano? Die R9 Nano kann doch nicht nur deshalb so teuer sein, weil die Targets sinnvoller gewählt wurden. Auf irgendeine Weise muss die überraschende Effizienz der Nano teuer erkauft sein, ob nun über die Chipausbeute oder wasauchimmer.

Fiji ist knapp 600mm² großer Chip mit 8,9 Mrd Transistoren, das Ding ist teurer in der Produktion als Nvidia's GM200, da komplexer.
Der Vollausbau zusammen mit HBM hat eben seinen Preis.

Die Effizienz liegt an der sehr hohen Rohleistung des Chips und daran, dass der Chip am Sweetspot betrieben wird. Das hat der Igor von Toms Hardware auch am Hawaii demonstriert, als er bei gut 900MHz unter 200W gezogen hat.
 
zeedy schrieb:
Das hat der Igor von Toms Hardware auch am Hawaii demonstriert, als er bei gut 900MHz unter 200W gezogen hat.
Wobei die Hawaii/Fiji sehr stark auf die Temperatur reagieren mit wesentlich höheren Leckströmen und Verbrauch. Das heißt, je kühler die Karte ist, desto weiter verschiebt sich der SweetSpot nach oben. Sieht man schön an einer R9 290X UberMode mit lockeren 220W (auch mit OC ohne wesentlich höheren Verbrauch). Dafür müssen die Karten jedoch utopisch kühl sein (http://www.tomshardware.de/raijintek-morpheus-vga-cooler-hawaii-review,testberichte-241525-7.html).

Und 50-60° erreicht man mit einem Luftkühler idR nicht, außer Morpheus. Der ist dann aber alles andere als Mini-ITX.
Wenn man aber mit 70-80° arbeiten möchte, dann muss der Takt wesentlich weiter runter um die gleiche oder bessere Effizienz zu erreichen.
 
Zuletzt bearbeitet:
Zurück
Oben