Test Radeon 300 im Test: Alle AMD-Grafikkarten von R7 360 bis R9 390X im Vergleich

BlauX schrieb:
@incurable,

WHQL Logo von MS, dein Ernst? Das ist sowas ähnliches wie der chiquita Sticker auf der Banane. Der ist so Banane das es der Banane selbst völlig Banane ist.
Von mir aus kann Dir das auch gern Banane sein. Ich finde, bei einer 400 Euro Grafikkarte gehört es dazu, die Software auf dem Laufenden zu halten und nach dem Stand der Technik zu zertifizieren, die Konkurrenz kann das ja auch. Aber nein, AMD streicht erst die Softwareunterstützung zusammen und bringt dann 8 Monate gar keinen offiziellen Treiber mehr.

BlauX schrieb:
Ich hab seit Ewigkeiten mal NV/AMD Karten gehabt. Stets immer mehr als 2 Monitore, nirgends Probleme. Einzige derzeitige Problem bei der Hawaii ist, dass, wenn unterschiedliche Monitore dran hängen, der Memory Takt nicht automatisch runter getaktet wird, wie es der GPU Takt tut. Im Treiber kann man dies aber manuell selbst erledigen und sich auch Makros dahingehend machen, wenn man es ganz bequem haben will....
Du brauchst mir über 2 Monitore nichts zu erzählen, ich war einer der ersten Käufer der GF 4 Ti 4600 weil die damals mit 2 DVI-Anschlüssen auf den Markt kam.

Und ich kann Dir sagen, dass Hawaii mit 2 identischen Monitoren problemlos GPU und RAM heruntertaktet, aber mit dem 15.7er-Strang in den Stromsparmodi über alle aktuellen Windows-Versionen hinweg Bildfehler produziert. Einzige Lösung wäre es, das Heruntertakten zu verhindern, aber das kann ja wohl nicht Sinn der Sache sein.

Keine Ahnung, wie so ein grundlegendes Problem beim Testen nicht auffallen kann.
 
incurable schrieb:
Wenn man nur die offiziell zertifizierten Treiber nimmt, kam zwischen 14.12 und 15.7 fast 8 Monate gar nichts, und besagter 15.7/15.7.1 ist wie gesagt eine unbrauchbare Gurke.

Ich hoffe doch, dass man mit der Fury Nano auch wieder einen Treiber bringt, der dann weniger Bugs / mehr (versprochene) Features hat.

Ein einziges Mal hat AMD überrascht dieses Jahr: mit dem Release von Freesync hatten sie noch den Crossfire-Support auf unbestimmte Zeit verschoben, um ihn dann keine zwei Monate später nachzureichen! :)



BlauX schrieb:
Nein. Die zweite geht erst wirklich an, wenn ich im Menü eines Games bin. Teilweise auch erst, wenn ich aus dem Ladescreen komme.

Sehr cool, so muss es ein :cool_alt: Ist das Verhalten auch so, wenn Du Windows aus dem Schlafmodus (suspend to ram) gestartet hast?


BlauX schrieb:
Aktueller GCN hat Feature Level 12_0 - Tier 3 - Nvidia Feature Level 12_1 - Tier 2
Die Features werden noch eine ganze Weile brauchen bis die verwendet werden... bis dahin kommen noch so einige Karten wo sich das wieder ändern kann. Eigentlich zum jetzigen Zeitpunkt relativ egal, was wer unterstützt, bis es dahin soweit ist sind die Heutigen eh nen altes Eisen.

Diese Fragen nach dem FeatureLevel und Tier wären für mich das letzte, worum ich mich kümmern würde. Wenn man sich alleine mal anschaut, was denn meistens der gemeinsame Nenner von Spielen ist: das ist die Hardware von Konsolen. Und auch im PC Bereich wird es noch lange dauern, bis sich die Grafik-Engines auf die (verpflichtende) Unterstützung von einem hohen DX12 FL / Tier stützen.

BlauX schrieb:
Eigentlich war ja die Rede, dass es via Shader realisiert wird. Und das es mit v2 kommt... ich glaube eher, dass sich das nochmals verzögert hat. Irgendwo hatte ich aufgeschnappt, dass eigentlich zur R9 Nano dieser erscheinen soll, wo es dann auch via Shader realisiert wird. - Hilft eh nur abwarten.

1. Quartal 2015 wurde ursprünglich genannt. Inzwischen hat man es immerhin auch auf ältere/weitere Grafikkarten ausgedehnt. Allerdings sehe ich es als kein gutes Zeichen, dass man Entwicklungsaufwand hier reinsteckt, um es über die Hardware-Scaler zu realisieren. Schließlich kommt, wie Du sagst, mit VSR 2 eine Implementierung über die Shader (analog zu Nvidia) und dann ist der bisherige Aufwand eigentlich für die Katz.

BlauX schrieb:
Makros dahingehend machen, wenn man es ganz bequem haben will....

Ah, gute Idee. In welcher Sprache machst Du das? Und wo setzt Du an? Den Catalyst fernsteuern oder gibt es Bibliotheken, die Zugriff auf AMDs PowerTune erlauben?
 
oldmanhunting schrieb:
@Krautmaster
Habe auch lange überlegt ob ich die 8GB brauche, aber da ich wirklich nur FullHD und Wargaming spiele bringen mir 5,5GB brach liegender RAM der eh nie genutzt wird überhaupt nichts. Die 8GB sind aus meiner Sicht auch nur ein Verkaufstrick, weil der Fury reichen ja auch 4GB.

versteh ich absolut die Entscheidung aber die Vergangenheit lehrt mich dass es selten möglich war zum Release oder kurz danach irgendwas bezüglich VRam Verbrauch anständig zu simulieren da es mehr von der Engine selbst abhängt als von irgendwelchen Auflösungs- / AA Sachen mit denen man aktuell versucht "in die Zukunft zu schauen".

Schau ich Tests zu der GTX 680/ GTX 770 wurden die auch im SLI kaum ausgebremst damals. Heute ist eine GTX 770 SLI sicher noch recht fix aber der Ram geht einfach oft aus da moderne Engines mit 2 Gb schon teils zu kämpfen haben.

ACU / GTA 5 zB, sehr hohe VRam Belastung. Zu geringe Chipleistung kann über die Einstellungen einfach ausgeglichen werden. Hat man genug VRam kann man schön mit hohen Details spielen und selbst bei 1080p werden da teils 4 GB schon eng.
ACU bringt teils schon die 6Gb meiner GTX 980 TI an den Anschlag.

8Gb sind ideal und es ist gut dass AMD die Karten so von der Nvidia Maxwell Serie distanziert. Bei der GTX 970 vs 390 wäre meine Entscheidung eine einfache.
Klar, die R9 390 mag heute zu viel Ram für ihre Geschwindigkeit haben aber das Verhältnis mag sich verschieben wenn hohe Texturen immer weiter Einzug finden da die GPUs dann serienmäßig 8 GB Vram haben.

Löst man nicht alle 2 Jahre seine GPU ab dann machen diese zusätzlichen 4 GB VRam locker die Lebensdauer um nochmal 2 Jahre on top möglich.
Bis vor kurzem fand ich meine HD6970 mit 2 GB Vram absolut ausreichend. Hätte ich damals die 1 GB VRam Variante gekauft hät ich sie vor 2 Jahren in die Tonne treten können ;)

Genauso wird man eine Fury X recht früh in die Tonne treten müssen wenn dann die GP104 Chips auch serienmäßig 8GB VRam haben sollten und AMDs Mid/High Klasse mit 390 und 390X jetzt schon 8 GB haben.
Die Engines orientieren sich ja auch daran was möglich ist. Gibt es kaum >4Gb Karten ist vollkommen klar dass 4GB heute noch überall ausreicht. Kommen aber dann 8 GB Fijis und finden die 390 390X und die Mittelklasse Nvidia Karten Verbreitung sind 4 GB schnell eher unters Ende für Max Setting (ja heute schon fast so).
 
Zuletzt bearbeitet:
incurable schrieb:
Von mir aus kann Dir das auch gern Banane sein. Ich finde, bei einer 400 Euro Grafikkarte gehört es dazu, die Software auf dem Laufenden zu halten und nach dem Stand der Technik zu zertifizieren, die Konkurrenz kann das ja auch. Aber nein, AMD streicht erst die Softwareunterstützung zusammen und bringt dann 8 Monate gar keinen offiziellen Treiber mehr.
Mit dem tollen WHQL Zertifikat kann man sich nicht mal den Hintern abwischen...
 
Wie wurden die Tests zur Leistungsaufnahme mit mehreren Monitoren gemacht? Gleiche Auflösung? Finde das schon einen wichtigen Faktor, wenn man ständig zwei Monitore angeschlossen hat...
 
Die R7-Modelle sind zum Spielen zu lahm und für alle anderen Anwendung zu stromhungrig.
Da stellt sich doch die Frage, wer die Zielgruppe ist.

matze
 
hnmatze schrieb:
Die R7-Modelle sind zum Spielen zu lahm und für alle anderen Anwendung zu stromhungrig.
Da stellt sich doch die Frage, wer die Zielgruppe ist.

matze

Zielgruppe? Na, die lokalen Stadtwerke :D

Hast Du mal darüber nachgedacht, dass auch der Preis in der Anschaffung ein Argument sein könnte? ;)
 
PiPaPa schrieb:
Mit dem tollen WHQL Zertifikat kann man sich nicht mal den Hintern abwischen...
Ne aber wenn man für Lightroom de 14.4er installieren muss im Opengl und damit GPU Beschleunigung nutzen zu können ist das arm. Ich hab Monate gewartet ... Würde mich nicht wundern wenns immernoch nicht tut mit neusten AMD Treiber.
 
Was ist eigentlich von PowerColor zu halten?
Ich habe ein Angebot für eine TUL R9 390 mit 8GB für 280€uro erhalten und bin aktuell am überlegen ob ich da nicht zugreifen sollte
 
incurable schrieb:
Ich finde, bei einer 400 Euro Grafikkarte gehört es dazu, die Software auf dem Laufenden zu halten und nach dem Stand der Technik zu zertifizieren

Tun sie doch? Du stellst das WHQL ein wenig auf eine zu hohe Treppe, was es nicht verdient. Auch wenn es Altbacken ist, aber ein WHQL Zertifizierter Treiber sorgte bei NV dafür, dass reihenweise die Karten unter dem Hintern weg schossen.... Microsoft stellt etwas völlig anderes damit sicher, als was du darunter interpretierst. Das WHQL kann man sich auch auf dem Hintern kleben, für das was raus kommt beeinflusst das Siegel absolut nichts.

incurable schrieb:
aber mit dem 15.7er-Strang in den Stromsparmodi über alle aktuellen Windows-Versionen hinweg Bildfehler produziert. Einzige Lösung wäre es, das Heruntertakten zu verhindern, aber das kann ja wohl nicht Sinn der Sache sein.

Keine Ahnung, wie so ein grundlegendes Problem beim Testen nicht auffallen kann.

Ist das so? ... Layer 8 + Montagsmodell = ÜBERALL SO? Alles klar!
Also ich habe hier einige GPUs liegen. Bei keiner dieser kann ich es nachvollziehen. Diverse Bugs bei Nvidia die momentan Kursieren und hoch geschaukelt werden kann ich ebenso wenig nachvollziehen... es wird gern Dramatisiert....



Faust2011 schrieb:
Ah, gute Idee. In welcher Sprache machst Du das? Und wo setzt Du an? Den Catalyst fernsteuern oder gibt es Bibliotheken, die Zugriff auf AMDs PowerTune erlauben?


Afterburner und Profile, die bindest du mit einer Taste.
Macros verknüpfst du dann mit den Games(Desktop Verknüpfung z.B. ), sobald du sie startest, dass Taste(X) ausgeführt wird... bei Games die 0 GPU Power brauchen hab ich meine entsprechenden fixen Taktraten. Dafür hat man ja den PC, der einem derartiges ermöglicht. Grenzen sind da kaum gesetzt - und wenn es welche gibt, gibt es auch dafür Anlaufstellen. ;D
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Ne aber wenn man für Lightroom de 14.4er installieren muss im Opengl und damit GPU Beschleunigung nutzen zu können ist das arm. Ich hab Monate gewartet ... Würde mich nicht wundern wenns immernoch nicht tut mit neusten AMD Treiber.
Schön das du mal wieder nur die halbe Wahrheit erzählst und das Problem ausschließlich bei Karten mit VLIW-Architektur besteht und GCN Karten davon nicht betroffen sind, zumal bei Lightroom die GPU OpenGL Beschleunigung "nur" zur Erstellung von Vorschaubildern genutzt wird, das Endergebnis aber nicht davon profitiert.
 
Zuletzt bearbeitet:
hnmatze schrieb:
Die R7-Modelle sind zum Spielen zu lahm und für alle anderen Anwendung zu stromhungrig.
Da stellt sich doch die Frage, wer die Zielgruppe ist.
...

Das Problem bei den Tests hier ist halt, dass man keine Ergebnisse für niedrige Detailstufen angibt. Wer eine 100 €-Karte kauft, will in der Regel nur, dass Spiel XY flüssig spielbar ist. Da ist die Detailstufe fast egal. Aber auf Computerbase wird ja bei "Normaler Qualität" bis auf die Kantenglättung (nach Möglichkeit) alles auf hoch gestellt (wenn ich mich richtig erinnere). Dadurch entsteht der falsche Eindruck man könne mit einer Low-Budget-Karte keine Games mehr zocken. Fairerweise muss man aber auf den unverhältnismäßig hohen Aufwand hinweisen, der entsteht wenn man jede Grafikkarte mit 5 (als Beispiel) verschiedenen Detailstufen testen würde.
 
@CaptainCrazy,

so ist es. Auf Spielbare Settings zu setzen verfälscht das ganze ja dann noch mehr, auch wenn das Ergebnis der Praxis des jeweiligen Nutzers am nähsten kommt.

Enthusiast - Volle Möhre + Spielereien.
High-End - kein Problem > volle Möhre
Performance > Mid>High
Mainstream > Low-Mid

Wäre machbar. Am Ende stellt man es sowieso so ein damit es einem passt. Für eine 150-200€ Karte verlangt man dann aber auch nicht, alles auf max stellen zu können bei einem Spiel was gerade auf den Markt kam. Da entscheidet der Geldbeutel in erste Linie.
 
Zuletzt bearbeitet:
Also im Preissegment der 390 führt eigentlich kein Weg an der AMD Karte vorbei. Bis auf den höheren Verbrauch und das geringer Übertaktungspotential spricht nichts gegen die Karte.
 
Das von den 13 Seiten im Thread sich ca. 10 Seiten um den Stromverbrauch drehen, ist sowas von nervig.

Ich bin von einer GTX970 auf eine R9 390 gewechselt und kann eigentlich keinen Performance-Unterschied zwischen den beiden Karten erkennen.
Der Stromverbrauch, die Lautstärke und Wärmeentwicklung sind mir egal, da mein Rechner nicht im Raum mit mir steht und deswegen eh mit 100% Lüfterdrehzahl läuft.

Auch die Treiber nehmen sich nicht wirklich etwas. Ich muss zwar für die jeweiligen Einstellungen etwas suchen, da ich jahrelang den Nvidia Treiber gewohnt war, aber das Problem sitzt ja vor dem Bildschirm.
In GW2, BF4, SWTOR und Warthunder hatte ich noch keinen einzigen Absturz mit der R9 390. Einzig in ARK hatte ich vor einiger Zeit mal mehrere Abstürze. Das soll aber mehr am Spiel liegen und trat auch nicht bei jedem auf. Mittlerweile tritt dies vielleicht 1-2 Mal auf bei einer 8-12h Spielesession. Man muss aber bedenken, dass ARK ein Early Access Game ist, bei dem es teilweise mehrere Patches pro Tag gibt.

Insgesamt finde ich aber auch den Test dank geschickter Spieleauswahl sehr Nvidia-freundlich.
Mittlerweile ist die Entwicklung mit der "Unterstützung" der Spieleentwickler seitens Nvidia sehr bedenklich.

Man hätte außerdem einfach in den Diagrammen den GPU- und Speichertakt in Klammern angeben sollen.
Das hätte der Diskussion um die Vergleiche von Stock- mit OC-Karten gleich das Wasser abgegraben.

Früher habe ich immer Nvidia den Vorzug gegeben.
Dank der 970-Speicherproblematik und dem sich abzeichnenden Nvidia-Monopol kaufe ich aber mittlerweile kein Nvidia mehr.
 
BlauX schrieb:
Grenzen sind da kaum gesetzt - und wenn es welche gibt, gibt es auch dafür Anlaufstellen. ;D

Danke.

Hast Du auch Anlaufstellen für:

1) Schneller Wechsel zwischen Eyefinity-Desktop und 'Standard'-Multi-Monitor-Windows-Desktop?

2) Wenn Eyefinity-Desktop aktiv ist, dann möchte ich mit Win+Shift+Cursortasten ein Fenster von Bildschirm zu Bildschirm schieben können und/oder auch maximieren. Der Catalyst konnte sowas früher mal mit dem HydraVision-Modul (Nvidia kann es weiterhin) und derzeit noch die (kommerzielle) Software DisplayFusion. Gibt es da noch weitere Alternativen?
 
GermanGhettos schrieb:
Schön, dass du eine Gigabyte hast und damit zufrieden bist und schön, dass du meine Erfahrungen und Meinung nicht akzeptieren kannst. Sehr reif.
Dass die Gigabyte Karten mit Abstand Testsieger sind, ist schön gerede.
Gerade die Gigabyte Karten sind für ihre höhere Lautstärke bekannt :freaky:
http://www.hardwareluxx.de/index.ph...r9-290x-windforce-3x-oc-im-test.html?start=16
Lies dir mal das Fazit durch.
Bei Nvidia Karten mag das vielleicht aufgrund der geringeren Leistungsaufnahme noch anders aussehen,
aber zumindestens bei den AMD Karten (Worum es hier geht), war Gigabyte noch nie ein Leisetreter, außer vielleicht im Idle, wo das ja eh keine Kunst ist.
Daher weiß ich auch nicht, wie du das mit Nvidia vergleichen kannst, da hier von AMD Karten die Rede ist und nicht von Nvidia Karten.
Zudem ist das auch Geschmackssache mit 3 Lüftern.

Zum Thema Verarbeitung.
Schön, dass du weißt, dass alle Gigabyte Karten top verarbeitet sind.
Nur gut, dass ich immer brav Bilder mache, um das Gegenteil belegen zu können.
Von schlampig verarbeitet kann in meinem Fall auf jeden Fall die Rede sein und der Lüfter hat auch gerattert.
Und bzgl. Support habe ich ja auch was gesagt.

Also sauber verarbeitet sieht für mich anders aus. :rolleyes:
Naja muss jeder selbst wissen.
Ich habe mit Gigabyte nun mal keine guten Erfahrungen gemacht, entweder du akzeptierst das, oder du lässt es eben bleiben.
Und auch die XFX Karten sind auf AMD Seite keine Leisetreter.
Leiser als die Referenzkarten, aber im Vergleich auf jeden Fall weiter hinten angesiedelt.
Die MSI Gaming ist bisher die leiseste Karte, die ich bisher hatte und die HIS soll auch noch leise sein.
Das Design ist da ebend Geschmackssache.

Bist Du eigentlich immer so ignorant oder kannst Du nicht lesen? Wer lesen kann ist klar im Vorteil und vielleicht solltest Du meinen Beitrag lesen/analysieren/verstehen lernen, bevor Du vorschnelle und unwahre Schlüsse ziehst :rolleyes:. Unreif führt sich hier nur einer auf und das bist Du mit Deinen z.T. lächerlichen Kommentaren in diesem Thread (Geltungssucht a la "ich und meine MSI Radeon 390", oder was?), es gibt auch andere Meinungen als Deine, aber das scheinst Du nicht akzeptieren zu wollen.

Dass ich Deine Meinung bzgl. GigaByte nicht akzeptiere habe ich nicht geschrieben (ich akzeptiere grundsätzlich jede Meinung), aber das ich dieser nicht kategorisch zustimme und andere Erfahrung gemacht habe bzw. mache schon und Deine Fotos interessieren mich recht wenig (wir sind hier nicht bei einem Schauprozess vor Gericht und mit irgendwelchen Fotos kannst Du fehlende Argumente bzw. falsche/hanebüchene Aussagen auch nicht wett machen), in meinem Rechner läuft schon seit langem eine GigaByte Karte tadellos und dass diese Karte leise, leistungsfähig und damals insgesamt besser als die der Konkurrenten war ist auch Fakt, sonst hätte sie sich wohl kaum so gut verkauft und wäre wohl kaum so gut gestestet worden (z.B. in diesen Tests: http://www.tweakpc.de/hardware/tests/grafikkarten/gigabyte_geforce_gtx_670_oc_windforce_3x/s17.php; http://www.techpowerup.com/reviews/Gigabyte/GeForce_GTX_670_Windforce/33.html; http://extreme.pcgameshardware.de/anleitungen-wichtige-praxis-und-test-artikel/276915-review-gigabyte-gtx-670-4gb-oc-windforce-3x-eiskalt-und-feurig-schnell.html). Ich vergleiche deswegen mit nVidia, weil Du Deine Aussage bzgl. GigaByte unwissend verallgemeinerst. Es mag sein, dass die 390er Karte von GigaByte nicht herausragend ist (aber was ist, wenn eines der beiden Modelle doch empfohlen wird in einem Test(?) ... genau, dann bist nämlich Du der Gelackmeierte), aber ich erlaube mir jedenfalls dahingehend keine Aussage, wenn ich die Karte nicht besitze oder zumindest einen glaubhaften Test präsentieren kann, denn sinnloses/fehlgeleitetes propagieren gibt es hier im CB Forum schon genug. Auch wenn ich - wie erwähnt - arg schlechte Erfahrungen mit ASUS gemacht habe, gibt es mir auch nicht das Recht unwissend über jedes derer Produkte herzuziehen, denn wie unglaubwürdig würde mich das wohl machen? Es ist ja schön, dass Du mit Deiner MSI 390er happy bist (ich bin nicht derjenige, der meine Karte hier im Thread andauernd schön redet), aber über den Tellerrand schauen, wäre schon nicht verkehrt, ne ...

Von XFX hast Du auch keine Ahnung (vermutlich noch nie eine einzige XFX Karte besessen), sonst hättest Du wohl den von mir mit Link versehenen Test zu denn 300er Karten von XFX gelesen, bei dem Lautstärke der 390 deutlich unterhalb der Sapphire und Powercolor Karten festgestellt wurde (weswegen hatte ich wohl die dB im vorherigen Beitrag genannt), aber Hauptsache irgendwelche Sachen unterstellen und fanboy-mässig herum zu trollen :freak:

Am besten wir lassen es gut sein, denn auf dem Niveau habe ich keine Lust mir Dir weiter zu diskutieren.

graysson schrieb:
Früher habe ich immer Nvidia den Vorzug gegeben.
Dank der 970-Speicherproblematik und dem sich abzeichnenden Nvidia-Monopol kaufe ich aber mittlerweile kein Nvidia mehr.

Sehr konsequent/löblich :), ich werde auch wieder zu AMD (ATI) wechseln beim nächsten Kauf (wegen der miesen Kundenpolitik - 970 Kundentäuschung und nachlassendem Kepler-Karten Treibersupport - und um der sich abzeichnenden Monopolsituation auf dem Markt entgegen zu steuern).
 
Zuletzt bearbeitet:
Zurück
Oben