Test Radeon 300 im Test: Alle AMD-Grafikkarten von R7 360 bis R9 390X im Vergleich

Es gibt keine Probleme mit dem Vram der 970, dass ganze ist so gewollt und ist quasi " by design" .
 
GermanGhettos schrieb:

Danke erneut für das Teilen deiner Erfahrungen und darum daß du dich bemüht hast, mir Varianten aufzuzeigen. :schluck: Sie werden in meine Entscheidungsfindung mit einfließen. Allerdings warte ich noch auf die R9 Nano, wie sie sich preislich, leistungsmäßig und in Sachen Kühlung/Lautstärke gestaltet. Wird sie mir zu teuer, wird es eine 390 ohne X von einem der Partner.


Daß es keine grundsätzlich schlechten oder guten Hersteller gibt, ist natürlich klar - ganz einfach deshalb, weil sich Hersteller mit durchweg schlechten Produkten kein Jahr am Markt halten könnten. Aber wenn jemand schlechte Erfahrungen mit einem Hersteller gemacht hat, sollte er sie auch äußern, wenn er um Rat gefragt wird. Insofern klingt GermanGhettos persönliche Analyse jedenfalls sachlicher und nachvollziehbarer als die verbale Gigabyte-Verteidigungsattacke von Chismon. War eigentlich völlig unnötig, da niemand behauptet, Gigabyte wäre katastrophal... egal, lassen wir das.
 
Warum werden eigentlich keine SLI, Crossfire und DualGPU betrachtet?! Wenn ich zirka 500€ für Grafik plane, dann würde ich doch zwei 290er OC verbauen und hätte damit wohl in vielen Spielen mehr Power als ne Furie oder 980Thai... Oder nicht?!
 
Schauen wir mal in die [FAQ] Der ideale Gaming-PC

3.3 SLI/CF - das leidige Thema

Grundsätzlich kann man sagen, dass sich ein SLI/CF-Gespann aus 2 oder gar 3 seperaten Karten für den privaten Anwender nur in den seltensten Fällen lohnt. Wirklich zu empfehlen ist es erst bei höheren Auflösungen (>1920x1080 bzw. >24"), da dort derartige Leistungen gebraucht werden.
Anmerkungen: Die "modernen" High-End-Karten wie R9 390 und 980 werden für "4k-Gaming" vermarktet
Bei kleineren Auflösungen überwiegen die Nachteile:
  • hoher Stromverbrauch, hohe Lautstärke, hohe Wärmeabgabe
  • oft nur eine Mehrleistung von bis zu 60-80%, teilweise aber auch viel weniger oder gar schlechter als bei einer Einzelkarte
  • teuer in der Anschaffung und schneller Wertverlust durch neue, bessere Karten
  • eine einzelne Karte einer neuen Generation ist meist schneller als ein SLI-/CF-Gespann der alten
  • bei mehreren Einzelkarten ist die Nutzung von anderen Erweiterungskarten eingeschränkt (Platzmangel auf dem Board und im Gehäuse)
  • teilweise schlechte Skalierung und Unterstützung von SLI/CF
  • viel Arbeit durch Treiberoptimierung und Erstellen von Profilen für einzelne Spiele
  • Abhängigkeit vom Treiberhersteller, der den Support (die Weiterentwicklung) von SLI/CF-Profilen von älteren Karten/Spielen in neuen Treibern einstellt (Zeitraum: ca. 2 Jahre)
Dazu ein kleiner Test Zeigt, wie schlecht 2 Karten zum Teil Skalieren: Risen 3 in 2160p: NVides: +0,3 fps, AMD -0,1fps
dazu noch die microruckler, etc
Heißt: Für den Wahns.. äh Max-leistungs-liebhaber mit zu vi, mit viel Geld in der Tasche machabr, aber P/L-technisch weit weit weg von dem, was die meisten hier sehen wollen.
Bei den absoluten Top-Karten wird es ja auch gemacht, ich habs gerade verlinkt^^
Ansonsten: Für den doppelten Preis rund 60% Mehrleistung im Schnitt für SLI/CF
ODER 100% Mehr Leistung, sofern ich noch nicht im Hiigh-End bin (aktuell ist die P/L-Skalierung recht gut bis zum High-End-Bereich) und danach schreit eh bei jedem fps mehr der Geldbeutel ungemein^^
Dazu sieht es etwas mau aus bei Mainboard, die die maximalen PCI-E-lanes für 2 Karten bieten, etc pp
 
incurable schrieb:
Wie gesagt, CB macht mit dieser aktuellen Serie einen rechten Stuss, aber den erkennt man nur, wenn man die richtigen Seiten aufschlägt:

"Treiber AMD Catalyst 15.3.1"
https://www.computerbase.de/2015-05/grafikkarten-testverfahren-testsystem/

Sag ich doch!
Die Karten haben IHREN Aktuellen Treiber, nur eben HIER nicht. Jetzt verstanden?


@Der-Orden-Xar,

CF ist in meinem Fall auch neben Gaming von Nutzen.
Und für die Games wo es gescheit skaliert, freut man sich darüber.
So Games wie SC könnte CF/SLI gut skalieren und die Leistung würde aufgrund VR schon benötigt werden.
Und da man dieses wohl erstmal was länger zockt, lohnt sich eine Anschaffung dahingehend schon. Ist halt ne Sache die jeder für sich entscheiden muss.

Schlecht ist nur, was man damit vor hat.
 
Zuletzt bearbeitet:
oelchenpoelchen schrieb:
Warum werden eigentlich keine SLI, Crossfire und DualGPU betrachtet?! Wenn ich zirka 500€ für Grafik plane, dann würde ich doch zwei 290er OC verbauen und hätte damit wohl in vielen Spielen mehr Power als ne Furie oder 980Thai... Oder nicht?!

Genau so habe ich es gemacht: 2 x R9 290, die gab es Ende 2014 für 230€ von Asus das Stück :) Damit bin ich bei meinen Spielen (BF4, F1 2013, ...) immer noch schneller als die Top-Single-Cards (GTX980Ti, Fury X) und deutlich günstiger! Und hey, komm mir jetzt nicht mit Stromverbrauch :D

Der-Orden-Xar schrieb:
[... diverse Weisheiten & Mythen rund um Multi-GPU...]

Sorry, aber was Du hier zitierst, ist veraltet. Viele Infos in Foren zu Multi-GPU sind (inzwischen) falsch. Mikroruckler sind quasi kein Problem mehr, zumindest konnte ich auf meinem System noch keine feststellen. AMD hat hier mit FramePacing im Catalyst ordentliche Arbeit geleistet. Und wenn man nicht gerade sofort bei Erscheinen ein Spiel mit Crossfire/SLI Support braucht, dann passt das auch soweit.

BlauX schrieb:
Sag ich doch!
Die Karten haben IHREN Aktuellen Treiber, nur eben HIER nicht. Jetzt verstanden?

Die CB-Tests haben 2 Probleme: zum einen die Aktualität der Treiber und zum anderen den Takt der Grafikkarte. Gerade bei der R9 290(X) ist der Stock-Takt als auch OC-Takt auf das Referenz-Modell bezogen. Und ganz ehrlich: wer hat das? Meine Karten (R9 290) halten gar die (ab Werk gesetzte) Taktfrequenz von 1.000 MHz, ohne überhaupt zu drosseln. Selbst 1.100 MHz laufen stabil. Sowas würde ich eher als Referenz ansehen.
 
BlauX schrieb:
Sag ich doch!
Die Karten haben IHREN Aktuellen Treiber, nur eben HIER nicht. Jetzt verstanden?
Ganz ehrlich? Ich meine Dich jetzt verstanden zu haben. Dann sind wir uns einig, dass CB in dieser Testserie (neben den willkürlichen Taktraten teilweise stark) veraltete Treiber einsetzt, die die Relevanz der gelisteten Ergebnisse massiv in Frage stellen, oder?
 
Zuletzt bearbeitet:
Noch dazu wird in einem Spiel namens Assetto Corsa die Grafik nicht auf Ultra gebencht, sondern mit Reflexionen auf low, auf realem Ultra performen AMD Karten besser als Ihre Nvidia Pendants. Diese Art der Ergebnissverfälschung wirkt sich massiv auf Gesamtranking aus
 
Wenn ich mir die Tests so anschaue ist eine 750Ti einer Radeon r7 360 vorzuziehen.Die 750Ti hat mehr Leistung und braucht viel weniger Strom.Interessant ist auch dass eine 750Ti bei der Videowiedergabe in manchen Bereichen bessere Ergebnisse als ein GTX 780 erreicht. Mit Maxwell 1.0 hat Nvidia damals alles richtig gemacht.
 
Zuletzt bearbeitet von einem Moderator:
Da mein 27 Zöller "nur" Full HD auflöst wenn auch bis 144 Frames bleib Ich bei meiner "alten" R290X von Sapphire in der 8GB Edition.
Für Leute der vorherigen Generation fällt der Sprung zu gering aus solang man bei einer Singel Karte bleibt und Full HD ebenso wie wenn man keine Mutli Monotore aufbauen will das ist meine Meinung.
Für 4K60 muss sich logischerweise passend zur Datenmenge die Leistung auch vervierfachen das dauert noch "etwas" .....
 
Faultier schrieb:
Da mein 27 Zöller "nur" Full HD auflöst wenn auch bis 144 Frames bleib Ich bei meiner "alten" R290X von Sapphire in der 8GB Edition.
Für Leute der vorherigen Generation fällt der Sprung zu gering aus solang man bei einer Singel Karte bleibt und Full HD ebenso wie wenn man keine Mutli Monotore aufbauen will das ist meine Meinung.
Für 4K60 muss sich logischerweise passend zur Datenmenge die Leistung auch vervierfachen das dauert noch "etwas" .....


Ich glaube, dass sich 4K nie durchsetzen wird :)
4K ist völliger Unsinn.
Das werden die Leute nie nutzen, denn wie du schon sagst, muss die Kiste die ~4 fache Leistung abliefern!
Da reden wir nicht mehr von Sprüngen von 19 Zoll auf 24 Zoll auf 1650x1080 zu 1920x1080 usw. sondern auf das 4 fache.
Damals fand ich es schon schlimm, dass die Performance auf Full HD sinkt.
Dann auf 4K?
Ich für meinen Teil werde nie auf 4k umsteigen, da mir Full HD völlig ausreicht.
Kann mir auch nicht vorstellen, dass sich das langfristig durchsetzt.

Klar...bei Full HD sagten auch alle, dass sie es nicht unbedingt brauchen, aber da reden wir auch von ganz anderen Dimensionen in der Leistung.
Der Sprung auf Full HD war da schon eher zu verkraften.
Um dann aber immer mit 4K auf Ultra zu spielen, wird es verdammt teuer und das werden die wenigsten zahlen wollen,
zumal ich nicht glaube, dass wir im PC Sektor noch so große Sprünge erleben werden.

Wann soll die Leistung für 4K bereit gestellt werden?
Wir kommen doch jetzt schon an technische Limits und so viel wird da mMn. auch nicht mehr passieren.
Es sei denn man münzt langfristig alles auf Cloud Gaming um.
 
Ich wollte ja eigentlich dieses Jahr auf 4K gehen aber habe das ganz schnell wieder verworfen. Es wird einfach zu teuer.
Wenn 4K, dann muß schon ein gescheiter Monitor her, der mindestens 30 Zoll hat und dann auch noch 2 x eine starke GPU. Neeee!

Solange die Hersteller es nicht schaffen 4K mit EINER GPU bei 60FPS zu bringen lasse ich die Finger davon.
 
Das schafft man doch nur muss man die Grafikregler verwenden


So große Unterschiede gibt es eh meist nicht zwischen Ultra/High/Medium
 
Zuletzt bearbeitet:
CyberdyneSystem schrieb:
Das schafft man doch nur muss man die Grafikregler verwenden


So große Unterschiede gibt es eh meist nicht zwischen Ultra/High/Medium


Wenn ich aber die Grafik runterregeln muss, damit 4K läuft, dann ist das ja nicht Sinn der Übung :D
Ob ich dann auf Full HD mit Ultra Settings spiele, oder 4K mit niedrigen, nimmt sich nichts.
Im Endeffekt siehts dann mit 4K trotzdem schlechter aus, weil viele Effekte drunter leiden, wenn man die runterstellt.
z.B. Schatten, die pixelig werden, matschigere Texturen etc.
Das kann dann ja nicht Sinn und Zweck sein.
Wenn ich 4K kaufe, will ich es ja genauso mit Ultra Settings erleben wie jetzt xD
Sonst muss ich mir das ja nicht kaufen, wenn ich dann eh auf low oder middle spiele.
Mag Ansichtssache sein.
Ich denke trotzdem nicht, dass sich 4K richtig durchsetzen wird.
Die breite Masse wird wohl bei Full HD bleiben.
 
HBM scheint interessant zu werden.

Wie ist es mit dem Verbrauch unter HBM? Die 4Gb Fury ist mit TDP 275 W eingetragen. Die 8Gb Nitro ebenfalls.

Wie kommt das?
 
Zuletzt bearbeitet:
Seit wann das?
Zumindest die derzeitigen HBM-Karten widersprechen der Behauptung.
Die AMD 390 x verbraucht mehr Strom als die Fury X unter Last, ist aber i.A. langsamer.
Zugegeben Architektur ist verschieden, aber ich denke ich derart stark.
 
TDP dürfte sich proportional zum Verbrauch verhalten und ist bei beiden als etwa gleich angegeben. Der Rechenleistungswert der Fury ist aber höher als jener der Nitro. - Ich versuch das nur zu verstehen. Wieder etwas erstaunliches gelernt. ;)
 
Zuletzt bearbeitet:
GermanGhettos schrieb:
Wenn ich aber die Grafik runterregeln muss, damit 4K läuft, dann ist das ja nicht Sinn der Übung :D
Ob ich dann auf Full HD mit Ultra Settings spiele, oder 4K mit niedrigen, nimmt sich nichts.
Im Endeffekt siehts dann mit 4K trotzdem schlechter aus, weil viele Effekte drunter leiden, wenn man die runterstellt.
z.B. Schatten, die pixelig werden, matschigere Texturen etc.
Das kann dann ja nicht Sinn und Zweck sein.
Wenn ich 4K kaufe, will ich es ja genauso mit Ultra Settings erleben wie jetzt xD
Sonst muss ich mir das ja nicht kaufen, wenn ich dann eh auf low oder middle spiele.
Mag Ansichtssache sein.
Ich denke trotzdem nicht, dass sich 4K richtig durchsetzen wird.
Die breite Masse wird wohl bei Full HD bleiben.

du hast zwar generell recht aber ich zb finde ich eine höhere auflösung wichtiger als den detailunterschied von high nach ultra
in den meisten spielen sehe ich da einfach keinen unterschied
ändere ich hingegen die auflösung sehe ich ihn außerdem brauche ich dann weniger aa

muss aber dazu sagen dass man schon 32zoll haben sollte sonst bringts wirklich nichts
 
Stinker88 schrieb:
du hast zwar generell recht aber ich zb finde ich eine höhere auflösung wichtiger als den detailunterschied von high nach ultra
in den meisten spielen sehe ich da einfach keinen unterschied
ändere ich hingegen die auflösung sehe ich ihn außerdem brauche ich dann weniger aa

muss aber dazu sagen dass man schon 32zoll haben sollte sonst bringts wirklich nichts

32 Zoll und wie weit soll man da wegsitzen? :D
Ehrlich gesagt finde ich 24 Zoll schon sehr groß auf einem normalen Schreibtisch.
Meiner ist schon ca. 67cm tief.
Bei 32 Zoll unvorstellbar.
Das ist ja weder für die Augen gut, noch kann man dann richtig raufschauen.
Hab mal so einen 30/32 Zoll Monitor gesehen.
Das Ding war wirklich riesig.
Fast wie ein kleiner Fernseher.
Das wäre echt zu heftig. :D
Es sei denn man hat einen Schreibtisch, der mal eben 80-90cm in die Tiefe geht.
Wobei es selbst dann noch recht groß wirken dürfte.


Naja, ich denke aktuell bringt das eh nicht viel.
In 1-2 Jahren wird das Thema vermutlich aktueller.
Momentan ist es aber eher noch heiße Luft.
Ich für meinen Teil werde auf jeden Fall keinen Monitor wegen 4K kaufen.
Wäre einfach nicht meins ^^
 
Zurück
Oben