Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Radeon 300 im Test: Alle AMD-Grafikkarten von R7 360 bis R9 390X im Vergleich
W
Wolfsrabe
Gast
GermanGhettos schrieb:
Danke erneut für das Teilen deiner Erfahrungen und darum daß du dich bemüht hast, mir Varianten aufzuzeigen. Sie werden in meine Entscheidungsfindung mit einfließen. Allerdings warte ich noch auf die R9 Nano, wie sie sich preislich, leistungsmäßig und in Sachen Kühlung/Lautstärke gestaltet. Wird sie mir zu teuer, wird es eine 390 ohne X von einem der Partner.
Daß es keine grundsätzlich schlechten oder guten Hersteller gibt, ist natürlich klar - ganz einfach deshalb, weil sich Hersteller mit durchweg schlechten Produkten kein Jahr am Markt halten könnten. Aber wenn jemand schlechte Erfahrungen mit einem Hersteller gemacht hat, sollte er sie auch äußern, wenn er um Rat gefragt wird. Insofern klingt GermanGhettos persönliche Analyse jedenfalls sachlicher und nachvollziehbarer als die verbale Gigabyte-Verteidigungsattacke von Chismon. War eigentlich völlig unnötig, da niemand behauptet, Gigabyte wäre katastrophal... egal, lassen wir das.
oelchenpoelchen
Lt. Commander
- Registriert
- Aug. 2008
- Beiträge
- 1.516
Warum werden eigentlich keine SLI, Crossfire und DualGPU betrachtet?! Wenn ich zirka 500€ für Grafik plane, dann würde ich doch zwei 290er OC verbauen und hätte damit wohl in vielen Spielen mehr Power als ne Furie oder 980Thai... Oder nicht?!
Der-Orden-Xar
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.685
Schauen wir mal in die [FAQ] Der ideale Gaming-PC
dazu noch die microruckler, etc
Heißt: Für den Wahns.. äh Max-leistungs-liebhaber mit zu vi, mit viel Geld in der Tasche machabr, aber P/L-technisch weit weit weg von dem, was die meisten hier sehen wollen.
Bei den absoluten Top-Karten wird es ja auch gemacht, ich habs gerade verlinkt^^
Ansonsten: Für den doppelten Preis rund 60% Mehrleistung im Schnitt für SLI/CF
ODER 100% Mehr Leistung, sofern ich noch nicht im Hiigh-End bin (aktuell ist die P/L-Skalierung recht gut bis zum High-End-Bereich) und danach schreit eh bei jedem fps mehr der Geldbeutel ungemein^^
Dazu sieht es etwas mau aus bei Mainboard, die die maximalen PCI-E-lanes für 2 Karten bieten, etc pp
Anmerkungen: Die "modernen" High-End-Karten wie R9 390 und 980 werden für "4k-Gaming" vermarktet3.3 SLI/CF - das leidige Thema
Grundsätzlich kann man sagen, dass sich ein SLI/CF-Gespann aus 2 oder gar 3 seperaten Karten für den privaten Anwender nur in den seltensten Fällen lohnt. Wirklich zu empfehlen ist es erst bei höheren Auflösungen (>1920x1080 bzw. >24"), da dort derartige Leistungen gebraucht werden.
Dazu ein kleiner Test Zeigt, wie schlecht 2 Karten zum Teil Skalieren: Risen 3 in 2160p: NVides: +0,3 fps, AMD -0,1fpsBei kleineren Auflösungen überwiegen die Nachteile:
- hoher Stromverbrauch, hohe Lautstärke, hohe Wärmeabgabe
- oft nur eine Mehrleistung von bis zu 60-80%, teilweise aber auch viel weniger oder gar schlechter als bei einer Einzelkarte
- teuer in der Anschaffung und schneller Wertverlust durch neue, bessere Karten
- eine einzelne Karte einer neuen Generation ist meist schneller als ein SLI-/CF-Gespann der alten
- bei mehreren Einzelkarten ist die Nutzung von anderen Erweiterungskarten eingeschränkt (Platzmangel auf dem Board und im Gehäuse)
- teilweise schlechte Skalierung und Unterstützung von SLI/CF
- viel Arbeit durch Treiberoptimierung und Erstellen von Profilen für einzelne Spiele
- Abhängigkeit vom Treiberhersteller, der den Support (die Weiterentwicklung) von SLI/CF-Profilen von älteren Karten/Spielen in neuen Treibern einstellt (Zeitraum: ca. 2 Jahre)
dazu noch die microruckler, etc
Heißt: Für den Wahns.. äh Max-leistungs-liebhaber mit zu vi, mit viel Geld in der Tasche machabr, aber P/L-technisch weit weit weg von dem, was die meisten hier sehen wollen.
Bei den absoluten Top-Karten wird es ja auch gemacht, ich habs gerade verlinkt^^
Ansonsten: Für den doppelten Preis rund 60% Mehrleistung im Schnitt für SLI/CF
ODER 100% Mehr Leistung, sofern ich noch nicht im Hiigh-End bin (aktuell ist die P/L-Skalierung recht gut bis zum High-End-Bereich) und danach schreit eh bei jedem fps mehr der Geldbeutel ungemein^^
Dazu sieht es etwas mau aus bei Mainboard, die die maximalen PCI-E-lanes für 2 Karten bieten, etc pp
B
BlauX
Gast
incurable schrieb:Wie gesagt, CB macht mit dieser aktuellen Serie einen rechten Stuss, aber den erkennt man nur, wenn man die richtigen Seiten aufschlägt:
"Treiber AMD Catalyst 15.3.1"
https://www.computerbase.de/2015-05/grafikkarten-testverfahren-testsystem/
Sag ich doch!
Die Karten haben IHREN Aktuellen Treiber, nur eben HIER nicht. Jetzt verstanden?
@Der-Orden-Xar,
CF ist in meinem Fall auch neben Gaming von Nutzen.
Und für die Games wo es gescheit skaliert, freut man sich darüber.
So Games wie SC könnte CF/SLI gut skalieren und die Leistung würde aufgrund VR schon benötigt werden.
Und da man dieses wohl erstmal was länger zockt, lohnt sich eine Anschaffung dahingehend schon. Ist halt ne Sache die jeder für sich entscheiden muss.
Schlecht ist nur, was man damit vor hat.
Zuletzt bearbeitet:
- Registriert
- Aug. 2011
- Beiträge
- 12.983
oelchenpoelchen schrieb:Warum werden eigentlich keine SLI, Crossfire und DualGPU betrachtet?! Wenn ich zirka 500€ für Grafik plane, dann würde ich doch zwei 290er OC verbauen und hätte damit wohl in vielen Spielen mehr Power als ne Furie oder 980Thai... Oder nicht?!
Genau so habe ich es gemacht: 2 x R9 290, die gab es Ende 2014 für 230€ von Asus das Stück Damit bin ich bei meinen Spielen (BF4, F1 2013, ...) immer noch schneller als die Top-Single-Cards (GTX980Ti, Fury X) und deutlich günstiger! Und hey, komm mir jetzt nicht mit Stromverbrauch
Der-Orden-Xar schrieb:[... diverse Weisheiten & Mythen rund um Multi-GPU...]
Sorry, aber was Du hier zitierst, ist veraltet. Viele Infos in Foren zu Multi-GPU sind (inzwischen) falsch. Mikroruckler sind quasi kein Problem mehr, zumindest konnte ich auf meinem System noch keine feststellen. AMD hat hier mit FramePacing im Catalyst ordentliche Arbeit geleistet. Und wenn man nicht gerade sofort bei Erscheinen ein Spiel mit Crossfire/SLI Support braucht, dann passt das auch soweit.
BlauX schrieb:Sag ich doch!
Die Karten haben IHREN Aktuellen Treiber, nur eben HIER nicht. Jetzt verstanden?
Die CB-Tests haben 2 Probleme: zum einen die Aktualität der Treiber und zum anderen den Takt der Grafikkarte. Gerade bei der R9 290(X) ist der Stock-Takt als auch OC-Takt auf das Referenz-Modell bezogen. Und ganz ehrlich: wer hat das? Meine Karten (R9 290) halten gar die (ab Werk gesetzte) Taktfrequenz von 1.000 MHz, ohne überhaupt zu drosseln. Selbst 1.100 MHz laufen stabil. Sowas würde ich eher als Referenz ansehen.
Ganz ehrlich? Ich meine Dich jetzt verstanden zu haben. Dann sind wir uns einig, dass CB in dieser Testserie (neben den willkürlichen Taktraten teilweise stark) veraltete Treiber einsetzt, die die Relevanz der gelisteten Ergebnisse massiv in Frage stellen, oder?BlauX schrieb:Sag ich doch!
Die Karten haben IHREN Aktuellen Treiber, nur eben HIER nicht. Jetzt verstanden?
Zuletzt bearbeitet:
Noch dazu wird in einem Spiel namens Assetto Corsa die Grafik nicht auf Ultra gebencht, sondern mit Reflexionen auf low, auf realem Ultra performen AMD Karten besser als Ihre Nvidia Pendants. Diese Art der Ergebnissverfälschung wirkt sich massiv auf Gesamtranking aus
B
Blueeye_x
Gast
Wenn ich mir die Tests so anschaue ist eine 750Ti einer Radeon r7 360 vorzuziehen.Die 750Ti hat mehr Leistung und braucht viel weniger Strom.Interessant ist auch dass eine 750Ti bei der Videowiedergabe in manchen Bereichen bessere Ergebnisse als ein GTX 780 erreicht. Mit Maxwell 1.0 hat Nvidia damals alles richtig gemacht.
Zuletzt bearbeitet von einem Moderator:
F
Faultier
Gast
Da mein 27 Zöller "nur" Full HD auflöst wenn auch bis 144 Frames bleib Ich bei meiner "alten" R290X von Sapphire in der 8GB Edition.
Für Leute der vorherigen Generation fällt der Sprung zu gering aus solang man bei einer Singel Karte bleibt und Full HD ebenso wie wenn man keine Mutli Monotore aufbauen will das ist meine Meinung.
Für 4K60 muss sich logischerweise passend zur Datenmenge die Leistung auch vervierfachen das dauert noch "etwas" .....
Für Leute der vorherigen Generation fällt der Sprung zu gering aus solang man bei einer Singel Karte bleibt und Full HD ebenso wie wenn man keine Mutli Monotore aufbauen will das ist meine Meinung.
Für 4K60 muss sich logischerweise passend zur Datenmenge die Leistung auch vervierfachen das dauert noch "etwas" .....
GermanGhettos
Lt. Commander
- Registriert
- Apr. 2011
- Beiträge
- 1.106
Faultier schrieb:Da mein 27 Zöller "nur" Full HD auflöst wenn auch bis 144 Frames bleib Ich bei meiner "alten" R290X von Sapphire in der 8GB Edition.
Für Leute der vorherigen Generation fällt der Sprung zu gering aus solang man bei einer Singel Karte bleibt und Full HD ebenso wie wenn man keine Mutli Monotore aufbauen will das ist meine Meinung.
Für 4K60 muss sich logischerweise passend zur Datenmenge die Leistung auch vervierfachen das dauert noch "etwas" .....
Ich glaube, dass sich 4K nie durchsetzen wird
4K ist völliger Unsinn.
Das werden die Leute nie nutzen, denn wie du schon sagst, muss die Kiste die ~4 fache Leistung abliefern!
Da reden wir nicht mehr von Sprüngen von 19 Zoll auf 24 Zoll auf 1650x1080 zu 1920x1080 usw. sondern auf das 4 fache.
Damals fand ich es schon schlimm, dass die Performance auf Full HD sinkt.
Dann auf 4K?
Ich für meinen Teil werde nie auf 4k umsteigen, da mir Full HD völlig ausreicht.
Kann mir auch nicht vorstellen, dass sich das langfristig durchsetzt.
Klar...bei Full HD sagten auch alle, dass sie es nicht unbedingt brauchen, aber da reden wir auch von ganz anderen Dimensionen in der Leistung.
Der Sprung auf Full HD war da schon eher zu verkraften.
Um dann aber immer mit 4K auf Ultra zu spielen, wird es verdammt teuer und das werden die wenigsten zahlen wollen,
zumal ich nicht glaube, dass wir im PC Sektor noch so große Sprünge erleben werden.
Wann soll die Leistung für 4K bereit gestellt werden?
Wir kommen doch jetzt schon an technische Limits und so viel wird da mMn. auch nicht mehr passieren.
Es sei denn man münzt langfristig alles auf Cloud Gaming um.
oldmanhunting
Admiral
- Registriert
- Nov. 2008
- Beiträge
- 9.457
Ich wollte ja eigentlich dieses Jahr auf 4K gehen aber habe das ganz schnell wieder verworfen. Es wird einfach zu teuer.
Wenn 4K, dann muß schon ein gescheiter Monitor her, der mindestens 30 Zoll hat und dann auch noch 2 x eine starke GPU. Neeee!
Solange die Hersteller es nicht schaffen 4K mit EINER GPU bei 60FPS zu bringen lasse ich die Finger davon.
Wenn 4K, dann muß schon ein gescheiter Monitor her, der mindestens 30 Zoll hat und dann auch noch 2 x eine starke GPU. Neeee!
Solange die Hersteller es nicht schaffen 4K mit EINER GPU bei 60FPS zu bringen lasse ich die Finger davon.
CyberdyneSystem
Fleet Admiral
- Registriert
- Okt. 2009
- Beiträge
- 10.857
Das schafft man doch nur muss man die Grafikregler verwenden
So große Unterschiede gibt es eh meist nicht zwischen Ultra/High/Medium
So große Unterschiede gibt es eh meist nicht zwischen Ultra/High/Medium
Zuletzt bearbeitet:
GermanGhettos
Lt. Commander
- Registriert
- Apr. 2011
- Beiträge
- 1.106
CyberdyneSystem schrieb:Das schafft man doch nur muss man die Grafikregler verwenden
So große Unterschiede gibt es eh meist nicht zwischen Ultra/High/Medium
Wenn ich aber die Grafik runterregeln muss, damit 4K läuft, dann ist das ja nicht Sinn der Übung
Ob ich dann auf Full HD mit Ultra Settings spiele, oder 4K mit niedrigen, nimmt sich nichts.
Im Endeffekt siehts dann mit 4K trotzdem schlechter aus, weil viele Effekte drunter leiden, wenn man die runterstellt.
z.B. Schatten, die pixelig werden, matschigere Texturen etc.
Das kann dann ja nicht Sinn und Zweck sein.
Wenn ich 4K kaufe, will ich es ja genauso mit Ultra Settings erleben wie jetzt xD
Sonst muss ich mir das ja nicht kaufen, wenn ich dann eh auf low oder middle spiele.
Mag Ansichtssache sein.
Ich denke trotzdem nicht, dass sich 4K richtig durchsetzen wird.
Die breite Masse wird wohl bei Full HD bleiben.
Blau&Gruen
Lt. Commander
- Registriert
- Okt. 2008
- Beiträge
- 1.266
HBM scheint interessant zu werden.
Wie ist es mit dem Verbrauch unter HBM? Die 4Gb Fury ist mit TDP 275 W eingetragen. Die 8Gb Nitro ebenfalls.
Wie kommt das?
Wie ist es mit dem Verbrauch unter HBM? Die 4Gb Fury ist mit TDP 275 W eingetragen. Die 8Gb Nitro ebenfalls.
Wie kommt das?
Zuletzt bearbeitet:
Der-Orden-Xar
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.685
Seit wann das?
Zumindest die derzeitigen HBM-Karten widersprechen der Behauptung.
Die AMD 390 x verbraucht mehr Strom als die Fury X unter Last, ist aber i.A. langsamer.
Zugegeben Architektur ist verschieden, aber ich denke ich derart stark.
Zumindest die derzeitigen HBM-Karten widersprechen der Behauptung.
Die AMD 390 x verbraucht mehr Strom als die Fury X unter Last, ist aber i.A. langsamer.
Zugegeben Architektur ist verschieden, aber ich denke ich derart stark.
Blau&Gruen
Lt. Commander
- Registriert
- Okt. 2008
- Beiträge
- 1.266
TDP dürfte sich proportional zum Verbrauch verhalten und ist bei beiden als etwa gleich angegeben. Der Rechenleistungswert der Fury ist aber höher als jener der Nitro. - Ich versuch das nur zu verstehen. Wieder etwas erstaunliches gelernt.
Zuletzt bearbeitet:
Stinker88
Lt. Commander
- Registriert
- Nov. 2007
- Beiträge
- 1.426
GermanGhettos schrieb:Wenn ich aber die Grafik runterregeln muss, damit 4K läuft, dann ist das ja nicht Sinn der Übung
Ob ich dann auf Full HD mit Ultra Settings spiele, oder 4K mit niedrigen, nimmt sich nichts.
Im Endeffekt siehts dann mit 4K trotzdem schlechter aus, weil viele Effekte drunter leiden, wenn man die runterstellt.
z.B. Schatten, die pixelig werden, matschigere Texturen etc.
Das kann dann ja nicht Sinn und Zweck sein.
Wenn ich 4K kaufe, will ich es ja genauso mit Ultra Settings erleben wie jetzt xD
Sonst muss ich mir das ja nicht kaufen, wenn ich dann eh auf low oder middle spiele.
Mag Ansichtssache sein.
Ich denke trotzdem nicht, dass sich 4K richtig durchsetzen wird.
Die breite Masse wird wohl bei Full HD bleiben.
du hast zwar generell recht aber ich zb finde ich eine höhere auflösung wichtiger als den detailunterschied von high nach ultra
in den meisten spielen sehe ich da einfach keinen unterschied
ändere ich hingegen die auflösung sehe ich ihn außerdem brauche ich dann weniger aa
muss aber dazu sagen dass man schon 32zoll haben sollte sonst bringts wirklich nichts
GermanGhettos
Lt. Commander
- Registriert
- Apr. 2011
- Beiträge
- 1.106
Stinker88 schrieb:du hast zwar generell recht aber ich zb finde ich eine höhere auflösung wichtiger als den detailunterschied von high nach ultra
in den meisten spielen sehe ich da einfach keinen unterschied
ändere ich hingegen die auflösung sehe ich ihn außerdem brauche ich dann weniger aa
muss aber dazu sagen dass man schon 32zoll haben sollte sonst bringts wirklich nichts
32 Zoll und wie weit soll man da wegsitzen?
Ehrlich gesagt finde ich 24 Zoll schon sehr groß auf einem normalen Schreibtisch.
Meiner ist schon ca. 67cm tief.
Bei 32 Zoll unvorstellbar.
Das ist ja weder für die Augen gut, noch kann man dann richtig raufschauen.
Hab mal so einen 30/32 Zoll Monitor gesehen.
Das Ding war wirklich riesig.
Fast wie ein kleiner Fernseher.
Das wäre echt zu heftig.
Es sei denn man hat einen Schreibtisch, der mal eben 80-90cm in die Tiefe geht.
Wobei es selbst dann noch recht groß wirken dürfte.
Naja, ich denke aktuell bringt das eh nicht viel.
In 1-2 Jahren wird das Thema vermutlich aktueller.
Momentan ist es aber eher noch heiße Luft.
Ich für meinen Teil werde auf jeden Fall keinen Monitor wegen 4K kaufen.
Wäre einfach nicht meins ^^
Hustenbonbon
Lt. Junior Grade
- Registriert
- Aug. 2014
- Beiträge
- 427
GermanGhettos schrieb:Ehrlich gesagt finde ich 24 Zoll schon sehr groß auf einem normalen Schreibtisch.
Meiner ist schon ca. 67cm tief.
naja, 67 ist aber schon eher kinderschreibtischgröße...
wie arbeitest du auf sowas?
Ähnliche Themen
- Gesperrt
- Antworten
- 747
- Aufrufe
- 179.433