Test Radeon 300 im Test: Alle AMD-Grafikkarten von R7 360 bis R9 390X im Vergleich

GermanGhettos schrieb:
Wenn man keine Ahnung hat......warst du bei mir zu Hause?
Ich komme vom Fach und weiß, was ich mache.
Aber extra für dich der Beweis. ;)


Gedrosselt verbraucht meine GPU rund 60W weniger.
Damit zieht mein System ca. 99-105W.
Auf Standardtaktraten verbraucht das System ca. 152-165W.
Das bedeutet, dass die Karte damit mindestens 75% weniger Strom verbraucht und damit fast nicht mehr existent ist!
Somit lässt sich der Stromverbrauch außerhalb von Spielen enorm reduzieren.

@doctorzito:
Ich habe ein Corsair Obsidian 800D Gehäuse mit 8 Lüftern. :D

Echt krank was die R9 390 an Strom außerhalb von Spielen zieht, das ist echt nicht mehr feierlich was für ein heftiger Stromschlucker. Man könnte glatt meinen AMD baut diese Karten für den amerikanischen Markt. :freak:
 
@GermanGhettos
Ich jedenfalls betrachte sowohl die GTX970, als auch die R9 390 als gelungene Karten,
sind Sie auch! Da stimme ich Dir voll zu.
wobei die R9 390 aktuell einfach einen Ticken besser ist.
aber nicht wenn Du die langsamer machst um Strom zu sparen.
Fakt ist, dass mein System ohne manuelle Drosselung der Karte maximal 165W im Internet zieht und mit Drosselung maximal 105W.
Mein 3770K, Wakü, GTX970SSC usw. braucht OHNE drosseln 65W im Internet und meine CPU ist übertaktet.

Ich gebe gerne zu, das ich extrem bin, wenn es um zu hohen Stromverbrauch geht. Habe meine 20W Stromsparlampen gegen 9W LED getauscht. Mein Rechner braucht beim zocken 180W und ich habe deshalb ein schlechtes Gewissen. Damit will ich sagen, das ich da empfindlich bin und dementsprechend auch kaufe. Kann aber verstehen, das es Leute gibt denen es egal ist. Aber etwas für gutes Geld kaufen und dann drosseln um Strom zu sparen kommt selbst mir nicht in den Kopf.

@Krautmaster
Habe auch lange überlegt ob ich die 8GB brauche, aber da ich wirklich nur FullHD und Wargaming spiele bringen mir 5,5GB brach liegender RAM der eh nie genutzt wird überhaupt nichts. Die 8GB sind aus meiner Sicht auch nur ein Verkaufstrick, weil der Fury reichen ja auch 4GB.
 
D3Spieler schrieb:
Echt krank was die R9 390 an Strom außerhalb von Spielen zieht, das ist echt nicht mehr feierlich was für ein heftiger Stromschlucker. Man könnte glatt meinen AMD baut diese Karten für den amerikanischen Markt. :freak:

Ohne Worte. Da wird hier seitenweise und hundertfach erklärt, aber D3Spieler versteht null und rotzt seine geballte Unwissenheit trotzdem ins Forum... :freak:

Egal, es gibt wichtigeres im Leben als sich über sowas aufzuregen.:D
 
oldmanhunting schrieb:
@GermanGhettos
sind Sie auch! Da stimme ich Dir voll zu.
aber nicht wenn Du die langsamer machst um Strom zu sparen.
Mein 3770K, Wakü, GTX970SSC usw. braucht OHNE drosseln 65W im Internet und meine CPU ist übertaktet.

Schön wenn deine CPU Übertaktet ist. Der Prozessor von Gehttos ist aber in einer anderen Liga als die 3770.

Lächerlich wie hier jetzt einige Vergleiche heranziehen ohne die selbe Basis an Hardware zu haben. D3Spieler zieht ebenso die Aussage völlig aus den Konzept und hinterfragt nicht mal, wie denn eine NV Karte im Vergleich abschneidet.

https://www.computerbase.de/2015-08.../7/#diagramm-leistungsaufnahme-gesamtsystem_4
Im Test scheint die NV außerhalb von Gaming auch nicht gerade soviel effizienter zu sein, wobei zugegeben hier nicht wirklich Teillast getestet wird.
 
Warum nicht drosseln?
Ich mache es ja nicht im Spiel.
Es geht mir auch um die Haltbarkeit der Karte.
Stell dir vor du hast einen Ferrari mit Unmengen an Leistung, die du auch benutzt.
Wenn du in der Stadt aber eh nur 50 fahren darfst, dann ist es auch sinnlos, an der Ampel immer Vollgas zu geben,
um dann bei 50 wieder abzubremsen :D
Und im Desktopbetrieb kann die Karte auch nichts weiter machen, also wozu auf Referenztakt laufen lassen?
Wenn ich spiele, stelle ich wieder alles auf Default Settings.
Im Desktopbetrieb beim surfen im Internet bemerkt man bei keiner Karte einen Unterschied, also ist das ja egal.

Dein I7 3770k liegt bei TDP 77W.
Der I7 3930k liegt bei TDP 130W.
Und auch die 2011er Boards genehmigen sich mehr Strom, als die Mainstream Boards.
Zudem habe ich ja oben noch aufgelistet, was ich alles benutze.

Wenn ich das HDMI kabel vom Fernseher ziehe, Controller, USB Hub, Soundkarte, Leuchtkathoden und einige Lüfter,
dann komme ich sicherlich auf ähnliche Werte.
2011er Systeme sind halt auf pure Leistung getrimmt ^^

@Wolfsraabe :D
 
Mich würd ja mal interessieren was die ganzen Stromsparer mit ihren NV Karten für Gehäuse haben... denn wenn dann stromsparende Hardware stolz in sein nagelneues LianLi* steckt ist das irgendwie sinnfrei...


*) oder andere Voll-Alu Gehäuse
 
Du hast es nicht verstanden, das dein angebliches Drosseln, keine Drosslung ist im Desktopbetrieb. Überprüfe mal richtig (MSI Afterburner oder die Anzeigen im Treiber selbst), dann wirst du sehen, das der Takt bei Youtube oder anderen Videos sich anhebt. Keine Ahnung was dein PC für ein Hokus Pokus macht. Eine Senkung der Taktung / fest nageln ist es schon mal nicht.
 
Zuletzt bearbeitet von einem Moderator:
obz245 schrieb:
Du hast es nicht verstanden, das dein angebliches Drosseln, keine Drosslung ist im Desktopbetrieb. Überprüfe mal richtig (MSI Afterburner oder die Anzeigen im Treiber selbst), dann wirst du sehen, das der Takt bei Youtube oder anderen Videos sich anhebt. Keine Ahnung was dein PC für ein Hokus Pokus macht. Eine Senkung der Taktung / fest nageln ist es schon mal nicht.

Ich habe es nicht verstanden?
Sorry, aber du kannst doch nicht über das Internet beurteilen, wie meine Hardware läuft und ob mein PC wirklich so viel verbraucht, oder nicht xDD
Wenn ich dir das sage, kannst du mir das ruhig glauben.
Warum sollte ich dich anlügen?
Natürlich ist das ein Drosselung!
Wenn ich die Drosselung abschalte, taktet die Karte im Idle bei mir auch mit 300 bzw. 150MHZ.
Lasse ich ein Video laufen, steigt der Verbrauch ebend auf die genannten Werte an.
Der Speichertakt steigt beim Video schauen auch wieder auf volle 1500MHZ!
Drossle ich auf das Minimum, läuft das Video trotzdem flüssig und der Verbrauch sinkt knapp 60W.
Was soll ich sagen :D

Vielleicht hab ich das ein bisschen verwirrend rübergebracht.
Generell verbraucht mein PC an die 99W.
Egal ob mit, oder ohne Drosselung.
Ist die Drosselung aber nicht aktiv und ich fange an zu surfen, springt der Verbrauch z.B. beim Video schauen auf bis zu 165W.
Weil der Speichertakt wieder auf 1500MHZ rennt.
Drossle ich es manuell, springt der Takt nicht mehr nach oben und bleibt bei 150MHZ stehen! Trotz Video!
Und das Video hat dann trotzdem nicht geruckelt.
Somit springt der Verbrauch beim surfen nicht mehr nach oben.

Hätte ich vielleicht besser erklären können. :D
 
BlauX schrieb:
nur eben 2x 290x und 4 Monitore.

Ich hab hier ebenfalls 2 x 290 (ohne X) und 3 Monitore. Im Desktopbetrieb schaltet sich die zweite Karte komplett ab. Wenn ich jedoch den Firefox aufmache, dann springt (manchmal) die 2. Karte an. Sehr seltsam. Ich vermute, dass hier das Flash-Plugin die Last erzeugt. Manchmal taktet die 2. Karte dann mit 300/150 (Core/Mem), manchmal gar mit 1000/1260. Hängt auch davon ab, ob ich Win neu gestartet habe oder das System aus dem Schlafmodus kam. Hast Du ähnliches beobachtet?
Ergänzung ()

GermanGhettos schrieb:
Drossle ich es manuell, springt der Takt nicht mehr nach oben und bleibt bei 150MHZ stehen! Trotz Video!
Und das Video hat dann trotzdem nicht geruckelt.
Somit springt der Verbrauch beim surfen nicht mehr nach oben.

Hätte ich vielleicht besser erklären können. :D

Hast Du das mal mit verschiedenen Browsern (FF, IE, Chrome) probiert? Der IE scheint da bei mir keine Probleme mit dem Hochtakten zu machen... werden die Videos bei Dir per Flashplayer oder HTML5-Code abgespielt?
 
Jap, beim IE taktet die Karte auch auf den Referenztakt hoch.
Scheint beim Video schauen normal zu sein.
GPU Takt steigt dann auch auf 600-700mhz.
Wie gesagt, wenn ich manuell Drossle, dann bleibt der Takt dort, wo er ist.
Dann kann der Takt nämlich nicht mehr dynamisch angepasst werden und dann bleibt der Stromverbrauch konstant niedrig bei 99W.
Es geht schnell, es ist einfach und es ist effektiv zum Strom sparen :D
Ich werde es weiterhin so machen und da ich täglich maximal 2-3 Stunden spiele, juckt mich der geringe Mehrverbrauch der R9 390 auch nicht ^^
 
Da die R9 390 (abgesehen von der 290 und auch abgesehen von der GTX 970) ein gutes Preis-Leistungsverhältnis hat, würde ich gern wissen, ob mir jemand ein Überblick über sämtliche Partnerkarten der 390 (ohne X!) nennen kann? Es gibt ja schließlich nicht nur Sapphire, die ja überall genannt wird. ;)
Es geht mir mehr um Verarbeitungsqualität, die Lautheit und Effektivität des Kühlers und sowas, als darum, ob ein Anbieter ein paar MHz mehr rausquetscht. Kann mir da jemand einen Hinweis geben?
 
Zuletzt bearbeitet:
GermanGhettos schrieb:
Nötig ist vieles nicht :D
Aber wenn man es kann, wieso nicht.
Das schont ja auch die Karte, wenn ich eh nicht spiele.
Mein System verbrennt einiges.
Wie gesagt, ich habe es durchgerechnet und das kommt auf jeden Fall hin!
Das Messgerät funzt 1a.
Habe hier eine Lampe wo 11W drauf steht.
Es zeigt exakt 11W an.
Habs auch mit einer 60W Lampe getestet.
Wieder exakt 60W angezeigt.

Wie gesagt Hexacore, Wakü, 8 Lüfter, Soundkarte und diverse USB Geräte (Usb Hub, Mikrofon, Drucker, Scanner, Controller, Maus, Tastatur....) das läppert sich!
Ich schau nachher noch mal ins Bios, ob ich irgendwelche Energiesparmodis ausgeschaltet habe, aber ich glaubs nicht.


Ist aber auch irrelevant.
Es geht ja um die GPU und die kann man auf jeden Fall per Treiber und Leistungssettings drosseln um Strom zu sparen :D
Versuchts einfach mal selbst!
Also die Leute mit einer AMD Karte.

1. Du sagtest Du bist vom Fach, dann solltest Du wissen, dass du die Last eines Leuchtmittels nicht mit der Last eines komplexen Verbrauchers vergleichen kannst! Ich sag nur Blindleistung, Wirkleistung und Phasenverschiebung.

2. An deiner Einsparung kann etwas nicht stimmen, da du mehr einsparst, als die Grafikkarte im IDLE verbaucht. http://www.3dcenter.org/artikel/stromverbrauch-aktueller-und-vergangener-grafikkarten

3. Wenn Du schon Leistung im Idle einsparen willst, kann ich dir nur empfehlen das Bios deiner GPU anzupassen, da geht mehr als das CCC zulässt.




EDIT:

Sagen wir doch einfach, die 970 und die 390 sind beides gute Karten im P/L Sektor. Beide haben ihre Stärken und Schwächen und befinden sich beim Rendern von Spielen durchschnittlich auf Augenhöhe. Jeder potentielle Kunde kann sich ausssuchen, welche der beiden GPUs er samt Stärken und Schwächen passender für sich findet.

Ach ja, und GermanGhettos hat einen PC der im Idle überdurchschnittlich viel verbraucht. ;)
 
Zuletzt bearbeitet:
Wolfsrabe schrieb:
Da die R9 390 (abgesehen von der 290 und auch abgesehen von der GTX 970) ein gutes Preis-Leistungsverhältnis hat, würde ich gern wissen, ob mir jemand ein Überblick über sämtliche Partnerkarten der 390 (ohne X!) nennen kann? Es gibt ja schließlich nicht nur Sapphire, die ja überall genannt wird. ;)
Es geht mir mehr um Verarbeitungsqualität, die Lautheit und Effektivität des Kühlers und sowas, als darum, ob ein Anbieter ein paar MHz mehr rausquetscht. Kann mir da jemand einen Hinweis geben?

Die MSI R9 390 Gaming ist glaube ich so ziemlich das beste Modell, was du kriegen kannst.
MSI wirbt ja mit "Military Class" komponenten.
Hört sich natürlich überspitzt an, aber die Bauteile sollen ebend mehr aushalten, als die normalen.
Zudem taktet die Karte am höchsten, hat einen wirklich leisen Kühler und du hast 3 Jahre Garantie.
Dafür kostet die Karte etwas mehr, als die anderen.
Die MSI R9 390 ist sogar deutlich leiser, als meine alte HD7950!
War sehr stark überrascht, dass man die Karte aus dem Gehäuse heraus kaum wahrnehmen kann.
Man hört die Lüfter gar nicht.
Bei meiner HD7950 hat man das übliche mechanische Laufgeräusch der Lüfter gehört...bwwwwwwwwww. :D
Bei der MSI hört man gar nichts, außer ein sanftes rauschen.
Bin entzückt von dem Modell.
Die HIS R9 390 soll auch noch sehr gut sein.
Aber dafür nur 2 Jahre Gewährleistung und das blaue PCB finde ich nicht so schön.
Aber ruhig ist sie ebenfalls.

Die Finger lassen würde ich von XFX und Gigabyte.
Die Verarbeitung von Gigabyte finde ich sehr schlecht.
Hab noch Fotos einer HD7790 Grafikkarte von Gigabyte.
Habe noch nie ein so schlampig verarbeitetes PCB gesehen und die Lüfter haben gerattert.
Dann habe ich die Karte nach 4 Wochen wiederbekommen und Gigabyte behauptete "Es wurde kein Fehler gefunden".
Nachdem die Karte noch mal 4 Wochen weg war, sagte Gigabyte "Karte wurde getauscht / Instandgesetzt".
Es wurde gar nichts an der Karte gemacht und sie haben mich angelogen.
Gleicher Kühler, gleiches Problem.
Seitdem kaufe ich nie wieder Gigabyte ein.
(Achtung liebe Gigabyte Fan's, das ist MEINE Erfahrung, also bitte leben lassen, danke)

Und bei XFX sollen die Lüfter immer etwas lauter sein.
Zumindestens in den Tests.







@vybz: Selten so einen Unsinn gelesen.
Soll ich aufzählen, wo ich das Messgerät noch überall getestet habe?
Fernseher, Radio, PC, Kühlschrank....:rolleyes:
Von einem Vergleich zwischen Leuchtmittel und anderen Geräten war auch nie die Rede oder?
Es sollte verdeutlichen, dass das Messgerät funktioniert und das tut es auch.

Zu 2. bitte erst lesen, dann posten.
Siehe #209

Zu 3. Unsinn, man fummelt wegen sowas nicht am GPU Bios rum und das ist auch absolut nicht notwendig.
Das lohnt sich nicht und birgt mehr Risiken, als dass es etwas nutzt.
Die Einsparung über Overdrive reicht vollkommen.
 
Zuletzt bearbeitet:
Ich möcht mir ja im Herbst auch mal wieder eine neue AMD-Karte zulegen. Ich schwanke zwischen der 380 4GB oder doch lieber die 390 mit 8GB. Bin aber der Meinung, das der FX-6300 die 390 ausbremst (läuft auf 4,3 Ghz siehe Sig). Was meint ihr dazu?
 
Zuletzt bearbeitet:
Mosla schrieb:
Ich möcht mir ja im Herbst auch mal wieder einen neue AMD-Karte zulegen. Ich schwanke zwischen der 380 4GB oder doch lieber die 390 mit 8GB. Bin aber der Meinung, das der FX-6300 die 390 ausbremst (läuft auf 4,3 Ghz siehe Sig). Was meint ihr dazu?

Naja die 380 ist nicht wirklich flott.
Liegt unter R9 280x Niveau.
Die 4GB Version ist praktisch genauso teuer, wie die R9 280x.
Da würde ich eher noch zur R9 280x greifen.
Es sei denn, dir sind die 4GB wichtiger, dann kannst du natürlich auch zur R9 380 greifen und mit OC easy auf das Leistungsniveau der R9 280x kommen.
Der Unterschied ist nicht so groß.

Welcher Prozessor was bremst ist immer schwierig zu sagen.
Kommt auch drauf an, ob man übertaktet und wie viel.
Die AMD CPU's sind aktuell ja nicht wirklich gut.
Du würdest es merken, wenn du deine CPU übertaktest und dein GPU Wert im Benchmark anschließend höher ist, als vorher.
Das Problem hatte ich damals mit einem Intel E8400 und einer HD4870x2 :D
Durch OC des Dual Cores stieg die GPU Leistung.
Mit einem FX6300 würde ich auch nicht unbedingt eine R9 390 betreiben wollen.
 
Werden in Assetto Corsa hier auf Cb weiterhin die Reflexionen auf Minium reduziert, wobei auf echtem Ultra Nvidia dann hinter AMD zurückfällt? In vorangegangenen Tests wurde so verfahren, was absolut irreführend ist, da man sonst in jedem game bestimmte Regler bemühen müsste, die einen Gpu Hersteller maßgeblich benachteiligen.
 
GermanGhettos schrieb:
@vybz: Selten so einen Unsinn gelesen.
Soll ich aufzählen, wo ich das Messgerät noch überall getestet habe?
Fernseher, Radio, PC, Kühlschrank....:rolleyes:
Von einem Vergleich zwischen Leuchtmittel und anderen Geräten war auch nie die Rede oder?
Es sollte verdeutlichen, dass das Messgerät funktioniert und das tut es auch.
Doch, Du hast behauptet anhand von Leuchtmitteln bestimmt zu haben, dass dein Messgerät korrekt arbeitet.


GermanGhettos schrieb:
Zu 2. bitte erst lesen, dann posten.
Siehe #209
In meinem Zitat habe ich mich aber auf einen früheren Post von dir bezogen, wenn Du diesen später selbst ergänzen musst spricht das doch schon dafür, dass dein vorheriger Post nicht so ganz runde war.


GermanGhettos schrieb:
Zu 3. Unsinn, man fummelt wegen sowas nicht am GPU Bios rum und das ist auch absolut nicht notwendig.
Das lohnt sich nicht und birgt mehr Risiken, als dass es etwas nutzt.
Die Einsparung über Overdrive reicht vollkommen.
[/QUOTE]
So so, Du weisst also für was "man" im Bios rumfummelt, welche Riskien und welchen Nutzen es bringt und was notwendig ist und was nicht. Starke Worte aber leider können diese wenn überhaupt nur für dich gelten, nicht für die Allgemeinheit der Gamer. Die möglichen Einsparungen kannst du nicht einschätzen, ohne es verglichen zu haben.

Aber egal, Du machst das schon :evillol:
 
GermanGhettos schrieb:
Oha, hab recht vielen Dank für die äußerst detaillierte Übersicht! :schluck:

Meine momentane GTX 570 ist ja auch von MSI, sie soll aber ersetzt werden durch eine Zwischenlösung, bis die 28nm-Karten abgelöst sind (ich gucke da Richtung 2017).

Das einzige was ich zur GTX 570 von MSI erwähnen sollte: Die Karte war anfangs wirklich unhörbar. Mittlerweile ist sie aber doch recht hörbar geworden. Und das liegt nicht etwa am Dreck, denn mein Gehäuse (siehe Sig.) hat Staubfilter und innen drin ist auch kein Staub zu sehen. Es liegt aber wahrscheinlich an den Lüfterlagern. Das ist aber, denke ich, völlig normal, oder? Ich meine immerhin ist der Rechner von 2011 und damit 4 Jahre alt. Keine Ahnung, ob man das beispielsweise "reparieren" kann (bspw. und sie weiterzuverkaufen, wie ich es eigentlich vorhabe.;) )?
 
GermanGhettos schrieb:
Mit einem FX6300 würde ich auch nicht unbedingt eine R9 390 betreiben wollen.

Die Option für einen neuen DDR4 Intel inklusive passendem Mainboard schwebt mir ja in 2016 eh schon vor :D
 
@vybz Da gehe ich nicht weiter drauf ein, da diese Diskussion keinen Zweck hat ;)

Wolfsrabe schrieb:
Oha, hab recht vielen Dank für die äußerst detaillierte Übersicht! :schluck:

Meine momentane GTX 570 ist ja auch von MSI, sie soll aber ersetzt werden durch eine Zwischenlösung, bis die 28nm-Karten abgelöst sind (ich gucke da Richtung 2017).

Das einzige was ich zur GTX 570 von MSI erwähnen sollte: Die Karte war anfangs wirklich unhörbar. Mittlerweile ist sie aber doch recht hörbar geworden. Und das liegt nicht etwa am Dreck, denn mein Gehäuse (siehe Sig.) hat Staubfilter und innen drin ist auch kein Staub zu sehen. Es liegt aber wahrscheinlich an den Lüfterlagern. Das ist aber, denke ich, völlig normal, oder? Ich meine immerhin ist der Rechner von 2011 und damit 4 Jahre alt. Keine Ahnung, ob man das beispielsweise "reparieren" kann (bspw. und sie weiterzuverkaufen, wie ich es eigentlich vorhabe.;) )?

Gerne :D
Die 14/16nm Karten sollten ja 2016 schon kommen.
Die R9 390 ist für mich auch die Übergangslösung für Fallout 4 usw. ^^
Staubfilter hab ich auch.
Diese High End Filter von Demciflex, die gehen auch gut.
Langzeiterfahrungen habe ich bei AMD nur mit Gainward, Sapphire und Club3D.
Die MSI ist bei mir Neuland, aber die aktuellen MSI Gaming Karten sollen sich ja von den alten Modellen unterscheiden.
Bzgl. Lüfterlager hast du natürlich die Möglichkeit, Ersatz zu kaufen.
Bei Ebay findet man immer wieder Ersatzlüfter.
Die kann man natürlich recht einfach austauschen :)
Die Lüfter halten leider meistens nicht so lange.
Irgendwann fangen sie an zu schleifen, oder zu rattern. (Ob das mal nicht so gewollt ist *grins*)

Bis jetzt bin ich auf jeden Fall sehr von der MSI angetan und man kann auch sehen, dass dieses Modell ständig vergriffen ist.
Alleine bei Mindfactory musste mal auf die R9 390 Modelle klicken und dann siehst du bei der Übersicht, wie oft welche Karte verkauft wurde.
Die MSI Gaming lässt die anderen Karten alt aussehen.
Ausnahme Sapphire.
Da ist es einfach der gute Ruf, aber ich mag keine Karten mit 3 Lüftern.
Finde irgendwie, dass die lauter sind und je mehr Lüfter, desto größer das Risiko, dass mal einer kaputt geht.
Daher mag ich eher Kühler mit 2 Lüftern und da macht sich die MSI hervorragend.
Ich muss sagen, dass sie sich auch sehr wertig anfühlt.
 
Zurück
Oben