Test Radeon 300 im Test: Alle AMD-Grafikkarten von R7 360 bis R9 390X im Vergleich

Padawan schrieb:
@germanghettos

hallo :)

man kann sich natürlich alles schön reden, wenn man will...

1. der test sagt eindeutig, dass die 970 ca. 150 watt weniger schluckt unter last. es sind nicht "im worst case 100"
Nein, der Test sagt eindeutig, dass eine Gesamtsystemmessung durchgeführt wurde, und zwar im Spiel "Ryse: Son of Rome". Verschiedene Engines lasten GPUs unterschiedlich aus

http://www.techspot.com/review/1024-and-radeon-r9-fury-x/page11.html
deswegen macht es schon Sinn dies bei mehreren Spielen zu messen und dann einen Durchschnittswert zu bilden, um zumindest eine einigermaßen aussagekräfte Verbrauchsangabe zu machen.
Deine 150W sind also totaler Quatsch bzw nur deine Wunschvorstellung und entsprechen nicht der Realität, das hat Igor Wallossek (FormatC) schon mehrmals bestätigt, und er hat schon mehr Ahnung als alle Nvidia Fanboys von CB zusammen. 40-80W Differenz sind je nach Spiel immer drin, allerdings sind das Volllastszenarien. Wenn du 2 Stunden spielst, hast du keine 2 Stunden Vollast, außerdem gibt es FPS Limiter, wenn man die Temperatur- und Wärmeentwicklung seiner Karte reduzieren will.

Die geringere Leistungsaufnahme der GTX970 ist ein Argument, aber es zu einem kaufentscheidenden Argument zu machen, ist schon ziemlich albern.

Padawan schrieb:
3. klar muss das jeder selbst entscheiden, aber es ist natürlich einerseits das geld für den strom, aber andererseits gehts auch um ökologie wie z.b. atomkraftwerke usw, na gut, lassen wir das. ich finde jedenfalls unnötig strom zu verdampfen nicht in ordnung.
Ach ich bitte dich, das ist doch lächerlich...meinst du ernsthaft, weil du mit einer 970 ein paar Watt weniger verbraucht hast als mit einer 390, hast du was Gutes für die Umwelt getan? :D
Energieverschwendung sollte vermieden werden, aber dann kannst du viel mehr erreichen/einsparen, wenn du im Winter weniger heizst, dein Auto (wenn du denn eins hast) seltener fährst, deine Waschmaschine seltener benutzt, keinen Wäschetrockner verwendest usw usf.
Mit einer teureren GTX970 sparst du kein Geld. Wenn du exzessiv zockst, dann vielleicht ein paar € im Jahr.

Edit: interessant ist übrigens (neben der nach wie vor fehlenden R9 Fury im Lautstärke/Temp. Vergleich), dass die 390 Nitro hier auf CB fast 40W(!) mehr zieht als die 94°C heiße R9 290 im Referenzdesign, während diese Nitro in anderen Tests nur 10-15W mehr verbraucht.
 
Zuletzt bearbeitet:
Ich finde das ein wenig komisch mit dem Stromverbrauch. Den eine Grafikkarte taktet doch in drei Stufen. Und bei normalen IDLE geht doch alles in den niedrigsten Takt und sollte den geringsten Verbrauch verbrauchen. Da muss ich doch nichts per Hand am Treiber einstellen. Man sieht das doch im Treiber. Dann kommt hinzu das bei einen Video (Youtube) der Takt dann eh steigt in die nächste höhere Stufe. Würde er dabei unten bleiben, dann müsste sich ein Ruckeln bei 1080p spätest bemerkbar machen.
 
zeedy schrieb:
Ach ich bitte dich, das ist doch lächerlich...meinst du ernsthaft, weil du mit einer 970 ein paar Watt weniger verbraucht hast als mit einer 390, hast du was Gutes für die Umwelt getan? :D

So siehts aus.
Obendrein sollte man mal die 500MB Speichermüll in der GTX970 betrachten, die im Prinzip keine Verwendung finden.
Ressourcenverschwendung....Umweltschutz....*hust* :D


obz245 schrieb:
Ich finde das ein wenig komisch mit dem Stromverbrauch. Den eine Grafikkarte taktet doch in drei Stufen. Und bei normalen IDLE geht doch alles in den niedrigsten Takt und sollte den geringsten Verbrauch verbrauchen. Da muss ich doch nichts per Hand am Treiber einstellen. Man sieht das doch im Treiber. Dann kommt hinzu das bei einen Video (Youtube) der Takt dann eh steigt in die nächste höhere Stufe. Würde er dabei unten bleiben, dann müsste sich ein Ruckeln bei 1080p spätest bemerkbar machen.

Also, dass es geht, sieht man ja denke ich auf meinen Bildern eindeutig.
Das kann ich dir auch erklären.
Die Karte taktet sich zwar im Idle etwas runter, aber sie bleibt dynamisch im Takt.
Was genau da gedrosselt wird, habe ich bisher nicht gesehen.
Bis auf den Lüfter, der sich abschaltet.
Manuell kannst du die Karte aber weiter runtertakten, als sie es selbst machen würde und du kannst es erzwingen!
Vor allem kannst du den Takt manuell niedriger ansetzen, als es irgendwelche profile tun würden.

Fakt ist, dass mein System ohne manuelle Drosselung der Karte maximal 165W im Internet zieht und mit Drosselung maximal 105W.
Demnach funktioniert es.
Wie die Energiesparprofile angelegt sind, kann ich nicht genau sagen.
Für mich zählt aber, dass es so wirksam funktioniert und ich die Karte damit schonen kann und sich der Stromverbrauch drastisch reduziert.

Die Youtubevideos in Full HD haben trotz Drosselung nicht geruckelt und ich kann sogar GTA SA Online (SAMP) mit höchster Drosselung flüssig spielen!
Kein Scherz.
 
Sehr informativer Artikel. Das hilf dem Endkunden sehr, sich im Wust der möglichen Optionen zurecht zu finden. :schluck:

Kleine Anmerkung: Ich würde es sehr begrüßen, wenn in derartigen Test auch aktuelle Flagschiffe eine "vermeintlich" älteren Generation berücksichtigt werden - wie zum Beispiel die R9 295X2. Da es noch keine Fury X2 gibt stellt dieser Pixelbeschleuniger nun mal die Speerspitze aus AMDs Portfolio dar. :freaky:
 
@GermanGhettos

Grad deine Bilder zu den Verbrauchsmessung gesehen, irgendwas scheint bei dir nicht hinzuhauen wenn im Normal zustand dein System 160W im Idle zieht.
Die 99 Sind sogar recht hoch für nen Aktuelles System.

Mal deine Energie Einstellung gecheckt?

Komme mit mein System + 6 Lüfter + Wasserpumpe auf 76W im Idle ohne was herumstellen zu müssen an der GPU.
 
Zuletzt bearbeitet:
ich denke das Duell 970 vs 390 geht so lange an die letzte Karte bis Nvidia das doppelte an VRam verbaut. Ich würde jedem raten die zusätzlichen 4GB weit über die paar gesparten W zu stellen ;)
 
@GermanGhettos
Wie schon @KenshiHH schreibt, da stimmt etwas bei dir nicht. Eigentlich macht sich die Treibertaktung sich nur in Anwendungen bemerkbar. Aber nicht beim Desktop. Dafür ist die drei Stufen Taktung im Bios verantwortlich. Dadurch gibt es ja die vielen Threads im Netz, wie man per Grafik Bios Mod die Karte praktisch Strommäsig herunter senken kann, weil es über den Treiber nicht geht.

Schade das ich selbst kein Strommessgerät da habe. Weil das interessiert mich jetzt wirklich.
 
Zuletzt bearbeitet von einem Moderator:
160W zieht mein Sys mit 4 Monitoren inkl. System im Office. @GermanGhettos, Joa... für einen Monitor sind 160W schon viel.

Allerdings auch nur, wenn ich eben den Speicher Manuell auf 150Mhz begrenze, denn automatisch macht die AMD das nicht - Völlig unterschiedliche Monitore - funktioniert nur dann, wenn alle identisch wären. Ärgernis, aber geht ja fix das runter takten im Treiber.
 
@Kensh @obz, das ist bei mir völlig normal. :D

Ihr dürft nicht vergessen, dass ich einen Hexacore habe.
Der I7 3930k genehmigt sich etwas mehr, als euer Quad Core!
Zudem H80 Kühlung, >8< Lüfter, diverse USB Geräte, Creative X-Fi Fatal1ty Pro Soundkarte, Gehäuse Leuchtkathoden 2x 30cm!
Das kommt alles hin.
Hatte es schon mal durchgerechnet.

Anhand der Bilder sieht man aber, dass du den Stromverbrauch senken kannst.
Ist doch eigentlich völlig logisch!
Wenn du denk Speichertakt auf 150MHZ Runterprügelst und den GPU Takt ebenfalls bis ganz nach unten trittst,
dann verbraucht die Karte einfach nichts mehr. :D
Genau das ist bei mir auch der Fall.
Das ist auch logisch, weil die Karte alleine ja im Desktop Betrieb an die 60-70W verbraucht. (Gemäß Techpowerup)
Und somit sinkt mein Stromverbrauch fast auf 0.
Der Stromverbrauch wird also enorm verringert.

Das Strommessgerät funktioniert auf jeden Fall.
Habs mehrfach geprüft.
Auf jeden Fall kann man per Treiber und Leistungseinstellungen auf jeden Fall den Stromverbrauch regeln, was ja klar ist.
Je mehr die Karte leisten muss, desto mehr zieht sie.
 
@GermanGhettos,

den hab ich auch - nur eben 2x 290x und 4 Monitore.
Die zweite verpisst sich eh in Zero Core und die andere muss Manuell, aufgrund der unterschiedlichen Monitore bzw. der Speichertakt auf 150Mhz gestellt werden...
Monitore verbrauchen bei mir das meiste ( rund ~90W )

Ich mess das mittels Boardcomputer, geeichter im Haushalt. Alles was an der Steckdose hängt wird live gemessen. Naja und der Ventilator noch der müsste 40W ziehen oder sowas. - komme auf 198W Aktuell in dem Zimmer damit. Und vom Dach bzw. Sonne kommen gerade 700W rein... also alles im Lot ;-)
 
Zuletzt bearbeitet:
Dennoch sollte es nicht nötig sein dass du selbst die Karte stark untertakten musst, der niedrige verbrauch muss auch so niedrig sein und die Karte verbrennt keine 60-70w im Idle Desktop betrieb, das war evtl zu HD 4870 zeiten noch so :D
 
Der Speichertakt liegt bei 150Mhz und der GPU Takt bei 300MHz bei Desktop IDLE Betrieb zusätzlich bei geöffneten Browser bei mir. Das regelt das Grafik Bios. Würde ich in den Treiber gehen, dann kann ich per Hand diesen Wert nicht unterschreiten. Weiter liegt bei der Taktung eine gewisse Spannung. Geregelt von Grafik Bios. Sollten bei mir 0.95V sein. Wenn ich per Hand die Taktung festnageln würde, dann machst sich das nur bei Spielen bemerkbar. Der Desktop / Browser bleibt unberührt. Das sehe ich wenn ich ein Youtube Video starte. Den da geht der Takt in die nächste Stufe bei mir.

@GermanGhettos
Meine CPU ist ein XEON.
 
Zuletzt bearbeitet von einem Moderator:
@KenshiHH,
eben... ähnliches System wie er und hab mit mehr das selbe, das kann nicht sein ^^

@obz245,

ja ... Was möchtest du mir nun sagen? Zumindest, was du sagt ist bekannt... Dual Monitor und mehr, mit unterschiedlichen Monitoren, da takten die AMDs nicht von alleine den Speichertakt auf 150Mhz runter :-)
 
Zuletzt bearbeitet:
KenshiHH schrieb:
Dennoch sollte es nicht nötig sein dass du selbst die Karte stark untertakten musst, der niedrige verbrauch muss auch so niedrig sein und die Karte verbrennt keine 60-70w im Idle Desktop betrieb, das war evtl zu HD 4870 zeiten noch so :D

Nötig ist vieles nicht :D
Aber wenn man es kann, wieso nicht.
Das schont ja auch die Karte, wenn ich eh nicht spiele.
Mein System verbrennt einiges.
Wie gesagt, ich habe es durchgerechnet und das kommt auf jeden Fall hin!
Das Messgerät funzt 1a.
Habe hier eine Lampe wo 11W drauf steht.
Es zeigt exakt 11W an.
Habs auch mit einer 60W Lampe getestet.
Wieder exakt 60W angezeigt.

Wie gesagt Hexacore, Wakü, 8 Lüfter, Soundkarte und diverse USB Geräte (Usb Hub, Mikrofon, Drucker, Scanner, Controller, Maus, Tastatur....) das läppert sich!
Ich schau nachher noch mal ins Bios, ob ich irgendwelche Energiesparmodis ausgeschaltet habe, aber ich glaubs nicht.


Ist aber auch irrelevant.
Es geht ja um die GPU und die kann man auf jeden Fall per Treiber und Leistungssettings drosseln um Strom zu sparen :D
Versuchts einfach mal selbst!
Also die Leute mit einer AMD Karte.
 
@BlauX
Hatte dich bei meiner letzter Antwort benannt, weil du nur den Speichertakt hattest und nicht den GPU Takt.

Im ganzen macht sich der Verbrauch bei jedem anders, weil jede Karte / Modell im niedrigsten Takt eine andere Spannung anliegen hat. Und wie das bei jedem ist, dazu müsste jeder sein Grafikkarten Bios auslesen. Oder per GPU - Z anzeigen lassen.
 
Zuletzt bearbeitet von einem Moderator:
Schön das morgen wieder Montag ist und man endlich wieder arbeiten gehen darf. Erst tat einigen die Hitze nicht gut und jetzt ist die Kälte die die Menscheit durchdrehen lässt. Bleibt doch bitte beim Thema jungs ...
 
@GermanGhettos,

das dein Messgerät mist misst sagt ja keiner :)

Maus/Tastatur mal abgesehen die jeder haben sollte am PC *g* - Drucker/Scanner ... Standby?

Boards können auch mal so einiges mehr verbraten als andere und diverse Tests verfälschen.


@obz245,

den GPU Takt benannte ich explizit nicht, ist bekannt das der auf 300 runter taktet und je nach Auslastung in die entsprechenden States wechselt.
Mir ging es hier um den Memory Takt, der bleibt bei Multi-Monitor dauerhaft auf den max Takt. Da muss man Manuell nachhelfen.

Im Idle sind die Unterschiede zu den Karten nicht allzu dramatisch... Semi und voll eher, gerade zwischen Luft und Wasser - allein die Art der Kühlung machen einige Watt aus.
 
Zuletzt bearbeitet:
Ist ja auch völlig Wuppe, wie mein Stromverbrauch zustande kommt xD
Fakt ist, er kommt zustande, weil ich ebend viel am PC mache, eingebaut habe und benutze.

Um mal wieder zur Grafikkarte zurückzukommen.
Dass es ebend etwas gebracht hat, sieht man anhand der Bilder.
In meinen Augen auch ein völlig logischer Vorgang.
Wer ebend eine AMD Karte hat, kann es bei sich auch testen, auch da müsste der Stromverbrauch sinken.
Bei mir sinkt er ebend von 152-165w auf bis zu 99w und daher lohnt sich das zumindestens für mich ^^


Und um auf das Kernthema zurückzukommen.
Aus diesem Grund interessiert mich der "theoretische" Maximale Mehrverbrauch der R9 390 ggü. einer GTX970 nicht.
In der Praxis sieht man ja, dass es eh im Mittel nur 40-80W sind. Je nach Spiel.
An der Stelle muss dann halt jeder für sich entscheiden, was ihm wichtiger ist :D
 
@GermanGhettos,

ich fand es nur irritierend, wie du mit einem Monitor und fast dem selben System wie auch ich habe, nur eben 4 Monitore aber ähnlich viel verbrauchst wie ich, der die Karte bzw. den Memory Takt aufgrund Multi-Monitor ebenfalls Manuell runter taktet...

Was hastn fürn Brettchen :)?

Edit: Ah.. überlesen: Asus P9X79 - joa das schluckt ordentlich. Naja und der kleine Hexa der frisst auch wenn er darf... aber noch nix da was sich lohnt umzurüsten :-(
 
Zuletzt bearbeitet:
Mein PC hängt übrigens auch noch an einem 42 Zoll Fernseher.
Wie gesagt, ich hab das durchgerechnet.
Wir haben ja nicht wirklich die selbe Hardware. :D
Lüfter ist nicht gleich Lüfter und Soundkarte nicht gleich Soundkarte.
Bei mir kommt ebend vieles zusammen.
Ich liste es gerne noch mal komplett auf.

- I7 3930k
- Corsair H80 (Standardlüfter)
- 8GB Vengeance 1600MHZ
- Asus P9X79 (Das Ding zieht auch)
- R9 390 MSI
- Seagate SSHD
- LG GH Brenner
- Be Quiet 850W P10 Platinum
- Corsair 800D
- 4x Be Quiet Pure 120mm Lüfter, 2x 140mm Corsair Lüfter, 2x Corsair 120mm Lüfter @ H80
- 2x 30cm Revoltec Leuchtkathoden
- Creative X-Fi Fatal1ty Pro Soundkarte (Auch die zieht ein bisschen was)

Das ist mein PC.
Und dazu kommen dann die Angeschlossenen Geräte.
- Microlab H200 PC Speaker
- Zalman Mikrofon
- Tastatur (PS2 Tastatur) /Maus (USB)
- Samsung BX2450 Monitor
- LG 42 Zoll FHD Fernseher (HDMI mit Audioübertragung)
- Scanner
- Drucker
- Beheizbare USB Pantoffeln (Für den Winter :D Sind aktuell draußen)
- USB Hub
- PS2 Controller @ Adapter

Rechnet man all das zusammen, dann kommt der Verbrauch hin.
Das Strommessgerät denkt sich das auch nicht aus ^^
Wie gesagt, ich schau noch mal später im Bios, aber es wird am System und dem ganzen drum herum liegen.
Mich stört das halt nicht so sehr.

Aber es war schön zu sehen, dass man mit der Drosselung doch so viel Strom am Ende sparen kann.
Ich schau gleich nach und melde mich noch mal.

Der Stromverbrauch ist für mich jedenfalls kein Kaufkriterium.
Es sei denn die Karte würde 3x so viel wie die Konkurrenz verbrauchen. :daumen:
 
Zurück
Oben