Test Radeon R9 380X im Test: Tonga im Vollausbau von Asus und Sapphire

berkeley schrieb:
Das ist auch nicht ganz korrekt, ich zitiere mal aus CBs "Benchmarks & Methodik"

Es entspricht also nicht dem, was der PC nach 30 Min tatsächlich an Strom verbraucht hat sondern nur 30 Stichproben, die anschließend im Durchschnitt den Gesamtverbrauch schätzen. Dabei können natürlich auch 30 Stichproben mit zufälligem Peakwert gemessen werden. Entsprechend sind die Messungen nicht der direkte Verbrauch bei CB [...] doch bekannt ist, dass AMDs in höheren Auflösungen schneller performen, aber entsprechend mehr Strom aufnehmen.
Letztendlich ist der Test in jeder Hinsicht NUR geschätzt und spiegelt nicht annähernd den tatsächlichen Verbrauch aus der Steckdose in einem durchschnittlichem Szenario (z. B. 1080p für 380X).
Deshalb verweise ich auch für konkrete Testergebnisse immer auf TomsHardware, wo mit professionellem Equipment tatsächlich durchgehend gemessen wird.
Jain, es sind die besten kumulierten Werte. Aber eine Verbrausmessung macht man mit einem Verbauchsmesser :D

edit: Der obere Teil, JA, nur der letzte Satz, JAIN
 
En3rg1eR1egel schrieb:
Naja und?
eine stark übertaktete (und langsamere) 960 zieht ca. 110W aufwärts (bei 1500mhz eher 130W und trotzdem langsamer als eine 380)
eine übertaktete (und wesentlich schnellere) 380X zieht 190W (und die 380 OC eben 185W)

Oh Wunder und wo ist konkret der Unterschied von 100W? Wenn man eine Referenz 960 mit ca. 90W verbrauch vergleicht, sicher. Aber dann ist eine 380X OC mit 190W immerhin 25-30% schneller, was für mich völlig akzeptabel ist bei der extrem geringen Lautstärke und Temperatur.

Dass die 960 insgesamt natürlich immer effizienter ist, steht außer frage. Aber wenn ich auf der Autobahn mal 300 drücken möchte, leihe ich mir dafür nicht gerade einen VW Lupo 3L.
 
Zuletzt bearbeitet:
Viele haben habe auf eine günstige Mittelklasse GPU gehofft die spürbar mehr Leistung bringt als das was Sie schon seit Jahren im Rechner haben und hier wurden Sie enttäuscht. Das die Leute da verärgert sind ist doch verständlich.

Wenn NVidia jetzt vor Weihnachten eine günstige 4GB GTX 960Ti bringt, dann verliert AMD erneut Marktanteile weil Sie es nicht geschafft haben eine Attraktive 380X zu bringen. Es reicht einfach nicht mehr immer wieder alten Kram mit Neuem Namen zu bringen.
 
Wie hier auf Verbrauch und FPS geschworen wird ist nicht mehr normal.

Man stelle sich vor die CPU sendet einfach mal Spontant für einen kuzen Zeitraum Blanko-Frames, was sich in 10.000+ FPS für den Bruchteil einer Sekunde auswirkt. Fällt dies auch in die AVG Werte? Natürlich :freak:

Man stelle sich weiter vor ein Hersteller capt z.B. in Menüs die FPS - der andere nicht. Karte A dümpelt mit nem sauberen 60FPS Ladebalken vor sich her, Karte B mit 5000 FPS und gleich mal 100W mehr. Fällt dies auch in den AVG Verbrauch? Natürlich :freak:

Solche Aussagen sind unverlässlich und nichts aussagend, speziell in den höheren Performanceklassen.
Als würde man nur für Benchmarks optimieren ...

mfg,
Max
 
Ich wurde natürlich auch schon gefragt, was die Karte X an Stromkosten hätte, die ich Ihm verbaute. Er las nur 150W TPD, die Alte habe knapp 100W. Ich hab ihm geraten, die Kaffemaschine auszuschalten, wenn die Kanne leer ist. Das reicht um den Verbauch aufzufangen.
 
EchoeZ schrieb:
Ich wurde natürlich auch schon gefragt, was die Karte X an Stromkosten hätte, die ich Ihm verbaute. Er las nur 150W TPD, die Alte habe knapp 100W. Ich hab ihm geraten, die Kaffemaschine auszuschalten, wenn die Kanne leer ist. Das reicht um den Verbauch aufzufangen.

Oder eine 50W Glühbirne beim Zocken ausschalten bzw. 2 50W Birnen mit Energiesparbirnen auswechseln :freak:

mfg,
Max
 
EchoeZ schrieb:
Ich hab ihm geraten, die Kaffemaschine auszuschalten, wenn die Kanne leer ist. Das reicht um den Verbauch aufzufangen.

Hättest ihm mal raten sollen ne Thermoskanne zu verwenden. Dann kann er die Kaffeemaschine abschalten wenn der Kaffee fertig ist und nicht erst wenn die Kanne leer ist :D

Weiß gar nicht warum so gegen das Stromargument angegangen wird. Wenn ich von einem Gerät die Leistung X für 150W kriege und die gleiche Leistung von einem anderen Gerät für 100W, dann nehme ich fast schon selbstverständlich das mit 100W. Wozu mehr Energie aufwenden um das gleiche Ergebnis zu erhalten?
 
Zuletzt bearbeitet:
Es liest sich teilweise echt pseudowissenschaftlich. Als nächstes diskontiert einer die Zahlungen für die nächsten Jahre ab, der nächste kennt schon die strompreise der nächsten Jahre und ein anderer nimmt den Wirkungsgrad vom netzteil, der sich bei Last ändert, mit in die Rechnung.
Wenn der Preis der 380x sich bei 220-230€ einpedelt ist es eine schöne Karte für Leute die vorher eine 68** oder niedriger hatten. Warum die ganze Aufregung ;)
 
chilibow

Weil es bei der 960 GTX völlig okay war.
944x531.jpg


Da war es okay, dass NV die 960 GTX jene Gamer mit 660 GTX oder älter ansprechen wollte.

Die R9 380X richtet sich genau auf die gleiche Zielgruppe. Sprich Leute, die eine Karte in der Performance Klasse einer 660 GTX haben. Klar, für manche unverständlich dass es Leute geben soll, die so eine Karte besitzen und wenn, dann haben ja eh sowieso alle schon aufgerüstet.
 
max_1234 schrieb:
Oder eine 50W Glühbirne beim Zocken ausschalten bzw. 2 50W Birnen mit Energiesparbirnen auswechseln :freak:

Aber irgendwann sind alle Leuchtmittel ausgeschaltet und -getauscht. Und dann? ;)

Man muss nicht nur die zusätzlichen Stromkosten berechnen, sondern auch die Kosten für ein (evtl.) stärkeres Netzteil. Nimmt man die Lastwerte von der 960 (198 Watt) und der 380X (310 Watt) in Ryse: Son of Rome, sind das immerhin 112 Watt Differenz. Geht man von einer Schrittweite bei den Netzteilen von 100 Watt aus, muss mit der AMD das nächst größere Modell kaufen bzw. mit der Nvidia das nächst kleinere kaufen.

Zusätzlich könnte auch ein (weiterer) Gehäuselüfter von Nöten sein. Sind zwar nicht teuer, läppert sich aber alles.
 
paccoderpster schrieb:
Man muss nicht nur die zusätzlichen Stromkosten berechnen, sondern auch die Kosten für ein (evtl.) stärkeres Netzteil. Nimmt man die Lastwerte von der 960 (198 Watt) und der 380X (310 Watt) in Ryse: Son of Rome, sind das immerhin 112 Watt Differenz. Geht man von einer Schrittweite bei den Netzteilen von 100 Watt aus, muss mit der AMD das nächst größere Modell kaufen bzw. mit der Nvidia das nächst kleinere kaufen.

300W im Peak für das Gesamtsystem, mit einem 350W Netzteil bist du also problemlos dabei.
Und mit einem 200W Netzteil brauchst du keine Grafikkarte für > 200€.

paccoderpster schrieb:
Zusätzlich könnte auch ein (weiterer) Gehäuselüfter von Nöten sein. Sind zwar nicht teuer, läppert sich aber alles.
Richtig, dann ist ja gut dass die 380X Karten relativ kühl bleiben, siehe Test.

mfg,
Max
 
Weil man auch brav beim Netzteil spart und ein 250W-Modell verbaut hat, oder wie? :volllol:
Oder benutzt hier noch wer sein altes Netzteil vom Athlon XP mit Geforce 3 im Rechner mit aktueller Hardware?

Ein Netzteil kauft man ohnehin größer (und vernünftiger), da die Komponenten wie Elkos weniger altern, zumal das Netzteil die wichtigste Komponente im System ist (ohne geht es nicht und bei Defekt kann der Rest ebenfalls gehimmelt werden). Auch ist man dann für die zukunft besser gerüstet. Für ein System mit (zur jeweiligen Zeit) performanten Hardware rechne ich mit 500W bei einer CPU (z.B. bei mir PhenomII 965) und einer Radeon 7970 bzw. dem hier genannten "Nachfolger-Nachfolger". Wieso sollte man denn 20€ beim Netzteil sparen?
 
Zuletzt bearbeitet:
paccoderpster schrieb:
Man muss nicht nur die zusätzlichen Stromkosten berechnen, sondern auch die Kosten für ein (evtl.) stärkeres Netzteil.

Ja, erinnert mich an die Tatsache, wo jeder der Meinung war, dass man einen größeren und teureren Kühler benötigt, wenn man eine 125 watt tdp CPU hat. Trotzdem hatte jeder einen fetten Tower-Kühler.
Und was das Netzteil angeht, haben die meisten Leute ein überdimensioniertes Netzteil. Wieso ? Weil man viele lieber ein stärkeres nehmen, falls sie mal eine deutlich stärkere Karte oder eine zweite Karte nehmen. Somit stellt sich die Frage nicht mehr, speziell weil 100 Watt stärkere Netzteil meistens nur paar Euro teurer ist.

Beispiel ?
https://geizhals.at/cooler-master-g450m-450w-atx-2-31-rs-450-amaab1-a1010337.html?hloc=at

https://geizhals.at/cooler-master-g550m-550w-atx-2-31-rs-550-amaab1-a1010360.html?hloc=at

9 Euro :rolleyes: und das Netzteil wird im Forum oft empfohlen. Es gibt auch noch den anderen Fall, dass Modell mit weniger Watt ist teurer, kommt auch nicht so selten vor, aber das eher bei den Handler selbst.

Zusätzlich könnte auch ein (weiterer) Gehäuselüfter von Nöten sein. Sind zwar nicht teuer, läppert sich aber alles.
Bei der R9 390X eventuell, aber hier geht es um die R9 380X oder R9 380 und wenn es nach den Test geht, ist TDP beider Grafikkarten gleich. Wenn das Gehäuse nicht winzig ist, dann wird man kein extra Lüfter brauchen.
 
paccoderpster schrieb:
Aber irgendwann sind alle Leuchtmittel ausgeschaltet und -getauscht. Und dann? ;)

Man muss nicht nur die zusätzlichen Stromkosten berechnen, sondern auch die Kosten für ein (evtl.) stärkeres Netzteil. Nimmt man die Lastwerte von der 960 (198 Watt) und der 380X (310 Watt) in Ryse: Son of Rome, sind das immerhin 112 Watt Differenz. Geht man von einer Schrittweite bei den Netzteilen von 100 Watt aus, muss mit der AMD das nächst größere Modell kaufen bzw. mit der Nvidia das nächst kleinere kaufen.

Zusätzlich könnte auch ein (weiterer) Gehäuselüfter von Nöten sein. Sind zwar nicht teuer, läppert sich aber alles.
Naja, seien wir ehrlich. In dem CB Verbrauchsszenario wird die ASUS 380X (310W) auch sicher ca. 40-50% schneller arbeiten als die 960 Referenz (198W). Da ist es eben so, dass für höhere Leistungen eben stärkere Netzteile benötigt werden.

Ich meine, wenn du von einer GTX 760 (mit 250W Netzteil) auf eine 970 oder 980 upgradest, wirst du das Netzteil wohl kaum behalten. Sprich das ist ein allgemeines "Problem" und nicht das der 380X.
 
Wilhelm14 schrieb:

Interessant.
Für 280€ ist die GTX 970 natürlich interessant (330+€ ist einfach überzogen für den verkrüppelten Speicher).
Danke für die Info, da werd ich mir mal überlegen, ob ich da zugreife.

Vindoriel schrieb:
Oder benutzt hier noch wer sein altes Netzteil vom Athlon XP mit Geforce 3 im Rechner mit aktueller Hardware?

HAH!
Ich habe, als ich, vor einigen Jahren, von einem Core 2 Duo auf den Phenom II 955 umgestiegen bin, mein Netzteil beibehalten.
BRZ hat es nach ein paar Tagen gemacht und das Ding ist kaputt gewesen. lol
Das neue Netzteil werkelt aber auch jetzt noch mit HD 7870 und i5 4690 wunderbar.
 
Zuletzt bearbeitet:
Ich habe hier einen Haufen Spaß! Da werden Kaffeemaschinen ausgeschaltet und Glühbirnen raus gedreht nur um den Stromverbrauch der GPU zu rechtfertigen.
 
Dann les mal n bischen genauer, dann merkst du auch worauf ich hinaus wollte...
Diese ganzen gigantischen Verbrauchrechnungen hier sind vollkommen fürn Arsch. Sorry Mod
Bis auf wenige Ausnahmen sehe ich hier niemanden der wirklich in der Lage ist, Balken, Werte und Texte sinnvoll zu interpretieren.
 
Zuletzt bearbeitet:
tic-tac-toe-x-o schrieb:
Und auch Guru3D zeigt ganz erfreuliche Ergebnisse.

CB muss nach der Urlaubszeit sowieso noch nen Nachtest liefern.
Bringt bloss nix mehr.
Der erste Test bleibt im Hirn und viele schreien dumm rum,weil die gleich an 30% Mehrleistung gedacht haben.
Ihre 15% Mehrleistung wird Sie bieten.

Nachtests schaut nicht mal ein Bruchteil der Kommentaroren hier an. CB hätte den Test später bringen müssen.
Zudem manche Spieleergebnisse super merkwürdig erscheinen.
 
Ich rechne jetzt mal die Gesamtleistungsfähigkeit meines PCs aus:
Also ich hab da 3.6Giga und 8Giga und 3Giga und 1250Mega und 1000giga und 128Giga = 1142,725Giga/6Werte=190,4541666666667Giga

Jetzt seid ihr dran... :D

So in etwa arbeitet der Verstand einiger User hier bei ihren haarsträubenden Verbrauchsrechnungen.
 

Ähnliche Themen

Zurück
Oben