Test Radeon R9 380X im Test: Tonga im Vollausbau von Asus und Sapphire

En3rg1eR1egel schrieb:
90w diff.
90*4*365=131400w/h = 131kw/h pro jahr
131*0,275 (sry aber 17,5cent? das sind preise aus 2003...) = 36,1356€
Rechenweg stimmt ja aber die Differenz sehe ich als zu hoch an, ist ja definitiv vom Spiel abhängig, aber um die Diskussion nicht ausarten zu lassen akzeptieren wir auch diese Zahl. Aber jeden Tag im Jahr fucking 4h auf Volllast?! Und dann rechnest Du das auch noch auf 3 Jahre hoch. Jetzt mal im Ernst, wer 3 Jahre lange jeden Tag 4h Hardcore spielt hat definitiv andere Problem als 100€ höhere Stromkosten und sollte sich vielleicht auch mal Urlaub gönnen.

Du nimmst also einen total praxisrelevante Fall (jeden Tag? 3y lang? fucking 4h?) und argumentierst dann damit, daß die 380x Dank der Stromkosten total zu teuer ist. Omg... :freak:
 
Leute, bei keinem Test, egal auf welcher Seite ist jemals eine Verbrauchsmessung durchgeführt worden. Zumindest nicht bei den zahlreichen Tests die ich in den letzten 15 Jahren gelesen habe.
Es werden MAXIMALE und MINIMALE Leistungswerte gemessen. Diese kumuliert werden als AVERAGE deklariert.
Dummerweise schreiben alle Tester immer "verbraucht.. im Idle, verbraucht maximal..etc" und ihr achso klugen Köpfe rechtnet euch auch noch den Strombedarf aus :freak:

100W mehr bei Peaklast heist nix anderes das das Gehäuse im Peak 100W mehr Wärme abführen muss, aber noch lange nicht das die Karte nach 10 Stunden 1kWh mehr verbraucht hat. Das man für eine Mittelklassekarte etwas mehr bezahlt, weil diese mehr Leistet ist ok. Das diese im maximalen Lastfall 100W mehr Abwärme produziert, DAS IST SCHLIMM!

edit: Natürlich spiegelt sich das in höheren Kosten wieder, keine Frage. Aber nicht so wie das immer dargestellt wird.
Etwa das selbe habe ich schon zur GTX480 vs. HD5870 geschrieben, als die 480 maximal 150W mehr hatte. Und das ähnlich wie hier, bei gerinfügig mehr Fps


Ach ja..Pipip, das Du bei solchen Rechnungen mitmachst, find ich auch schlimm :heul:

@Mextli DANKE :schluck:
 
Zuletzt bearbeitet:
Mextli schrieb:
Aber jeden Tag im Jahr fucking 4h auf Volllast?
lies doch mal den thread ganz und vollständig...

1. es ist nicht vollast
2. kommen weder die 4h, noch die 365 tage von mir

EchoeZ schrieb:
100W mehr bei Peaklast heist nix anderes das das Gehäuse im Peak 100W mehr Wärme abführen muss
falsch!
ist es nicht peaklast, sondern average gemessen
und zwar direkter verbrauch, 100w mehr aus der leitung sind 100w mehr auf der abrechnung.
und zwar direkt 1:1
 
Zuletzt bearbeitet:
En3rg1eR1egel schrieb:
und das ist ja so ziemlich dasselbe was ich gerechnet haben.
ich habe zwar nur 90w und 0,275€
das sind dann 36€ bzw. 108€ auf 3 jahre und gerundet halt die 100€.

https://www.computerbase.de/forum/t...us-und-sapphire.1533032/page-13#post-18131594

wobei das nicht vollauslasung ist, sondern nur gaminglast


natürlich, auf 3 jahre, die durchschnittliche laufzeit einer grafikkarte.
denn nur so kann man es auf den preis rechnen.


alle werte sind gaming last


es geht ja nicht um den stromverbrauch an sich.
sondern um die differenz bzw. diskrepanz zwischen tonga und maxwell

das ist wie mit einem handyvertrag
beide kosten 200€ für das neue iphone/samsung/windows whatever.
nur ist der eine vertrag monatlich 4,16€ teurer.
das klingt erstmal nicht viel,
ist dann auf eine laufzeit von 2 jahren bei einem normalen vertrag 100€
somit ist der eine vertrag p/l einfach nur käse.
Kannst Du biite aufhören... ich lieg schon in der Fötusstellung um nicht vor lachen zu zerbrechen..
 
Zuletzt bearbeitet:
Ich habe zu Release mir damals eine HD5850 für 250€ ergattert. Sie war damals schneller als JEDE ! Nvidia Karte und nach der 5870 die zweitschnellste.

Ich finde es eine Unverschämheit, dass von beiden Seiten für eine neue Karte preislich immer nur oben aufgesetzt wird. In 100 Euro Schritten...

HD6970 350€
HD7970 400€
R9 290X 450€ = R9 390 (liebe CB ich warte immer noch auf die angekündigte Erweiterung eures Tests zu 300er Serie)
Fury 600€

Nvidia machts ja nicht anders. Nächstes Jahr zahlen wir 700€. Und für ne Low End Karte Schlappe 300. Siehe 970 ;)
 
HM...
Erwartete Werte.
Wobei ich nicht wissen will, wie viel mehr eine 960 entfernt vom sweetspot zieht.
Die 380 und die 960 sind ja schon nah aneinander
Für eine 960oc wurde hier auch schon mal ermittelt, dass diese schlagartig deutlich mehr frisst, sobald man nur gering an der taktschraube dreht und wenn man mehr dreht gehen die Spannungen mit durch die decke.
Bei AMD muss man hinzufügen, dass der chip im Endeffekt 2 jahre alt ist und die effizeinz unter gamelast nicht besonders war.
Zudem hat Maxwell nahezu komplett auf dualprec verzichtet. Das drückt den Verbrauch doch erheblich.

Alles in allem hänge ich schon wieder vor der Wahl 380, x, 390 oder 960.
Die 960 is mir zu langsam und mit 230€ für die Leistung zu teuer, die 380 is der sweetspot ab die 380 nitro auch wieder nah an den 200€ dran. Die x ist fast perfekt, aber im pl noch unten durch und die 390 is der pl Meister aber über 100€ über dem, was ich zählen will....
Schöner mist is das.
Naja ich wart mal noch n paar Tage oder 2 Wochen und dann pendeln sich die Preise neu ein
 
Heist für mich dan die R9 380 oder die R9 390.
 
Kriegt ihr euch auch mal wieder ein? Es gibt einen Kritikpunkt, der Stormverbrauch ist höher als 960. Wir habens gerafft. Das Verhältnis zu Performance pro Watt ist an sich nicht schlecht, aber eben immer noch nicht besser als 960.

Und trotzdem ist das wieder nur eine Frage der Perspektive: in Deutschland sind die Stromkosten generell viel zu hoch, auch wenn dem 0815Bürger was anderes vorgegaukelt wird. Stromkosten sind relativ, erwartet doch nicht, daß ein Hersteller speziell Rücksicht auf ein Land nimmt, in welchem die Stromkosten höher als der allgemeine Durchschnitt sind.
http://www.kwh-preis.de/strompreis-dossier-teil-5-strompreise-im-europaeischen-vergleich

Vor allem aber braucht man hier nicht stundenlang auf seinem Recht beharren, wenn der Streitpunkt relativ unwichtig ist.
Wer kauft eine Grafikkarte deswegen kauft, der kauft sich keine 200-250€ Karte sondern etwas kleines unscheinbares stromsparendes.

Die 380X ist vorrangig nunmal eine SPIELEgrafikkarte - willst Performance, musste zahlen.
 
Zuletzt bearbeitet:
En3rg1eR1egel schrieb:
lies doch mal den thread ganz und vollständig...
1. es ist nicht vollast
Für mich ist Gaminglast nunmal Vollast (wer läßt bitte sehr Stundenlang jeden Tag im Jahr Furmark laufen?!).
Im normalen Desktop Betrieb liegt die 380 je nach Webseite/Messung 4-7Watt über einer 960 und sogar im Zwei Monitor Betrieb nur noch 10-12 Watt drüber. Das sind echte Peanuts. Nur unter Gaminglast genehmigt sie sich nen größeren Schluck aus der Pulle, aber auch der relativiert sich.
Und ja, es kommen sicherlich je nach normalen Nutzungsprofil 15-20€ jährlich mehr raus, so what? Hat doch vor Maxwell auch keinen gekümmert und auf einmal ist der Verbrauch der heilige Gral? Danke EEG!
 
Zuletzt bearbeitet:
Traumzauberbaum schrieb:
a) In 3 Minuten den ganzen Test gelesen? WoW. I don't think so.

b) AMD Karten in FHD nur testen? Sehr fair. Was mich zu c) bringt...

c) Was ist bloß los mit CB -> Ich habe diese Page zur Hauptanlaufstelle für HW-Infos erkoren, weil CB einfach und trotzdem sachlich korrekt komplexe Strukturen erklären konnte. Es ging nie um "wir müssen erster sein". Es ging immer um Qualität und Korrektheit, statt um Quantität u. Releasedatum. Ich bin von diesem "Test" SCHWER enttäuscht. (nein, ich möchte jetzt nicht auf dem CB Pro Kram rum haten. Das ist ein anderes Thema)

Hast du dir den Test überhaupt durchgelesen? Steht doch gleich am Anfang, dass der Test urlaubsbedingt so kurz ist und Benchmarks in höheren Auflösungen noch nachgereicht werden! :rolleyes:
 
Hito schrieb:
Stromkosten sind relativ, erwartet doch nicht, daß ein Hersteller speziell Rücksicht auf ein Land nimmt, in welchem die Stromkosten höher als der allgemeine Durchschnitt sind.

Tut der Hersteller des Chips in der nächsten Generation aber. Es sei denn es ist gar kein deutsches Problem und kein Kostenproblem, sondern einfach ein allgemeines Vernunftproblem.

Einfach stumpf immer mehr Strom reinballern, damit man auf der letzten Rille möglichst billig möglichst viel Leistung rausholen kann, ist in vielerlei Hinsicht einfach nur dumm.
 
Zuletzt bearbeitet:
EchoeZ schrieb:
Ach ja..Pipip, das Du bei solchen Rechnungen mitmachst, find ich auch schlimm :heul:

Klar äußere ich mich. Es wird hier immer verallgemeinert. Beobachte das doch. Diese Disskussion kommt von den High-End Karten und es wird versucht das auf diese Klasse zu übertragen, obwohl wir hier von komplett andere TDP-Klassen sprechen und diese Karten komplett andere Wärme abstrahlen.

Aber das alles ist nichts neues, Watt war schon immer ein tolles Werbeargument. Die Rechnung übrigens zeigt auf, dass es für mich persönlich die Mehrkosten nicht auffallen, da ensteht beim Kochen oder Duschen (je nach dem Gerät, Länge und wie lange man Duscht) wohl mehr kosten. Man bedenke dass wir vor all zu langer Zeit auch noch Glühlampen haben und viele auch diese lieber hatten.

Und wenn es um 80 Watt geht, ist es das selbe, als würde neben dir eine Person sitzen. Das bedeutet wohl, dass die Leute hier alle gern alleine im Keller sitzen und Besucher verabscheuen, weil diese nämlich den Raum aufheizten, nur um es mal auf eine lustige Art und Weise zu beschreiben.

Was für mich allgemein interessant wäre, eine R9 380X um 230 Euro einfach mal Undervolten und die Performance an die 960 GTX anzupassen.Solche Tests würde ich gerne sehen.

PS: Ich habe schon erwähnt, jene Games die hier gerne für Last Szenarien genützt werden, sind meist Games die eine Grafikkarte voll auslasten und eher die Ausnahme sind. Jene Seiten die nicht solche Games gewählt haben, ist der Verbrauch der AMD Karten wesentlich besser. Siehe BF4 als Stresstest, da ist die Karte laut "Gamestar" sogar weniger als die R9 285 zieht.

So ein Test wäre durchaus interessant, was die Karten pro Spiel so verbrauchen. Sowas habe ich mal in der PCGH gelesen, da wurde aber leider nur die R9 290 und die 970 GTX getestet, welche leider eher ungleiche Karten sind.

Hito schrieb:
Kriegt ihr euch auch mal wieder ein? Es gibt einen Kritikpunkt, der Stormverbrauch ist höher als 960. Wir habens gerafft. Das Verhältnis zu Performance pro Watt ist an sich nicht schlecht, aber eben immer noch nicht besser als 960.

Das ist aber eben Spiele abhängig. In der Mehrheit wird die 960 GTX die bessere Performance/Watt haben, es gibt aber auch den umgekehrten Fall und das Matt Beispiel. Es gibt durchaus eine Test-Seite, die FPS/Watt mehrere Spiele misst. Hier werden meist die Extrem-Beispiele gepostet, weil hier eben gerne viele mit dem Worst-Case rechnen, es aber auch vergessen, dass es worst Case ist. Es sind eben nicht immer die fixen 70 Euro und keiner spielt immer genau beispiel 4h am Tag. Wie ich schon beschrieb, die meiste Zeit spiele ich gar nichts, dann vllt 1 Stunde vllt maximal 2 und am Wochenende, wenn nichts vor, dann vllt 2h+. Da wird selbst der Worst Case im Jahr nicht viel ausmachen.
Somit bleibe ich bei meiner Aussage, besonders bei der Mittelklasse, ist es für die meisten höchstwahrscheinlich kein Argument, wenn sie tagsüber einer Beschäftigung nachgehen. In meinen Fall ist es eben belanglos und die Grafikkarte schafft es nicht den Raum mehr als eine Person aufzuheizen, außer man sitzt im kleinen Kämmerlein.

Und ja, es ist ein Kriterium und einen Punkt, der den Unterschied ausmachen kann. Aber es wird hier im Forum gern als K.O Kriterium ausgelegt und sehr gerne stark verzerrt, was ja für das Forum hier nicht unüblich ist. Siehe HDMI 2.0, war der große Punkt der High-End Karten und betroffen hat es wahrscheinlich die wenigsten.
 
Zuletzt bearbeitet:
pipip schrieb:
Das ist aber eben Spieleabhängig. In der Mehrheit wird die 960 GTX die bessere Performance/Watt haben, es gibt aber auch den umgekehrten Fall und das Matt Beispiel. Es gibt durchaus eine Test-Seite, die FPS/Watt mehrere Spiele misst.
wiegt Effizienz höher als Performance bei einer Grafikkarte, die zum Spielen entwickelt worden ist?
99,9% antworten nunmal mit NEIN und die anderen sind Trotzköpfe.
 
Hito schrieb:
Kriegt ihr euch auch mal wieder ein? Es gibt einen Kritikpunkt, der Stormverbrauch ist höher als 960. Wir habens gerafft. Das Verhältnis zu Performance pro Watt ist an sich nicht schlecht, aber eben immer noch nicht besser als 960.

Und trotzdem ist das wieder nur eine Frage der Perspektive: in Deutschland sind die Stromkosten generell viel zu hoch, auch wenn dem 0815Bürger was anderes vorgegaukelt wird. Stromkosten sind relativ, erwartet doch nicht, daß ein Hersteller speziell Rücksicht auf ein Land nimmt, in welchem die Stromkosten höher als der allgemeine Durchschnitt sind.
http://www.kwh-preis.de/strompreis-dossier-teil-5-strompreise-im-europaeischen-vergleich

Vor allem aber braucht man hier nicht stundenlang auf seinem Recht beharren, wenn der Streitpunkt relativ unwichtig ist.
Wer kauft eine Grafikkarte deswegen kauft, der kauft sich keine 200-250€ Karte sondern etwas kleines unscheinbares stromsparendes.

Die 380X ist vorrangig nunmal eine SPIELEgrafikkarte - willst Performance, musste zahlen.

Auch hier, danke!
Wenn mal wirklich ein Verbrauch verglichen werden will, weils ja so etrem wichtig ist, sollte man eine Test-Routine schreiben, die den "Arbeitstag" eines PCs wiederspiegelt. Ein automatisierter Ablauf bestehend auch Surfen, Office/Email, Gaming, Video etc.
Und während diese Routine läuft, hängt ein STROMZÄHLER vor dem Rechner. Mal mit Graka X und mal mit Y. Zwei fest gemessende, absolute Werte die man direkt vergleichen kann.
Vorher könnte man ein Fragebogen über die Nutzung aushängen, und aus den Antworten eine durschnittliche Nutzung ermitteln. Aus der durchschnittlichen Nutzung erstellt man die Routine. Das kann doch nicht so schwer sein...allerdings vermeidet es Clickbait :freaky:
 
Perfekter Zeitpunkt für nVidia ne GTX 960Ti aufn Markt zu werfen. Etwas schneller als die 380X bei gleichem Preis.
Genau zwischen 960 und 970 positioniert.
 
En3rg1eR1egel schrieb:
lies doch mal den thread ganz und vollständig...

1. es ist nicht vollast
2. kommen weder die 4h, noch die 365 tage von mir


falsch!
ist es nicht peaklast, sondern average gemessen
und zwar direkter verbrauch, 100w mehr aus der leitung sind 100w mehr auf der abrechnung.
und zwar direkt 1:1
Das ist auch nicht ganz korrekt, ich zitiere mal aus CBs "Benchmarks & Methodik"


...Deswegen wird die Leistungsaufnahme des Testsystems nicht mehr nur einmal innerhalb der 30-minütigen Testsequenz gemessen, sondern gleich 30 Mal – einmal pro Minute. Der im Balkendiagramm angegebene Wert entspricht dem Durchschnittsverbrauch der 30 Messwerte...
Es entspricht also nicht dem, was der PC nach 30 Min tatsächlich an Strom verbraucht hat sondern nur 30 Stichproben, die anschließend im Durchschnitt den Gesamtverbrauch schätzen. Dabei können natürlich auch 30 Stichproben mit zufälligem Peakwert gemessen werden. Entsprechend sind die Messungen nicht der direkte Verbrauch bei CB


Zu allem Übel gesellen sich auch noch die besonders "realistischen" Annahmen zur Lastverbrauchsmessung

...und im Lastmodus (Ryse: Son of Rome)... Die Auflösung beträgt dabei 3.840 × 2.160 bei maximalen Details sowie aktiviertem SMAA.
Wo doch bekannt ist, dass AMDs in höheren Auflösungen schneller performen, aber entsprechend mehr Strom aufnehmen.


Letztendlich ist der Test in jeder Hinsicht NUR geschätzt und spiegelt nicht annähernd den tatsächlichen Verbrauch aus der Steckdose in einem durchschnittlichem Szenario (z. B. 1080p für 380X).
Deshalb verweise ich auch für konkrete Testergebnisse immer auf TomsHardware, wo mit professionellem Equipment tatsächlich durchgehend gemessen wird.
 
Zuletzt bearbeitet:
@Hito @Pipip
Ich weiß eure Beiträge sehr zu schätzen. Machmal denke ich, auf verlorenem Posten zu sitzen, jederman hier hat "voll den Plan" von Lesitung und Verbrauch, dabei ist es offensichtlich nicht so. Und die Hardwareseiten schüren das ganze noch, weil die eben nicht einfach mal n Stromzähler dranhängen. Diesem ist es egal, das LAstwechsel im µSekundenbereich stattfinden, währen Messpunkte weiter ausseinander liegen. Letztlich ist es ein Witz an Mehrkosten, aber auch das sollte mal bewiesen werden. Kein Raum für Spekulationen und Übertreibungen.
Der einzige Punkt, der mir PERSÖNLICH nur wichtig ist, ist die Abwärme im Gehäuse. Ich bin Silentfreak ünd verzichte gerne auf ein paar fps, wenn der Rechner dafür schön leise bleibt. Für mich käme aktuell nur die 960 in Frage... jedem Anderen dem Lautstärke nicht wichtig ist, weil er an der Hauptverkehrsstrasse wohnt und 250€ Budget hat, empfehle ich die 380X.
Ergänzung ()

Drummermatze schrieb:
Perfekter Zeitpunkt für nVidia ne GTX 960Ti aufn Markt zu werfen. Etwas schneller als die 380X bei gleichem Preis.
Genau zwischen 960 und 970 positioniert.
Oder Die, wenn se denn überhaupt kommt. Ich glaub' schon.
 

Ähnliche Themen

Zurück
Oben