News Radeon R9 295X2 mit 500 Watt Leistungsaufnahme

Unyu schrieb:
Eventuell verbaut der Anbieter des Fertigrechners eine Grafikkarte?

Wenn es ein Fertigrechner ist, dann fällt das aber unter dessen Herstellergarantie. Da ist mir herzlich egal, auf was der Schalter auf der Karte steht.
 
So ist es Lübke. Gespart wird die Differenz, nicht der Gesamtverbrauch.
Da muss man dann adäquate high end Hardware gegenüberstellen und die böse Stromfresser Gpu braucht dann um nix mehr als ein anderes high end Multi Gpu Gespann.

Sinnfrei diese Stromdiskussionen hier.
 
hrafnagaldr schrieb:
Wenn es ein Fertigrechner ist, dann fällt das aber unter dessen Herstellergarantie.
Der sich wiederrum dankend an den Kartenhersteller wenden wird. Nächste Mal wird er keine X2 mehr anbieten.

Da ist mir herzlich egal, auf was der Schalter auf der Karte steht.
Wenn der Schalter in der Garantie inbetriffen wäre, wäre es mir reichlich egal ob die Karte einzeln oder in Verbindung eines ganzes Rechners erworben wäre. Das Ding muss so oder so funktionieren.
Beim Komplett PC stehe ich als Kunde besser da, trag das kaputte Ding einfach zurück. Bei meiner Bastelkiste stehe ich vor den vebrannten Kabeln und kann mir überlegen wie ich den Garantiefall erkläre.
 
Unyu schrieb:
Der sich wiederrum dankend an den Kartenhersteller wenden wird. Nächste Mal wird er keine X2 mehr anbieten.

Wenn jemand nicht völlig dumm ist, dann wird er das Netzteil und die Kabel ausreichend für die Karte dimensionieren, mach mal keine Panik auf der Titanic.
 
Wären mir zuviele "wenns und abers". Die Karte dauerhaft extrem außerhalb der Spezifikationen zu betreiben kann für OC-Enthusiasten angehen, aber nicht für eine Karte "out of the box".

Aber warten wir ab, wie hoch der tatsächliche Verbrauch wirklich ist.
 
Ich verstehe jetzt nich wieso jetzt alle wegen der Leistungsaufnahme nörgeln.

Wenn ich mir zwei von den derzeit schnellsten Grakas verbaue komme ich auch nicht energieeffizienter weg..
 
Versteh eh nich was hier alle so an dem Stromverbrauch rumnörgeln. vlt. habt ihr es noch nicht bemerkt aber es ist eine High end Karte, die darf strom verbrauchen.. Die Karte wurde gebaut um zu zeigen was in sachen leistung geht. Nicht um zu zeigen wer die sparsamste karte baut...

Und wer sich eine high end karte kauft, hat auch das nötige Kleingeld für die paar euro mehr strom im monat.


Es kauft sich ja auch niemand ein High end auto z.b. Bugatti, Ferrari, Porsche uvm. und nörgelt dann an dem hohen Spritverbrauch rumm.
 
@Justuz
Naja, nicht ganz passend das Beispiel, weil die Karte eben NICHT viel verbraucht.
Eher: der Bugatti Veyron auch nur so viel verbauchen würde wie nen Phaeton V8 (weil Bugatti ja "2xV8" aka. W16 hat).
Was ja eig. "eher bisschen besser" wäre.

Wiegesagt:
1x 290 250W ("offen" (Performance Bios) 306W laut ht4u)
2x 290 = na was wohl... 2x 290 eben (bisschen weniger sogar, da nur ein PCB!)

Es wird sich über 500W an sich aufgeregt, was aber keinen Sinn ergibt, wenn man die "Umstände" missachtet.
Diese Leute würden selbst 800W kritisieren, wenn man in 4k alle Spiele mit 100fps spielen könnte... sind ja 800W - kann nicht gehen.
 
Es wird sich nicht über 500W aufgeregt, weil es zu viel Energiekosten verursacht. Ich meine, wer zu hause sitzt, viel Geld bezahlt hat und dann damit zockt, der wird die paar Euro für den Strom auch noch verkraften.
Es regt mich auf, dass man in die falsche Richtung entwickelt. Anstatt mal etwas herauszubringen, was bei selber Leistung 20% weniger Strom verbraucht.
Aber ne, ist doch vollkommen wurscht was das Teil verbrät. Hauptsache BF4 läuft flüssig.

Dieses immer mehr FPS bei immer größerer Auflösung kann ich nicht nachvollziehen. Sparsamer, kühler, bezahlbar und bessere Spiele mit mehr Details bei FullHD fände ich erstrebenswert.
Von meiner Seite kann die auch 800W verbrauchen. Wäre mir egal, weil würde ich eh nicht kaufen obwohl ich es mir leisten könnte.
 
Hi,

Es regt mich auf, dass man in die falsche Richtung entwickelt. Anstatt mal etwas herauszubringen, was bei selber Leistung 20% weniger Strom verbraucht.

Ja des nervt.

Ist ja mittlerweile schon überall so. Zumindest bei Motorrädern gibt es da ein paar schwarze Schafe: Kawasaki W800 neu vs. alt
Neue hat weniger PS, mehr Kubik, dreht nicht so hoch wie die alte und braucht auch noch bei weniger Leistung fast 2Liter mehr!
 
MikelMolto schrieb:
Es regt mich auf, dass man in die falsche Richtung entwickelt. Anstatt mal etwas herauszubringen, was bei selber Leistung 20% weniger Strom verbraucht.
Wer glaubst du würde eine Karte kaufen die Gleich viel Leistet wie die alte, aber 20% weniger Strom verbraucht?
Wohl so ziemlich niemand, lohnt sich auch nicht. Weder für den Geldbeutel noch für die Umwelt (Graue Energie).

Mir persönlich ist es sch***** egal ob die karte jetzt 300 oder 500 watt verbraucht, wichtig ist das die Performance/Watt ansteigt, 50% sollten es da schon sein verglichen zu dem was ich verbaut habe. Performance/Watt ist die einzige Kenngrösse die interessiert, ansonsten solltet Ihr (Jeder der hier über denv erbrauch mekert) besser nur Haswell i5 verbauen, da habt Ihr auf der grafikkarte einen ganz niedrigen Verbraucht:freaky:

Und jeder der über den Verbrauch dieser Karte motz und etwas verbaut hat was übertaktet ist, oder keinen ivy Bridge/haswell, sollte ebenfalls das Maul halten, denn dessen CPU läuft ineffizienter gegenüber den top modelle als die 295X2 gegenüber NVidia's Maxwell.

Wenn ich Spiele, will ich brachiale Power -> Damit gehöre ich Tendenziell zur Zielgruppe dieser Karte.
Aber nur Tendenziell, denn ich werde zwei 390er unter wasser setzten. wenn Sie kommen. Dagegen sind die 500 watt der 295X2 dann eher schon peanuts.
 
Zuletzt bearbeitet:
MikelMolto schrieb:
Es regt mich auf, dass man in die falsche Richtung entwickelt. Anstatt mal etwas herauszubringen, was bei selber Leistung 20% weniger Strom verbraucht.

Ach ja?

https://www.computerbase.de/forum/threads/nvidia-geforce-gtx-750-ti-maxwell-im-test.1318469/

Mit jeder neuen Generation kommen auch Karten die bei gleicher Leistung weniger verbrauchen. Man darf sich halt nicht nur die Spitzenmodelle anschauen wenn man eigentlich was stromsparendes sucht...
 
mmic29 schrieb:
Wären mir zuviele "wenns und abers". Die Karte dauerhaft extrem außerhalb der Spezifikationen zu betreiben kann für OC-Enthusiasten angehen, aber nicht für eine Karte "out of the box".

Mit den Turbo- und Boost-Funktionen haben aktuelle Grafikkarten ja eine einfache Möglichkeit zur Hand, das sicherzustellen. Das Powertarget wird ab Werk einfach so eingestellt, dass es innerhalb der Spezifikationen liegt. Und wer sich bewusst entscheidet darüber hinaus zu gehen um die Leistung der Karte voll auszuschöpfen und weil er sicher weiß, dass seine anderen Komponenten (z.B. Netzteil) das mitmachen, der kann das per Einstellung im Treiber oder Umlegen eines Schalters auf eigenes Risiko machen.

Bleibt abzuwarten, ob AMD es für nötig hält, sich bei der 295X2 so "sauber" zu verhalten, oder ob nicht auch die Standardeinstellung schon mehr oder weniger stark über die Spezifikationen hinaus geht. Als ganz so kritisch scheint man das ja bei beiden Herstellern nicht zu sehen, denn beide haben schon älteren Karten die PCIe-Spec überschritten.
Nur gabs damals halt noch nicht die Möglichkeit mit dem variablen Powertraget. Da hieß es noch entweder die Leistung verkrüppeln oder die Spezifikationen überschreiten. Jetzt gibt es andere, flexiblere Möglichkeiten, die dem Anwender selbst die Wahl lassen.
 
Herdware schrieb:
Bleibt abzuwarten, ob AMD es für nötig hält, sich bei der 295X2 so "sauber" zu verhalten, oder ob nicht auch die Standardeinstellung schon mehr oder weniger stark über die Spezifikationen hinaus geht. Als ganz so kritisch scheint man das ja bei beiden Herstellern nicht zu sehen, denn beide haben schon älteren Karten die PCIe-Spec überschritten.

Das schon. Nur werden bei der X2 die Spezifikationen wohl sehr deutlich überschritten. Es sei denn, es kommt wirklich ein Standard-BIOS mit extrem gesenkten Taktraten und bei Verwendung des Uber-BIOS ein entsprechender Hinweis für den Anwender.

Was mich nur verwundert: warum bei einer solch extremen Karte nicht 3x8pin? Wäre eine saubere Lösung. Darum geht es mir nämlich. 500W Lastverbrauch wären mir in diesem absoluten highend-Bereich vollkommen egal. Der Anteil dieser Karten an der CO2-Bilanz ist nicht messbar. Aber dann bitte mehr oder weniger innerhalb der Sezifikationen.
 
kleiner denkanstoß: ich hab ne HD7770, die ich noch nie übertaktet hab; ums mal mit edeka zu sagen: super karte, super sparsam, super leise, super geil. :D
und ich habe ne gtx680, die ich erst diese tage mit 1.370 mhz gpu rennen lassen hab (da is leider der bart ab, sonst wärs mehr geworden!).
nochmal frei nach edeka: super karte, super overclocking, super schnell, super geil.
jedenfalls nach der logik einiger hier müsste ich die 7770 übertakten, weil die ja auch übertaktet noch erträglichen verbrauch hat und die gtx680 auf standard-takt laufen lassen, damit die ebenfalls im erträglichen rahmen rennt. was glaubt ihr warum ich das wohl trotz stromverbrauch andersrum mache? ;)

wer so ne karte kauft, will kompromisslose leistung und nicht weniger verbrauch bei der leistung der alten generation. bei der 7770 ist das was ganz anderes.

allerdings führt mich diese überlegung zu einer weiteren problematik: wenn sich die meldungen von 500 watt auf zwei 8-pin anschlüssen bewahrheiten sollten, hätte amd den overclockern einen bärendienst erwiesen. denn beim oc wären die stromanschlüsse nicht mehr mit 135 % belastet, (500 watt auf 2 x 8-pin) sondern da käm noch ne ganze schippe bei drauf. ich rieche schon förmlich verschmortes plastik :eek:
 
Zuletzt bearbeitet:
Lübke schrieb:
wenn sich die meldungen von 500 watt auf zwei 8-pin anschlüssen bewahrheiten sollten, hätte amd den overclockern einen bärendienst erwiesen. denn beim oc wären die stromanschlüsse nicht mehr mit 135 % belastet, (500 watt auf 2 x 8-pin) sondern da käm noch ne ganze schippe bei drauf. ich rieche schon förmlich verschmortes plastik :eek:

Wie oft denn noch: das Netzteil muss natürlich bei den internen Bauteilen auf die Last ausgelegt sein. Ein einzelner PCIe 8pin Strang kann 288W ab, die Highend-Molex sogar 432W. Wenn man auf einem Netzteil nun noch beide Abgriffe für PCIe Power nutzt passiert da in Jahren nix.

Ein 8pin PCIe ist technisch für max. 150W spezifiziert, phys. sind die Kabel und Stecker aber für min. 288W ausgelegt. Es müssen natürlich alle Komponenten mitspielen.
 
Zuletzt bearbeitet:
Wer sowas mit einerm solchen Karte betreibt (besser will), der hat es auch nicht anders verdient wenn alles hinüber ist. ;)

Wie hoch ist wohl die Chance das ein Käufer jener Karte ein solches Netzteil hat?

Mal abgesehen davon, das erstmal der Nachweis seitens des (der) Netzteilherstellers bezüglich der Norm erbracht werden müsste, schließlich ist ein CE Siegel bedeutungslos.
 
Zuletzt bearbeitet:
das gros aller pc-gamer interessieren (wenn überhaupt) folgende dinge bei einem pc:
- was für ne cpu steckt drin?
- wieviel ram hat das teil?
- was für ne grafikkarte?
- wie teuer?

mainboard, netzteil, gehäuse,... sind alles keine leistungsrelevanten komponenten. da tuts dann auch das mainboard für 35,- €, und das gehäuse und das netzteil für je 20 €. hauptsache cpu und graka fett und viel ram drin.
 
Zurück
Oben