@frankpr
https://www.computerbase.de/artikel...580.1393/seite-6#abschnitt_sonstige_messungen
https://www.computerbase.de/artikel...zer.1581/seite-19#abschnitt_leistungsaufnahme
wenn ich den wattangaben der beiden tests glauben darf, würd ich behaupten, dass wenn solch eine dicke grafikkarte verbaut wurde, damit auch gezockt werden soll und zwar mit AA und AF am limit. daher wird eher die grafikkarte unter voller last stehen als die cpu. somit werden die 4xx watt der 6970/570/580 schwerer wiegen, als die 170 (intel 2600k) bis 230 (BD8150) watt der cpus, die beim spielen meistens nicht voll ausgelastet werden (tests dazu gibt es ja zu hauf). trifft sicher nicht auf 100% aller spiele zu, da z.B. sc2 oder anno ja wirklich mehr die cpu belasten, doch der größte teil der spiele sind heute wohl doch eher shooter oder rpgs/mmos, bei denen die grafikkarte den ton angibt.
@am3000
seit wann kann man denn "nur" mit den hi-end karten zocken? mag sein, dass jemand der auf 3 monitoren mit 2000ner auflösungen spielt sicher die dicken dinger braucht, aber so jemand schert sich nicht um verbrauch. wäre ja als würde sich ein porschefahrer sich über den benzinpreis beschweren. mal für neue spiele wie bf3 ausgenommen, würde eine 6950 doch mehr als ausreichen und dennoch fast 80 watt weniger ziehen als eine 6970/570. "WENN" verbrauch für jemanden ein wichtiges argument ist. allerdings wage ich zu bezweifeln, dass die anschaffungskosten für 2 rechner wirklich durch die einsparungen am energiebedarf des "alltag"-rechners reinzuholen sind, der müsste ja jahrelang laufen und würde doch gut alle 3 jahre spätestens ersetzt. vielleicht als frima/selbstständiger auf 2-3 rechnungen verteilen und dann als gwg in einem jahr abschreiben, aber das wär ja fast wieder steuerbetrug
wie schon ein paar zeilen vorab beschrieben, wenn ich cpu-lastige spiele spiele, dann ist die grafikarte nicht so ausschlaggebend, bin ich aber der bf-veteran mit 3 monitoren und 580 sli, dann kommt es auch die 60 watt unter volllast(!), die ein amd im vergleich mehr zieht, auch nicht mehr an.
jedoch nur nochmal zu erinnerung, ich finde es auch unbestreitbar, dass intel in leistung und verbrauch voraus ist. nur wirkt das argument "verbrauch" unglaubwürdig, wenn dann neben her eine 580 fast 450 watt aus der leitung zieht.
seh ich mir beide unternehmen heute an, dann läuft amd gefahr vom prozessormarkt zu verschwinden bzw. in nischen gedrängt zu werden. was für uns heißen würden, wir müssten viel mehr für cpus und mainbaords bezahlen, die entwicklung wird immer langsamer (denn wieso soll intel für neuerungen investieren, wenn der alte scheiß immer noch weggeht und sich damit der maximale gewinn einfahren lässt?) und ein bisschen sieht man es ja schon heute. intel musste bei den sandys sich noch nicht mal die mühe machen und wirklich an der mhz-schraube drehen, weil ohne konkurrenz einfach keine notwendigkeit dafür besteht.