Test Radeon HD 4770 im Test: ATis erste 40-nm-Grafikkarte überzeugt durchweg

Dieses dezente Rattern oder Surren ist allen Radial-Lüftern eigen.
 
H3rby schrieb:
Ähm, dir ist aber bewußt, dass die 4770 in idle mehr zieht als z.B. eine GTX 275..
Ähm, dir ist aber bewusst, dass es gar nicht darum ging?

H3rby schrieb:
Und dass Nvidia keinen GDDR5 nutzt, soll jetzt ein Nachteil von AMD sein hinsichtlich des Stromverbrauches?
Was zu klären wäre...

TheK schrieb:
Nur, dass es eben oberhalb von 60€ praktisch kein GDDR3 mehr gibt - sprich: jede Karte, über die ein ernsthafter Gamer auch nur nachdenkt, wird übel
Nun ja, Radeon Besitzern wird halt übel, wenn sie die Leistungsaufnahme unter Last bei den für Gamern ernsthaften Karten sehen. Die X2 vielleicht mal ausgenommen. So wird halt jeder mit seinem Schicksal leben müssen. :rolleyes:

y33H@ schrieb:
Eine GTS 250 braucht idle laut HT4U nur 19,7 Watt. Das packt keine auch nur annähernd ähnlich flotte Radeon.
Ich habe als Referenz einfach mal das Ranking hier von CB genommen. Und da ist zB eine HD 4830 unter Idle noch etwas sparsamer, auch wenn die GTS 250 etwa 10-20% schneller ist. Man sollte auch bedenken, nVidia braucht dafür erst eine Überarbeitung. An den RV770 Karten wurde seit Release ja praktisch nichts gemacht. Und was die ersten G92 Karten für eine Leistungsaufnahme unter Idle haben, kannst du dir ja anschauen. ;)


Es ist aber schon lustig. Zu Zeiten von RV670 und G80/G92 war Idle nie ein Thema bei den nVidia Verfechtern. Und plötzlich, wo AMD bezüglich Performance aufgeholt und oftmals sogar das bessere Gesamtpaket bietet, ist es DAS Argument, weil hier nVidia nachgebessert hat. Ich will ja niemandem zu nahe treten, aber Doppelmoral ist keine Tugend. :rolleyes:
 
Zuletzt bearbeitet:
@ gruffi

Die HD4770 ist genauso eine neue und überarbeitete Karte wie die GST 250. Ergo ist der Vergleich legitim. Und hier zieht die HD4770 eben den kürzeren: 50% mehr Watt im idle und in 3D deutlich lahmer. Dafür halt günstiger.

Zu Zeiten des G80 waren Karten mit diesem Chip meilenweit vor den Radeons, ergo war der Verbrauch ein Mittel zum Zweck. Nun hat AMD fast aufgeholt bzw. ist in einigen Preissegmenten von der Leistung her gleichauf, da wird natürlich hinterfragt, welche Karte bei gleicher Leistung und gleichem Preis sparsamer ist. Und im idle sind das nun mal fast durchgehend die Geforces. Ich sehe hier keine Doppelmoral :freak:

EDIT
gruffi schrieb:
oftmals sogar das bessere Gesamtpaket bietet
Tuen sie nicht. idle-Leistungsaufnahme und BQ sind leider meist etwas schlechter bei gleichem Preis, dafür ist das reine Euro/Fps-Verhältnis oft einen Ticken besser - auf Kosten des Flimmer-AF. Aber das stört die meisten leider nicht.
gruffi schrieb:
Radeon Besitzern wird halt übel, wenn sie die Leistungsaufnahme unter Last bei den für Gamern ernsthaften Karten sehen
Wie kommst du auf sowas?
 
Zuletzt bearbeitet:
Hi,
habe die Sapphire 4770 und kann den "ratternden" Lüfter@32% bestätigen. Nicht wirklich laut, aber halt trotzdem gut hörbar im Vergleich zum Restsystem(eher silent). Erst bei 20% ist das Verschwunden (dann aber ~80° GPU).

Zur Einordnung, ein Arctic Cooling Freezer Pro 7 ist bei 950upm deutlich leiser, weiterhin ist auch die Samsung F2 1TB nicht hörbar neben der HD4770, selbst bei 20% PWM. Daher aktuell die lauteste komponente im PC. Sprich für halbwegs Silent Interessierte taugt der Lüfter nicht...
Christian
 
Seltsam, alle Hersteller benutzen ein und den selben Kühler. ATI dagegen verteilt doch die netten Karten an die Tester mit folgendem Kühler:
3-1080.2332476467.jpg


Ich warte eher auf so eine Karte am besten mit 1Gig Ram.
 
y33H@ schrieb:
Die HD4770 ist genauso eine neue und überarbeitete Karte wie die GST 250.
Aber kein GDDR3. Darum ging es ja. Die HD 4770 ist auch nicht überarbeitet, sondern einfach mit einem anderen Chip (RV740), in einem neuen Fertigungsverfahren, bestückt.

y33H@ schrieb:
Zu Zeiten des G80 waren Karten mit diesem Chip meilenweit vor den Radeons
Nicht wirklich. Ein Thema war zB HD 3870 vs GT 8800. Wobei letztere etwa 10% schneller war. Als meilenweit würde ich das nicht bezeichnen.

y33H@ schrieb:
Und im idle sind das nun mal fast durchgehend die Geforces.
Und unter Last fast durchgehend die Radeons. Wo ist also das Problem? Jeder hat seine Vor- und Nachteile. Nur blenden die Nvidia Verfechter letzteres halt gerne aus. Und auch das ist Doppelmoral.

y33H@ schrieb:
idle-Leistungsaufnahme und BQ sind leider meist etwas schlechter bei gleichem Preis
Bei BQ hat genauso jeder seine Vor- und Nachteile. AMD tendenziell etwas besseres AA, nVidia tendenziell etwas besseres AF. Für die Leistungsaufnahme gilt ähnliches. Wobei ich da tendenziell AMD etwas besser sehe. Es sind vor allem die GDDR5 Modelle, die Idle etwas zu viel Strom brauchen. nVidia hingegen braucht unter Last fast durchgehend mehr Strom. Dazu kommt DX10.1/SM4.1 bei AMD, die bessere HD Wiedergabe und der höhere FP Durchsatz (GPGPU). Und obendrein gibt es vergleichbare Performance bei AMD meist zu einem geringeren Preis.
Da brauche ich ehrlich gesagt nicht zweimal überlegen, wer da das bessere Gesamtpaket liefert. Du musst das auch gar nicht so sehen und brauchst auch nicht darauf zu antworten. Das ist meine persönliche Meinung.
 
Also ich lasse einfach mal Zahlen sprechen und vergleiche die direkten Konkurrenten:

9800GT gleicher Preis wie ein HD4770 aber 10% weniger Leistung, im Ide gleicher Verbrauch unter last 16W mehr.

9800GTX+ 50% Teuer! und 5% mehr Leistung, im Ide 16W mehr und unter last 52W mehr!

OC-potential einer 9800GTX+ < OC-potentia HD4770

Alle anderen NVs liegen Preislich zu weit entfernt als das man diese mit HD 4770 vergleichen kann. Und da sehe ich iwi kein Land mehr für NV in diesem Bereich. Dies gilt es klar festzustellen die HD 4770 braucht vllt zu viel Watt im Ide aber NV macht es in diesem Preissegment nicht besser nur Leistungsärmer.
 
y33H@ schrieb:
@ gruffi

Die HD4770 ist genauso eine neue und überarbeitete Karte wie die GST 250. Ergo ist der Vergleich legitim. Und hier zieht die HD4770 eben den kürzeren: 50% mehr Watt im idle und in 3D deutlich lahmer. Dafür halt günstiger.

Zu Zeiten des G80 waren Karten mit diesem Chip meilenweit vor den Radeons, ergo war der Verbrauch ein Mittel zum Zweck. Nun hat AMD fast aufgeholt bzw. ist in einigen Preissegmenten von der Leistung her gleichauf, da wird natürlich hinterfragt, welche Karte bei gleicher Leistung und gleichem Preis sparsamer ist. Und im idle sind das nun mal fast durchgehend die Geforces. Ich sehe hier keine Doppelmoral :freak:

Also PCGH hat hier gezeigt, wie man bei einer HD4870 50Watt weniger raushauen kann im Idle. Es war zwar das gesamte Sys, aber ich gehe mal davon aus, dass PCGH an den anderen Komponenten nichts verändert hat und somit die 50Watt weniger tatsächlich auf die HD4870 zurückzuführen sind.

Hier wiederrum hat PCGH gemessen, dass eine unbearbeitete HD4870/1G im Idle 57,2Watt braucht. Zieht man nun die 50Watt ab, kann man die Karte mit nur 7,2Watt im Idle betreiben. Ich weiß nicht, aber schlägt das nicht sogar eine HD4670?

Und jetzt kommt das witzige bei der Sache: Scheinheilige Idle-Stromsparer-Gamer meckern über ATI's hohen Idleverbrauch und holen sich deswegen ne Nvidia und denken jetzt würden sie im Idle viel mehr sparen. Leute die sich ne HD4870/90 geholt und untertaktet haben (also praktisch jeder hier im Forum, der sich ne HD mit GDDR5 geholt hat) und nicht so sehr auf den Idle-Verbrauch bei der Einkaufsentscheidung wert gelegt haben, sparen im Endeffekt trotzdem viel mehr als diese Pseudo-(NV-Fanboy)-Stromsparer. :D

"Ich achte ja sooooooo sehr auf eine geringe Leistungsaufnahme im Idle, aber die paar Schritte um aus meiner Karte ne richtige Stromsparkarte im Idle zu machen ist es mir dann doch nicht wert.":rolleyes:
 
gruffi schrieb:
Aber kein GDDR3. Darum ging es ja. Die HD 4770 ist auch nicht überarbeitet, sondern einfach mit einem anderen Chip (RV740), in einem neuen Fertigungsverfahren, bestückt.

Richtig. Wobei sich, wie y33H anmerkt, die Überarbeitung in dem Sinne einer GTS250 wirklich in Grenzen hält. Gerade bei der GTS250 (Referenzdesign) hätte ich mir konstante "Qualität" ( -> 9800gtx, 8800GTS-512, 8800GT) gewünscht. Mir ist mit geringfügiger Übertaktung so zum Beispiel aufgefallen, dass die Leistungsaufnahme dieser Karte sehr schnell exorbitante Werte annimmt. Von "sparsam" im Rahmen der Leistung einer HD4850 kann also nicht die Rede sein.
Das einzige das ich bei der GTS250-Standart wirklich begrüße ist die leicht reduzierte Leistungsaufnahme sowohl unter Last als auch unter Idle (wobei sich die GTS250 immer noch gerade in Sachen Leistungsaufnahme unter Last schämen sollte [lt. meiner Beaobachtungen])

gruffi schrieb:
Und unter Last fast durchgehend die Radeons. Wo ist also das Problem? Jeder hat seine Vor- und Nachteile. Nur blenden die Nvidia Verfechter letzteres halt gerne aus. Und auch das ist Doppelmoral.

quod erat demonstrandum?!

gruffi schrieb:
Bei BQ hat genauso jeder seine Vor- und Nachteile.

Ganz genau. Auch ich als mehr oder weniger (zur Zeit) GeForce-Fanatiker stimme dir in diesem Punkt absolut überein. Die Preise und die Modelle sind in ihren Klassen derart überschaubar, dass man selbst die "mangelhaften" Punkte der Bildqualität einer aktuellen Radeon anhand des Preises halbwegs "ersehen" kann (, auch wenn es im Endeffekt den allerwenigsten auffallen wird).
Summa summarum erhält man auch mit einer Radeon konstante Frameraten bei akzeptabler Bildqualität. Und das ist hinsichtlich einer Radeon HD 4770 mehr als löblich, auch wenn mich die Idle-Leistungsaufnahme auch bei dieser Karte ein wenig stört. (Wie schon 100x gesagt: die HD 4870X2 machts bzgl. GDDR5 i.d.F. vor.)
 
cneumo schrieb:
Hi,
habe die Sapphire 4770 und kann den "ratternden" Lüfter@32% bestätigen. Nicht wirklich laut, aber halt trotzdem gut hörbar im Vergleich zum Restsystem(eher silent). Erst bei 20% ist das Verschwunden (dann aber ~80° GPU).

Zur Einordnung, ein Arctic Cooling Freezer Pro 7 ist bei 950upm deutlich leiser, weiterhin ist auch die Samsung F2 1TB nicht hörbar neben der HD4770, selbst bei 20% PWM. Daher aktuell die lauteste komponente im PC. Sprich für halbwegs Silent Interessierte taugt der Lüfter nicht...
Christian
Danke für die Bestätigung...ich bin immernoch am Grübeln ob sich der Garantieverlust gegen ien VF900-CU lohnt, denn die einen finden den VF900 super silent während die anderen ihn als laut empfinden... :freak:
 
Viele meckern über den Idle Stromverbrauch der Grafikkarte.

Schaut euch aber einmal den Idle Verbrauch der Grafikkarten im Dezember 2007 an:

https://www.computerbase.de/artikel...-512.738/seite-27#abschnitt_leistungsaufnahme

Dort verbraucht das gesamte System mit einer 1950Pro (!) genau so viel, wie das heutige System mit einer HD4870. Klar verbrauchen die Grafikkarten im Schnitt mehr. Aber dieser Mehrverbrauch wird durch stromsparende Prozessoren, etc. kompensiert.

Eine Frage habe ich aber trotzdem:

Wie hoch ist der Mehrverbrauch des QX9770 gegenüber eines E8600?

Gruss
 
@paokara: Eine HD4770 muss im Idle keinen Deut mehr leisten als eine X1950Pro, und zwischen den beiden Karten liegen beinahe 3 Jahre Entwicklung. Wenn da beim Verbrauch nix passiert ist, kann man dazu sehr wohl sein Missfallen zum Ausdruck bringen. Sonst wird auch weiterhin nix passieren. Hätte es in den letzten 10 Jahren keine eindeutigen Signale aus den Reihen der Kunden gegeben, würde heute wahrscheinlich ein Office-Rechner ein 600W-Netzteil benötigen.

Und was hab ich bitteschön von einem stromsparenden Prozessor, dessen Stromsparfunktionen von der Grafikkarte wegkompensiert werden?

Zu Deiner Frage bzgl. Prozessor-Mehrverbrauch: KLICK!
 
Weiß man schon etwas über alternative Kühler, die man verbauen könnte? Scythe Musashi oder sowas?
 
gruffi schrieb:
Die HD 4770 ist auch nicht überarbeitet, sondern einfach mit einem anderen Chip (RV740), in einem neuen Fertigungsverfahren, bestückt.
40nm, weniger Spannung in 2D, weniger Takt in 2D. Der Unterschied HD4830 zu HD4770 ist deutlich größer als 9800 GTX+ zu GTS 250 :rolleyes:
gruffi schrieb:
Und unter Last fast durchgehend die Radeons.
Über 1-2 Handvoll Spiele genormt, zieht eine HD4870 nicht weniger als eine GTX 260-216.
gruffi schrieb:
AMD tendenziell etwas besseres AA
Falsch. Einzig 24x ED-CFAA ist besser. MSAA ist gleich, xS und SSAA schlägt alles, was AMD zu bieten hat.
Lonely Shepherd schrieb:
Also PCGH hat hier gezeigt, wie man bei einer HD4870 50Watt weniger raushauen kann im Idle. Es war zwar das gesamte Sys, aber ich gehe mal davon aus, dass PCGH an den anderen Komponenten nichts verändert hat und somit die 50Watt weniger tatsächlich auf die HD4870 zurückzuführen sind.Hier wiederrum hat PCGH gemessen, dass eine unbearbeitete HD4870/1G im Idle 57,2Watt braucht. Zieht man nun die 50Watt ab, kann man die Karte mit nur 7,2Watt im Idle betreiben.
Dieser Vergleich funktioniert technisch bedingt nicht.
Lonely Shepherdk schrieb:
Leute die sich ne HD4870/90 geholt und untertaktet haben (also praktisch jeder hier im Forum, der sich ne HD mit GDDR5 geholt hat) und nicht so sehr auf den Idle-Verbrauch bei der Einkaufsentscheidung wert gelegt haben, sparen im Endeffekt trotzdem viel mehr als diese Pseudo-(NV-Fanboy)-Stromsparer.
Nicht wirklich. Zudem kann man eine GTX200 auch weiter runtertakten oder die VCore senken. Vergleich stock mit stock oder gestehe beiden Karten Mods zu. Aber gemoddet (untertaktet) gegen stock ist Bullshit.
 
Zuletzt bearbeitet:
Dazu mal ein paar Auszüge aus dem Test von Herrn Andermahr:

xS:

8xS: "So wirkt das ganze Spiel etwas unschärfer, ganz so als wenn man einen leichten Blur-Filter über das Bild gelegt hätte." [FEAR]

"In Oblivion versagt dagegen die Kantenglättung der Geometrie."

16xS "Dafür wirkt das ganze Bild aber immer noch unscharf – gar unspielbar unserer Meinung nach." [FEAR]

32xS: "Wirklich Effektiv scheint dieser Modus (auch abseits der Performance) jedoch nicht zu sein. "

"32xS erzeugt in RS Vegas darüber hinaus einen immensen Grafikfehler, der den First-Person-Shooter unspielbar macht."

SSAA:

"Auch wenn das 2x2-SSAA über genauso viele Samples wie das 4xMSAA verfügt, ist die Geometrie-Kantenglättung ein gutes Stück schlechter als beim klassischen 4xAA"

"ist die Glättung in F.E.A.R. sowie Oblivion schlecht"

"Die Glättung der Alpha-Test-Texturen sowie das Texturflimmern ist mit 3x3 SSAA natürlich besser, dafür läuft der Modus aber nur noch sehr langsam"

"In Oblivion verweigert das 3x3 SSAA den Dienst,"

Du denkst also, das eine a) nicht/schlecht funktionierende und/oder b) zu hardwarehungrige Funktion erwähnenswert ist?

Gegenbeispiel:

"Und in der Tat, es gibt keinen anderen Modus (auch nicht bei Nvidia), der an 24xAA in Sachen Geometrie-Kantenglättung heran kommt. Selbst in Bewegung fällt kaum ein Flimmern mehr auf. Gegenüber 12xAA ist der 24xAA-Modus eine sinnvolle Erweiterung."

Schlägt alles was AMD zu bieten hat? Na dann gute Nacht...

;););)
 
@y33H@

laut den neuen HT4U tests, schwankt die Leistungsaufnahme unter Last bei den nVidias stark je nach Spiel und liegt z.B. bei der GTX285 (die ja sparsamer als die alten G200 Modelle sein soll) konstant ca. 20-30 Watt über dem Niveau der HD4890, welche ihrerseits "nur" 20 Watt mehr im Durchschnitt zieht, als die im Vergleich zur GTS250 schlecht abschneidende HD4850.

Nichts destotrotz sind die Ati's unbehandelt im idle schlecht, unter Last verbrauchen die nVidia Chips (G200 und alte G80, G92) aber mehr (sind ja auch viel größer).
Das Ati im Furmark gleich viel oder mehr zieht, liegt wahrscheinlich daran, dass dieser eines der wenigen Programme ist, welches die 5D Shader recht gut auslastet, was aber im Spielealltag "noch" nicht vorkommt.

(Eventuell kann man daraus schließen, dass in den Ati's noch einige Reserven für die Zukunft schlummern, wie schon bei X19xx vs. 79xx)


dass SSAA und die Hybrid Modi Ati übertreffen stimmt zwar schon, aber man sollte dennoch dazu erwähnen, dass diese offiziell von nVidia nicht mehr unterstützt werden und in vielen (den meisten) neuen Spielen ohnehin nicht funktionieren (aus Performance- oder Kompatibilitätsgründen)

jedenfalls ziehen diese Argumente in der Preisklasse der HD4770 ohnehin nur wenig, da man bei ner vergleichbaren 9800GT froh sein muss 4*MSAA zu schaffen (hatte selbst eine übertaktete 1GB 8800 GT)
Weiters kann man bei den 9800GT nie sicher sein ein neues sparsameres Modell zu bekommen und die Green Editions sind dann schon wieder weit langsamer, da untertaktet.
 
Scheiss meine HD4770 von XFX macht nur 800MHZ core so ein müll dingen :D , naja hatte echt mehr von der GPU erwartet .
 
y33H@ schrieb:
40nm, weniger Spannung in 2D, weniger Takt in 2D. Der Unterschied HD4830 zu HD4770 ist deutlich größer als 9800 GTX+ zu GTS 250
Toll. Dass Kernspannung und -takt generell nicht so viel ausmachen, gerade unter Idle, kannst du dir ja in einigen Tests hier bei CB anschauen. Das sagt dir erstmal gar nichts. Das Problem liegt wohl, wie schon öfters festgestellt, beim Speicher, GDDR3 vs GDDR5. Welchen Speicher verwenden 9800 GTX+ und GTS 250 nochmal? :rolleyes:

y33H@ schrieb:
Über 1-2 Handvoll Spiele genormt, zieht eine HD4870 nicht weniger als eine GTX 260-216.
Etwas schon. Das ist aber nicht der springende Punkt. Wie du meiner Aussage entnehmen kannst, ging es nicht um konkrete Modelle. Was soll also die Rosinenpickerei? Ich könnte genauso gut Vergleiche heranziehen, wo eine Radeon Idle weniger braucht als eine GeForce, nur um deine Aussagen zu entkräften.

y33H@ schrieb:
Einzig 24x ED-CFAA ist besser. MSAA ist gleich, xS und SSAA schlägt alles, was AMD zu bieten hat.
Ich rede mit Sicherheit nicht von solch praxisfernen Einstellungen, sondern maximal von 2x, 4x und 8x MSAA. KAOZNAKE hat ja schon einige Auszüge hier von CB gepostet. Ich kann daher deine Ansichten auch in keinster Weise nachvollziehen. Stichwort subjektive Wahrnehmung. Und dass du dann sofort falsch schreist, zeigt leider deine wenig objektive Einstellung. ;)
 
@ gruffi

gruffi schrieb:
Dass Kernspannung und -takt generell nicht so viel ausmachen, gerade unter Idle, kannst du dir ja in einigen Tests hier bei CB anschauen
Wenn Spannung und Takt so wenig ausmachen, warum schluckt eine GTS 250 im Vergleich zu einer 9800 GTX+ dann deutlich weniger?! :rolleyes: Genau, weil die weniger Takt und VCore im idle hat :rolleyes:
gruffu schrieb:
Wie du meiner Aussage entnehmen kannst, ging es nicht um konkrete Modelle
Dann kannst du auch keine pauschalisierte Aussage verfassen.
gruffi schrieb:
sondern maximal von 2x, 4x und 8x MSAA
Wie gesagt, das MSAA ist objektiv gleich. Subjektiv also auch.

Und mit SSAA und xS sollte man sich befassen, dann weiß man auch, wie man es korrekt einsetzt. Einfach SSAA drüber bügeln, ist bei aktuellen Titel aufgrund von PP so eine Sache. Hier muss mit etwas Fingerspitzengefühl rangehen.
 
Da werden dem armen MacPok einfach meine Zitate angedichtet.:D

Lonely Shepherd schrieb:
Also PCGH hat hier gezeigt, wie man bei einer HD4870 50Watt weniger raushauen kann im Idle. Es war zwar das gesamte Sys, aber ich gehe mal davon aus, dass PCGH an den anderen Komponenten nichts verändert hat und somit die 50Watt weniger tatsächlich auf die HD4870 zurückzuführen sind.Hier wiederrum hat PCGH gemessen, dass eine unbearbeitete HD4870/1G im Idle 57,2Watt braucht. Zieht man nun die 50Watt ab, kann man die Karte mit nur 7,2Watt im Idle betreiben.

y33H@ schrieb:
Dieser Vergleich funktioniert technisch bedingt nicht.

Aha. Versteh mich nicht falsch, ich will ja nicht, dass du gleich nen Roman schreibst, aber könntest du das noch ein wenig erläutern? Zieht das MoBo etwa auch weniger, wenn die Karte undervoltet/untertaktet ist?


Lonely Shepherd schrieb:
Leute die sich ne HD4870/90 geholt und untertaktet haben (also praktisch jeder hier im Forum, der sich ne HD mit GDDR5 geholt hat) und nicht so sehr auf den Idle-Verbrauch bei der Einkaufsentscheidung wert gelegt haben, sparen im Endeffekt trotzdem viel mehr als diese Pseudo-(NV-Fanboy)-Stromsparer.

y33H@ schrieb:
Nicht wirklich. Zudem kann man eine GTX200 auch weiter runtertakten oder die VCore senken. Vergleich stock mit stock oder gestehe beiden Karten Mods zu. Aber gemoddet (untertaktet) gegen stock ist Bullshit.

Natürlich gewähre ich beiden Karten die Mods, aber Moment mal, da war doch was...
Achja, die GTX sind ja schon ziemlich untertaktet im Idle. Soviel Spielraum wird bei denen wohl nicht mehr sein.

Du hast doch die Möglichkeit mal den Stromverbauch beider Karten mit Undervolting/Underclocking zu testen (ich weiß ja nicht, wie "frei" man in dieser Hinsicht bei PCGH ist). Oder hast du etwa Angst, dass du dann schreiben müsstest, dass AMD hier deutlich besser abschneidet als NV und zeitgleich so manches Stromspar-Image von vielen NV-Fanboys zerstört wird?
 
Zurück
Oben