Test Nvidia GeForce GTX 980 und GTX 970 im (SLI-)Test

Mr.Seymour Buds schrieb:
Dir ist schon klar, dass das Speichersystem völlig umgebaut worden ist? Und 3. Gen Delta Color Compression sagt Dir sicherlich was. Laut Nvidia bringts bis zu 29% mehr "reale" Bandbreite (zB bei Metro LL).


Witzig, wie sich diese Diskussionen mit jeder neuen Generation von (Nvidia-)Grafikkarten stetig wiederholen:

Als vor jetzt ca. 2,5 Jahren die GTX 680 veröffentlicht wurde (die ich wie gesagt als Vorgängerin der GTX 980 ansehe) hat jemand in dem Topic zum Test dieser Karte (mir) fast exakt dasselbe erzählen/weismachen wollen! (steht sicher noch dort, hab nur gerade keine Lust es aus den 1000den von Beiträgen herauszusuchen.)

Motto: Es gehen jetzt aufgrund von Verbesserungen am Kompressionsverfahren bzw. auch effizienterer Ausnutzung des Vrams (sinnbildlich gesprochen) 15 Liter Wasser in den 10 Liter Wassereimer, ohne dass er überläuft und einem den Teppich versaut.

Dem gegenüber stehen dann aber überaus praktisch orientierte, sehr anschauliche Topics, hier im Forum, wie etwa jenes sehr gute von HiSn (schon vor Jahren eröffnet) wo regelmässig die tatsächlichen Speicheranforderungen von allen erdenklichen (natürlich vornehmlich jeweils aktuellen) Spielen gepostet werden. (gibt ja Programme, die das entlarven.)

Und wenn du da mal liest, dann siehst du sehr schnell, wie es in der Praxis wirklich aussieht und wie (erschreckend) hoch der Vram Verbrauch von so manchem Titel ist, dem man das (schon rein optisch) niemals zugetraut hätte. (zeigt wohl auch, wie schlecht so manche Programmierer arbeiten, insbesondere wenn man im Vergleich dazu andere Titel sieht, die genausogut oder sogar noch besser aussehen, aber wunderlicherweise deutlich weniger Vram einfordern.)

Und wenn dann auch noch High-Res.-Texturen (ist natürlich die Frage, wie Spielehersteller solche überhaupt integrieren wollen, wenn Nivida ständig nur Speicherkastrate auf den Markt bringt, die garkeinen Platz für solche Texturen bieten) ins Spiel kommen und dazu UHD oder auch nur WQXGA-Auflösungen, dann sieht es natürlich GANZ finster aus.

Ein Spiel z.B. wie das jetzt auf PC erscheinende "Ryse" (ich mag solche Titel übrigens GARNICHT, was hiermit aber nichts zu hat <- erwähne es nur prophylaktisch, um etwaige Diskussionen über "Geschmack" und "Anspruch" von vorn herein zu vermeiden.) z.B. fordert gemäss Systemanforderungen gleich mal 4GB an. (wo die GTX 980 gerade neu auf dem Markt ist.) Wie soll das mit so einer Karte dann in 2-3 Jahren aussehen?

Und wie ich weiter oben bereits schrieb, bieten selbst die "Next-Gen-Konsolen" mit 8GB Shared Memory bereits die doppelte Menge an Speicher (obwohl sie nichtmal soviel kosten, wie eine GTX 980)

Mr.Seymour Buds schrieb:
Erstaunlich ist auch, dass Du 4k anführst, denn Maxwell wurde genau dahingehend optimiert. Die Display Engine kann sogar 5k darstellen und 4 4k Displays ansteuern (Kepler konnte nur "2" 4k Displays)....mmhhh...was nun?

Erstaunlich (besser gesagt traurig) ist, dass Nvidia vor ca. einem 3/4 Jahr dick angekündigt/versprochen hatte, sich künftig verstärkt um die Performance bei Auflösungen höher Full-HD kümmern zu wollen, während hier viele Benmarks und Frameverläufe sehr deutlich zeigen/beweisen, dass die GTX 980 z.T. 1,5 Jahre alte Spiele wie "Tomb Raider" selbst in Full-HD noch immer nicht durchgehend mit flüssigen 60fps darstellen kann!

Und dann soll das also in 4K flüssig laufen, ja?!

Sry, aber das ist einfach alles nur noch eine riesengrosse Lachnummer bzw. Verarscherei, was hier abgezogen wird. (wie ich bereits schrieb, kann ich auch nicht nachvollziehen, wo angesichts solcher Tatsachen die Kaufempfehlungen und Auszeichnungen für solche Karten herkommen bzw. wodurch sie angeblich begründet sein sollten.)

Aber ich halte natürlich niemanden davon ab, sich dennoch alle Jahre wieder eine oder mehrere dieser Karten zuzulegen. Ich lach mir derweil einen, während ich dieselben Spiele mit maximal minimalen Einbussen an Bildqualität butterweich und jederzeit superflüssig auf der PS4 (für 385 €, die ich gezahlt habe.) zocken kann. (da braucht man auch kein G-Sync. etc. <- sollten sich die PC-Spiele-Hardcorefanboys mal fragen, was der Grund dafür ist, dass sowas am PC "nötig" ist. <- wozu, wenn doch alles angeblich so superflüssig und ruckelfrei läuft?)


SimsP schrieb:
@Arno: Naja gut das kann ich zumindest teilweise nachvollziehen.
Aber nach der Argumentation müsstest du ja sagen, dass es bis heute keinen würdigen Nachfolger für die GTX280 gibt. Die hat nämlich ein 512Bit breites Speicherinterface.

Wichtig ist nicht das Speicherinterface, sondern die Datenrate und wie effizient die Daten darüber geschleust werden können. Hier hat NVidia (genau wie AMD) bei der neuen Generation auf eine Komprimierung der Daten gesetzt und außerdem einen größeren Cache, weshalb man auch mit der kleineren Speicherdatenrate keine Probleme hat.

Wenn die Speicherbandbreite egal ist, warum haben und hatten dann bisher alles wirklichen "Highendkarten" - die man heutzutage traurigerweise fast nur noch an ihren Mondpreisen erkennt - mindestens 384bit Speicherbandbreite (zuletzt die Titan/780/780i)?

Könnten/müssten die auf Basis so einer Logik dann doch durchgehend nur noch Karten mit 256bit bringen, oder?! Wäre auch viel günstiger in der Produktion. (zumindest schreiben das die "Experten" ja immer.)

Eine echte "Highend-Karte" (ich meine eine, die den Titel aufgrund überragender Rohleistung und einem entsprechend durchaus angemessenen PLV, verdient) gab es seit der 8800GTX bis heute eh nicht mehr. Das haben viele oft schon geschrieben und auch völlig richtig erkannt. Nach dieser Karte, die neben dem im Vergleich zum Vorgänger brachialen Performance-Zuwachs noch ein überaus üppiges/grosszügig bemessenens Vram-Speicherpolster hatte, fing Nvidia auch mit der Speicherkastrat-Politik und der Salami-Taktik in Sachen Rohleistungs-Zuwüchsen von Generation zu Generation an (zuerst bei der 9800GTX, die in jeder Hinsicht weniger bot als die besagte 8800GTX, was bereits ein riesengrosser Witz war) Und seither hat sich das auch nicht mehr geändert. (bzw. die Karten, die mehr Vram boten, wie die Ableber von GTX 480-680 etc. oder die Titan werden dann eben zu noch aberwitzigeren Preisen feilgeboten und den zusätzlichen Speicher kann man ironischerweise i.d.R. dennoch nicht für aktuelle Spiele bei sehr hohen Auflösungen nutzen, einfach weil die Rohleistung der Karte dafür unzureichend ist.)

Wie gesagt: Benchmarks sprechen Bände! (zumindest für jene, die sich darüber bewusst sind, dass auf einem 60Hz-Monitor für eine wirklich ruckelfreie Darstellung durchgehende 60fps nötig sind. <- wo Leute schon anfangen über 120Hz/fps und mehr zu diskutieren) :D

Verfahren wie Downsampling, hohe AA-Werte in hochwertigen Verfahren oder auch Supersampling sind insbesondere für ältere Spiele natürlich grundsätzlich eine feine Sache (in der Theorie): Nur kann man die spätestens für neuere Titel ja garnicht nutzen, weil man dann eine Diashow geboten bekommt. (wird ja immer über die Konsolen gelästert, wie schwach sie seien, aber es ist wohl gelinde ausgedrückt nicht sonderlich fair, eine Diashow mit top Graphik am PC mit der Optik auf so einer Konsole mit superflüssiger Darstellung zu vergleichen.)

Wie gesagt: Das alles ist ein riesengrosser Witz!

Und jetzt bitte nicht mit Multi-GPU resp. SLI-Systemen oder auch G-Sync./Free-Sync etc. kommen (Stichwort: Heizung in der Wohnung auch im Winter überflüssig, Mini-AKW im Garten nötig, Mikroruckler, Profilabhängigkeit, weitere Kosten für stärkere Netzgeräte, erhöhte Lärmbelästigung und natürlich noch horrendere Kosten. <- nur die "härtesten" und abgefahrendsten Freaks lassen sich auf so etwas ein. Normaler SPIELER, also Leute denen es wirklich um das Spielen geht, haben garkeinen Bock auf so einen Aufwand.)

HisN schrieb:
Und es liegt an der Graka?
D3 ist doch grafisch völlig nichtssagend. Was rucken lässt sind die verbreiteten lahmen CPUs, und Games auf HDDs anstatt auf SSDs, jedenfalls wenn man D3 betrachtet.

Bei mir liegt D3/RoS wie auch alle anderen Spiele auf meiner System SSD und der Prozessor ist ein AMD Phenom II X6 1090T. (Graka wie gesagt eine GTX 780) 8GB Ram sind dazu im System.

Glaube kaum, dass dieser 6-Kerner langsamer ist, als die APU in der PS4 (wo es wie gesagt butterweich läuft) resp. dass dieser Prozesser grundsätzlich für das Spiel zu lahm ist.

Es ruckelt dennoch in bestimmten Abschnitten/an bestimmten Orten (der Rakis-Übergang ist ein klassisches Bsp., das auch von vielen Spielern immer wieder genannt wurde.)

Und wie ich schon schrieb: Es ist letztlich völlig unerheblich, wo die Ursache für diese Ruckelorgien ist: Wenn meine Lieblingsspiele, für welche ich eine neue Graka kaufe (damit sie damit endlich flüssig laufen) damit noch immer genauso ruckeln, wie mit der 6 Jahre älteren Vorgängerkarte, dann ist das einfach nur ein schlechter Witz und dann kann ich mir natürlich die 400-500 € für so eine "Gaming-Graka" auch sehr gut sparen. (wenn ich es denn vorher nur geahnt hätte.)

Kenneth Coldy schrieb:
Ich bin bei Dir, Bruder, obwohl ich genau den umgekehrten Weg gegangen bin. Im Bewußtsein das entsprechende Angebote nur eine Frage der Zeit sind habe ich extrem lange an 1280*1024 und erwähnter 4670 festgehalten. Dumm nur das AMDATI und NV den Performancezuwachs pro Generation gedrosselt haben und ich langsam weich werde. Aktuell steht hier ein 24'er mit 1920*1200 Auflösung der in ED in maximalen Settings eine arg ruckelige Slideshow zeigt.

Den Stand bezüglich 4K Gaming schaue ich mir dann in weiteren sechs Jahren an ;-)

Du hast recht: Wir haben heute schon seit vielen Generationen von Grakas längst nicht mehr die Performance-Zuwächse wie das vor ~ 10 Jahren der Fall gewesen ist. (dafür werden umgekehrt die Preise aber immer unverschämter, also für immer weniger Mehrleistung, muss immer mehr Geld gezahlt werden.) Von daher kann die Konsequenz (für vernünftige Spieler) nur die sein, dass man statt jedes Jahr oder alle zwei Jahre (so habe ich es früher auch noch gehalten, aber da hat es sich auch nocht gelohnt) jetzt nur noch alle 4-5 Jahre eine neue Karte zu kaufen. (aber man sieht ja, dass man selbst dann noch keine ruckelfreie Darstellung in so Manchem Titel erhält.) Viele werden auch aus diesem Grund auf Konsolen umsteigen (sofern man Spiele zockt, die dafür erscheinen - Echtzeitstrategiespiele wie z.B. "Starcraft" oder auch "Die Siedler" werden es wohl nie auf die Konsolen schaffen, da ist man dann leider weiterhin auf den PC oder einen Mac angewiesen.)

Die von dir veranschlagten 6 Jahre für (halbwegs) flüssiges UHD Gaming sind vermutlich angesichts der Entwicklung, die man seit vielen Jahren beobachtet und miterlebt (leider) auch realistisch (was traurig genug ist oder wäre) Es seit denn vielleicht ältere Titel, sofern die bereits 4K-Support bieten.

Und dann wundert sich die Branche allen Ernstes über die Krise (dass sich kaum noch PC-Hardware verkauft) <- Sprich sie wundern sich in Wahrheit darüber, dass die Masse der Konsumenten sich offensichtlich nicht verarschen/mit innovationslosen Produkten, die einem immer weniger Mehrwert/Zugewinn bringen, dafür aber immer mehr kosten, abfertigen lässt. Schon ein witziger (weltfremder) Haufen! ;-)
 
FormatC schrieb:
Es ist in der Firmware hinterlegt, also bereits ab Kauf fest eingestellt.

Faszinierend. Da die Karte einen einzigen 8pin Anschluß hat und dieser zusammen mit dem Slot maximal 225 Watt liefern werden hier sowohl die Systemstabilität als auch die Sicherheit gefährdet ohne das der Hersteller oder irgendein Tester es für notwendig erachtet darauf hin zu weisen.

Ich bin gespannt ob das nur ein Versäumnis der Tester ist oder es dauerhaft tot geschwiegen werden soll. Für mich ist die Strix jedenfalls damit raus. Schade eigentlich, sie wäre vom sonstigen Profil her genau mein Ding gewesen.

Nachtrag: http://www.asus.com/Graphics_Cards/STRIXGTX970DC2OC4GD5/specifications/ -> TDP 225W

Nun bin ich verwirrt. Was denn nun? Sollten die technisch zugesicherten Eigenschaften nicht rechtlich verbindlich sein? Wo ist die Verbraucherzentrale wenn man sie mal braucht? (wurde im Baumarkt gesichtet, im Gespräch mit einem Verkäufer der ihnen einen Multimeter verkaufen sollte)
 
Zuletzt bearbeitet:
kisser schrieb:
Ich sprach von der Stromaufnahme der CMOS-Transistoren. Die Versorgungsspannung zu messen ist überhaupt kein Problem, weil die sich nicht mit jedem Takt der GPU ändert. Unter Vollast der GPU ist die sogar konstant, solange die GPU nicht ins Powertarget Limit rennt und den Takt reduziert.

Ich habe die Signaltheorie bereits oben grob erklärt. Eines weiteren Beweises bedarf es nicht. Ach ja, ich bin auch Ingenieur, Fachrichtung Informations- und Hochfrequenztechnik.

Wenn Du Strom und Spannung primärseitig NACH den Spannungswandlern misst (was ja nichts anderes als eine Art gesteuertes DC-DC-Netzteil ist), dann ist der GPU-Takt absolut uninteressant, weil zwischendrin (auch in der GPU) so viel geglättet wird, dass da gar nichts mehr messbar ankommt. Die Schwankungen in der Leistungsaufnahme, dort wo wir sie messen, resultieren allein aus den jeweiligen Spannungs-Schritten der Steuerung des VR-Chips durch den Arbitrator der Grafikkarte, der wiederum die Telemetriedaten (VR-Status, Estimated Power Engine und Temperatursensoren) auswertet. Man misst also nichts anders als das Verhalten des Schaltnetzteiles, welches aus einer relativ konstanten Spannung gespeist wird und eine schwankende Leistungsaufnahme über die wechselnde Stromstärke realisiert. Schau Dir den einfach Aufbau einer Grafikkarte an, dann versteht Du auch, warum deine Transistor-Geschichte hier einfach nicht passt. Man muss noch nicht mal Ingenieur sein, um das zu verstehen.

Im übrigen messen wir quasi die GPU hinter dem "Netzteil", womit man auch die Verlustleistung der Spannungswandler mit einbezieht, was so vollends gewollt ist.
 
Arno Nimus schrieb:
[...]Motto: Es gehen jetzt aufgrund von Verbesserungen am Kompressionsverfahren bzw. auch effizienterer Ausnutzung des Vrams (sinnbildlich gesprochen) 15 Liter Wasser in den 10 Liter Wassereimer, ohne dass er überläuft und einem den Teppich versaut.

Dem gegenüber stehen dann aber überaus praktisch orientierte, sehr anschauliche Topics, hier im Forum, wie etwa jenes sehr gute von HiSn (schon vor Jahren eröffnet) wo regelmässig die tatsächlichen Speicheranforderungen von allen erdenklichen (natürlich vornehmlich jeweils aktuellen) Spielen gepostet werden. (gibt ja Programme, die das entlarven.)

Derzeit sieht es so aus, dass die neue Kompression sowohl bei Maxwell als auch bei Tonga zwar massiv Bandbreite, aber keinen Speichermengenbedarf senkt. Daten werden komprimiert übertragen, allerdings unkomprimiert abgelegt; wahrscheinlich damit wahlfreier Zugriff darauf möglich bleibt.


Dann bedeutet Speicherauslastung != Speicherbedarf. Manche Anwendungen/Spiele puffern schlicht mehr, wenn mehr Speicher verfügbar ist. Das kann z. B. gedacht sein um Nachladeruckler der Streaming-Engine bei langsamen HDDs zu vermeiden. Um den tatsächlichen Speicherbedarf zu ermitteln, müssten Frametimes bei unterschiedlicher verfügbarer Speichermenge gemessen werden. Die angezeigte Menge an belegtem Speicher alleine ist nur bedingt aussagekräftig.
 
Nun bin ich verwirrt. Was denn nun? Sollten die technisch zugesicherten Eigenschaften nicht rechtlich verbindlich sein? Wo ist die Verbraucherzentrale wenn man sie mal braucht? (wurde im Baumarkt gesichtet, im Gespräch mit einem Verkäufer der ihnen einen Multimeter verkaufen sollte)
Das Power Target kann jeder Hersteller nach Gutdünken selbst wählen. 225 Watt sind ja noch zahm :)
 
Ich habe mit Banger auch schon Szenarien verglichen in denen er mit seiner 780 keine Probleme hatte, bei meiner Titan aber 5+GB Speicher voll waren - der fps Unterschied lag im Rahmen dessen was man durch die unterschiedliche Rohleistung erwartet.

Das PT habe ich bei meiner Karte hier elegant umgangen, ich weiß gerade (wegen einer Windows Neuinstallation) nicht ob ich es nun auf 140 oder 150% gedeckelt habe. Bei einigen Spielen (!) komme ich da übrigens ran, bei Furmark nicht.

Edit: @Topic: Ich finde es echt Eindrucksvoll was NV durch eine verbesserte Lastanpassung bei der Stromversorgung erreicht hat. Das zeigt wie viel Potenzial da bisher verschwendet wurde und macht Hoffnung dass dies in Zukunft Standard bei beiden großen GPU-Herstellern wird.
 
Zuletzt bearbeitet:
FormatC schrieb:
Das Power Target kann jeder Hersteller nach Gutdünken selbst wählen. 225 Watt sind ja noch zahm :)

Ändert nichts an der Tatsache, dass die offizielle TDP von nVidia mit 165 Watt angegeben wird.

Und jetzt kommen die Boardpartner und kochen jeweils ihr eigenes Süppchen und prompt sind die 165W nicht mehr einzuhalten. Die 225W sind ja längst nicht das Ende der Fahnenstange.
 
Pilstrinker schrieb:
Ändert nichts an der Tatsache, dass die offizielle TDP von nVidia mit 165 Watt angegeben wird.

Und jetzt kommen die Boardpartner und kochen jeweils ihr eigenes Süppchen und prompt sind die 165W nicht mehr einzuhalten. Die 225W sind ja längst nicht das Ende der Fahnenstange.

2* 165w sli solten nach der norm dann locker mit einem 480 watt Netzteil laufen... 2* Gigabyte und es bleibt zu hoffen das du kein chinaböller drinhast..
 
Ändert nichts an der Tatsache, dass die offizielle TDP von nVidia mit 165 Watt angegeben wird.
Falsch. Diese TDP-Angabe bezieht sich NUR auf die Referenzkarte ind ist weder eine verbindliche Größe, noch beschreibt sie die gesamte Leistungsaufnahme der Grafikkarte, bei der ja auch so einige Watt auf die Spannungswandler entfallen. Jeder Hersteller hat das auch bisher schon so gehandhabt und es nicht mal neu. :)
 
FormatC schrieb:
Falsch. Diese TDP-Angabe bezieht sich NUR auf die Referenzkarte ind ist weder eine verbindliche Größe, noch beschreibt sie die gesamte Leistungsaufnahme der Grafikkarte, bei der ja auch so einige Watt auf die Spannungswandler entfallen. Jeder Hersteller hat das auch bisher schon so gehandhabt und es nicht mal neu. :)

Danke.

Wenn ich es richtig verstanden habe:

Für den Endkunden ist die Angabe der TDP letztlich also völlig belanglos, da er dadurch eben nicht auf die tatsächliche Leistungsaufnahme schließen kann, sondern eher höchstenfalls auf das zu erwartende Kühlkonstrukt?
 
@FormatC danke für die Erläuterungen, sehr informativ ;)
Was mich noch interessiert: Du schreibst ja, dass die gesteigerte Effizienz überwiegend durch die sehr gute Regelung erreicht wird, und dass bei hoher und konstanter Shaderlast von Maxwell's Effizienz wenig übrig bleibt, und zwar am Beispiel der GTX980 OC und Titan Black OC, dass sie dann eben bei der Leistung und beim Verbrauch auf einem Level sind. Wenn ich aber bedenke, dass die 980 die Leistung der Titan Black mit nur 2048 Shadern erreicht, dann muss doch auch die Architektur an sich sehr viel effizienter geworden sein?

Die Streuung der Karten im Leerlauf (10-20 W) ist auch bemerkenswert. Bin gespannt wie die anderen Partnerkarten abscheinden.
Btw, die meisten Leute verstehen unter der TDP die max. Aufnahme, und da hat sie Nvidia mit 145W und 165W natürlich sehr werbewirksam gewählt, auch wenn die Karten schon beim Gaming deutlich mehr ziehen... ;(
 
Beim Gaming bleibt die Leistungsaufnahme innerhalb des Rahmens, zumindest im Durchschnitt pro Sekunde. Und dieser wird auch von normalen Messgeräten ermittelt.
Und bei Powerviren greift das PT nach kurzer Zeit.
Die TDP ist aber sicherlich niedriger gewählt als z.B bei der Titan so dass der Wert eher erreicht wird als die 250W bei letzterer Karte. Dafür lesen sich 165W nochmals besser als 200W und da Partner das PT beliebig anpassen können ist es auch nicht permanent präsent.
 
Thanok schrieb:
Beim Gaming bleibt die Leistungsaufnahme innerhalb des Rahmens, zumindest im Durchschnitt pro Sekunde.
Was ich sehe ist, dass bei der GTX970 die reelle durchschnittliche Gaming Aufnahme bei 178W liegt, und die TDP bei 145W.
 
@Arno Nimus

Ich will nicht deinen ganzen Beitrag zitieren, deswegen in dieser Form:
- Speicherbandbreite ist nicht gleich Speichermenge
- eine GTX 980 schafft Tomb Raider in 1080p mit 60fps+ sogar mit 2xSSAA, siehe hier
- deine heißgeliebte PS4 schafft es mit FXAA (!) nicht mal durchgängig auf 60fps, siehe hier und hier
- "minimalen Einbusse an Bildqualität butterweich und jederzeit superflüssig" ist dementsprechend sehr weit aus dem Fenster gelehnt
- wenn du hier PCs mit Konsolen vergleichen willst, bist du definitiv im falschen Thread
- hinzu kommt, dass diese Vergleiche einfach nur an den Haaren herbeigezogen sind (Tomb Raider habe ich eben erklärt, der Grund für das Ruckeln bei D3 wurde hier auch schon mehrfach erwähnt, noch dazu zeigen die ach so leistungsfähigen Konsolen bei anderen Titeln wie BF4 oder Watch Dogs ihr wahres "Potenzial")
- der Grund für die geringen Performance Upgrades der letzten Jahre liegt nicht bei den GPU Herstellern, sondern an der Fertigungstechnik, da kann Nvidia leider auch nicht zaubern
- über die arg gestiegenen Preise in letzter Zeit kann man sich schon eher aufregen
- wem die Grafik einer Konsole reicht, darf sich natürlich gern so ein Gerät zulegen, nur sollte man dann keine dämlichen Vergleiche anstellen, noch dazu im falschen Thread und in Form eines halben Romans
 
@Zeedy:
Du kannst morgen lesen, wie eine GTX 970 OC mit einer GTX 780 Ti OC ums goldene Kalb tanzt und nicht immer ganz so goldig aussieht. Und ein bisschen AMD-Staffage drumrum gibt es natürlich auch. Du weißt ja wo ;)
 
zeedy schrieb:
Was ich sehe ist, dass bei der GTX970 die reelle durchschnittliche Gaming Aufnahme bei 178W liegt, und die TDP bei 145W.
Das sind 30W Verlust durch SpaWas, PCB und Speicher. Ist doch in Ordnung. Die TDP Angabe bei NV (bei AMD kann ich es nicht mit Sicherheit sagen) bezieht sich nur auf die GPU.
Woher hast du denn die 178W? Dann kann ich evtl. noch andere Gründe für diese Diskrepanz finden.
 
Nicht vergessen: die Boardpartner-Karten haben ein wesentlich höheres Power-Target! Und vergesst endlich mal den TDP-Unsinn und orientiert Euch am Power-Target :)
 
zeedy schrieb:
Was ich sehe ist, dass bei der GTX970 die reelle durchschnittliche Gaming Aufnahme bei 178W liegt, und die TDP bei 145W.

Tja, wenn man mal hinter die Fassade schaut, bekommt der Lack der neuen Karter ja einige Kratzer, wenngleich die neuen Karten trotzdem (wenn auch etwas weniger als CB-Test vermitteln will) sparsamer zu sein scheinen.
 
Zurück
Oben