NVIDIA's Kepler Effizienz durch neue 28nm (HKMG) Process Technology erklärt

HPC Master

Banned
Registriert
Apr. 2008
Beiträge
301
Nvidia: Leistungseffizienz von Kepler - Ergebnis einer engen Zusammenarbeit mit TSMC.

Keplers beeindruckende Effizienz wird von der Presse und PC-Gamer als ein grosser Erfolg betrachtet, aber ein wichtiger Teil dieser Geschichte ist noch nicht erzählt worden.

Der Leiter des Engineering-Teams, das mit TSMC für drei Jahre daran gearbeitet hat, Nvidia's next-gen Kepler GPU herzustellen, würde gerne etwas Licht auf die Auswirkungen der 28nm-Prozesstechnologie auf Kepler's Effizienz werfen... den Rest gibt's hier zum nachlesen:

TSMC-NVIDIA-Kepler-28nm-vs-40nm-11.jpg


Nvidia: Leistungseffizienz von Kepler - Ergebnis einer engen Zusammenarbeit mit TSMC.

TSMC-NVIDIA-Kepler-28nm-vs-40nm-combined.jpg
 
Zuletzt bearbeitet:
Die "Effizienz" des Keplers ist gar nicht mehr so effizient, wenn man bedenkt das sämtliche GPGPU Komponenten fehlen.
Wie sich das auswirkt sieht man gut in Metro2033.
Dort wird der DoF Effekt via ComputeShader berechnet, und da hat die GTX keine Schnitte.

Wird selbst auf der Nvidia Homepage beschrieben

Metro 2033 uses DirectX 11’s compute shaders to calculate high quality depth of field effects. Depth of field effects such as background blurring has been used in games for some time. However, up until now, they have relied on simple pixel shader approximations. Metro 2033 uses compute shaders to perform an accurate simulation of a camera lens, taking into account factors such as focal point and aperture size. The result is softly blurred backgrounds with smooth, pleasing highlights.

Also in wie weit ist Kepler effizient, wenn AMD mit GCN und damit auch ordentlich Compute Power minimal mehr Strom verbrät ?
Da sehe ich AMD in Sachen Effizienz immer noch weit vor der aktuellen Kepler Generation.

Typisches Marketing Gewäsch mal wieder.
 
Dumm nur, dass von AMD leider nix über deren Chipentwicklung noch deren Zusammenarbeit mit TSMC zu erfahren ist... und btw. => 40nm Fermi hat nicht's mit der 28nm Kepler GPU Architektur gemeinsam!

Neuere Test's mit dem neueren 301.10 WHQL Treiber zeigen im Vergleich zum Release-Treiber, in Deinem allerletzten verbliebenem "Lieblingsspiel" Metro2033 keinerlei grossen Unterschiede mehr... GPGPU hin oder her!

imageview.php
 
Zuletzt bearbeitet:
Im Grunde ist es immer noch die Gleiche Architektur, nur geshrinked & "optimiert".

In Sachen Compute Power kann die GTX680 gerade einmal so die GTX560TI in Schach halten.
Fermi in Form der GTX460/GTX560/580 waren klasse Karten.

Aber deswegen muss man Kepler nicht über den grünen Klee hinaus loben, denn dazu besteht kein Grund.
 
Den wesentlichen Unterschied hat Phobos1083 schon genannt. Aber genug (dieser Thread hat schon mehr Aufmerksamkeit bekommen als nötig)
 
Um mal etwas auf den verlinkten Text einzugehen:

HKMG is a process that uses a gate insulator film with a high dielectric constant which reduces power by reducing gate leakage compared to the previous generation SiON gate.

Geringere Gate-Leckströme sind ja schön und gut - entsteht der größte Stromverbrauch aber nicht sowieso bei der Zustandsänderung eines CMOS-Blocks? Dann wenn beide FETs kurzzeitig in einem semi-leitenden Zustand sind (der eine von high auf low, der andere von low auf high), und ein entsprechend großer Strom von VCC nach Masse fließen kann?
 
Was hat Metro2033 und GPGPU mit der "Effizienz" einer Gamerkarte zu tun ?!? Es gibt genügend Reviews die
alle darlegen, dass Nvidia auch locker der neue "Preis/Leistung's" und somit Effizienz-Leader im Grafikbereich ist.

>>> Bang4Buck, Bang4Watt, Efficiency Metric => +13% @1920x1080 und +24% @2560x1600 Effizienter
HEM.png


BTW: Wenn man das neue OC Verhalten bei Nvidia einmal verstanden hat, ist es ein Kinderspiel...

=> drei Regler verschieben ;o)

Sie skalliert besser und hat einen viel geringeren Stromhunger als die AMD HD7970 im OC Vergleich. Beim Max. OC
steigt der Stromverbrauch der Nvidia GTX680 gerade mal um ~40W, der einer AMD HD7970 aber um ~100W an.
 
Zuletzt bearbeitet:
Weil Compute Shader nunmal Strom verbrauchen, und je mehr Strom verbraucht wird desto geringer ist die Effizienz !

Da Compute Shader immer mehr Einzug in die Spielewelt halten, sehe (nicht nur) ich die HD7970 deutlich in Front.
Wo gibt es da etwas nicht zu verstehen ?
Wenn es darauf ankommt verbraucht die GTX680 zwar weniger Strom, ist aber auch langsamer.
Und das Tahiti mehr OC Potenzial bietet, ist auch kein Geheimnis ;)

Und die 100W saugst du dir gerade gewaltig aus den Fingern.
Hier ein Auszug aus dem CB Test

AMD wirbt bei der Radeon HD 7970 mit einem großen Übertaktungsspielraum der Tahiti-GPU, was wir ohne weiteres bestätigen können. Satte 1.125 MHz Takt konnten wir aus dem Rechenkern heraus holen (+200 MHz), ein absoluter Rekordwert! Und das ist nichtmals das Ende der Fahnenstange, denn eine noch höhere Frequenz lässt das Catalyst Control Center nicht zu (externe Tools funktionieren derzeit nicht).

Auch der GDDR5-Speicher macht die maximalen 3.150 MHz (+400 MHz) problemlos mit und wäre eventuell zu noch mehr in der Lage. Je nach Applikation konnten wir die Geschwindigkeit um spürbare 17 bis 20 Prozent steigern.

Die Leistungsaufnahme der Radeon HD 7970 steigt dabei um 35 Watt auf 350 Watt an. Zeitgleich erhöht sich die Lautstärke um ein Dezibel und die Temperatur um zwei Grad Celsius.

Wo sind das 100W ?

Ich würde sagen "Fanboy entlarvt"
 
Zuletzt bearbeitet:
HPC Master schrieb:
Sie skalliert besser und hat einen viel geringeren Stromhunger als die AMD HD7970 im OC Vergleich.

Die Karten sind aber nicht vergleichbar! Die HD7970 ist der Vollausbau der GCN-Architektur, inklusive GPGPU. Die GTX680 ist die abgespeckte Version, da hier der GPGPU teil extrem beschnitten wurde. Sofern ist es einfach nur logisch, dass die Effizienz einer GTX680 besser als eine is HD7970 ist. Wenn man die Effizient von AMDs GCN und Kepler vergleiche will muß man GTX680 gegen HD7870 testen! Ansonsten kann man auch Äpfel mit Birnen vergleichen.
 
HPC Master schrieb:
=> drei Regler verschieben ;o)

Sie skalliert besser und hat einen viel geringeren Stromhunger als die AMD HD7970 im OC Vergleich.

OC-Skalierung
http://www.pcgameshardware.de/aid,8...orce-GTX-680-Radeon-HD-7970/Grafikkarte/Test/

HPC Master schrieb:
Beim OC steigt der Stromverbrauch der Nvidia GTX680 gerade mal um ~40W, der einer AMD HD7970 aber um über 100W an.

(Overclocked )"HD 7970 OC Edition @1280MHz gegen standard $499 Nvidia GTX680" #10

:volllol:

So Feierabend hier.....
 
Zuletzt bearbeitet:
@Matzegr: => Denke nicht dass die HD7870 mit übertakten an die Leistung der Nvidia GTX680 herankommt...
also vergleichen wir hier besser HighEnd Gamerkarten von AMD und Nvidia.... oder ?!?
 
Zuletzt bearbeitet:
Was möchtest du mir jetzt damit sagen ?

Du scheinst meine Beiträge nicht wirklich verstanden zu haben ;)
Ich habe nie bestritten das Kepler weniger Strom verbraucht. Was du nur zu ignorieren scheinst, ist die Tatsache das sich Nvidia diesen Vorsprung teuer erkauft.
Compute Shader werden immer wichtiger, und genau da fehlt es Kepler an Power.
Das sich solche Shader nicht mit Luft & Liebe betreiben lassen sollte ja völlig klar sein.

Nun setzt das doch bitte einmal in ein richtiges Verhältnis, und du wirst sehen das GCN wesentlich effizienter arbeitet.
Hier wurde im Gegensatz zu Kepler nichts beschnitten.

Da kannst du noch so viele bunte Bildchen posten, an den Fakten wird es nichts ändern :rolleyes:
 
Aha... somit lohnt es sich für Gamer ne "effiziente" AMD GCN Karte zu kaufen, die in 3 Spielen wie Metro2033,
AvP und Anno 1704 ihre extreme GPGPU-Power ausspielen kann - und was ist mit den ganzen Rest der Games ?!?

BTW: Alle zukünftigen Games die auf der UnrealEngine 3 oder 4 basieren werden, nutzen nur so zur Info Nvidia's GPGPU Technologie => in Form von CUDA & Physx APEX SDK für kommende Physik Berechnungen auf CPU und GPU.

Durch die implementierung von Nvidia's PhsyX SDK & Apex SDK's in fast alle nahmhaften, weltweit populärsten Entwickler-Bibliotheken und Game-Engines wie Unreal Engine 3 & 4, Unity 3D, Vision, Instinct, Diesel, Torque, Hero, BigWorld, DiCE, GearBox 2KGames, EA Games bis hin zu Emergent Game Technologies Gamebryo LightSpeed (Cross-Platform Product für PC, Xbox 360, PS3, Mac OS X, Linux, Tegra und Android ) und Support für 3Ds Max, Maya, etc.

Nvidia APEX (Adaptive Physics Extensions) SDK ist eine neue mächtige Bibliothek die auf der von PhysX SDK aufbaut.
Sie umfasst 4 wesentliche APEX Module:

• APEX Clothing
• APEX Destruction
• APEX Particles
• APEX Turbulence

http://www.youtube.com/watch?v=UY_kTMFpQ4E
http://www.youtube.com/watch?v=grIVUDH4FIM
http://www.youtube.com/watch?v=lkBKW4dClRw
http://www.youtube.com/watch?v=qq3mYmzOelI
Inzwischen ist die PhysX-Schnittstelle nicht nur auf Nvidias Grafikprozessoren angepasst, sondern läuft neben PC's auch auf der Playstation 3, Nintendos Wii und der Xbox 360 und damit allen modernen Spieleplattformen. Da für die Entwickler die "Cross-Platform-Programmierung" immer wichtiger wird, sind universelle Schnittstellen eine große Erleichterung.

11-1080.2850771698.jpg


Kurz gesagt, APEX SDK ist eine "Neue einfache Möglichkeit" und somit bietet man den Künstler, Level Designer und Spiele-Entwickler mit einer Reihe von einfach zu bedienenden Tools der PhysX-Technologie-Entwicklung als Software Development Kit (SDK), für den Prozess der Implementierung von skalierbarer Physik über mehrere rationalisieren Plattformen für Next-Generation-Titel wie "ARMA 3, Borderlands 2, Aliens: Colonial Marines, EVE Online, etc. und wurde schon in Form von Nvidia Physx SDK in zahlreichen älteren Blockbuster'n von XBox und PC Games wie der Gears Of War Reihe, Unreal Tournament 3, Bulletstorm, Tom Clancy's Ghost Recon Advanced Warfighter, Mirror's Edge, Cryostasis, Mafia II, Dragon Age, Need for Speed Shift, Arkham City und Mass Effect einge- setzt.

Es gibt mittlerweiler über 370 Games die auf Nvidia's Physx SDK Bibliotheken aufbauen, wobei etwa 30 auf jene "advanced" GPU Physik spezialisiert sind, der Rest läuft auf den diversen CPU's von PC's, PS3, XBox 360, Wii.

http://www.youtube.com/watch?v=HpTSK9aBP1c
http://www.youtube.com/watch?v=hmT9N5dUqcM
Hier ein schon etwas älterer Artikel (Dezember'09) der die GPGPU Physik Entwicklung ein wenig nachzeichnet:

Popular Physics Engines comparison: PhysX, Havok and ODE

titles_release_dynamics_graph_year.png
 
Zuletzt bearbeitet:
HPC Master schrieb:
@Matzegr: => Denke nicht dass die HD7870 mit übertakten an die Leistung der Nvidia GTX680 herankommt...
also vergleichen wir hier besser HighEnd Gamerkarten von AMD und Nvidia.... oder ?!?

Die Überschrift des Threads ist "NVIDIA's Kepler Effizienz...". Wenn man die Effizienz vergleicht, müßen die zu vergleichenden Produkte auch gleiche Eigenschaften mitbringen. Also GTX680 (GK 104) gegen HD 7870 (Pitcairn XT). Natürlich liefert die GTX680 mehr Performance, aber das ist kein Kunststück der Chip ist ja auch größer.

Und zu deinen Bilderchen.

Da zeigt sich die "Effizienz" sehr abhängig vom Spiel. Schauen wir uns doch mal Deus Ex an. Da liefert die overclocked HD7970 OC satte 27% mehr Avg. FPS bei gerade mal 18% höheren Verbrauch oder Batman: 28% mehr Avg. FPS bei 29% mehr Verbrauch. Wo ist den da die "Effizienz" vom GK104 hin?
 
Warum habe ich das Gefühl das ich hier irgendwo den Nokia Nick vermute?

Ich meine man kann sich, wie immer, alles schönreden und auch die besten Videos und Folien bringen da nichts!

Entweder man kauft sich eine GTX 680 oder nicht!
Wer die Nvidia Features (wie 3D Vision, weil man schon das Kit hat z.B.) nutzen und die schnellstmögliche Karte dafür haben will, kommt aktuell nicht an der GTX 680 vorbei.

Bei allem anderen entscheidet die persönliche Vorliebe!
Ich würde nie ein Produkt kaufen, weil mir die Firma gefällt und aktuell würde ich für Single GPU Betrieb eine AMD 7970 nehmen und für Multi-GPU nach wie vor bei Nvidia bleiben!

Die Sache der Effiziens finde ich nur deswegen Spannend, weil weniger Stromverbrauch = leiserer NT Betrieb möglich. Das kommt aber auch erst bei Multi-GPU Betrieb wirklich zum tragen ;)

Manche finden es evtl. schon interessant zu erfahren, das Nvidia da mit TSMC zusammengearbeitet hat!
Nur bin ich mir ziemlich sicher das AMD auch mit TSMC zusammen plant und denen nicht einfach einen Zettel mit der Aufschrift "Macht mal" hinschmeisst!

Also ist mir der Zweck dieses Threads nicht so ganz klar?

Es wird sich sicherlich niemand eine Nvidia GTX 680 kaufen, weil er jetzt weiss warum sie Effizienter ist als Fermi, da das Thema in jedem Test durchgekaut wurde!
 
Matzegr schrieb:
Wenn man die Effizienz vergleicht, müßen die zu vergleichenden Produkte auch gleiche Eigenschaften mitbringen. Also GTX680 (GK 104) gegen HD 7870 (Pitcairn XT). Natürlich liefert die GTX680 mehr Performance, aber das ist kein Kunststück der Chip ist ja auch größer.

Das geht aber auch anders rum: Der HD 7970 3GB (Tahiti XT) hat 365mm² mit 384Bit @ 264GB/s, die GTX680
2GB (Kepler GK104) hat 294 mm² mit 256Bit @ 192GB/s. Natürlich liefert die GTX680 mehr Performance, aber das ist kein Kunststück der Chip ist ja auch kleiner ;o).

Phobos1083 schrieb:
In Sachen Compute Power kann die GTX680 gerade einmal so die GTX560TI in Schach halten. Fermi in Form der GTX460/GTX560/580 waren klasse Karten.

Die GTX680 bietet in etwa die selbe Compute Power wie die GTX580... ansonsten kannste dann ja gerne auf den GK110 setzen - der kann dann all Deinen GPGPU Ansprüchen gerecht werden:

Nvidia’s GTX 680 arrives! “Faster, Smoother, Richer” – is it enough to take the Performance Crown?

PhysX.jpg


http://www.youtube.com/watch?v=ZwcSdToMLjE
http://www.youtube.com/watch?v=8k7oaz8mWug
http://www.youtube.com/watch?v=Q_BsRSAiacM
http://www.youtube.com/watch?v=SDYbK6iUsRM#t=27s
http://www.youtube.com/watch?v=FyDySdjPLqc
http://www.youtube.com/watch?v=ea8LkpNDPVQ
http://www.youtube.com/watch?v=xulEWbAyv3k
 
Zuletzt bearbeitet:
HPC Master schrieb:
Die GTX680 bietet in etwa die selbe Compute Power wie die GTX580... ansonsten kannste dann ja gerne auf den GK110 setzen - der kann dann all Deinen GPGPU Ansprüchen gerecht werden:

Die GK110 wird aber wiederum ineffizienter sein als die GK104. Und zum Thema gleiche Compute Power wie die GTX580:
45164.png
oder
45193.png


Da sieht man deutlich wie beschnitten GK 104 ist. Wie "effizient" die Kepler Architektur ist, wird man erst mit GK110 sehen.
 
Du scheinst einfach nicht verstehen zu wollen, und informiert bist du auch nicht ;)

CUDA ist eine tolle Sache, jedoch ist die NV Exklusivität auch bald Geschichte

NVIDIAs CUDA-Technik bald auch für AMD-GPUs

NVIDIA hat anlässlich der hauseigenen Konferenz GTC in Peking den Quellcode seines auf dem LLVM-Projekt aufgebauten CUDA-Compilers veröffentlicht. Der speziell auf parallele GPU-Berechnungen ausgelegte Compiler ist Teil der CUDA-Entwicklungsplattform und soll die Technik für neue Programmiersprachen und alternative Prozessor-Architekturen zugänglich machen – darunter auch die Grafikprozessoren von AMD und Intel.

Der Compiler ist Teil der erst vor wenigen Tagen vorgestellten CUDA-Version 4.1, bei NVIDIA registrierte Entwickler erhalten kostenlos Zugriff auf den Quellcode. NVIDIA spricht davon, dass man die Plattform so weiter öffne und zitiert Sudhakar Yalamanchili, Professor am Georgia Institute of Technology und Leiter des Ocelot-Projektes, mit den Worten, dass die Zukunft der Computerwissenschaften plattformübergreifend sei und das CUDA-Projekt Entwickler auf verschiedenen Prozessor-Architekturen unterstützen würde – darunter namentlich AMD-GPUs und Intel-x86-CPUs.

Aktuell unterstützt das System die Entwicklung unter C und C++, eine Erweiterung der Portland Group (PGI) erlaubt auch Fortran als CUDA-Programmiersprache. Als Zielplattform kommen derzeit NVIDIAs eigene GPUs und x86-Intel-CPUs in Frage. Langfristig will NVIDIA mit der Offenlegung der Technik den Weg zum Exascale-Computig ebnen, sprich deren Einsatz auf Supercomputern und anderen Hochleistungsplattformen.

Was sagt uns das ? richtig, es ist so wie ich sagte ;)

Durch die Öffnung von CUDA werden auch die Compute Shader weiter in der Spielewelt Anklang finden, womit wir wieder am Anfang wären.


Du ziehst irgendwelche Folien und Bildchen aus dem Ärmel, ignorierst aber die FAKTEN die man dir präsentiert ;)
Du bist einfach nur ein kleiner Fanboy, von Objektivität keine Spur.
Und diese Mär vom Mittelklassechip (GK104) und dem legendären GK110 ist langsam langweilig.
Der GK104 ist das schnellste was Nvidia auf dem Markt hat, und nur das zählt.
Wie Nvidia intern ihre Chips bezeichnet sagt dabei rein gar nichts aus.
Fakt ist, euer über Kepler aka GK110 ist noch lange nicht in Sicht, und wird wohl doch GTX780 heissen, welcher sich mit der HD8K Serie rumschlagen muss.

Für Spieler sind beide aktuellen Flaggschiffe sehr interessante Karten, und mit beiden macht man beim Kauf keinen Fehler
Jedoch ist der Vorsprung den man in die GTX680 reininterpretiert quasi nicht vorhanden.

@Matzegr

Wie ich schon sagte, rein von Compute Power muss sich die GTX680 mit der GTX560TI rumschlagen.
DAs macht aus der GTX680 keine schlechte Karte, mir geht es nur um diese Glorifizierung einer Karte/Marke oder Firma.
Fan einer Firma sein, ist mit das armseligste das ich kenne.
Beide Lager wollen nur eines, unser Geld.
 
Zuletzt bearbeitet:
Zurück
Oben