News Vier GeForce GTX 800 mit GM204 zum Start möglich

Tobi4s schrieb:
GK 204 ist nicht der Nachfolger von GK110. NVidia möchte das nur gerne so verkaufen.
Meine HD7870 war wirklich eine super Anschaffung. Zwei Jahre alt und immer noch ganz weit oben anzusiedeln. In diesem ehemals so kurzlebigen Markt ist das beinahe unglaublich

Die 7870 war/ist echt top. Damals wirklich ein guter Deal fürs Geld :)
Dank der Karte werde auch ich die restlichen 28nm Karten entspannt aussetzen.
 
Tobi4s schrieb:
Meine HD7870 war wirklich eine super Anschaffung. Zwei Jahre alt und immer noch ganz weit oben anzusiedeln. In diesem ehemals so kurzlebigen Markt ist das beinahe unglaublich

Naja, teilweise zeigt sie nur die hälfte der Spieleleistung der Platzhirsche, aber ich stimme dir zu, wunderbare Anschaffung und dadurch dass sie sich auch noch großzügig übertakten lässt auch heute noch für alles zu haben :)
Die High-End-Karten haben natürlich noch immer ihren Platz in den Gamer-PCs, manchmal wünscht ich aber ich hätte auch eine...
 
k0ntr schrieb:
nun, nicht ganz. Eher um 1/3 erweitert.

Ok, da blicke ich jetzt nicht ganz durch: Durch eine feinere Fertigung (ob es nun von 28nm auf real 20 oder 16nm geht sei mal dahin gestellt) soll die nötige Fläche um 1/3 anwachsen? Sicher dass du da nicht etwas durcheinander geworfen hast?

Der GM204, der auf etwa 1 1/3 der Fläche des GK104 kommt wird in 28nm gefertigt und würde @20nm etwas mehr als die Hälfte der vermuteten 430mm² auf die Waage bringen - also ungefähr 220mm² (1,96 ist die Density von 22 ggü. 28nm). Da NV wohl nicht unbedingt an die Density-Grenze gehen wird ist eine endgültige Größe von 250-280mm² nicht unwahrscheinlich. Im Grunde ist das also nur die 28nm Variante des 20nm Chips.
 
Nicht der Shrink auf 20nm ist das Schwierige, das Design auf FinFETs anzupassen und das serienreif zu bekommen ist das Schwierige. Will hießen 20nm mit "nur" FinFETs ist in etwa so, wie neue Karosserie, fehlt "nur" noch der neue Hybrid-Motor. Die eigentliche Entwicklungsaufwand ist nicht der Shink.
Samsung nennt seinen 20nm FinFET-Prozess 14nm FinFET, ST/GloFo nennen ihren 20nm FDSOI-Prozess 14nm FDSOI, TSMC nennt seinen 20nm FinFET-Prozess einfach 16nm. Als Grundlage dient jeweils an LowPower Planarprozess. Intels 14nm-Prozess ist etwas kleiner als die 20nm-Prozesse der Konkurrenz, was allerdings in Sachen Packdichte bei Chips nichts heißt. Da gibts nen Haufen Parameter, die da Einfluss haben. Die "xxnm" Angaben sind schon seit 90nm nicht mehr aussagekräftig, sondern eher Marketingnamen. Hinzu kommt noch, dass TSMC und Intel GateLast-HKMG-Verfahren nutzen, GloFo/ST und offenbar auch Samsung aber auf ein GateFirst-Verfahren setzen, was dichtere Packdichten zulässt.

Wie groß ein 16nm-Grafikchip im Vergleich zu 28nm ist in TSMC-Prozessen lässt sich vorher kaum abschätzen. Er ist kleiner. Ob dichtere Packdichten möglich sind hängt von etlichen Faktoren ab. Grob kann man von einem Shrink zwischen 50 und 80% ausgehen.

Wenn NV 30% mehr Fläche verbrät beim GM204 kommt es darauf an, wie hoch Maxwell gepackt werden kann. GM107 dient hier zwar als Beispiel, aber wir vergleichen hier dennoch Äpfel mit Birnen, da Maxwell kleinere Shadercluster hat als Kepler und die verbunden werden müssen. Bei einem kleinen Chip gibts da sehr wenig Overhead, das kann bei einem großen Chip ganz anders sein. Mit anderen Worten, es ist extrem unwahrscheinlich, dass ein GM204 ggü. Kepler genau so viel Effizienzsteigerung ermöglich wie ein GM107 ggü. Kepler. Es könnte beispielsweise auch sein, dass ein Großteil des Flächenwachstums beim GM204 für Cache draufgeht. Was beide Chips aber sicherlich gemeinsam haben ist die neue Cache-Struktur, die Speicherbandbreite spart.
3072 Shader, wie das bei GCN der Fall war, halte ich mittlerweile wieder für extrem unwahrscheinlich. Es dürften um die 2500 sein.
 
Zuletzt bearbeitet:
N.t.H. schrieb:
Naja, teilweise zeigt sie nur die hälfte der Spieleleistung der Platzhirsche,

Ganz klar, aber wenn man das historisch betrachtet, was 2 Jahre früher so ausmachten, dann ist die HD7870 immernoch hervorragend aufgestellt.
Zum Vergleich, zwischen einer HD 4850 und einer HD 6950 lagen auch 2 Jahre, allerdings deklassiert die 6950 die 4850 in quasi jedem Bereich um Längen.
Selbst bei der Effizienz ist die 7870 heute noch gut dabei, wobei sich das mit Maxwell hoffentlich ändert.
 
ich_nicht schrieb:
@NuminousDestiny

750 Ti mit 60 W, sag ich da nur :D

http://www.maximumpc.com/article/features/voodoo_geforce_awesome_history_3d_graphics?page=0,1

Model: Riva 128 wohlgemerkt passiv
Date Released: 1997

Interface: AGP/PCI
Shader Model: N/A
DirectX: 5
Manufacturing Process: 0.35 micron
Core Clockspeed: 100MHz
Memory Clockspeed: 100MHz
Memory Bus: 128-bit
Transistors: 3.5 million

heutige kühllösungen sind ja schon sehr leise bei Luftkühlungen (zB GTX Titan). aber so richtig passive Kühllösungen in PCs oder eine GPU ohne Kühler hab ich schon ewig nicht mehr neu gesehen. Und wenn jetzt einer auf chipsatzgrafik verweist, so ist das aber noch lange keine echte graka.

damals waren HighEnd-Lösungen passiv gekühlt. da frage ich mich, wo der Fortschritt auf dem gebiet der "Sparsamkeit im Betrieb" liegen geblieben ist?!
 
Wolfsrabe schrieb:
Die Ankündigung, bald auf 16nm umzuschwenken, lässt mich und viele andere natürlich zögern,

Das ist möglicherweise genau das was SemiAccurate will => Osborne-Effekt.
Sie wissen das alle Welt GM204 in 28nm zum Oktober / November erwartet.
Und am besten schadet man einem neuen Produkt in dem man verkündet das kaum später der Nachfolger ansteht. Somit warten die Kunden lieber auf den Nachfolger.
 
hasebaer schrieb:
Das ist möglicherweise genau das was SemiAccurate will => Osborne-Effekt.
Sie wissen das alle Welt GM204 in 28nm zum Oktober / November erwartet.
Und am besten schadet man einem neuen Produkt in dem man verkündet das kaum später der Nachfolger ansteht. Somit warten die Kunden lieber auf den Nachfolger.

Gute Erklärung. Aber was hätten die davon?!
 
SemiAccurate mag Nvidia nicht.
Der Gründer der Seite war mal bei Nvidia angestellt, wurde gefeuert und seither schreibt er mit vorliebe gegen seine alte Firma.
 
@MahatmaPech
Eine GPU ohne Kühler findest du zum bespiel im Smartphone :D
Chipsatz GPUs gibt es ja eh nicht mehr.

Außerdem 60W auf so einer kleinen Die, da würden die Transistoren ohne Kühlung verbrennen.
Passive Löschungen gibt es leider recht selten da hast du recht.
 
Zum Thema Flächenersparnis eine grobe Orientierung:

TSMC: 6T-SRAM Cell Size:

40nm: 0,242µm²
28nm: 0,127µm²
16nm: 0,07µm²

Der Sprung von 28nm auf 16nm wird in Sachen Platzersparnis kleiner als von 40nm auf 28nm.
 
hasebaer schrieb:
SemiAccurate mag Nvidia nicht.
Der Gründer der Seite war mal bei Nvidia angestellt, wurde gefeuert und seither schreibt er mit vorliebe gegen seine alte Firma.

Wieder was gelernt. Thx!
 
ich_nicht schrieb:
@MahatmaPech
Eine GPU ohne Kühler findest du zum bespiel im Smartphone ...
Passive Löschungen gibt es leider recht selten da hast du recht.

In smartphones dient das gehäuse als heatspreader und somit als kühlkörper.

Wenn man im PC bereich was passiv gekühltes sucht, landet man schnell bei pokini und dergleichen. Aber die dinger sind nur ein eingeschränkter desktopersatz und zum spielen auch nur in geringem maße tauglich. Eine Grafikkarte ohne Kühlkörper auf dem Package ... Gibt es sowas derzeit überhaupt?
Ergänzung ()

@ps-shooty

Noch ne zweite graka für dein altes sys gefällig? Oder auch ne dritte?! :D
 
Gibt einige passiv gekühlte Grakas. Allerdings nicht zum Zocken geeignet...
Müsste nicht mal passiv gekühlt sein - mir wäre eine singleslot Graka schon recht!

@MahatmaPech: PN ;)
 
MahatmaPech schrieb:
damals waren HighEnd-Lösungen passiv gekühlt. da frage ich mich, wo der Fortschritt auf dem gebiet der "Sparsamkeit im Betrieb" liegen geblieben ist?!

Überlege mal folgendes:
Die Riva 128 hat 3,5 millionen Transistoren und hat ca. 7Watt gebraucht
eine HD 7970 hat 4310 millionen Transistoren und braucht ca. 250 Watt

Lässt man mal die tatsächliche Leistung im 3D Betrieb weg, dann sieht das so aus:
Die Riva 128 braucht pro eine Million Transistoren 2 Watt elektrische Leistung.
Die HD 7970 braucht pro eine Million Transistoren 0,058 Watt elektrische Leistung.
Berücksichtigt man die 3D Leistung nicht, dann ist also die HD 7970 um das 34 fache effizienter als eine Riva 128.
Ist dir jetzt klar warum heutige GPUs sparsamer sind?
 
Passive Kühlung gibt es heute nur im Spiele untauglichen Bereich. Bei der geforderten 3D Grafik macht eine passive Lösung keinen Sinn mehr.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
ganz einfach
-> 28x28 = 784
-> 764/(16x16) = ~3,0

Bei der Rechnung nicht vergessen dass man ne Fläche berechnet - also quadratisch und nicht linear = einfach 28nm/16nm machen kann.

Allerdings wird es kaum auf die 3,0 rauslaufen sondern man wird Leckströme reduzieren und also nicht direkt mit Fokus auf maximale Density rangehen.


14nm FF bringt keine Flächenreduzierung über 20nm bei TSMC! Deswegen frage ich. 20nm bringt eine 1.9X density Steigerung über 28nm. Eine Halbierung ist drin wenn überhaupt.
 
Gut ausgedrückt.
Die Anforderungen an moderne Grafikkarten sind stärker gestiegen als die Rechenleistung pro Watt, so dass die Hersteller der Nachfrage (die natürlich wiederum von der verfügbaren Leistung abhängt, so dass hier ein Teufelskreis enstehen kann) nur doch gestiegene Abwärme Herr werden kann.
@gmc: von echten nm Werten ausgehend:
28nm => 784
20nm => 400
16nm => (Wobei dies ja eigentlich 20nm bei TSMC sind) 256
14nm => 196

Bei 14nm sind wir bei linear steigender Packdichte dann schon bei 4-mal so vielen Transistoren wie bei 28nm. Idr gehen die Hersteller aber eben nicht in die vollen bei der Packdichte weil dadurch die Leckströme schnell ansteigen können und so die Wärmeentwicklung, die der andere wichtige Faktor ist, exorbitant ansteigt. Bei Hawaii sieht man gut was eine hohe Packdichte bedeutet, wenn man z.B. GK110 zum Vergleich nimmt.

Pauschal schaffen es aber beide Hersteller im Laufe einer neuen Fertigung die Leistung pro Watt etwa zu verdoppeln, wobei natürlich auch einiges auf Effizientere Architekturen entfällt. CB hat dazu mal einen Test gemacht wo man sehr schön den Vergleich ziehen konnte.
 
Zuletzt bearbeitet:
Matzegr schrieb:
Zum Thema Flächenersparnis eine grobe Orientierung:

TSMC: 6T-SRAM Cell Size:

40nm: 0,242µm²
28nm: 0,127µm²
16nm: 0,07µm²

Der Sprung von 28nm auf 16nm wird in Sachen Platzersparnis kleiner als von 40nm auf 28nm.

das war anzunehmen, erheblich ist er dennoch ;)
Mit kleinerer Fertigung wird es irgendwann wohl immer weniger Ersparnis geben - gerade in Relation zur Gate-Länge in nm. Man wird versuchen die Leckströme zu reduzieren und die Schaltspannung zu reduzieren.

@gmc

klar, bei der Rechnung ging es um Idealwerte und nicht darum was der Hersteller unter 16nm versteht. Egal ob 16, 40 oder 100 nm, ich will ne Graka die das Maximum rausballert. Darf ruhig 500W sein wenn die Performance stimmt. Wer ne sparsame Karte will findet die sicher - nur eben nicht im High End Segment.
Ich leg wert auf Sparsamkeit in idle aber Last... da darf sie ruhig heizen.
 
Zuletzt bearbeitet:
Zurück
Oben