News Nvidias GM200 posiert neben 12 GB GDDR5

Wir gehen mal von normalen Voraussetzungen aus.
 
Naja die Titan kam Feb. raus und die im 780 im Mai, es könnte durchaus zeitlich wieder ähnlich laufen.
 
Darum hoffe ich ja mal das AMD da etwas raus haut was Nvidia Strategisch unter Druck setzt.
Aber nach der HD 7970 kamm da leider nicht mehr viel.
Gut wäre es allerdings für uns wenn NV zu einem Vollausbau von Beginn an genötigt wäre und nicht erst 5Monate vor Pascal.
 
Zuletzt bearbeitet:
Ich halte den Vollausbau dieses mal direkt für Wahrscheinlich. Als der GK110 raus kam war die 28nm Fertigung noch nicht so weit wie sie es heute ist und man hat vergleichsweise schlechte Yields erziehlt. Mittlerweile halte ich auch 600mm² Chipgröße für machbar da auch die anfänglichen Probleme mit dem Prozess nicht mehr präsent sind. Teildefekte Chips können dann mit reduzierter Shaderzahl verwurstet werden. Möglich wäre in meinen Augen z.B. eine Titan 2/X mit 12GB und Vollausbau für läppische 1000€ und darunter eine 980Ti mit reduzierter Shaderzahl und halbiertem Speicher. Oder aber NV begründet damit die "1000"er Serie, so wie es bei der 700er-Reihe der Fall war.
 
Denke ich auch Titan 3072 und Ti so 2880 shader, wobei je nach amd leistung die Ti auch mit 3072
 
Kommt aber auch darauf an wann AMD etwas raushaut und welche Gerüchte sich nun Bewahrheiten. Mit HBM haben sie natürlich den Vorteil dass sie den Takt zu Ungunsten des OC-Potenzials erhöhen können ohne dass der Gesamtverbrauch ansteigt (im Vergleich zu GDDR5). Das verlängert die Balken von Werk aus schon einmal.
 
Thanok schrieb:
Ich halte den Vollausbau dieses mal direkt für Wahrscheinlich. Als der GK110 raus kam war die 28nm Fertigung noch nicht so weit wie sie es heute ist und man hat vergleichsweise schlechte Yields erziehlt. Mittlerweile halte ich auch 600mm² Chipgröße für machbar da auch die anfänglichen Probleme mit dem Prozess nicht mehr präsent sind.

Das sehe ich ganz genauso. Wenn tatsächlich eine kleinere Struktur fast fertig ist, dann wird man sich sicherlich nicht zu viel Zeit mit zig Shader bzw. Karten Varianten nehmen, sonst wird man 28nm Karten nicht für derartig viel Geld los.
 
Zuletzt bearbeitet von einem Moderator: (Fullquote gekürzt)
Thanok schrieb:
Wenn wir mal von einem Kühler wie z.B. dem Morpheus ausgehen, dann hat meine Aussage nach wie vor Bestand. Die Baseplate deckt definitiv auch sehr große Chips ab, aber bei gleicher Lüfterbestückung (und Drehzahl) wird die Temperatur bei einem 250W 600mm² Chip geringer sein als bei einem Chip mit gleichem Verbrauch und halber Chipfläche. Der Kühler hat schließlich nur eine halb so große Fläche um die Wärme aufzunehmen.
Nein, das hat nicht bestand. Eine größere Chipfläche bringt dir nur marginal etwas, wenn der Wärmewiderstand woanders liegt. Was macht dich so sicher, dass der kritischste Punkt der Wärmeübergang vom Chip zur Baseplate ist?
Wenn du jetzt natürlich gleich die Chipfläche halbierst, ist natürlich klar wo der Flaschenhals liegt. Aber das ist ja keine vernünftgie Diskussionsgrundlage.
Es ist durchaus möglich, dass es so ist, aber gesichert ist das rein gar nicht.


Ein gutes Beispiel ist allerdings Hawaii; es hat seine Gründe dass es kaum leise und starke Kühler für die Karten gibt, wogegen man beim GK110 eine relativ große Auswahl hat.
Ja, was ist denn der Grund? Die Hersteller haben zu einem Großteil 780Ti-Kühler genommen und nicht optimal auf den Die des Hawaii angepasst? Die Wärmeentwicklung im Hawaii selber ist vielleicht ungünstig verteilt und es entstehen Hotspots?
Es gibt zig mögliche Gründe und wir können lediglich vermuten was nun wirklich zutrifft.

Man kann auf jeden fall nicht sagen, ein großer Chip ist automatisch besser zu kühlen, als ein kleiner Chip. Vor allem wenn die grundauf verschieden sind.


Thanok schrieb:
Ich halte den Vollausbau dieses mal direkt für Wahrscheinlich. Als der GK110 raus kam war die 28nm Fertigung noch nicht so weit wie sie es heute ist und man hat vergleichsweise schlechte Yields erziehlt. Mittlerweile halte ich auch 600mm² Chipgröße für machbar da auch die anfänglichen Probleme mit dem Prozess nicht mehr präsent sind. Teildefekte Chips können dann mit reduzierter Shaderzahl verwurstet werden.
Technisch gesehen ist das richtig, aber das hat für Entscheidungen meist nicht die ausschlaggebende Rolle.
In meinen Augen wäre Nvidia regelrecht dämlich, sofort in die Vollen zu gehen. Zumindest solange nicht klar ist was AMD bringt.

Alleine die 12 GB und die massive Performance sind doch Grund genug um einen potentiellen Käuferkreis zum Kauf zu bewegen. Da reichen auch 25% Performancevorteil gegenüber einer 980. Alle die mehr als 4GB haben wollen sind doch automatisch gezwungen das Teil zu kaufen. Und ob nun 25 oder 40% schneller macht da wenig Unterschied. Wer das aktuell schnellste haben will und dazu mehr als 4GB wird sich das Ding kaufen, auch wenn es nicht der Vollausbau ist.

Und solange kann man dann auch teildefekte Chips verkaufen und den Rest im Enterprise-Markt unterbringen. Wenn AMD noch nichts bringt, macht es ja auch keinen Sinn unter "Titan II" noch was zu bringen. Man könnte also teildefekte Chips nicht unterbringen.
Ergänzung ()

Fatal Justice schrieb:
Wenn tatsächlich eine kleinere Struktur fast fertig ist, dann wird man sich sicherlich nicht zu viel Zeit mit zig Shader bzw. Karten Varianten nehmen, sonst wird man 28nm Karten nicht für derartig viel Geld los.
Was soll denn fast fertig sein?
 
Zuletzt bearbeitet:
Thanok

Ob ein Chip gut zu kühlen ist, ist technisch betrachtet eine Frage der Wärmeleitung und damit der Thermodynamik. Es muss gewährleistet sein, dass der Wärmestrom der CPU insbesondere unter Vollast abgeführt werden kann (so dass die zulässige Chipkerntemperatur nicht überschritten wird; andernfalls lernen die Transistoren schwimmen:D). Also der Trivialschluss "großer Chip=einfache Kühlung" (-> das war mein Zitat, s.o.), geht nicht.
 
Na ja die chip diesignr werden schon schauen das die Shader schon ordentlich über das Die verteilt liegen. Aber wenn ich mir das so ansehe wird die neue 390x wohl wieder ein Hitzkopf. Dafür sollte sie sich aber Leistungstechnich gut abheben von Maxwell da 1/3 mehr Shader und HBM.
 
HBM ist aber zumindest in der ersten Ausbaustufe wohl (noch) auf 4GB beschränkt & da könnte NV trotz "des alten Speichers" massive Vorteile haben, zumindest für solch eine Leistungsklasse an Graka. Im Bereich Preisentwicklung sollte sich die Geschichte wohl ebenfalls wiederholen --> zu Kepler schiel ...^^
 
SuddenDeathStgt schrieb:
HBM ist aber zumindest in der ersten Ausbaustufe wohl (noch) auf 4GB beschränkt & da könnte NV trotz "des alten Speichers" massive Vorteile haben, zumindest für solch eine Leistungsklasse an Graka. Im Bereich Preisentwicklung sollte sich die Geschichte wohl ebenfalls wiederholen --> zu Kepler schiel ...^^

Nope. Ich zitiere mich selbst:

Mit der ersten Generation sind nur bis 8GB möglich was nicht an der Fläche liegt, sondern an de Speicherdichte pro Stack. Selbst 8GB mit der ersten Generation hätte das Problem das man ein rießiges Interface benutzen muss das nicht genutzt wird, aber eben nur so möglich ist.

http://www.3dcenter.org/news/was-man-mit-high-bandwith-memory-anfangen-kann

https://www.computerbase.de/forum/t...efter-abschalten.1436147/page-7#post-16881854
 
@Dai6oro

Danke für den 3D-Center-Link & 8GB wär ja schon mal was u. beschwichtigt. Noch eine kleine Anmerkung ...wenn Du direkt antwortest, dann ist ein Komplettzitat logischerweise überflüssig & das wird auch nicht gern gesehen, da es wie gesagt überflüssig ist.^^
So ...jetzt aber B2T & wie bei allen Gens, sollte "eine gewisse OC-Pufferzone" immer gegeben sein ... :-)
 
ampre

Was heisst schon "Hitzkopf"? Die Karten sind Rechenmonster. Irgendwo muss die Leistung ja herkommen. Konnte noch nie verstehen, wo es da jetzt ein Problem geben sollte, wenn das Kühlsystem richtig ausgelegt worden ist. Und wer zu viel Geld hat, kann den Chip immer noch unter Wasser setzen.
 
Zurück
Oben