Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidias GM200 posiert neben 12 GB GDDR5
- Ersteller MichaG
- Erstellt am
- Zur News: Nvidias GM200 posiert neben 12 GB GDDR5
Visualist
Lt. Commander
- Registriert
- Feb. 2006
- Beiträge
- 1.734
Darum hoffe ich ja mal das AMD da etwas raus haut was Nvidia Strategisch unter Druck setzt.
Aber nach der HD 7970 kamm da leider nicht mehr viel.
Gut wäre es allerdings für uns wenn NV zu einem Vollausbau von Beginn an genötigt wäre und nicht erst 5Monate vor Pascal.
Aber nach der HD 7970 kamm da leider nicht mehr viel.
Gut wäre es allerdings für uns wenn NV zu einem Vollausbau von Beginn an genötigt wäre und nicht erst 5Monate vor Pascal.
Zuletzt bearbeitet:
Thanok
Vice Admiral
- Registriert
- Feb. 2009
- Beiträge
- 6.555
Ich halte den Vollausbau dieses mal direkt für Wahrscheinlich. Als der GK110 raus kam war die 28nm Fertigung noch nicht so weit wie sie es heute ist und man hat vergleichsweise schlechte Yields erziehlt. Mittlerweile halte ich auch 600mm² Chipgröße für machbar da auch die anfänglichen Probleme mit dem Prozess nicht mehr präsent sind. Teildefekte Chips können dann mit reduzierter Shaderzahl verwurstet werden. Möglich wäre in meinen Augen z.B. eine Titan 2/X mit 12GB und Vollausbau für läppische 1000€ und darunter eine 980Ti mit reduzierter Shaderzahl und halbiertem Speicher. Oder aber NV begründet damit die "1000"er Serie, so wie es bei der 700er-Reihe der Fall war.
Thanok
Vice Admiral
- Registriert
- Feb. 2009
- Beiträge
- 6.555
Kommt aber auch darauf an wann AMD etwas raushaut und welche Gerüchte sich nun Bewahrheiten. Mit HBM haben sie natürlich den Vorteil dass sie den Takt zu Ungunsten des OC-Potenzials erhöhen können ohne dass der Gesamtverbrauch ansteigt (im Vergleich zu GDDR5). Das verlängert die Balken von Werk aus schon einmal.
Fatal Justice
Lieutenant
- Registriert
- Apr. 2009
- Beiträge
- 800
Thanok schrieb:Ich halte den Vollausbau dieses mal direkt für Wahrscheinlich. Als der GK110 raus kam war die 28nm Fertigung noch nicht so weit wie sie es heute ist und man hat vergleichsweise schlechte Yields erziehlt. Mittlerweile halte ich auch 600mm² Chipgröße für machbar da auch die anfänglichen Probleme mit dem Prozess nicht mehr präsent sind.
Das sehe ich ganz genauso. Wenn tatsächlich eine kleinere Struktur fast fertig ist, dann wird man sich sicherlich nicht zu viel Zeit mit zig Shader bzw. Karten Varianten nehmen, sonst wird man 28nm Karten nicht für derartig viel Geld los.
Zuletzt bearbeitet von einem Moderator:
(Fullquote gekürzt)
Nein, das hat nicht bestand. Eine größere Chipfläche bringt dir nur marginal etwas, wenn der Wärmewiderstand woanders liegt. Was macht dich so sicher, dass der kritischste Punkt der Wärmeübergang vom Chip zur Baseplate ist?Thanok schrieb:Wenn wir mal von einem Kühler wie z.B. dem Morpheus ausgehen, dann hat meine Aussage nach wie vor Bestand. Die Baseplate deckt definitiv auch sehr große Chips ab, aber bei gleicher Lüfterbestückung (und Drehzahl) wird die Temperatur bei einem 250W 600mm² Chip geringer sein als bei einem Chip mit gleichem Verbrauch und halber Chipfläche. Der Kühler hat schließlich nur eine halb so große Fläche um die Wärme aufzunehmen.
Wenn du jetzt natürlich gleich die Chipfläche halbierst, ist natürlich klar wo der Flaschenhals liegt. Aber das ist ja keine vernünftgie Diskussionsgrundlage.
Es ist durchaus möglich, dass es so ist, aber gesichert ist das rein gar nicht.
Ja, was ist denn der Grund? Die Hersteller haben zu einem Großteil 780Ti-Kühler genommen und nicht optimal auf den Die des Hawaii angepasst? Die Wärmeentwicklung im Hawaii selber ist vielleicht ungünstig verteilt und es entstehen Hotspots?Ein gutes Beispiel ist allerdings Hawaii; es hat seine Gründe dass es kaum leise und starke Kühler für die Karten gibt, wogegen man beim GK110 eine relativ große Auswahl hat.
Es gibt zig mögliche Gründe und wir können lediglich vermuten was nun wirklich zutrifft.
Man kann auf jeden fall nicht sagen, ein großer Chip ist automatisch besser zu kühlen, als ein kleiner Chip. Vor allem wenn die grundauf verschieden sind.
Technisch gesehen ist das richtig, aber das hat für Entscheidungen meist nicht die ausschlaggebende Rolle.Thanok schrieb:Ich halte den Vollausbau dieses mal direkt für Wahrscheinlich. Als der GK110 raus kam war die 28nm Fertigung noch nicht so weit wie sie es heute ist und man hat vergleichsweise schlechte Yields erziehlt. Mittlerweile halte ich auch 600mm² Chipgröße für machbar da auch die anfänglichen Probleme mit dem Prozess nicht mehr präsent sind. Teildefekte Chips können dann mit reduzierter Shaderzahl verwurstet werden.
In meinen Augen wäre Nvidia regelrecht dämlich, sofort in die Vollen zu gehen. Zumindest solange nicht klar ist was AMD bringt.
Alleine die 12 GB und die massive Performance sind doch Grund genug um einen potentiellen Käuferkreis zum Kauf zu bewegen. Da reichen auch 25% Performancevorteil gegenüber einer 980. Alle die mehr als 4GB haben wollen sind doch automatisch gezwungen das Teil zu kaufen. Und ob nun 25 oder 40% schneller macht da wenig Unterschied. Wer das aktuell schnellste haben will und dazu mehr als 4GB wird sich das Ding kaufen, auch wenn es nicht der Vollausbau ist.
Und solange kann man dann auch teildefekte Chips verkaufen und den Rest im Enterprise-Markt unterbringen. Wenn AMD noch nichts bringt, macht es ja auch keinen Sinn unter "Titan II" noch was zu bringen. Man könnte also teildefekte Chips nicht unterbringen.
Ergänzung ()
Was soll denn fast fertig sein?Fatal Justice schrieb:Wenn tatsächlich eine kleinere Struktur fast fertig ist, dann wird man sich sicherlich nicht zu viel Zeit mit zig Shader bzw. Karten Varianten nehmen, sonst wird man 28nm Karten nicht für derartig viel Geld los.
Zuletzt bearbeitet:
Mr.Seymour Buds
Commodore
- Registriert
- Feb. 2012
- Beiträge
- 4.338
Thanok
Ob ein Chip gut zu kühlen ist, ist technisch betrachtet eine Frage der Wärmeleitung und damit der Thermodynamik. Es muss gewährleistet sein, dass der Wärmestrom der CPU insbesondere unter Vollast abgeführt werden kann (so dass die zulässige Chipkerntemperatur nicht überschritten wird; andernfalls lernen die Transistoren schwimmen). Also der Trivialschluss "großer Chip=einfache Kühlung" (-> das war mein Zitat, s.o.), geht nicht.
Ob ein Chip gut zu kühlen ist, ist technisch betrachtet eine Frage der Wärmeleitung und damit der Thermodynamik. Es muss gewährleistet sein, dass der Wärmestrom der CPU insbesondere unter Vollast abgeführt werden kann (so dass die zulässige Chipkerntemperatur nicht überschritten wird; andernfalls lernen die Transistoren schwimmen). Also der Trivialschluss "großer Chip=einfache Kühlung" (-> das war mein Zitat, s.o.), geht nicht.
Na ja die chip diesignr werden schon schauen das die Shader schon ordentlich über das Die verteilt liegen. Aber wenn ich mir das so ansehe wird die neue 390x wohl wieder ein Hitzkopf. Dafür sollte sie sich aber Leistungstechnich gut abheben von Maxwell da 1/3 mehr Shader und HBM.
SuddenDeathStgt
Banned
- Registriert
- März 2004
- Beiträge
- 13.603
HBM ist aber zumindest in der ersten Ausbaustufe wohl (noch) auf 4GB beschränkt & da könnte NV trotz "des alten Speichers" massive Vorteile haben, zumindest für solch eine Leistungsklasse an Graka. Im Bereich Preisentwicklung sollte sich die Geschichte wohl ebenfalls wiederholen --> zu Kepler schiel ...^^
Dai6oro
Admiral
- Registriert
- Okt. 2006
- Beiträge
- 9.725
SuddenDeathStgt schrieb:HBM ist aber zumindest in der ersten Ausbaustufe wohl (noch) auf 4GB beschränkt & da könnte NV trotz "des alten Speichers" massive Vorteile haben, zumindest für solch eine Leistungsklasse an Graka. Im Bereich Preisentwicklung sollte sich die Geschichte wohl ebenfalls wiederholen --> zu Kepler schiel ...^^
Nope. Ich zitiere mich selbst:
Mit der ersten Generation sind nur bis 8GB möglich was nicht an der Fläche liegt, sondern an de Speicherdichte pro Stack. Selbst 8GB mit der ersten Generation hätte das Problem das man ein rießiges Interface benutzen muss das nicht genutzt wird, aber eben nur so möglich ist.
http://www.3dcenter.org/news/was-man-mit-high-bandwith-memory-anfangen-kann
https://www.computerbase.de/forum/t...efter-abschalten.1436147/page-7#post-16881854
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.300
wird sicher auch ganz gut OC sein, bei der TITAN und GTX 780 kann man ja gut 30% draufrechnen aufgrund des niedrigen Basistaktes.
SuddenDeathStgt
Banned
- Registriert
- März 2004
- Beiträge
- 13.603
@Dai6oro
Danke für den 3D-Center-Link & 8GB wär ja schon mal was u. beschwichtigt. Noch eine kleine Anmerkung ...wenn Du direkt antwortest, dann ist ein Komplettzitat logischerweise überflüssig & das wird auch nicht gern gesehen, da es wie gesagt überflüssig ist.^^
So ...jetzt aber B2T & wie bei allen Gens, sollte "eine gewisse OC-Pufferzone" immer gegeben sein ... :-)
Danke für den 3D-Center-Link & 8GB wär ja schon mal was u. beschwichtigt. Noch eine kleine Anmerkung ...wenn Du direkt antwortest, dann ist ein Komplettzitat logischerweise überflüssig & das wird auch nicht gern gesehen, da es wie gesagt überflüssig ist.^^
So ...jetzt aber B2T & wie bei allen Gens, sollte "eine gewisse OC-Pufferzone" immer gegeben sein ... :-)
Mr.Seymour Buds
Commodore
- Registriert
- Feb. 2012
- Beiträge
- 4.338
ampre
Was heisst schon "Hitzkopf"? Die Karten sind Rechenmonster. Irgendwo muss die Leistung ja herkommen. Konnte noch nie verstehen, wo es da jetzt ein Problem geben sollte, wenn das Kühlsystem richtig ausgelegt worden ist. Und wer zu viel Geld hat, kann den Chip immer noch unter Wasser setzen.
Was heisst schon "Hitzkopf"? Die Karten sind Rechenmonster. Irgendwo muss die Leistung ja herkommen. Konnte noch nie verstehen, wo es da jetzt ein Problem geben sollte, wenn das Kühlsystem richtig ausgelegt worden ist. Und wer zu viel Geld hat, kann den Chip immer noch unter Wasser setzen.
Ähnliche Themen
- Antworten
- 277
- Aufrufe
- 50.584
- Antworten
- 44
- Aufrufe
- 8.919
N