Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Erste „Maxwell“-Chips durch GPU-Z bestätigt
- Ersteller MichaG
- Erstellt am
- Zur News: Erste „Maxwell“-Chips durch GPU-Z bestätigt
- Registriert
- Jan. 2011
- Beiträge
- 2.628
Herdware schrieb:Bei Kepler ist die 107 wesentlich kleiner als die 106. Gerade mal ca. halb so viele Transistoren. Wenn das Größenverhältnis bei Maxwell ähnlich ist, dann ist es nicht verwunderlich, dass die GTX750Ti (GM107, 128Bit-SI)) sich der GTX650Ti Boost (GK106 mit 196Bit-SI) geschlagen geben muss. Vielmehr ist es erstaunlich, dass sie mal eben ca. 60% schneller ist als die GTX650 (GK107, 128Bit). Das ist schon ein mächtiger Sprung für eine neue GPU-Generation ohne Shrink!
Wenn man den Gerüchten Glauben schenken darf, dann soll der GM107 auf 5 SMX-Blöcke kommen. Also das 2,5-fache eines GK107. Somit wären dann die 60% schneller als GTX 650 nicht wirklich beeindruckend. Die richtige Konkurrenz wäre dann die GTX 660 mit GK106 Chip und ebenfalls 5 SMX Blöcken.
SKu
Fleet Admiral
- Registriert
- Aug. 2012
- Beiträge
- 11.403
EcOnOmiC schrieb:Apropos dx, denkt ihr dx12 kommt mit win9 und gtx 980 Frühjahr 2015?
Mich würde es wundern, wenn die gtx 880 vor Q4/2014 kommt. Das wird bestimmt so wie mit Kepler.
- Registriert
- Dez. 2005
- Beiträge
- 1.202
EcOnOmiC schrieb:Apropos dx, denkt ihr dx12 kommt mit win9 und gtx 980 Frühjahr 2015?
Nein, DX 12 dürfte kein Chip der nächsten Generation können. Dürften alle auf DX11.2 basieren. MS hat nach DX11 für ziemlichen Stillstand bei der DX Entwicklung gesorgt, gab ja sogar Gerüchte ob DX überhaupt noch weiterentwickelt wird. Der Stillstand ist auch nochn zusätzlicher Grund wieso AMD ja nun Mantle bringt. Zwar dürfte MS durch Mantle nun aufgescheucht sein, aber so schnell gehts ja auch nicht DX12 zu entwickeln und dann brauchen AMD/Nv noch Zeit es in ihre Chips unterzubringen. Also vor 2016 würde ich nicht mit DX12 rechnen.
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.898
Matzegr schrieb:Die richtige Konkurrenz wäre dann die GTX 660 mit GK106 Chip und ebenfalls 5 SMX Blöcken.
Das sehe ich anders. Die "Konkurrenz" bzw. der Nachfolger zur GK106 wird (wie der Name schon sagt) die GM106, die höchstwahrscheinlich ebenfalls wesentlich stärker (mehr Funktionseinheiten) sein wird, als die Vorgänger-GPU usw.
Ist ja normal, dass in der nächsten Generation die Leistung der GPUs jeweils ungefähr mit der der nächst größeren Klasse konkurriert. So verschiebt sich alles eine Stufe nach oben (bzw. nach unten, je nach dem wie man es sieht).
Die Besonderheit in dieser Generation ist, dass die höhere Transistorenzahl nicht wie sonst meist üblich mit einem Shrink kompensiert werden kann. Die 28nm-Maxwells werden also größer werden, als ihre Vorgänger, und wahrscheinlich die entsprechenden Karten etwas teurer.
Dass die neue Low-End-GM107 es trotzdem nicht ganz schafft, die in Sachen SMX-Blöcken ähnliche Mittelklasse-GK106 aus der Vorgängergeneration zu schlagen, liegt offensichtlich an dem für die niedrigere Klasse üblichen 128Bit-Speicherinterface. Das dürfte kräftig ausbremsen. Aber eine Verbreiterung des SI würde sich durch alle Leistungsklassen ziehen müssen und die Kosten für die jeweiligen Karten deutlich erhöhen. Sowas gibt es nur sehr selten.
Wahrscheinlich wird es mehr Speicherbandbreite erst mit GDDR6 geben.
- Registriert
- Jan. 2011
- Beiträge
- 2.628
@Herdware
Ich meinte mit "Konkurrenz" eher als Vergleichsmöglichkeit der Leistungsfähigkeit. Du hast geschrieben, dass du es erstaunlich findest, das der GM107 ~60% schneller als der GK107 sein soll. Aber im Endeffekt ist das keine Überraschung weil man die gleiche Shaderanzahl wie ein GK106 hat.
Ich meinte mit "Konkurrenz" eher als Vergleichsmöglichkeit der Leistungsfähigkeit. Du hast geschrieben, dass du es erstaunlich findest, das der GM107 ~60% schneller als der GK107 sein soll. Aber im Endeffekt ist das keine Überraschung weil man die gleiche Shaderanzahl wie ein GK106 hat.
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.898
@Matzegr
Und ich finde es immer noch bemerkenswert, dass die "kleine" GM107 jetzt so viel Shadereinheiten hat, wie vorher die eine Klasse darüber einsortierte GK106.
Klar ist die resultierende Leistung somit (im Vergleich mit einer GK106) nicht überraschend, aber eben sehr wohl, dass man sie jetzt in einer GPU des (oberen) Low-End-Segments findet.
Ein bisschen relativiert Nvidia das wieder, indem sie auch die GTX750 Ti mit einer GM107 ausstatten und nicht wie beim Vorgänger schon mit einer (beschnittenen) 106er. Eigentlich wäre die GTX750 Ti (als größte Karte mit 107er-GPU) als Nachfolger der GTX650 (ohne Ti) anzusehen und die GTX750 (ohne Ti) als Nachfolger der GT640 usw.
Aber das wird mit den oben genannten vermutlich etwas höheren Preisen der GPUs zu tun haben. Nvidia kann/will die GM107 nicht ganz so günstig verkaufen, wie die GK107. Also schieben sie alle Karten eins rauf.
Und ich finde es immer noch bemerkenswert, dass die "kleine" GM107 jetzt so viel Shadereinheiten hat, wie vorher die eine Klasse darüber einsortierte GK106.
Klar ist die resultierende Leistung somit (im Vergleich mit einer GK106) nicht überraschend, aber eben sehr wohl, dass man sie jetzt in einer GPU des (oberen) Low-End-Segments findet.
Ein bisschen relativiert Nvidia das wieder, indem sie auch die GTX750 Ti mit einer GM107 ausstatten und nicht wie beim Vorgänger schon mit einer (beschnittenen) 106er. Eigentlich wäre die GTX750 Ti (als größte Karte mit 107er-GPU) als Nachfolger der GTX650 (ohne Ti) anzusehen und die GTX750 (ohne Ti) als Nachfolger der GT640 usw.
Aber das wird mit den oben genannten vermutlich etwas höheren Preisen der GPUs zu tun haben. Nvidia kann/will die GM107 nicht ganz so günstig verkaufen, wie die GK107. Also schieben sie alle Karten eins rauf.
- Registriert
- Jan. 2011
- Beiträge
- 2.628
Herdware schrieb:Und ich finde es immer noch bemerkenswert, dass die "kleine" GM107 jetzt so viel Shadereinheiten hat, wie vorher die eine Klasse darüber einsortierte GK106.
War beim Wechsel von Fermi auf Kepler auch ähnlich wenn man sich die theoretische Shader-Performance (FMA) anschaut.
GK106 liefert die 2,7-fache Leistung als der GF116 (bzw. taktbereinigt: 2,5-fache)
GK104 liefert die 2,4-fache Leistung als der GF114 (bzw. taktbereinigt: 2-fache)
GK110 liefert die 3-fache Leistung als der GF110 (bzw. taktbereinigt: 2,8-fache)
GK107 hatte auch schon mehr als doppelt soviele Transistoren als der der GF117, also ist es eigentlich logisch, dass der GM107 auch wieder ca. das doppelte an Transistoren bekommt. Und am Ende sehen wir taktbereinigt eine 2,5-fache Shaderleistung (FMA) ähnlich wie beim Wechsel von Fermi auf Kepler. Das einzig ungewöhnliche ist, dass man scheinbar die kleinen Maxwell Chips erstmal in 28nm bringen wird.
SKu
Fleet Admiral
- Registriert
- Aug. 2012
- Beiträge
- 11.403
voon schrieb:Ist (volle) DP eigentlich auf jedem GK vorhanden und wird bei den gamerkarten lediglich deaktiviert? Oder ists umgekehrt und sie haben der titan einen teil der quadros draufgepappt?
Die Karten werden künstlich beschnitten und das lässt sich auch im Nachhinein nicht mit einem Treiber freischalten, sofern ich das richtig weiß.
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.898
@voon
Bei den kleineren Kepler-GPUs (GK104 usw.) fehlen wahrscheinlich die entsprechenden Recheneinheiten, aber alle GK110-GPUs sind grundsätzlich für volle DP-Leistung ausgerüstet. Nur wird das bei den reinen Consumer-Modellen softwareseitig deaktiviert.
Bei der Titan gibt es in den Treibereinstellungen den entsprechenden Schalter, mit dem man es ein- und ausschalten kann.
Es ist übrigens sinnvoll, das auch wirklich abzuschalten, wenn nur SP gebraucht wird, denn für volle DP-Funktionalität werden die Taktraten der GPU abgesenkt. (Wahrscheinlich um den TDP-Rahmen nicht zu sprengen.)
Bei den anderen GK110-Karten (780(Ti)) ist dieser Schalter im Treiber einfach ausgeblendet. Möglicherweise ließe er sich per irgendwelcher Hacks wieder aktivieren, aber wahrscheinlich hat Nvidia zusätzlich auch im BIOS der Karten etwas entsprechendes eingestellt.
Bei den kleineren Kepler-GPUs (GK104 usw.) fehlen wahrscheinlich die entsprechenden Recheneinheiten, aber alle GK110-GPUs sind grundsätzlich für volle DP-Leistung ausgerüstet. Nur wird das bei den reinen Consumer-Modellen softwareseitig deaktiviert.
Bei der Titan gibt es in den Treibereinstellungen den entsprechenden Schalter, mit dem man es ein- und ausschalten kann.
Es ist übrigens sinnvoll, das auch wirklich abzuschalten, wenn nur SP gebraucht wird, denn für volle DP-Funktionalität werden die Taktraten der GPU abgesenkt. (Wahrscheinlich um den TDP-Rahmen nicht zu sprengen.)
Bei den anderen GK110-Karten (780(Ti)) ist dieser Schalter im Treiber einfach ausgeblendet. Möglicherweise ließe er sich per irgendwelcher Hacks wieder aktivieren, aber wahrscheinlich hat Nvidia zusätzlich auch im BIOS der Karten etwas entsprechendes eingestellt.
- Registriert
- Jan. 2011
- Beiträge
- 2.628
voon schrieb:Ist (volle) DP eigentlich auf jedem GK vorhanden und wird bei den gamerkarten lediglich deaktiviert?
Anders als noch bei Fermi wird bei Kepler DP über extra Einheiten realisiert. GK104 und kleiner hat 8 FP64 Einheiten pro SMX Block -> 1/24 der FP32 Leistung. Beim GK110 sind es 64 FP64 Einheiten pro SMX Block -> 1/3 der FP32 Leistung, wobei bei der 780 die Leistung auf 1/24 FP32 Leistung begrenzt wird.
Ähnliche Themen
- Antworten
- 308
- Aufrufe
- 26.468