News Nvidia enthüllt GeForce GTX Titan X mit 12 GByte VRAM

Wir werden es ja früher oder später sehen, welche Indizien unserer beiden Theorien wirklich der Realität entsprechen werden und welche nicht.

Es dürfte nicht mehr lange dauern, bis sowohl Nvidia über den GM 200 Grafikchip der Titan X alle technischen Details lüftet und AMD dürfte ebenfalls schon ziemlich bald die R9 390X vollständig der Öffendlichkeit vorstellen mit jeglichen Details.

Ich bleibe bei meinen Theorien, was zumindestens die 8GB HBM Speicher der R9 390X als Topmodell der Fiji Arhitektur, sowie die vollständige DX 12.0 Fähigkeit betrifft.
Die 8GB HBM Speicher mit 8 Stacks und einem dann 8192 Bit breiten Speicherinterface werden zwar teuer und aufwendig in der Produktion sein und auch einiges an Strom ziehen, ist aber nichts was man dann mit einem höheren Verkaufspreis nicht wieder ausgleichen könnte und bei absoluten High End Grafikkarten ist Energieeffizienz nun auch nicht so extrem wichtig, dass man sich da nicht einen größeren Spielraum erlauben dürfte.

Und an DX 12.0 dürfte Microsoft garantiert schon seit 2012-2013 arbeiten. Das glaubt doch nun wirklich Niemand, dass die sich das erst seit der Mantle Ankündigung einfach so aus dem Hut gezaubert haben und erst dann mit der Entwicklung von DX 12.0 begonnen haben.
Mantle wird die Entwicklung von DX 12.0 höchstens vielleicht ein bisschen beschleunigt haben, seit Microsoft deswegen unter Zugzwang steht.

Was den Fertigungsprozess betrifft, kann man aber wirklich nichts handfestes sagen.
Kommt die R9 390X noch vor dem Herbst 2015 in den Handel, dann wird es wohl weiterhin bei 28NM von TSMC bleiben, da es ja auch mindestens 2-3 Monate dauert, bis die produzierten Chips in Grafikarten verbaut werden, diese geprüft, verpackt und in die Läden der Verkaufsländer verschickt werden und der 14 NM FinFet Fertigungsprozess von Global Foundries wohl erst ab Mitte des Jahres soweit ist, um solch große Chips profitabel zu produzieren.

Sollte der Launch der R9 390X jedoch erst im Herbst erfolgen, ist aber alles möglich.

Es braucht ja keine so großen Mühen und Arbeitsschritte, um eine bereits bestehende oder fast in der Entwicklung abgeschloßene Chiparhitektur noch im Nachhinein zu shrinken: Siehe 2008 die GTX 280 von Nvidia in 65Nm, welche schon wenige Monate nach Verkaufsstart überarbeitet mit geshrinkten 55Nm Chip auf den Markt kam.

Lassen wir uns also mal überaschen, was wirklich passieren wird und was die Zukunft bringt im Hause AMD.
 
Zuletzt bearbeitet:
CD schrieb:
Und wie oft müssen die Karten ihren ganzen RAM schreiben/lesen? [...]

Danke. Wollte gerade dasselbe antworten. Hier werden von @SirBersek m.M.n. Äpfel mit Birnen verglichen. Man muss beide Karten im gleichen Szenario vergleichen.
 
CD schrieb:
Und wie oft müssen die Karten ihren ganzen RAM schreiben/lesen? Sicher nicht mit jedem Frame. Der wird 1x mit Texturen befüllt, und ansonsten hast du noch irgendwelche kleinen Buffer die sich aber über das ganze Interface erstrecken können (indem man den Buffer zB auf mehrere Speicherchips verteilt anstatt alles in einen einzigen Chip zu schreiben). Auf diese Buffer kann im Fall eines 3x so breiten SI dann halt 3x so schnell zugegriffen werden.

Der absolute Datendurchsatz ist bei 384 bit halt deutlich höher. Und zu argumentieren, dass die Karte dann auch 3x so viel Daten pro Frame lesen/schreiben WIRD, nur weil sie 3x so viel Speicher HAT, ist meiner Meinung nach nicht zulässig. Der größere Speicher ist hauptsächlich von Vorteil weil man damit mehr Daten gleichzeitig vorhalten und dadurch Nachladeruckler vermeiden kann.

das mit den texturen mag stimmen, aber der buffer ist auch mindestens 3x so groß, denn du spielst mit einer titanx auch nicht mit full hd ohne AA oder?
bei einer 4x so hohen auflösung müsste eigentlich auch alles 4x so groß diemensioniert sein.

von daher gilt : wenn für die titanx mit 12gb 384bit reichen, warum soll die 960 mit 4gb an 128bit zu klein dimensioniert sein.
 
Zuletzt bearbeitet:
Man kann sogar mit sehr kleinen Speicherinterfaces sehr viel Speicherplatz sinnvoll nutzen. Denn extrem viele Sachen kosten viel Speicherplatz aber kaum Speicherbandbreite. So kostet zum Beispiel die Texturauflösung nur Speicherplatz aber keine Speicherbandbreite. Dadurch kann man auf einer Titan X mit dem Speicherplatz sehr hochauflösende Texturen verwenden.
 
Thomson1981 schrieb:
Immerhin dürfte es spätestens der Herbst / Winter 2013 gewesen sein, als Microsoft die Entwicklung von DX 12.0 begonnen hat und genau zu dem Zeitpunkt kam die R9 290X auf dem Markt und die Entwicklung von AMD's Fiji Arhitektur war noch in früher Phase.

Für Nvidias Maxwell Arhitektur kam die Entwicklung von DX 12.0 viel zu spät, da die Entwicklung der Maxwell Arhitektur ab diesem Zeitpunkt bereits fast abgeschloßen war.
Und da die Nvidia GTX Titan X noch auf der Maxwell Arhitektur beruht, wird diese garantiert kein DX 12.0 nativ beherschen, dass ist wohl Fakt.

Soll das ein Witz sein?

Die Entwicklung von DX12 hat etwa 2011 begonnen und die Entwicklung von Maxwell und Fiji dürfte auch in der Zeit begonnen haben.

Was meinst du überhaupt mit Dx12 "nativ"?
DX ist eine API, also eine Sammlung von Funktionen, um die GPU-HW einheitlich ansprechen zu können, da gibt es kein nativ oder nicht nativ.
 
Mit 'nativ' ist wahrscheinlich gemeint, dass ein Feature einer API in Hardware vorhanden sein muss und nicht durch den Graka-Treiber 'nachgebildet' werden darf.

Soweit ich weiß ist es jedoch so, dass DX12 keine Feature auf Hardware-Ebene verlangt. Zumindest war dem noch so vor ein paar Wochen.
 
Depp_vom_Dienst schrieb:
An sich ist es ja für Nvidia fast schon peinlich mit einer neuen Architektur gerade mal die 1,5 Jahre alte AMD Architektur schlagen zu können.

Auf welche Karten/GPUs beziehst du dich damit? GM204 vs. Hawaii?

Ich finde das geht völlig in Ordnung, wenn eine Performance-GPU ein High-End-Modell der Vorgängergeneration (das der Konkurrenz und auch das eigene) schlagen kann. Ich glaube nicht, dass sich irgendjemand jemals über sowas beschwert hätte.
GM204 ist zwar ungewöhnlich groß für eine GPU dieser Klasse, aber das liegt einfach daran, dass der sonst übliche Shrink weggefallen ist. (AMD tritt da genauso auf der Stelle.)

Der wirkliche Nachfolger der GK110 GPUs (und somit auch die Liga des Hawaii-Nachfolgers) ist erst GM200. Die GM204 ist nur der Nachfolger der GK104 und somit die GTX980 der Nachfolger der GTX770/680. Das vergleichbare Modell der Vorgängergeneration bei AMD wäre also Tahiti/280X. Unter dem Licht ist es wie gesagt völlig in Ordnung, dass sie trotzdem die großen Hawaii- und GK110-Karten schlagen können.

Außerdem sagen die bislang veröffentlichten Folien, dass Fiji GM200 schlagen wird.

Zunächst mal sind das nur Gerüchte. Und dann muss AMD auch erstmal abliefern. Wenn die Fiji-Karten z.B. erst ein halbes Jahr nach den GM200-Karten kommen, bringt das halt auch nicht so schrecklich viel.
Wobei der richtige Wettbewerb um die Performance-Krone natürlich auch erst dann losgeht, wenn Nvidia eine erschwingliche "normale" High-End-Karte mit GM200 bringt, nicht schon mit den total überteuerten PR-Produkten Titan.

Faust2011 schrieb:
Soweit ich weiß ist es jedoch so, dass DX12 keine Feature auf Hardware-Ebene verlangt. Zumindest war dem noch so vor ein paar Wochen.

Das ist schon seit DX11 so. Neue DX-Versionen setzen seit dem nicht zwingend neuen Hardwarefeatures in der GPU voraus, sondern laufen auch auf allen alten GPUs. Nur halt mit einem entsprechend reduzierten Feature-Level. (So kam auch Nvidias PR-Stunt zustande, dass Kepler DX11.1 und 11.2 unterstützen würde, obwohl es Feature-mäßig nur DX11.0-GPUs sind.)
DX12 sollte also theoretisch auf allen GPUs laufen, die mindestens DX11 beherrschen. "Theoretisch", weil das natürlich nur für die Modelle gilt, die AMD, Nvidia und Intel dann auch noch mit den neuen, DX12-fähigen Treibern unterstützen.
 
Herdware schrieb:
Das ist schon seit DX11 so.

Das bezweifle ich. Mit DX11 kamen als Key-Features Tessellation und Compute-Shader neu hinzu. Und Tessellation musste in Hardware gegossen sein für DX11-Kompatibilität.
 
@Faust2011
Schau dir den Link zum Feature-Level an. DX11 geht runter bis Feature-Level 9_1. Dann gibt es z.B. auch keine Unterstützung für Compute-Shader mehr. Trotzdem läuft DX11 auf dieser alten/minimalistischen GPU.
(Der Hintergedanke dabei sind wahrscheinlich eher kleine, primitive Mobil-GPUs z.B. in Smartphone-SoCs, weniger dass man im PC über 10 Jahre alte Grafikkarten weiterverwenden kann.)
 
Zuletzt bearbeitet:
Herdware schrieb:
Auf welche Karten/GPUs beziehst du dich damit? GM204 vs. Hawaii?

Ich finde das geht völlig in Ordnung, wenn eine Performance-GPU ein High-End-Modell der Vorgängergeneration (das der Konkurrenz und auch das eigene) schlagen kann. Ich glaube nicht, dass sich irgendjemand jemals über sowas beschwert hätte.
GM204 ist zwar ungewöhnlich groß für eine GPU dieser Klasse, aber das liegt einfach daran, dass der sonst übliche Shrink weggefallen ist. (AMD tritt da genauso auf der Stelle .

Dafür das die 980 Gtx nur ein Midrange Chip ist kostet sie ganz schön viel! und was bekommt man dafür? Eine Karte die gerade mal im Schnitt 5% schneller ist und das wahrscheinlich nur dank Gameworks, welches die AMD karten künstlich ausbremst.
 
Zuletzt bearbeitet:
@Herdware: Dein Link erklärt die FeatureLevels, die mit DX11 eingeführt wurden. Es gibt aber keine direkte Aussage dazu, ob explizite DX11-Features auch auf älterer Hardware laufen. Zumindest kann ich keine erkennen.

Folgende Aussage aus dem Link spricht sogar eher für meine Annahme: "Using feature levels, you can develop an application for Direct3D 9, Microsoft Direct3D 10, or Direct3D 11, and then run it on 9, 10 or 11 hardware (with some exceptions of course, new 11 features will not run on an existing 9 card for example)."

Aber ich glaube, jetzt wird es doch sehr off-topic, oder?
 
ampre schrieb:
Dafür das die 980 Gtx nur ein Midrange Chip ist kostet sie ganz schön viel!

Tja. Sie kostet so viel, wie die Leute bereit sind dafür zu bezahlen.

Das Thema hatten wir ja schon bei der GTX680, die ebenfalls eigentlich nur eine Performance-Karte gewesen ist. (Nachfolger der GTX560.) Aber da sie es mit AMDs damaliges Flaggschiff HD7970 aufnehmen konnte, hat Nvidia sie einfach mal zum High-End erklärt und entsprechend viel Geld dafür verlangt.
Bei der GTX980 hat sich dieses Spielchen wiederholt.

Die Frage ist, ob Nvidia damals (Ende 2011/Anfang 2012) auch eine "echte" High-End-Karte mit GK100 hätte bringen können. Das werden wir nie mit Sicherheit wissen. Aber sicher ist, dass die GK104 ausgereicht hat.
Man erinnere sich, dass Nvidia damals sagte, dass sie von Tahiti mehr erwartet hätten. Das klingt erstmal arrogant, aber ich sehe das (rückblickend) eher als Ausdruck der Erleichterung, da sie zu dem Zeitpunkt wohl keine überzeugende GK100-Karte als Konter hätten aufbieten können, wenn Tahiti stärker gewesen wäre, als die GK104. Es wäre wohl eher sowas wie die unglückliche GF100/GTX480 geworden.

Bei der GM204 war sich Nvidia diesmal schon vorab sehr sicher, dass diese Performance-GPU erstmal wieder als neues "High-End" herhalten kann und ließ sich mit der großen GM200 entsprechend mehr Zeit. Es war ja abzusehen, dass AMD vorher auch keine neue High-End-Karte bringen wird.

@Faust2011
Es geht doch darum, ob die GM200-Karten DX12 unterstützen werden und das passt ganz gut zum Thema.
Ich bin sicher, dass sie DX12-kompatibel sein werden, weil es wie gesagt seit DX11 dieses Feature-Level-System gibt.

Es ist klar, dass eine alte DX9-GPU nicht alle neuen Features von DX11 beherrscht. Aber trotzdem kann man sie (einen entsprechenden Treiber vorausgesetzt) unter DX11 benutzen. Letztlich entscheidet dann jedes einzelne DX11-Spiel, ob es darauf (mit reduzierten Features) läuft, oder abbricht. Bestimmte Features können auch in Software vom Treiber emuliert werden.

Bei DX12 wird es genauso sein. Es ist nicht garantiert, dass eine GM200-Karte alle neuen Features von DX12 (in Hardware) beherrscht, aber grundsätzlich werden sie unter DX12 funktionieren und somit auch voll von den softwareseitigen Features von DX12, speziell den Leistungssteigerungen durch hardwarenähere Programmierung ala Mantle, profitieren. Dafür muss sie nicht alle neuen Hardwarefeatures unterstützen.
 
Zuletzt bearbeitet:
Aber so gut ist die Gtx 980 nicht sie ist etwas schneller als eine 780ti und genau so schnell wie eine 290x (wenn man Spiele mit nvidia/amd mal außen vorlässt)
Der Gameworkseffekt hat voll durchgeschlagen bei den ersten Benches der gtx980 und die Leute sind leider drauf reingefallen und fallen noch drauf rein!

Im übrigen man schau sich nun die Benches der Vorgänger an:
290x ist vor der 780ti
280x (7970ghz) ist vor 770 (gtx680)

Wo ist NVIDIA high End? Versteht ihr nun die Masche von Nvidia mit dem Gameworks?
 
Zuletzt bearbeitet:
Thomson1981 schrieb:
Was den Fertigungsprozess betrifft, kann man aber wirklich nichts handfestes sagen.
Kommt die R9 390X noch vor dem Herbst 2015 in den Handel, dann wird es wohl weiterhin bei 28NM von TSMC bleiben,


Lassen wir uns also mal überraschen, was wirklich passieren wird und was die Zukunft bringt im Hause AMD.

Darum warte ich voraussichtlich auch mindestens bis Sommer nächsten Jahres. Ich schätze mal, dass die 400er erst so richtig abgehen, mit neuem Fertigungsprozess und bis dahin wird wohl auch 8GB HBM nix besonderes mehr sein.

Gimme Some schrieb:
Wer so denkt, wird nie upgraden. Denn nächstes Jahr gibts dann wieder die übernächste Generation in den Startlöchern.

Ich kann mir nicht vorstellen, dass wir neuen Fertigungsprozess und 8 GB HBM jetzt schon bei der 390er sehen werden.

Aber wie gesagt. Lassen wir uns mal überraschen.
Ich lass mich gern vom Gegenteil überzeugen. Wäre natürlich toll, aber so richtig glauben kann ich es noch nicht. Rechne eher mit "altem Fertigungsprozess" und max. 4 GB HBM, wenn überhaupt.

Ist aber eh alles Spekulation und Raterei, da ich keinerlei handfeste Informationen habe, also abwarten und Kaffee trinken.

Und so lange schau ich mal zu, was der Preis der Titan X 12GB so macht. Der wird wahrscheinlich für mich eh in Bereichen schweben, die nicht wirklich was für mich sind. Leider nicht meine Gehaltsklasse ;)
 
@Zucker,
solltest mal angucken, haste bestimmt noch nich, wa?
Ist interessant, zwar mega Cherry Picked... (hink rüber zu den Grünen :P ) aber ok... :D

PCI-E wird bereits (fast) zum Flaschenhals...
Interessant, dass nun mit DX 12 einige Dinge zum Flaschenhals werden, die es mit DX11 nicht gegeben hat, interessante Entwicklung das ganze.

http://channel9.msdn.com/Events/GDC/GDC-2015/Advanced-DirectX12-Graphics-and-Performance
@ChrisMK72,
Die Folie von Hynix kennst du sicherlich?
Nun, von dieser aus betrachtet, kann das dort genannte " Spec " genau das Gegenteil bedeuten... dass außerhalb der dort genannten Spezifizierung, jetzt schon 8GB möglich sind, innerhalb der dort genannten " Spec " aber nur 4GB - AMD muss sich ja nicht an die Spec halten - natürlich ebenfalls nur ne kleine Speku

Spoiler sonst OT... nicht wundern.
 
Zuletzt bearbeitet:
ampre schrieb:
Aber so gut ist die Gtx 980 nicht sie ist etwas schneller als eine 780ti

Das ist nicht ganz so beeindruckend, wie die seinerzeit GK104/GTX680, die das High-End der Vorgängergeneration (GF110/GTX580) mal eben um 30% klar geschlagen hat. (Da kam auch noch ein Shrink dazu, den es bei GM204 nicht gegeben hat.)
Trotzdem würde sich wohl niemand beschweren, wenn AMD jetzt eine neue 28nm-GPU mit ähnlicher Größe und Features wie Tahiti/Tonga raushauen würde, die "nur" etwas schneller ist als Hawaii (Vollausbau) und dabei 75W weniger verbraucht. ;)
 
TITAN ist japanisch für Idiot. Bisher waren es immer nur "Enthusiasten" mit zuviel Kohle in der Tasche, die was mit dem namen Titan gekauft haben. Alle TITAN haben gemeinsam, dass kurz danach eine viel günstigere Karte rauskaum, meist ca halb so teuer, aber leicht schneller. Lediglich den VRAM Rekord lässt man immer schön bei der Titan, um ein besonders kleines Feld von Käufern zu bedienen, die meinen, das wäre wichtig^^. So wie ich das sehe, ist eine GTX 980 und auch eine 780TI mir gerade mal 3GB VRAM selbst auf 4k bei allen Spielen schneller als eine alte Titan mit 6GB VRAM. Was also sollen 12GB VRAM? Eine Obszönität, die Karte, weiter nichts.
 
Zuletzt bearbeitet:
Stimmt ja, eigentlich brauchen Grakas ja gar kein eigenes RAM 😁
 
Zurück
Oben