News Nvidia enthüllt GeForce GTX Titan X mit 12 GByte VRAM

Katillah schrieb:
Ja, die ältere Titan eine Enthusiastenkarte, die bei enthusiastischen Auflösungen und Qualitätszuschaltungen gerade mal so schnell ist wie eine 290X, soll also in der neuen Aufstellung mit:
3076 Shader + weniger ROPs + weniger Textureinheiten + einem SI von 384 bit bei GDDR5
ggü. der neu erwarteten 390X mit:
4096 Shader + mehr ROPs + mehr Textureinheiten + einem SI von 4096bit und bei HBM VRAM
bis zur 490X Serie DIE unangefochtene Spitze der GPU Riege werden. Und dabei nur einpaar hundert Euro mehr kosten, bei ebenfalls 300W Angaben...

Du warst doch Einer der Vielen, die sich endlos darüber aufregten, als man angab, dass die 390X 300W draufstehen haben wird.

Wundere mich sowieso, dass sich nun die "Aufreger" alle stummschalten über die Angabe.

Bei dem 300 Watt Verbrauch war Anfangs noch die 380X die Rede. Und aufgeregt ist auch das falsche Wort. Ich war eher bedrückt das die 390X mit einem noch höherem Verbrauch genau wie der Fx9590 mit der Brechstange auf Power ausgelegtes aber als enttäuschendes Produkt enden könnte. Und ja ich denke immernoch das die 390X Leistungsmäßig gegen die Titan X nicht bestehen aber dafür, hoffentlich mit um die 750 - 850€ die deutlich günstigere Karte sein wird.
 
Krautmaster schrieb:
ergo wohl 28nm und Fat Chip, also im Gegensatz vieler bedauernswerter Kommentatoren hier kein "GTX 970 Syndrom"...

:rolleyes:

Die bisherigen Benches kommen dann wohl ganz gut hin. AMD Fuji @ low Clock und vllt. gestutzt gegen die GM200 low Variante (haha wer bei der CB News noch nicht den Braten gerochen hat...) und Bermuda gegen die Topvariante mit, AMD mit Hybrid Wakü Lösung. Den Leaks nach sind beide Karte schon ewig fertig.

€dit. 1000€ "logisch" würde Spock sagen
Seit letzten freitag mit betonung auf würde
 
Sicherlich für sich eine Interessante Karte, auch wenn ich noch mehr als die alte Titan für überteuert halte.
Alleine der Punkt welcher bei der alten Titan noch so Marketingträchtig war und zwar das man die DP-Leistung hat.
Welche es bei dieser Karte nicht geben wird. Meiner Meinung nach sind die 12GB nur dafür da um den Kiddies bzw. manchen Fanboys den Kopf zu verdrehen und mehr zu haben als AMD mit ihren 8GB Varianten.
Da finde ich HBM noch um einiges interessanter, in der Theorie als auch in der Praxis.
 
Faust2011 schrieb:
So ein Quark, sorry. Das sind zwei orthogonale Größen. Etwas realistischer sieht es so aus: eine Shader-Instanz möchte Texturdaten holen, z. B. 48 Bytes. Über das 128bit Interface braucht sie (idealerweise) 3 Takte. Bei einem 384 bit breiten Interface nur einen Takt.

nur wenn man dieselben auflösungen fahren würde. angenommen man würde die 12gb belegt bekommen (sonst bräuchte man keine 12gb), dann müssen 12gb bewegt werden, bei der 960 bewegt man maximal 4gb. genau ein drittel.

umgekehrt könnte man sagen, wenn bei der titanx 384bit SI ausreichen, dann reichen bei der 4gb 960 ein 128bit SI.
 
Kasmopaya schrieb:
Ich glaube ja das die Titan-X die Wiedergeburt der 8800GTX werden könnte. Folgende Indizien sehe ich dazu: ;)

+ Absolut Konkurrenzlos (über Jahre)sowohl bei der (390X 4GB,) als auch beim Firmen internen Nachfolger Pascal, der wohl die gleichen Vram Probleme bekommen wird wie AMDs Fiji.
+ Altes Fertigungsverfahren, die legendäre 8800GTX war auch noch im alten 90nm am Start.
+ Ausreichend Vram um so lange so schnell zu sein wie die 8800GTX, die hatte auch üppig Vram für zig Jahre an Bord.
+ Konkurrenzlose Effizienz unter Last.
+ Vollausbau zum Start
+ Reine Gamer GPU
+ Ordentliche Kühlung
+ Goldene Mitte 384er Speicherinterface

HBM2 kann mehr als 4GB liefern, inwiefern soll es bei Fijii dann zu Problemen kommen?
Du nimmst das einfach so als gegeben an, halte ich für unsachlich. Liefere doch erstmal konkrete Beweise dafür.

Absolut konkurrenzlos? Weswegen, wegen der Punkte die du dir aus den Fingern saugst. Teilweise haben diese Punkte überhaupt keinen Sinn.
Ein altes Fertigungsverfahren? Was ist denn bei dir los?
Die 8800GTX hatte üppig V-ram für Jahre mit an Board? 768mb V-ram? Es dauerte nur 1,5 Jahre, dann war 1GB am Start. ( GTX 280 ).

"+ Konkurrenzlose Effizienz unter Last. "

Welche Messwerte habne wir dazu je gesehen? Keine.

+ Goldene Mitte 384er Speicherinterface

Goldene Mitte? Wäre eine 512bit Anbindung nicht besser? Ich vermute schon.

DAs Problem ist dass du bei deiner Aufzählung schlechte Eigenschaften vergoldest und die angeblich guten in den Himmel lobst, obwohl die Karte noch nicht mal erschienen ist......
 
ZotaC.T schrieb:
Bei dem 300 Watt Verbrauch war Anfangs noch die 380X die Rede.

Völlig egal, welche Namen für das Endprodukt spekuliert wurden, die sind nur Schall und Rauch. Es war klar, dass es um Fiji geht. Was hättest du für ein Problem damit, dass das neue Flaggschiff 380X heißt und eine mögl. mGPU Lösung 390X? Das wäre aus meiner Sicht sogar zu begrüßen, dann hätte man nicht so ein Chaos mit den '5'er Karten. Jetzt heißt die Fiji-Karte wohl doch 390X, das spielt aber keine Rolle. Der Vergleich zur FX-CPU ist ja wohl mehr als an den Haaren herbeigezogen. Für Fiji sind mindestens die Optimierungen von Tonga zu erwarten + Einsparungen durch HBM. Und GCN hat sich ganz im Gegensatz zu Bulldozer ja wohl bewährt.

@smilefaker: HBM2 gibt es aber noch nicht. Bei Fiji reicht es nur für Gen.1. Wobei natürlich dennoch nicht ganz auszuschließen ist, dass Hynix extra für AMD Stacks mit doppelter Kapazität baut
 
ZotaC.T schrieb:
Bei dem 300 Watt Verbrauch war Anfangs noch die 380X die Rede. Und aufgeregt ist auch das falsche Wort. Ich war eher bedrückt das die 390X mit einem noch höherem Verbrauch genau wie der Fx9590 mit der Brechstange auf Power ausgelegtes aber als enttäuschendes Produkt enden könnte.

Du vergleichst jetzt nicht ernsthaft eine 220W TDP CPU mit einer spekulativen 300 Watt Grafikkarte?
Tipp: GTX 580/480/470/6970/7970 ghz/290x/290/780Ti waren alles schon 250 Watt Karten, alsoo über 220 Watt.

Customdesigns gingen regelmäßig auf 300 Watt rauf.
Ich frage mich daher langsam wirklich wie man einseitig bei AMD eine Brechstange ansetzt, während Nvidia jahrelang dasselbe macht. Reality broken.
Wieso kannst du dich mit deinen Fanboyaussagen nicht ein einziges Mal zurückhalten?

Die 8800 GTX war leistungsmäßig auch nicht allzulange vor ATI damals, so wie keine Karte jemals zwischen AMD/ATI und Nvidia und umgekehrt.
 
Zuletzt bearbeitet:
Viel zu teuer und noch dazu eine Nvidia Karte !
Von den 12 GB sind eh nur 3,5 GB nutzbar....... :evillol:

NEEEED ! :D
 
smilefaker schrieb:
Du vergleichst jetzt nicht ernsthaft eine 220W TDP CPU mit einer spekulativen 300 Watt Grafikkarte?
Tipp: GTX 580/480/470/6970/7970 ghz/290x/290/780Ti waren alles schon 250 Watt Karten, also über 220 Watt

Ja als die 380X mit 300W Verbrauch genannt wurde war trotzdem fast klar das eine 390X kommt aber das bezog sich doch auf die Aufreger in einem anderen Thread.

Ich vergleiche nicht CPU und GPU sondern nur deren Umstände. Damit meine ich folgendes: Der 220W FX9590 ist erbärmlich wenig über den 130W FX8350. Was spricht dagegen das es bei der 390X vs 290X nicht auch so ist.
Obwohl die 290X ist unter den Grakas doch ein wahrer Schlucker, wobei ich Brechstangen-Amd zutraue das die 390X Uber-Modus im Stromverbrauch die 295x2 übertrumpft.. :lolDie HD2900XT hatte seinerseits auch ein breites Speicherinterface mit GDDR4 und war der X1950XTX jetzt nicht besonders.

Natürlich wäre es nicht schlimm wenn die 390X mit 300-375W bei einem Preis von 600-750€ eine gleichwertige Performance wie eine GTX980OC erreichen würde.
 
Zuletzt bearbeitet:
Was für ein Unsinn. AMD Karten waren auch mal jahrelang sparsamer als vergleichbare Produkte von Nvidia, also mal ganz cool bleiben ;). Alleine schon wenn Fiji nur ein aufgeblasener Hawaii ohne weitere Optimierungen und mit HBM statt 512-Bit GDDR5 wäre, würde die Karte bei ähnlichem Takt wohl kaum deutlich über 300W kommen. Es gibt aber Optimierungen, wie bei Tonga schon gesehen, und für Fiji ist ja noch mehr möglich
 
Zuletzt bearbeitet:
SirBerserk schrieb:
die titanx muss 12gb durch 384bit schaufeln die 960 4gb durch 128bit, der flaschenhals ist genau gleichgroß.

Und wie oft müssen die Karten ihren ganzen RAM schreiben/lesen? Sicher nicht mit jedem Frame. Der wird 1x mit Texturen befüllt, und ansonsten hast du noch irgendwelche kleinen Buffer die sich aber über das ganze Interface erstrecken können (indem man den Buffer zB auf mehrere Speicherchips verteilt anstatt alles in einen einzigen Chip zu schreiben). Auf diese Buffer kann im Fall eines 3x so breiten SI dann halt 3x so schnell zugegriffen werden.

Der absolute Datendurchsatz ist bei 384 bit halt deutlich höher. Und zu argumentieren, dass die Karte dann auch 3x so viel Daten pro Frame lesen/schreiben WIRD, nur weil sie 3x so viel Speicher HAT, ist meiner Meinung nach nicht zulässig. Der größere Speicher ist hauptsächlich von Vorteil weil man damit mehr Daten gleichzeitig vorhalten und dadurch Nachladeruckler vermeiden kann.
 
Selten dämliche Aussage. Es wird verdammt lange dauern bis ein 14/16 nm Prozess ausgereift genug ist um einen ausgereiften 28nm Chip mit weit über 500mm² auszustechen.
Denke ich auch, 2016 bestimmt noch nicht, 2017 oder 2018 wird die Titan X dann versenkt. Wer warten kann soll das machen, ich bin mit meiner 580 3GB am Ende, die schafft Attila; Witcher 3; GTA V; Star Citizen etc. mit DSR sicherlich nicht mehr auf max.

Nice ^^ Single Chip + 12 GB GDDR5......muss ich mehr sagen?
Ja, den Preis und ob es ein Vollausbau wird will ich noch wissen. Wenn das ein kastrierter Chip wird, werd ich pampig. Ich leg doch nicht 1500€ für einen Kastraten auf den Tisch!

Wenn die rückseitigen ungekühlten Vram Chips abfackeln geht das auf EVGAs Rechnung, dann will ich aber eine Pascal Titan Y haben. :D
 
Zuletzt bearbeitet:
ZotaC.T schrieb:
Natürlich wäre es nicht schlimm wenn die 390X mit 300-375W bei einem Preis von 600-750€ eine gleichwertige Performance wie eine GTX980OC erreichen würde.

Thermi ist wohl schon vergessen oder ? Sollten die bereits veröffentlichten Benchmarks auch nur ansatzweise stimmen, verheizt Fiji eine GTX 980 ordentlich. OC ist immer so ein schönes Argument, allerdings treibt man die GPU damit erstens in den extrem ineffizienten Bereich, was ja dann wieder egal ist, obwohl massiv gegen die Energieeffizienz der AMD Karten gewettert wird. Zweitens kann man auch die AMD karten OCen, eventuell nicht ganz so stark wie die Nvidia Kartena, aber einen wirklich großen Abstand bekommt man auch nicht hin.

Somit nettes, komplett Realitätsfernes AMD Bashing. Zudem würde mich wirklich interessieren, ob es zur Titan X auch ein kostenloses Atomkraftwerk dazu gibt, schließlich wird die Karte ja unfassbare 250-300W brauchen. Sicherlich wird das auch kaum kühlbar und extrem heiß werden. Die AMD Karten mit 250-300W sind ja schließlich, extrem laut, unkühlbar und man braucht ein Atomkraftwerk für den Betrieb.
 
ZotaC.T schrieb:
Ich vergleiche nicht CPU und GPU sondern nur deren Umstände. Damit meine ich folgendes: Der 220W FX9590 ist erbärmlich wenig über den 130W FX8350. Was spricht dagegen das es bei der 390X vs 290X nicht auch so ist.

Was spricht dagegen ?
Naja gehen wir mal das Gedankenspiel durch.

Hawaii hat ein 512 Bit SI und 4GB GDDR5. Fiji hat im Vergleich ein HBM SI und 4GB HBM Speicher.

Ein fiktiver Hawaii mit gleich viel Shader aber mit HBM Speicher, würde ca 50-80 Watt (laut 3D Center) weniger verbrauchen und die Die-Size würde im Vergleich kleiner werden, weil das SI mit 15mm² kleiner ist, als das 512 Bit GDDR5 Si mit ca 55mm².

Bei Fiji kommen noch 45% mehr Shader und bessere Architektur GCN 1.3 (laut Gerücht, Tonga ist 1.2, Hawaii 1.1).

Dein Vergleich, FX 8350 vs FX 9590, welcher den selben Die, die selbe Plattform aber höheren Takt hat und somit die höhere TDP, passt schon allein dadurch nicht, da man HBM nützt. Er würde auch nicht passen, wenn man nur GCN 1.3 nützt, oder wenn man nur 45% mehr Shader verbaut.
Es ist einfach ein falscher Vergleich
 
Zuletzt bearbeitet:
An sich ist es ja für Nvidia fast schon peinlich mit einer neuen Architektur gerade mal die 1,5 Jahre alte AMD Architektur schlagen zu können.

Außerdem sagen die bislang veröffentlichten Folien, dass Fiji GM200 schlagen wird.
 
fin000 schrieb:
Ich hab hier eine offizielle Preisinfo.
UVP sind 12.000$.
Marktpreise sollen anfangs so um 9.999$ liegen.
Also schnell zuschlagen, bevor die Nachfrage und die Preise steigen :eek:

gogo Flaschen sammeln! :D
 
pipip schrieb:
Ein fiktiver Hawaii mit gleich viel Shader aber mit HBM Speicher, würde ca 50-80 Watt (laut 3D Center) weniger verbrauchen und die Die-Size würde im Vergleich kleiner werden, weil das SI mit 15mm² kleiner ist, als das 512 Bit GDDR5 Si mit ca 55mm².
Nicht nur 'laut 3D-Center', du kannst auch die originale Quelle nennen :p. Die Zahlen sind aus der AMD Präsentation "Die stacking is happening" und auch durch entsprechende Folien von Hynix gedeckt. Statt etwas über 80 sollen es etwas unter 30 Watt sein, jedoch ist hier das SI + Speicher an sich gemeint, wobei das SI die größere Rolle spielt.

Depp_vom_Dienst schrieb:
An sich ist es ja für Nvidia fast schon peinlich mit einer neuen Architektur gerade mal die 1,5 Jahre alte AMD Architektur schlagen zu können.

Außerdem sagen die bislang veröffentlichten Folien, dass Fiji GM200 schlagen wird.

Was genau ist peinlich? GM204 ist nur Mittelklasse und schlägt die alte Oberklasse bei geringerem Verbrauch (bzw. mit deutlichen Reserven nach oben), was schonmal nicht schlecht ist. Es ist aber eben auch kein Wunderwerk, wie manche gerne beschwichtigen. Peinlich ist eher, dass offenbar einige Kunden ihre alte Oberklasse-Karte durch eine Mittelklasse getauscht haben – zum Oberklasse-Preis. Wegen ein paar Watt und einer Hand voll % Leistung :rolleyes:
Die Benchmarks sind nicht ernst zu nehmen, weil mal die Rede von Fiji, Bermuda, GM200, beschnittenem GM200 usw. war. Man weiß weder was genau (geschweige denn die finale Taktraten) noch wie genau getestet wurde – falls solche Tests überhaupt stattgefunden haben
 
Zuletzt bearbeitet:
Lübke82 schrieb:
Sorry aber das ist alles Müll, da es 1. unbestätigt ist und 2. nicht stimmt!

Dann beweise das Gegenteil mit knallharten Fakten in Form von seriösen Quellen anstatt nur heiße Luft und leere Phrasen zu schreiben !.

Ich bezog meine Aussage immerhin auf seriöse Quellen und Indizien und habe diese Quellen auch genannt.

Natürlich kann die R9 390X tatsächlich noch im alten 28Nm Prozess gefertigt werden, falls diese noch vor August / September im Handel erscheint.
Aber der Rest in Form von nativer DX 12.0 / Open GL Next Fähigkeit und 8GM HBM VRAM wird die R9 390X mit recht hoher Wahrscheinlichkeit haben (4GB HBM VRAM dann wohl bei der R9 390 ohne X), weil DX 12.0 bereits angekündigt war, als die Fiji Arhitektur noch in einer frühen Entwicklung war und ab diesen Zeitpunkt Microsoft mit Sicherheit schon Testversionen von DX 12.0 an AMD zur Verfügung gestellt hat, dass es in die Entwicklung von Fiji einfließen kann.
Immerhin dürfte es spätestens der Herbst / Winter 2013 gewesen sein, als Microsoft die Entwicklung von DX 12.0 begonnen hat und genau zu dem Zeitpunkt kam die R9 290X auf dem Markt und die Entwicklung von AMD's Fiji Arhitektur war noch in früher Phase.

Für Nvidias Maxwell Arhitektur kam die Entwicklung von DX 12.0 viel zu spät, da die Entwicklung der Maxwell Arhitektur ab diesem Zeitpunkt bereits fast abgeschloßen war.
Und da die Nvidia GTX Titan X noch auf der Maxwell Arhitektur beruht, wird diese garantiert kein DX 12.0 nativ beherschen, dass ist wohl Fakt.
 
Zuletzt bearbeitet:
Meinst du so einen Chip entwickelt man eben in einem halben Jahr? :lol: DX12 wurde erst klar nach Mantle und damit nach Erscheinen von Hawaii überhaupt erst angekündigt. Die endgültige Spezifikation steht immer noch aus. Wie schon erwähnt wird es bei DX12 wieder Tier geben. Maxwell wird also 'DX12-kompatibel' sein, vermutlich auch Kepler und vielleicht sogar Fermi sowie die ersten Chips mit GCN. Somit profitieren alle diese Karten bei DX12 Titeln von geringerem Overhead und besserer CPU-Auslastung. Dir ist schon klar, dass schon Erkenntnisse mit sehr frühen Treibern von AMD und Nvidia zu genau diesem Thema gibt oder (anandtech)?
Die Funktionen, die neue Hardwareeinheiten erfordern, werden in höhere Tier gepackt und die Hardware entsprechend gekennzeichnet.
Du hast keine seriösen Quellen, weil es keine gibt. Deine Infos sind einfach falsch. Selbst wenn Fiji erst nach August oder September kommen sollte (wovon ich nicht ausgehe), sind 14 nm einfach nicht drin. Es ist ja noch nicht einmal sicher, ob der Chip überhaupt erst von GlobalFoundries kommt. Eine 28 nm Fertigung wie bisher bei TSMC ist mindestens genauso wahrscheinlich.
Deine 'Fakten' sind Blödsinn. Schau dir das DX12 Event von der GDC an, dort wird z.B. gesagt, dass über 50% der Grafikkarten, die lt. Steam benutzt werden, DX12-fähig sind. Ebenso folgt eine Aufschlüsselung, welcher Anteil dann in welchen Tier fällt und viele weitere Infos. Das sind Quellen und Fakten, die darfst du dann auch guten Gewissens als solche verbreiten, nicht so einen Unsinn wie bisher
 
Zuletzt bearbeitet:
Zurück
Oben