News Nvidia enthüllt GeForce GTX Titan X mit 12 GByte VRAM

GEZ-Verweigerer schrieb:
TITAN ist japanisch für Idiot. Bisher waren es immer nur "Enthusiasten" mit zuviel Kohle in der Tasche, die was mit dem namen Titan gekauft haben. Alle TITAN haben gemeinsam, dass kurz danach eine viel günstigere Karte rauskaum, meist ca halb so teuer, aber leicht schneller. Lediglich den VRAM Rekord lässt man immer schön bei der Titan, um ein besonders kleines Feld von Käufern zu bedienen, die meinen, das wäre wichtig^^. So wie ich das sehe, ist eine GTX 980 und auch eine 780TI mir gerade mal 3GB VRAM selbst auf 4k bei allen Spielen schneller als eine alte Titan mit 6GB VRAM. Was also sollen 12GB VRAM? Eine Obszönität, die Karte, weiter nichts.

Du hast nicht wirklich Ahnung oder?
 
wie gerne würde ich mich in 12gb rein legen
 
@nVVater
Kauf dir drei 4GB Riegel und leg dich rein.

@Topic
Es wird schon Leute geben, die die Karte brauchen. Alleine die Skyrim 4k Zocker :D
 
wer braucht die nicht :lol:

Jeder hier im thread ob fanboy oder nicht will diese Karte haben.
auch wenn er Chef bei AMD ist...
 
in einer Planwirtschaft, wo neue Elektronik umsonst verteilt wird, ja, klar würde ich die nehmen.
 
Trotzdem hab ich das Gefühl das der Fiji den wir bis jetzt kennen, nicht in einer solchen Form vorgesehen war und eher als Notlösung gegen den GM200 eingesetzt wird. Und glaubt mal nicht das die 390X viel günstiger ist als die TitanX.
 
@ZotaC.T
Das kann gut sein. Im Endeffekt zählen die Benchmarks, wenn die 390X schneller rechnet, nützen die 12GB auch nichts. Deshalb bin ich auf beide Tests gespannt :)
 
deathscythemk2 schrieb:
@nVVater
Kauf dir drei 4GB Riegel und leg dich rein.

@Topic
Es wird schon Leute geben, die die Karte brauchen. Alleine die Skyrim 4k Zocker :D

Na ja, ich denke mal 6 GB würden auch reichen. Das Problem ist, dass mit ein paar Mods Skyrim auch sehr GPU lastig wird. Da reicht dann eine einzelne Titan X nicht mehr aus, für durchgehend 60 FPS @ 4K. Und die CPU Last darf man auch nicht vergessen. Sobald man Mods nutzt, die viel Content in die Umgebung bringen steigt die CPU Last extrem an. An ein stark gemoddetes Sykrim mit 60 FPS ist da nicht zu denken. Da limitiert viel eher die Rohleistung, als der VRAM. Die Engine ist einfach nicht effizient.
 
Und an DX 12.0 dürfte Microsoft garantiert schon seit 2012-2013 arbeiten. Das glaubt doch nun wirklich Niemand, dass die sich das erst seit der Mantle Ankündigung einfach so aus dem Hut gezaubert haben und erst dann mit der Entwicklung von DX 12.0 begonnen haben.
Ich bezweifle, dass Microsoft schon seit 2012 an DX12 arbeitet. Wäre das der Fall gewesen, wäre AMD in die Entwicklung involviert und/oder Microsoft hätte DX12 schon damals, oder spätestens 2013 angekündigt. Das heißt, AMD hätte gewusst, dass DX12 kommt und dass es genau den Effekt hat, den AMD später mit Mantle erzielte. Warum hätte AMD dann Mantle überhaupt entwickelt? Klar, manche würden sagen, um schneller am Markt zu sein und sich dadurch einen Vorteil zu verschaffen. Aber Leute mit gesundem Menschenverstand sollten einsehen, dass dieses Szenario unrealistisch ist.

1. AMD hätte damit gewusst, dass Mantle überflüssig sein wird, sobald DX12 da ist, und als involvierter GPU Entwickler kann man da wohl ganz gut einschätzen, wann DX12 fertig ist.
2. AMD hat nicht die Ressourcen um mal eben eine neue Programmierschnittstelle für eine Lebensdauer von ca. 1 Jahr zu entwickeln, vor allem, da man mit einem Marktanteil von weniger als 30% eh davon ausgehen konnte, dass es nicht allzu viele Spiele geben würde, die Mantle neben DX11 unterstützen würden.
3. Auch Dice/EA hätte von DX12 gewusst, warum würde man dann eine neue API entwickeln wollen und sich die Arbeit machen, diese in die Engine zu implementieren?
4. AMD's Vice President hatte im April 2013 folgendes gesagt: "Ein neues DirectX hat die Branche immer wieder neu aufgefrischt, neue Grafikkarten brauchten stärkere Prozessoren und mehr RAM. Aber es wird kein DirectX 12 kommen. Das war's. Soweit wir wissen gibt es keine Pläne für DirectX 12. Falls das nicht stimmen sollte und mich jemand korrigieren möchte – wunderbar." Glaubt jemand ernsthaft, es wurde bereits intensiv an DX12 gearbeitet (immerhin April 2013) und der Vice President von AMD wusste es nicht? Oder dass er es wusste, d.h. auch dass AMD involviert war, aber in einem Interview so etwas behauptet? :rolleyes:

Sehr viel glaubwürdiger ist, dass AMD mit DX11 schon lange unzufrieden war, weil man als Spezialist sah, wie viel Potential da ungenutzt bleibt, und mit Dice die Chance ergriffen hat, dies auch zu zeigen. Ich behaupte jedoch nicht, dass AMD gewusste habe wie das alles kommen wird, dass DX12 so bald kommen und man "Mantle 1.0" damit quasi aufgeben würde. Sonst hätte man bei AMD nämlich nicht behauptet, dass es ein öffentliches SDK geben würde.

Viel mehr scheint es so zu sein, dass Microsoft nicht gerade glücklich ist/war, dass die PS4 viel erfolgreicher ist als Xbox1, DX11 veraltet und ineffizient ist und Windows 8(.1) ein ziemlicher Flop ist. Was tut man dagegen? Man kündigt DX12 und Windows 10 an, das auch noch kostenlos sein soll.
Dass Microsoft nicht mit AMD zusammengearbeitet und keinen Blick auf Mantle werfen durfte braucht mir keiner zu erzählen... Das Ergebnis ist, dass es bereits eine lauffähige Version von DX12 gibt, die sehr ähnliche Ergebnisse liefert wie Mantle.

Bei AMD hat man wohl entschieden, statt Mantle öffentlich zu machen (und damit den source code), Mantle in OpenGL, bzw "Vulkan" (Mantle -> Vulkan.. ;)) zu veröffentlichen. Und ich finde, das ist der richtige Weg.

“Open” and “flexible” technologies are an essential piece of AMD’s DNA, and we have a long history in supporting those ideals. Our co-development of the Vulkan API through contributions like Mantle is another chapter in that open technology tale for AMD, an exciting evolution of Mantle, and a big step forward for PC gamers alike.
Unbenannt.jpgUnbenannt2.jpg
http://wccftech.com/mantle-vulkan-amd/
 
Zuletzt bearbeitet:
ZotaC.T schrieb:
... Und glaubt mal nicht das die 390X viel günstiger ist als die TitanX.
Es kann natürlich sehr gut möglich sein, dass die ersten Fiji Karten für AMD Verhältnisse sehr teuer sind, da HBM verwendet wird, welches das teurere klassische SI unnötig macht, allerdings erst mal noch neu ist und Entwicklungskosten einspielen muss.
Aber was lässt dich glauben / zu der Überzeugung kommen, dass die 390X nicht "viel günstiger ist als die TitanX" (die wohl sicher wieder einen vierstelligen Preis haben wird - spätestens bei uns in Europa, dank des derzeitigen miesen Dollar / Euro Kurses)
 
...tss ich dachte schon, wie kann er denn jemanden bannen. Außerdem ist er mir schon längst als absoluter Nvidia Sympathisant aufgefallen. Dann sollte ihm vielleicht ein echter Admin beibringen, wer wen bannen kann.
edit: aha. Kann auch ins Aquarium verschoben werden.
 
Zuletzt bearbeitet:
Meine Kumpels auf dem Schulhof meinten auch einhellig, dass die Titan X fürs reine Gaming völlig überdimensioniert sei.
Wir warten als Fan-Boys auf ein Pendant für Gamer.
 
Auf dem Schulhof findet man ja auch überwiegend Schulbrote, statt Mäusespeck ;)
Da ist überwiegend Sponsor Mami/Papi der Faktor ob etwas geeignet ist, oder nicht.
 
Herdware schrieb:
Trotzdem würde sich wohl niemand beschweren, wenn AMD jetzt eine neue 28nm-GPU mit ähnlicher Größe und Features wie Tahiti/Tonga raushauen würde, die "nur" etwas schneller ist als Hawaii (Vollausbau) und dabei 75W weniger verbraucht. ;)

Das hatten wir doch schon oder ? Hawaii wird als High End beziffert, aber GM204 nur als Midrange.
NV-Marketing sieht das wohl anders, die nennen die Karte 970 und 980 GTX.
Okay, jetzt kann man sagen, das ist nun mal Marketing, im Forum sieht man das anders. Denn die Die-Size ist ausschlaggebend.

GM 204: 398 mm²
Hawaii: 438 mm²

Also die 40 mm² machen wohl den Unterschied zwischen High End und Midrange aus. Aber vllt sind es auch die DP-Einheiten, die bei GM204 völlig fehlen. Damit dürfte GM200 dann aber auch nur Midrange sein.

Oder vllt verstehe ich das alles falsch, wie definiere ich jetzt, was Midrange und Highend ist ? Ist es am End doch das Marketing, aber wieso spricht das von High-End ?
Bitte erkläre das mal.

Eine Erklärung gäbe es noch, die würde dich aber nicht freuen, nämlich, dass weil es GM200 und einen GM204 gibt, würde der GM204 midrange sein, weil es einen Chip drunter gibt, den GM200.
Das Problem ist aber, bei AMD wird es nur Fijii geben, der dann der größte Chip ist. Da Hawaii aber ein Reband ist und gedacht ist, als midrage der R9 300 Serie zu agieren, ist das am Ende auch ein Midrage Chip, ab dem Moment, wenn die neue R9 300 Serie vorgstellt wird.

Und plötzlich gibt es keine Argumentaiton mehr, ja midrange vs alter High-End Chip.
GK 204 vs Tahitii. Es ist das selbe, Tahitii war nach Hawaii der zweit größte Chip.

Klar etwas kompliziert, wenn AMD in den letzten Generation nicht ständig einen neuen Chip für alle Klassen auf den Markt gebracht hat. Hat NV aber bei der 700 GTX Serie auch nicht und ich wette bei der 1000 GTX Serie wird es nicht anders laufen. Da wird die Maxwell GM200 LE bald die 1080 sein. Ich kann mir nicht vorstellen, dass NV tatsächlich so einen großen Chip für nur eine Generation auf den Markt bringt.

deathscythemk2 schrieb:
@ZotaC.T
Das kann gut sein. Im Endeffekt zählen die Benchmarks, wenn die 390X schneller rechnet, nützen die 12GB auch nichts. Deshalb bin ich auf beide Tests gespannt :)

Egal ob GM200 oder Fiji, für 4K werden sowieso beide als Singel GPU zu langsam sein.


ZotaC.T schrieb:
Trotzdem hab ich das Gefühl das der Fiji den wir bis jetzt kennen, nicht in einer solchen Form vorgesehen war und eher als Notlösung gegen den GM200 eingesetzt wird.

In welcher Form hätte dieser denn aussehen sollen ? Das einzige was man sagen kann, wäre 20nm Prozess, der wahrscheinlich geplant war. ASIC werden aber heutzutage so entwickelt, sodass sie zu einem gewissen Zeitraum an der jeweiligen voraussichtlichen Fertigungstechnologie anpassbar ist.

Offtopic, aber passt zu dem Midrange vs Highend Gerede
http://www.pcgameshardware.de/AMD-R...News/AMD-Pirate-Islands-R300-Line-Up-1152705/
Die Webseite kitguru.net will von eigenen Quellen erfahren haben, dass AMD die Veröffentlichung seiner neuen Grafikkartengeneration verzögert habe, weil entgegen der ursprünglichen Pläne neue Chips aufgelegt werden sollen. Demnach sollen die Modelle unter der R9 390X keine Rebrands darstellen und zur Computex hin vorgestellt werden.

Na wenn das stimmt, vllt gibt es bald ein Ausverkauf von der R9 280-R9 390X. Das dürfte eventuell auch die Preise der NV Karten eventuell absenken, wobei die Titan davon wohl eher nicht betroffen sein wird.



zeedy
AMD wollte neue Features und hat diese in DX11 nur halbherzig integriert bekommen und NV hat nicht mal interesse gezeigt diese Features zu integrieren, weil sie auch nicht zu dessen Line-Up passt. Das merkt man doch auch bei Maxwell und dass man sowieso nur interesse an PhysikX hat. Besonders könnte man Compute-Shader eventuell sogar als Gefahr für PhysikX sehen, weil es in DX12 und neuen API nativ unterstützt wird und PhysikX an Bedeutung nimmt.
Ich glaube eher Dice war noch unzufriedener als AMD, weil man der Meinung war, noch mehr Performance rausholen zu können und hat mit AMD dann per Zufall den passenden Partner gefunden, sodass es für beide am Ende eine Win-Win Situation war.
Ich würde als das Lob nicht nur AMD geben, sonders es kam auch sehr viel von den Spiele-Entwickler, die einfach effektiver Software an Hardware anpassen wollten.
Die neuen API dürften auch weit aus mehr Zulassen und somit auch mehr gewünschte Innovation ermöglichen.

Ich glaube die GM200 wird noch die letzte richtig gute DX11 GPU sein. AMD dürfte sich da schon seit Mantle eher auf die neuen API konzentrieren, auch wenn sie durch Omega Treiber noch etwas für DX11 nachreichen.

Wenn man an einem SLI oder CF System denkt, wird man mit der NV Karte unter DX11 12 GB für 4k haben. Ein SLI System mit zwei Titan X halte ich für schnell genug um unter 4k an die 60 FPS bei hohen Details ranzukommen, eine Maxwell oder Fiji allein, vermute ich, werden noch zu langsam sein.
Bei AMD wird man im CF System 4GB HBM haben, was unter DX11 einfach wenig für 4k ist. Anders aber, wenn man eventuell DX12 nützt, wo man dann auf die vollen 8 GB HBM Zugriff haben soll (SFR). Sind zwar immer noch 4 GB weniger als bei NV, aber es wird wahrscheinlcih genug sein, wenn man bedenkt, dass hier viele der Meinung sind, dass 2-3,5GB bei der 960 GTX für 1080p doch völlig ausreichend sind. ^^

Ich für mein Teil warte mal Benchmarks ab. Es kann natürlich auch sein, dass ich mich täusche und Maxwell vllt "schnell" genug für 4k 60 Frames ist.
 
Zuletzt bearbeitet:
pipip schrieb:
Oder vllt verstehe ich das alles falsch, wie definiere ich jetzt, was Midrange und Highend ist ? Ist es am End doch das Marketing, aber wieso spricht das von High-End ?

Für die Einstufung ist weder die Die-Size noch die Aktualität ausschlaggebend, sondern Preisklasse und Leistung.
Man kann nicht sagen Maxwell ist das eine und hawaii das andere, weil es auch jeder Chipfamilie eine Reihe von Vertretern unterschiedlichster Leistung gibt.

Midrange (ich kenne es als Performance-Segment) befindet sich so in der Preisklasse zwischen 140 und 220 Euro, während das High-End Segment oberhalb 220 beginnt und hoch bis 400 Euro geht. Darüber fängt dann langsam das nach oben offene Enthusiasten-Segment an für diejenigen, denen der Preis egal ist (daher brauchts auch keine weiteren Einteilungen dann :D).

Wenn man dann einen Preis herausgreift, kann man anschließend schauen von welchem Hersteller man die meiste Leistung dafür bekommt. Da die meisten Käufer ein Preis- und kein Leistungslimit haben richten sich die Kategorien eben hauptsächlich nach dem Preis aus, weil man dann einfach nur schon schauen muss von wem und wieviel Leistung man für die Kohle bekommt, die einem zur Verfügung steht.

Für mich gehören daher die 970 und 980 ganz klar zum High-End Segment, während die 960 zum Performance-Segment gehört.
Auf AMD-Seite befinden sich die 280X, 290 und 290X im High-End Segment, während 280 und 285 zum Performance-Segment gehören.
 
Zuletzt bearbeitet:
nur ein Mensch schrieb:
Es kann natürlich sehr gut möglich sein, dass die ersten Fiji Karten für AMD Verhältnisse sehr teuer sind, da HBM verwendet wird, welches das teurere klassische SI unnötig macht, allerdings erst mal noch neu ist und Entwicklungskosten einspielen muss.
Aber was lässt dich glauben / zu der Überzeugung kommen, dass die 390X nicht "viel günstiger ist als die TitanX" (die wohl sicher wieder einen vierstelligen Preis haben wird - spätestens bei uns in Europa, dank des derzeitigen miesen Dollar / Euro Kurses)

Na durch HBM wird sich Amd locker ein satten Aufpreis schmecken lassen. Und dann kommt noch die Waasserkühlung die auch den Preis auch etwas in Höhe treiben lässt. Und wer sagt das Amd die 380X[=290X] zum gleichen Preis wie aktuell und nicht teurer verkaufen wird ?
 
ZotaC.T

Eine komplett Wasserkühlung muss auch nicht unbedingt billiger sein als eine Vapor Chamber Kühlung und das wird zu mindestens bei der Titan der Fall sein.
Kennst du auch die Preise, die Hynix AMD übermittelt ? Da AMD aktiv mitentwickelt hat und erste Produkte übernimmt (Gen1) und somit auch erster und einziger Abnehmer ist, wer sagt, dass AMD dafür "extra" zahlen muss und nicht sogar einen passenden Deal ausgehandelt hat. AMD hätte auch weiterhin GDDR5 nützten können.
Scheinbar dürftest du ein Insider sein um das behaupten zu können.
 
AMD wird den Preis an der Gesamtperformance der Grafikkarte ausrichten müssen. Wir werden es ja vermutlich bald sehen, wie schnell eine "390X" tatsächlich ist, und wie die neue Titan sich schlägt.
 
Nai schrieb:
Man kann sogar mit sehr kleinen Speicherinterfaces sehr viel Speicherplatz sinnvoll nutzen. Denn extrem viele Sachen kosten viel Speicherplatz aber kaum Speicherbandbreite. So kostet zum Beispiel die Texturauflösung nur Speicherplatz aber keine Speicherbandbreite. Dadurch kann man auf einer Titan X mit dem Speicherplatz sehr hochauflösende Texturen verwenden.

sehe ich auch so, natürlich bieten sich 12gb vram an um sie mit texturen vollzuballern, aber selbst um die titan mit 6gb vollzuballern mit texturenmods usw. wird man bei einer titanx wohl auch bei den AA modi + auflösung/ DSR zulangen. nicht so bei der 4gb 960, die user werden wohl meistens nur full hd betreiben, aber man hat ausreichend speicher für texturen.

anhand von diesen zahlen und den umständen ist die titanX ein größerer SI krüpel als die 4gb960.

dennoch wird bei der 960 rumgeheult das 128bit zu wenig ist.
 
pipip schrieb:
GM 204: 398 mm²
Hawaii: 438 mm²

Also die 40 mm² machen wohl den Unterschied zwischen High End und Midrange aus. Aber vllt sind es auch die DP-Einheiten, die bei GM204 völlig fehlen. Damit dürfte GM200 dann aber auch nur Midrange sein.

Wie kommst du denn darauf? Gm204 kann auch DP, nur halt langsam (1/32). Die R9 290X ist diesbezüglich übrigens auch stark beschnitten und ist kaum besser.
 
Zurück
Oben