News Nvidia Titan X: Pascal-GPU mit 11 TFlops ab 2. August für 1.200 US-Dollar

Fruuky schrieb:
Die wird schon 20% plus schneller sein als die 1080 (OC vs OC) da mach ich mir keine Sorgen.
Das ist eigentlich sogar schon garantiert, ohne dass man auf Tests warten muss. 20% sind ja nur die reinen Gigaflops, da wurde die 50% größere Speicherbandbreite und die 50% größere Speicherkapazität noch gar nicht beachtet.
Ich schätze mal, dass es mind. 30% mehr Leistung sein werden, da die Speicherbandbreite bei der GTX 1080 ja nachweislich limitiert. Bis die größere VRAM-Kapazität etwas bringt, dauert es allerdings noch 1 - 2 Jährchen, denke ich. Noch reichen 8GB eine Weile aus unter UHD.
 
Also jetzt bin ich von Nvidia aber herb enttäuscht, denn die Karte weist gleich 3 entscheidende Fehler auf, von denen 2 als kritisch eingestuft werden.

a) Keine 16GB RAM, wie es sich für eine neue Titan der reinen Logik nach gehören würde. Man erinnert sich... 980: 4GB... 980ti 6GB und Titan X dann 12GB...

b) kein HBM2 Speicher, um sich von der Gamingserie der Pascals deutlicher abzugrenzen und das, wo Nvidia durchaus schon HBM2 eingekauft hat beim GP100. Außerdem wird AMD mit HBM2 hantieren, auch von dem Punkt her ist das schon peinlich für Nvidia. Das ist ansich nicht so kritisch, weil es mehr auf 16GB bei einer neuen Titan ankäme. Dennoch -für den angepeilten Preis kein HBM2? Naja...

c) der Name! Wer bei Nv war da so einfallslos bzw doof und hat vergessen, das es die X schon gibt? Spielt keine Rolle, ob da ein Geforce davor steht oder nicht.

Ich hatte echt gehofft, das Nvidia schlauer vorgeht -nämlich in etwa so:

GTX1080ti mit 3072 shadern, 12GB GDDR5X und abgeriegelt auf 220W Verbrauchsangabe. Mehr Leistung als die GTX1080 FE. Zum Preis von 899€ für die FE.

Und DANN die neue Geforce Titan 4K (was ist an 4K denn so indiskutabel gewesen Nvidia? Diese Karte sollte die definitive 4K-Karte sein. Also wäre der Name absolut zeitgemäß!) ohne das GTX, die mit mindestens ~3584 shadern den Knaller zündet, dazu 16GB HBM2 bei einem Preis von 1199€ für die FE sowie dem grad noch so politisch korrekten Limit von 250W Verbrauch. Das wäre dann eine echte Killer-Enthusiastenkarte.

Aber so? Ich seh schwarz.
 
die preise werden solangsam irreal lol.. der vollausbau wird dann wohl um die 2000€ kosten (wird ja wohl um die 16-17tflops haben). eine katastrophe.

aber ganz nett die karte. wer stinkreich ist oder nicht stinkreich aber dumm (scherzhaft gemeint auch wenn da viel wahrheit drin steckt. jemanden der nich stinkreich ist und sich für sein ganzes geld ne 1200€ graka kauft kann man nicht schlau nennen..) wird hier sicherlich ne geile karte bekommen die vllt endlich auch 4k gaming halbwegs hinbekommt.

zum. sollte diese graka für 4k gaming das absolute minimum werden. echte 60fps konstant in 4k wird man eh erst ab dem vollausbau haben
 
Chismon schrieb:
Im VR Bereich - für welche die Radeon Du Pro entwickelt wurde - sieht es aber leider genau andersherum aus und da ist eine Dual GPU einer Single GPU klar überlegen ;)
Das ist ein Mythos das VR super für Multi GPU ist. Theoretisch skaliert es natürlich viel besser als normales SLI/CF. Auch sind Microruckler kein Problem, weil nicht abwechselnd Frames, sonder Re/Li Auge getrennt berechnet werden.

Andererseits verliert man mit SLI/CF in VR auch wieder Optimierungsmöglichkeiten, wie sie mit Single Pass Stereo eingeführt worden sind.

Soviel zur Theorie. Praxis ist: es gibt null Spiele die Multi GPU VR, in welcher Form auch immer, unterstützen. Selbst Eve: Valkyrie, welches auf der nVidia GameworksVR Seite gefeatured wird, unterstützt kein VR SLI...
 
Chismon schrieb:
Im VR Bereich - für welche die Radeon Du Pro entwickelt wurde - sieht es aber leider genau andersherum aus und da ist eine Dual GPU einer Single GPU klar überlegen ;) ... zudem ist jetzt schon eine Zunahme an Multi-GPU Unterstützung in aktuellen DX12 Spielen wahr zu nehmen, die Zukunft wird also in Dual GPU Karten liegen (auch wenn das noch einige Jahre entfernt ist, bis sich der Umstieg für jeden lohnt) und nicht in Single GPU Karten, analog zur Entwicklung bei den CPUs.

Es ist ja nicht so schwer, sich ausgehen von Null zu steigern. ;)

Ich sehe in DX12 eher eine neue Hürde, die Dual-GPU nehmen muss. Zwar kann Dual-GPU unter DX12 theoretisch wesentlich besser funktionieren, aber dafür ist jetzt jeder Spiele-Entwickler selbst verantwortlich. Dual-GPU wird mit DX12 überhaupt nur mit den Spielen funktionieren, die es von sich aus explizit unterstützen.
Multi-GPU hatte es als Nischenlösung schon unter DX11 und älter nicht leicht, als die Unterstützung noch hauptsächlich von Seiten des Grafiktreibers komme musste. Jetzt fängt es wieder bei Null an.
Wie motiviert die Spielentwickler sein werden, Dual-/Multi-GPU in ihren Spielen zu unterstützen, werden wir sehen. Da viele PC-Spiele Multi-Plattform-Entwicklungen sind oder gar nur nachträgliche Portierungen von Konsolentiteln, wo es kein Multi-GPU gibt, würde ich die Hoffnungen nicht zu hoch ansetzen.

Ach ja. Und was CPUs angeht: Auch da haben sich Multi-Prozessor-Boards abseits von speziellen Servern nie wirklich durchgesetzt.
Multi-Core-CPUs, also mehrere Cores auf einem Chip oder zumindest in einem Gehäuse, sind wieder was anderes. Multi-Core ist bei Grafikkarten schon ewig Standard. Eine aktuelle GPU hat mehrere Tausend Cores.
 
1200€ für eine Grafikkarte... Ja, macht ihr nur Nvidia. Ihr seid für mich gestorben. Eigentlich schon seit der GTX970, aber naja.

Ich freue mich auf AMDs Vega und hoffentlich nicht dermaßen überzogene Preise und HBM2 als Speicher :-)

Grüße

Micha
 
Endlich habe ich mein perfektes Bügeleisen gefunden, das auch noch schnell genug ist, die Wäsche im Handumdrehen zu bügeln !
:p
Das man damit auch Spiele zocken kann ist mir nicht so wichtig, ich bin leidenschaftlicher Bügeleisen-Fan !
 
Passt doch, hier stehen 50% mehr Speicherbandbreite 40% mehr Shadern gegenüber, die zudem noch mit geringerem Takt laufen. Das hat nichts mit sparen oder peinlich zu tun, mehr ist schlicht unnötig.
 
Gelbsucht schrieb:
[...]b) kein HBM2 Speicher, um sich von der Gamingserie der Pascals deutlicher abzugrenzen und das, wo Nvidia durchaus schon HBM2 eingekauft hat beim GP100. Außerdem wird AMD mit HBM2 hantieren, auch von dem Punkt her ist das schon peinlich für Nvidia. Das ist ansich nicht so kritisch, weil es mehr auf 16GB bei einer neuen Titan ankäme. Dennoch -für den angepeilten Preis kein HBM2? Naja... [...]

Was habt ihr eigentlich alle immer mit HBM(2)?
Solange die Leistung stimmt, ist es doch egal, ob NVidia da HBM2, HBM, GDDR5X oder angemalte Kartoffeln verbaut. Solange man in der Leistungsklasse alleine unterwegs ist heißt es eh "friss oder stirb".
Immer interessant die Argumente zu verfolgen, würden die ganzen "WAS, KEIN HBM? KAUFE ICH NICHT" Schreier etwa bei der gleichen Leistung mit anderem Speicher NVidia die Bude einrennen? So wird es für NVidia wohl definitiv billiger sein, im professionellen Markt verbaut man doch HBM und da sind die Kunden auch bereit das zu Zahlen. Wer sich unbedingt was drauf einbilden will eine HBM Karte zu haben, kann doch auch jetzt schon bei NVidia shoppen (und hat sogar 16GB davon).

MfG
V_ossi
 
Lustig, wenn im Forum gefragt wird wann neue Karten oder Ti Versionen kommen ist bei allen immer die Glaskugel kaputt.
Aber hier scheinen ja noch alle zu funktionieren. :D
 
Ah da kommen wieder die dumm und Minderwertigkeit Kommentare . Fraglich wer da seine Minderwertigkeitskomplexe hier in den Kommentaren erklärt...

Wenn Ddr5x schon stark limitieren würde, hätte NVIDIA die Karte so nicht auf den Markt gebracht. So viel Vertrauen habe ich da schon. Ich freu mich über mehr Performance.
 
was ist denn mit Nvidia los, bekommen sie doch langsam Schiss oder warum hauen die ein Produkt nach dem anderen raus

zur Titan X, totale Verarsche wie von Nvidia bekannt.
 
Darkblade08 schrieb:
@Wadenbeisser
Sollte eine 1080ti kommen, dann glaube ich kaum, dass Nvidia der Karte HBM2 mitgibt. Das wäre ein zu großer Bruch der bisherigen Produktlinie, in der die Titan immer die Spitze inne hatte (Seit es die Titan Reihe gibt).
Deshalb schrieb ich ja auch
wodurch sie wohl eher den Platz einer spekulierten 1080ti einnimmt....

Wir erinnern uns, bei der ersten Titan wurde der Preis mit einer vergleichbaren, professionellen Karte und ihrer deutlich höheren DP Leistung gerechtfertigt, bei der letzten Titan fiel dieses Argument bereits weg weil der Chip nicht mehr brachte und nun wird offensichtlich nur noch ein kastrierter Gaming Chip dafür verwendet, obwohl es ein professionelles Modell geben soll und was bleibt ist der Preis?

Entweder ist es schon angesichts der Namensgebung ein Fake oder nvidia führt die Tradition wirklich fort den Kunden mehr und mehr auf die Schippe zu nehmen.
 
Fraglich ist, wann und ob überhaupt AMD diese Karte kontern kann.

Wenn man mal die aktuell erhältlichen Karten betrachtet (RX480 vs. GTX1060 im Vergleich zur theoretischen Rechenleistung der Titan X), müsste AMD einen mehr als 2,5x so großen Chip wie Polaris10 bauen. Da läge man irgendwo bei >450W Leistungsaufnahme. Das ist schlicht nicht möglich. Wenn AMD die Effizienz nicht mal langsam in den Griff bekommt (und das heißt im Grunde schon bei Vega), wird man maximal die 1080 schlagen können, aber keine TitanX und/oder potentielle GTX1080TI.
 
Drummermatze schrieb:
Schöne Karte zu nem völlig überzogenen Preis.
Ein halbes Jahr später kann man sich dann die 1080Ti mit gleicher Leistung zum halben Preis kaufen. :freak:

völlig falsch. es gibt genug leute denen zeit deutlich wichtiger als geld ist. und von dem einem deutlich mehr haben als von dem anderen. wieso sollte man ein halbes jahr warten? zudem 6 monate in der gpu entwicklung durchaus nicht wenig sind.

tellerrand und so ;)

edit: wenn du glaubst das es die 1080ti für 600 dollar gibt dann... ja dann... weis ich auch nicht mehr :freak:
 
Wäre aber super wenn AMD das toppen könnte. Ich befürchte aber auch dass das nichts wird.
 
michelthemaster schrieb:
1200€ für eine Grafikkarte... Ja, macht ihr nur Nvidia. Ihr seid für mich gestorben. Eigentlich schon seit der GTX970, aber naja.

Ich freue mich auf AMDs Vega und hoffentlich nicht dermaßen überzogene Preise und HBM2 als Speicher :-)

Grüße

Micha


Die Schuld trifft da wohl eher AMD, die in der Leistungsklasse einfach gar nix zu bieten haben. Nvidia macht da, wie jede andere Firma auch, das richtige aus Sicht eines Unternehmens. Gibt es keine Alternativen, dann gehen die Preise rauf. Wenn AMD den Arsch mal hoch kriegen würde und eine Karte mit ähnlicher Leistung für, keine Ahnung, 800€ raushaut, dann würde auch der Preis der Titan sinken. Aber da AMD nichts liefert, ist die Situation eben so. Enthusiasten stört das aber sowieso nicht und die sind ja die Zielgruppe.

Wobei AMD es ja auch nicht anders macht insgesamt. Eine 280 startete bei um die 200€, die 480 kostet mal eben 70€ mehr. Das Lockangebot mit den 4GB mal ausgenommen, das gibt es ja sowieso nicht mehr.
 
Zuletzt bearbeitet:
Zurück
Oben