News Nvidia Titan X: Pascal-GPU mit 11 TFlops ab 2. August für 1.200 US-Dollar

@Todesstern

Ein Monopol bedeutet aber, es gibt nur ein Anbieter. Ergo kann es kein Monopol geben. Wenn man von einem "-pol" sprechen will wäre es ein Oligopol.

@Linmoum

Ist es schon bestätigt? Wenn ja stimme ich dir zu.
 
Herdware schrieb:
Zwar kann Dual-GPU unter DX12 theoretisch wesentlich besser funktionieren, aber dafür ist jetzt jeder Spiele-Entwickler selbst verantwortlich. Dual-GPU wird mit DX12 überhaupt nur mit den Spielen funktionieren, die es von sich aus explizit unterstützen. Multi-GPU hatte es als Nischenlösung schon unter DX11 und älter nicht leicht, als die Unterstützung noch hauptsächlich von Seiten des Grafiktreibers komme musste. Jetzt fängt es wieder bei Null an. Wie motiviert die Spielentwickler sein werden, Dual-/Multi-GPU in ihren Spielen zu unterstützen, werden wir sehen. Da viele PC-Spiele Multi-Plattform-Entwicklungen sind oder gar nur nachträgliche Portierungen von Konsolentiteln, wo es kein Multi-GPU gibt, würde ich die Hoffnungen nicht zu hoch ansetzen.

Eben das hat sich jetzt schon geändert, was schon die Implementierung von Multi GPU Layer durch Microsoft in DX12 veranschaulicht, um den Einsatz von Multi-GPU nicht nur den großen Entwicklern/Studios (mit großem Budget) zu überlassen und AMD ist bei allen neueren etwas größeren (für den Massenmarkt relevanten)/erfolgreichen Spieletiteln hinterher neben Async Compute auch Multi-GPU implementiert zu bekommen, ja, es wurde sogar extra eine Abteilung bei Radeon Technologies dafür von Raja Koduri eingesetzt ... also vergleichbar ist die Situation mit alten DX 11 (CF und SLI) Zeiten mitnichten. Sogar ein Civilization 6 wird DX12 mit Multi-GPU Support bekommen.

Die Konsolentitel werden auch indirekt unter der Regie/Anleitung von AMD entwickelt, somit denke ich schon, dass auch dort großes Potential vorhanden ist für die Zukunft von Multi-GPU Systemen, wenn auch jetzt noch nicht (zunächst will man sich wohl um die Optimierung per Shader Intrinsics und PDA kümmern (die mit der Polaris Architektur bei AMD neu eingeführt wurden), um somit am PC ähnlich gut optimiert entwickeln zu können wie bei den Konsolen).

Herdware schrieb:
... Multi-Prozessor-Boards abseits von speziellen Servern nie wirklich durchgesetzt. Multi-Core-CPUs, also mehrere Cores auf einem Chip oder zumindest in einem Gehäuse, sind wieder was anderes. Multi-Core ist bei Grafikkarten schon ewig Standard. Eine aktuelle GPU hat mehrere Tausend Cores.

Das Prinzip von Multi-GPU ist m.E. eher mit Multi-Core Prozessoren zu vergleichen, nicht mit Multi-Prozessoren-Boards (die natürlich nur vorwiegend im Server-Bereich Sinn machen). Das mag sein, dass es strikt terminologisch nicht übereinstimmt, aber CUDAs oder CUs kann man auch nicht mit vergleichsweise wenigen Cores in Consumer CPUs vergleichen.
 
Zuletzt bearbeitet:
Fruuky schrieb:
.... und Minderwertigkeit Kommentare . Fraglich wer da seine Minderwertigkeitskomplexe hier in den Kommentaren erklärt...

Tja, wer damit wirklich hausieren geht und sich angesprochen fühlt bzw. selber den Schuh anzieht, dem kann ich auch nicht mehr helfen :evillol: ...
 
Gelbsucht schrieb:
[...]Trotzdem vertrete ich die genannten Standpunkte und vor allem, das es sehr komisch bis unklug ist, schon jetzt eine Titan rauszuhauen, wo noch Luft für eine 1080ti wäre und auf die Namensgebung komme ich echt nich klar. Sicher, Titan P hätte sich wie Titan Penis gelesen, aber ich hab vor Wochen das mit dem 4K aufgegriffen, weil das sehr naheliegend wäre.

Aus technischer Sicht, kann ich deine Punkte ja durchaus verstehen und ich bin auch der Meinung, dass "Mehr" durchaus wünschenswert wäre, aber ein gutes Pferd springt nur so hoch, wie es muss. Warum sollte NVidia mehr machen, wenn man ihnen auch so die Bude einrennt?
Allein die Anzahl der Leute, die hier direkt schreiben, dass sie die Karte kaufen wollen... Für mich ist das halt unverständlich, wenn man auch mit einer 400 Euro billigeren Karte (1080) ein vergleichbares Erlebnis haben kann. Merkt man z.B. im laufenden Spiel wirklich den Unterschied zwischen Ultra und Hyper Texturen bei Mirrors Edge? Klar, wer das Geld hat, soll sich kaufen, was er will, aber obwohl ich es könnte, würde ich das niemals machen.

Und wer sagt denn, dass Nvidia nicht eine Titan X Black Edition inkl. HBM2 rausbringt, wenn es nötig wird? Bis dahin kann man aber auch mit der billiger produzierten GDDR5X Variante gutes Geld abschöpfen.
 
Grad nochmal im GP100 Vorstellungsthread nachgeschaut, GP102 ist wohl wie vermutet der GP100 ohne HBM SI und sonstige HPC-Spezialitäten.
GP100 hat auch nur 56 von 60 SM und somit wäre eine 1080ti durchaus möglich als Vollausbau.

Titan X (GP102 250W TDP):
224 TMUs
56 SM = 3584
Speicher = 12GB GDDRX

1080Ti (GP102-Vollausbau 300W TDP):
240 TMUs
60 SM = 3840
Speicher = ? kein HBM da sehr wahrscheinlich kein SI mit GDDRX+HBM
 
zeedy schrieb:
12 GB G5X sind doch völlig ausreichend, auch für die Leistung. Klar HBM2 wäre schöner und bei dem Preis angebracht. Aber Nvidia baut seine Karten ja schon immer so teuer wie nötig und verkauft sie so teuer wie möglich. Das ist ja auch was deren Fanboys anscheinend auch so bewundern :lol:

Dafür waren bisher die Ti Modelle zuständig die kaum langsamer oder in Form der OC Modelle sogar schneller als die entsprechenden Titan waren aber zumindest mit einer übertriebenen Speicher Ausstattung daher kamen.
Falls es wirklich so kommen sollte haben sie wohl eher einfach die Ti in Titan umbenannt um den Preis zu rechtfertigen, welcher ja bereits bei den bisherigen GPU Modellen im Vergleich zu ihrem Vorgänger mit einem saftigen Aufpreis einher ging.
 
Nochmal 20% schneller als ne GTX 1080? Haut mich nicht aus den Socken. Ich wart auf Vega.

Aber Kompliment @ Nvidia. Durch den zeitlichen Vorsprung nehmen sie AMD einen Grossteil des Geschäfts weg.
 
Genau so hätte ich eine GTX 1080 Ti erwartet, für eine Titan ist dies einfach zu wenig.
Mit GDDR5X war zu rechnen und dies ist auch aktuell ok so.

Aber eine gescheite neue Titan X müsste 3.840 Shader und 24GB VRAM haben.

Wirklich schade, aber mehr scheint wohl zur Zeit nicht wirtschaftlich zu sein,
auch für Titan Verhältnisse.
 
Es gibt zwei Hersteller. Das ist zwar kein Monopol aber auch nicht gut. Du hast z.B. folgende Möglichkeiten:
-Crossfire
-SLI

Damit erhälst du die Leistung einer 1080.

Falls dir andere Parameter auch wichtig sind, musst du einfach mehr bezahlen. Man kriegt auch keinen 7er zum Preis einer E-Klasse.

Iconoclast schrieb:
Hä? Wie es gibt kein Monopol? Was bleibt mir denn noch so auf dem Markt, wenn ich 1080/Titan Leistung haben will?
 
Mal eine Frage an die selbsternannten "Enthusiasten" unter uns.
Wo fängt denn bei euch der Schmerz in der Brieftasche an? Ich lese hier immer wieder ala Preis ist vollkommen okay für uns Enthusiasten. Aber auch ihr habt ja ein Limit.
 
Perfomance Rating 4K (1080 Partnerkartentest)
1080 = 100%
1080Max = 107,4%

Mit dem Durchschnitt zwischen Basistakt und TurboTakt der neuen Titan X und den Shaderzahlen, errechne ich ein 4K-Rating von 127,3%.

Verglichen mit der stärksten Partner1080[117,9%] ist das ein Unterschied von nur noch 9,4% im Rating und im direkten Vergleich nur noch 7,95%. Das ist natürlich alles nur Theorie und Vermutung. Sofern die Software die VRAM besser auslasten kann, wird die Titan X sicherlich zulegen können aufgrund der höheren Bandbreite, aber insgesamt wäre das schon eine ziemliche Enttäuschung wenn die stärkste 1080 nur ~8% langsamer ist obwohl die Titan X +50% Aufpreis kostet. Die 8% mehr Frames wären teuer erkauft.

Natürlich wäre eine Titan X, die mit den Takten der stärksten Partner1080 läuft ein sehr attraktives Produkt, grad für die "Kompromissvermeider".


Cleverer Zug jetzt die extrem teure Variante rauszuhauen, wo bekannt ist, daß AMD bis 2017 nicht entgegen zu bringen hat - im Hardcore-Enthusiast-1K$-Segment. Hier wird sich Nvidia hoffentlich noch sehr lange ausruhen. Das ist der Prestige-Bereich, den AMD nicht mehr bedienen will oder kann.

Es macht genauso Sinn, dem Kunden eine Ti für 999$ zu verkaufen, da AMD leistungstechnisch nichts entgegenbringen kann? FALSCH!
Nvidia ist eine Aktiengesellschaft und ist als solche verpflichtet den Gewinn der Auktionäre zu maximieren. Das macht man eben so wie wir es jetzt erleben. Wer unbedingt sein Ego aufbauschen muss, darf dafür mehr hinblättern und bis Vega kommt werden die perfekten 4096Shader-GPUs auf Seite gelegt damit man mit der 1080Ti zum Vega-Release auch preislich gut dastehen kann, also kein Papaerlaunch, direkte Verfügbarkeit zu Preisen der aktuellen 1080 und gnadenlos schnell (+20% gegenüber Vega).

Die Furys sind zwar keine Konkurrenz zur 1080, halten aber ganz gut mit der 1070 mit und kosten entsprechend auch weniger. AMD sich nur vom teuersten und am wenigsten rentablen Kundenkreis abgewendet, was wirtschaftlich aber auch sehr clever ist. Die X2-Modelle brauchten zusätzliche Entwicklungskosten und haben sich nie so gut verkaufen können aufgrund der Anforderungen, Preise und monatelangen Verspätungen.
 
Zuletzt bearbeitet:
Naja wenn man pro Monat 5000 Nette macht oder die Eltern einem alles reinschieben gibts da ja fast kein limit.
 
etoo schrieb:
Spätestens jetzt sollten auch alle 1080er Käufer sehen dass der GP104 für 800,- nur Mittlelklasse ist.
Komisch, meine 1080 war heute morgen genauso schnell wie gestern Abend ;-)

Chismon schrieb:
Was meinst Du, wofür die Radeon Duo Pro derzeit genutzt wird (?)
Naja das steht so auf der Homepage von AMD bzw. war so beim Release der Karte von AMD als Zielgruppe "VR Devs" ausgegeben. Ich bezweifel stark, dass das der Fall ist - diesbezüglich hört man einfach null News auf VR Seiten im Netz. Und die meisten Spiele die jetzt released werden, sind wesentlich länger in Entwicklung als es die Radeon Duo Pro gibt. Und blos weil es eine DualGPU von AMD gibt, bedeutet es ja nicht, das Nvidia nicht aktiv im Bereich VR Sli ist... ich denke generell ist Nvidia was VR angeht innovativer, was man an Pascal ja sehen kann. Und VR SLI vs. VR CF schenkt sich ja nix. Beides ist jetzt schon möglich und kann von Entwicklern mit entsprechendem SDK eingebunden werden. Macht halt nur keiner.
Es gab vor kurzem die Meldung das Unity und UE4 gerade Lensmatched Shading einbauen... von VR SLI/CF kein Wort...
MultiGpu wird auch in VR ein Randthema bleiben und man wird vom Wohlwollen des Entwicklers abhängig sein.
 
Kein HBM?
Ich sollte vielleicht eine Fury kaufen.
Das Ding ist viel weiter in der Zukunft als gedacht.

Vega wird doch bestimmt mit HBM2 kommen.
 
wahnsinn, wer braucht so eine leistung..... und dann dieser preis, die leute haben einfach zu viel geld.....:cool_alt:
 
Meiner Meinung nach wird der Begriff Enthusiast bei den nVidia GPUs einfach nur noch missbraucht. Um sich selbst gegenüber die überzogenen Preise zu rechtfertigen. Natürlich hat alles seinen Preis. Nur hat der Endpreis und das Produkt bei nV seit mindestens 2 Generationen jedes Maß verloren.

Ganz unabhängig davon, ob man es will oder kann, den Preis zu zahlen. Das können sicherlich viele. Mehr als wirklich bereit dazu sind, als es wirklich zu tun.
 
Zurück
Oben