Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia Titan X: GP102 ist 471 mm² groß und ein GP104/GP100-Hybrid
- Ersteller Wolfgang
- Erstellt am
- Zur News: Nvidia Titan X: GP102 ist 471 mm² groß und ein GP104/GP100-Hybrid
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
AMINDIA schrieb:Jetzt denke ich zu verstehen, warum Nvidia ihre Produktpalette so in de Markt drückt. Kein HBM2. Damit also in der stillen Hoffnung, dass es noch genug willige Personen gibt, die alte Technik im teuren Leistungssegment trotzdem kaufen.
die Spekulation kommt einfach aus einem halbwegs typischen 1 Jahres Rhythmus heraus. Und mit HBM 2 hat das herzlich wenig zu tun. Nvidia hat mit dem GP102 goldrichtig gehandelt und sich für eine schnellere Marktpräsenz zu günstigerer Fertigung gegen HBM 2 entschieden. Der Markt für den GP102 ist mehr als nur da - genau deswegen gibt es noch diesen knapp 500mm² Chip und nicht nur den HBM 2 Ableger mit GP100.
Alternativ hätte man sich wohl GP102 sparen können und selbes Segment auch mit dem HBM2 Chip bedienen - es war wohl aber wirtschaftlicher einen eigenen Chip dafür aufzusetzen und die Entscheidung dürfte schon ein Weilchen her sein.
Und ja, es wird mehr als genug willige Käufer geben die für die letzten 40% Mehrleistung 500€ mehr ausgeben.
Wenn man mit dem GP102 auch nur 6 Monate früher wirtschaftlich am Markt sein kann als zb mit einer Vega hat sich die Sache für Nvidia doch mehr als gelohnt - und den GP102 braucht man 2017 ohnehin um zB das High End Segment um GTX 11XX mit hoher Marge zu bedienen.
Klar dieser Leistungsbereich wir von AMD bewusst nicht bedient, erst wenn HBM2 verfügbar ist, und Nvidia will unbedingt diese Lücke füllen. Deswegen auch die Spekulation, dass mitte 2017 eine neue Serie von Nvidia vorgestellt werden soll.
AMD geht sicher nicht so vor wie du hier meinst und überlässt Nvidia freiwillig vielleicht über Monate das Feld nach oben raus. So ein Quatsch ^^
Kommt bis 2017 kein Vega Chip hat man sich bei AMD schlicht wieder verkalkuliert und / oder konnte keinen zusätzlichen größeren Chip stemmen. (wie der GP102 mit GDDR5X)
Dazu fehlt es auch an Mitteln. Es dürfte maximal zwei Chips über Polaris 10 geben, eben die zwei Vegas... die Frage ist ob AMD wie Nvidia sich für eine GDDR5X Variante für den schwächeren der zwei entscheiden hat.
Vielleicht ist das ja der RX 490 Trumpf den AMD noch zeitnahe in Petto hat... quasi ein 4096 Shader Fiji mit GDDR5X. Wäre ne satte Überraschung jedenfalls.
Ende des Jahres oder mit erscheinen von Vega weiß man dann mehr... ob eben 2x HBM oder nicht. Bezüglich wirtschaftlichkeit kann sich AMD da oft bei Nvidia was abschneiden. Manchmal tuts eben das 95%ige Produkt ohne HBM wenn man dafür Monate früher am Markt ist und mehr € / Karte einsackt.
Zuletzt bearbeitet:
S
Scriptkid
Gast
Ich warte jedenfalls die ersten Benchmarks ab, wobei dieses 3DMark-Gedöhns nicht den Ausschlag geben wird.
Nüchtern betrachtet ist die Karte natürlich trotzdem ein tolles Teil und mindestens für die nächsten 6 Monate das Maß aller Dinge, was Leistung angeht. Ich persönlich kann dafür jedoch nicht so viel Geld ausgeben, das ist in meinem Hobby-Gaming-Budget einfach nicht drin. Aber bei anderen sieht das ja vielleicht anders aus, und die werden sicherlich ihren Spaß mit diesem Monster haben.
JoePesci
Lt. Junior Grade
- Registriert
- März 2004
- Beiträge
- 439
Kasmopaya schrieb:Sie ist faktisch eine 1080TI. (beschnittener Chip, beschnittener Vram). Egal was NV sagt, das hier ist keine Titan. Die missbrauchen hier den Namen.
Alles was eine klassische TI ausmacht. Eine echte Titan hat Chip Vollausbau und 100% Vram Soll. Die 2016er Titan X hat nur 75% vom Soll.
War es nicht so, dass die erste GTX Titan auch kastriert war? Bei der ersten Titan funktionierten auch nur 2688 von 2880 Shader-Clustern. Insofern ist die aktuelle Titan ganz nach alter Tradition gestrickt. Selbst Titanen haben nur ein Ei in der Hose.
Darüberhinaus ist der Name Titan sowieso nicht gerechtfertigt und missbräuchlich verwendet. Sollte dieser Name nicht eher dem GP100 mit HBM2 zustehen?
W
Wadenbeisser
Gast
Krautmaster schrieb:die 2x 4 GB werden sicher nicht immer flüssiger sein, im Gegenteil
Auf dem Papier vielleicht oft mehr FPS, aber naja, wie sich 4GB zunehmen verhalten kann man gut auf PCGH und CB nachlesen:
http://www.pcgameshardware.de/AMD-R...-264637/Specials/4-GB-vs-8-GB-vs-6GB-1202557/
-> und nein, HBM kann da nicht zaubern. Hier und da kann AMD sicher was manuell angehen und optimieren, aber heute noch 4GB schön zuzureden, nein danke. Selbst mit 6 GB wirds bei der GTX 980 TI sicher bald eng.
Ergänzung ()
das war auf ne stock bezogen. Aber ja, die GTX 1080 is nochmal einige Punkte fixer im TS schon richtig. In Game dann wohl aktuell eher noch Gleichstand (wie gesagt stock GTX 1080). TS liegt Pascal dank AS auch gut. Keine Sorge, die GTX 1080 is ne fixe Karte, aufrüsten von ner 980 TI macht aber eh kein Sinn. Auf die TITAN X schon eher aber denk da wartet man besser noch ein Jahr auf Vega, GP102 Vollausbau und so.
P.S.: Ich würde eine GTX 1080 jederzeit einer ProDuo vorziehen ^^. Ich würde sogar RX 480 CF der ProDuo vorziehen.
Die API hat beim Thema Grafikspeicher aber offensichtlich auch noch ein dickes Wörtchen mit zu reden.
Mal einer von sehr wenigen User Tests: http://www.planet3dnow.de/vbulletin...ngen-im-Netz?p=5104191&viewfull=1#post5104191
Lars_SHG
Fleet Admiral
- Registriert
- Sep. 2008
- Beiträge
- 15.390
@ ascer
http://www.geforce.com/hardware
Wir wollen jetzt auch nicht ein elendig langes Zitaten-Gefecht führen, ich kann meine Argumentation zumindest belegen. Da ich diese außerdem deutlich als Spekulation meinerseits beschrieben habe, verstehe ich Dein Theater nicht - ich akzeptiere Deine Meinung doch auch, auch ich sie für falsch halte.
Wir werden sehen wie es weiter geht mit der neuen Titan X.......
dann schau doch einfach mal weiter auf der nVidia Seite z. B. unter dem Punkt "Gaming" was findest Du da: "new Titan X"Wo das denn? Seitens NVIDIA ist im Announcement ("The New NVIDIA Titan X") kein Wort über Gaming gefallen.
http://www.geforce.com/hardware
ja, oder eben Deine Theorie ist falsch und meine richtig - dann macht es eben auch Sinn, sich noch andere Anwendungsmerkmale einfallen zu lassen.Nein, genau deshalb hat NVIDIA ja das "GeForce" aus dem Namen gekürzt
Ja natürlich, wurde in allen Gaming-Generationen zuvor eingesetzt! Alles andere wäre wirklich abwegig!Ist Referenzkühler für dich Gaming-Markt?
Nein, das ist auch nichts neues.Der exklusive Direktvertrieb über NVIDIA oder entsprechende OEMs? Das geht viel eher in Richtung der Vertriebswege der profesionellen Tesla-Karten.
Wir wollen jetzt auch nicht ein elendig langes Zitaten-Gefecht führen, ich kann meine Argumentation zumindest belegen. Da ich diese außerdem deutlich als Spekulation meinerseits beschrieben habe, verstehe ich Dein Theater nicht - ich akzeptiere Deine Meinung doch auch, auch ich sie für falsch halte.
Wir werden sehen wie es weiter geht mit der neuen Titan X.......
Zuletzt bearbeitet:
@Lars_SHG:
Zu der Ankündigungssache:
Die Karte ist auch für Gaming gedacht, nur eben nicht primär. Deshalb listet NVIDIA sie auch auf GeForce.com. Warum auch nicht? Ist schließlich deren Plattform um sie besser zu vermakten und mehr Kohle aus Enthusiasten zu ziehen. Das ist aber kein offizielles Announcement. Ich habe dir die offizielle online Pressemitteilung, dass offizielle Announcement von NVIDIA verlinkt. Da ist keine Rede von Gaming und ganz klarer Fokus auf wissenschaftliche Berechnungen. Das widerlegt dich und bestätigt mich. Was gibt es da für falsch zu halten?
Die Geschichte der Namensgebung (GeForce streichen) ist nicht meine exklusive Theorie, sondern wurde von CB selbst im Artikel erklärt. Ich nehme mal an, die haben das eventuell direkt von Andrew Ng, da der das im englischen Komplett-Interview letztens antwortete auf die Frage hinsichtlich des geänderten Namensschemas.
Seine Sachen lese ich (in englisch), weil ich selbst im AI-Feld tätig bin und Andrew Ng als Pionier so gut wie immer interessante Beiträge verfasst.
Möchtest du das mit dem Referenzdesign nicht verstehen? Wenn der Fokus primär auf Gaming liegt, dann gibt es immer Custom-Designs oder zumindest Wasserkühlung oder Dergleichen als Zusatzangebot. Nur bei professionellen Karten gibt es ausschließlich das Referenzdesign. So wie bei der neuen Titan X.
Zu dem Direktvertrieb: wo konnte man denn Gaming-Karten jemals nur per Direktvertrieb vom Hersteller Kaufen? Nie. Faktum.
Zu der Ankündigungssache:
Die Karte ist auch für Gaming gedacht, nur eben nicht primär. Deshalb listet NVIDIA sie auch auf GeForce.com. Warum auch nicht? Ist schließlich deren Plattform um sie besser zu vermakten und mehr Kohle aus Enthusiasten zu ziehen. Das ist aber kein offizielles Announcement. Ich habe dir die offizielle online Pressemitteilung, dass offizielle Announcement von NVIDIA verlinkt. Da ist keine Rede von Gaming und ganz klarer Fokus auf wissenschaftliche Berechnungen. Das widerlegt dich und bestätigt mich. Was gibt es da für falsch zu halten?
Die Geschichte der Namensgebung (GeForce streichen) ist nicht meine exklusive Theorie, sondern wurde von CB selbst im Artikel erklärt. Ich nehme mal an, die haben das eventuell direkt von Andrew Ng, da der das im englischen Komplett-Interview letztens antwortete auf die Frage hinsichtlich des geänderten Namensschemas.
Seine Sachen lese ich (in englisch), weil ich selbst im AI-Feld tätig bin und Andrew Ng als Pionier so gut wie immer interessante Beiträge verfasst.
Möchtest du das mit dem Referenzdesign nicht verstehen? Wenn der Fokus primär auf Gaming liegt, dann gibt es immer Custom-Designs oder zumindest Wasserkühlung oder Dergleichen als Zusatzangebot. Nur bei professionellen Karten gibt es ausschließlich das Referenzdesign. So wie bei der neuen Titan X.
Zu dem Direktvertrieb: wo konnte man denn Gaming-Karten jemals nur per Direktvertrieb vom Hersteller Kaufen? Nie. Faktum.
Zuletzt bearbeitet:
@Fruuky: Genau, anfangs. Hier ist ja aber von ausschließlich die Rede - also auch in Zukunft nur Referenzdesigns. Das ist Merkmal von Profi-Karten.
Unabhängig davon bezweifle ich nach wie vor, dass sich die Titan X stark absetzen wird von einer Custom 1080. Alle High-End 1080's schaffen 1,9+ GHz, die meisten gar die 2,0 GHz Grenze. Die Titan X läuft nach allen Quellen, auch nach NVIDIA selbst, mit 1,4-1,5 GHz. Viel OC wird aufgrund Referenzdesign und aufgrund Power/Temperature Target nicht drin sein. Rohleistung skaliert - das zeigte ja schon die Vergangenheit - nicht besonders mit der InGame-Performance. Das große Mehr an Transistoren...hauptsächlich geht es der Titan X um viele Cuda Cores.
NVIDIA wird sicherlich keine Karte launchen, die in Games langsamer als eine 1080 ist, aber aufgrund der Specs halte ich über 20% Unterschied zu einer 1080 OC für relativ unwahrscheinlich. Es sei denn der GP102 profitiert auf magische Art und Weise in Spielen massiv von der deutlich höheren Speicherbandbreite...ist ja aber auch eher unwahrscheinlich. Man wird es abwarten müssen...dennoch ist die Tendenz anhand der Specs für Games eben eher ernüchternd. Da profitiert man von einem 1080 DualGPU-Betrieb sicherlich mehr - zum gleichen Preis.
Unabhängig davon mag der Enthusiast ja gerne das Maximum kaufen - jene Kaufentscheidung spreche ich, wie gesagt, niemandem ab. Ich kritisiere lediglich die Vernunft dieser Entscheidung. Besonders wenn es bessere Alternativen gibt und/oder der Unterschied marginal ist...
Und welches Argument - außer dem digitalen Ego-Boost - bleibt schon noch, wenn der Unterschied 50 oder 60 fps sind? (was die grob geschätzen 20% Mehrleistung wären)
Unabhängig davon bezweifle ich nach wie vor, dass sich die Titan X stark absetzen wird von einer Custom 1080. Alle High-End 1080's schaffen 1,9+ GHz, die meisten gar die 2,0 GHz Grenze. Die Titan X läuft nach allen Quellen, auch nach NVIDIA selbst, mit 1,4-1,5 GHz. Viel OC wird aufgrund Referenzdesign und aufgrund Power/Temperature Target nicht drin sein. Rohleistung skaliert - das zeigte ja schon die Vergangenheit - nicht besonders mit der InGame-Performance. Das große Mehr an Transistoren...hauptsächlich geht es der Titan X um viele Cuda Cores.
NVIDIA wird sicherlich keine Karte launchen, die in Games langsamer als eine 1080 ist, aber aufgrund der Specs halte ich über 20% Unterschied zu einer 1080 OC für relativ unwahrscheinlich. Es sei denn der GP102 profitiert auf magische Art und Weise in Spielen massiv von der deutlich höheren Speicherbandbreite...ist ja aber auch eher unwahrscheinlich. Man wird es abwarten müssen...dennoch ist die Tendenz anhand der Specs für Games eben eher ernüchternd. Da profitiert man von einem 1080 DualGPU-Betrieb sicherlich mehr - zum gleichen Preis.
Unabhängig davon mag der Enthusiast ja gerne das Maximum kaufen - jene Kaufentscheidung spreche ich, wie gesagt, niemandem ab. Ich kritisiere lediglich die Vernunft dieser Entscheidung. Besonders wenn es bessere Alternativen gibt und/oder der Unterschied marginal ist...
Und welches Argument - außer dem digitalen Ego-Boost - bleibt schon noch, wenn der Unterschied 50 oder 60 fps sind? (was die grob geschätzen 20% Mehrleistung wären)
W
Wadenbeisser
Gast
ascer schrieb:Btw: auch generell für wissenschaftliche Anwendungen (die einen sehr großen Teil von GPGPU ausmachen) ist FP32 und INT8 am Wichtigsten. Ich kenne weder von den Physikern bei uns, noch vom Cern, noch von unseren Informatiker, noch von irgendwoher ein Beispiel, wo signifikant mehr als "Testen" in FP16 gemacht wird.
Und FP64 ist meist nur für eine schlussendliche "Finalversion" einer Berechnung, um möglichst hohe Genauigkeit zu erreichen beim Abschluss eines Experiments.
In grob geschätzt 90% aller anderen Fälle begegne ich ausschließlich FP32 (oder eben INT8).
Ähm....was bringt es einem denn wenn mit einer geringeren Präzision vorgerechnet wird und man mit der höheren Präzision final nachrechnet wenn die Karte aufgrund der Beschneidung bei der hohen Präzision von der Leistung her versagt?
Damit ist dieses "Feature" in meinen Augen ziemlich nutzlos und damit eher eine weitere Pseudo Rechtfertigung für den Preis.
@Wadenbeisser: bei scientific usage hast du nie nur eine GPU im Einsatz. Bei uns im großen Cluster werkeln über 100 Tesla-GPUs, dazu gesellen sich über 200 Workstations, wo Ti- oder Titan-Karten werkeln. Es geht dabei also schlicht darum, dass man sich für vergleichsweise wenig Geld viele Workstations zum experimentieren kaufen kann und nicht für jeden Test gleich den Hauptcluster, bestehend aus sauteuren Teslas, bemühen muss.
@Fruuky: So oder so. Den Verlust der Sinnhaftigkeit, wenn man ein Produkt kauft, egal wie sich die konkreten Produktmerkmale letztlich auswirken, kann man hierbei allerdings schwer verargumentieren. Jenes ist dir schon klar, ja?
@Fruuky: So oder so. Den Verlust der Sinnhaftigkeit, wenn man ein Produkt kauft, egal wie sich die konkreten Produktmerkmale letztlich auswirken, kann man hierbei allerdings schwer verargumentieren. Jenes ist dir schon klar, ja?
W
Wadenbeisser
Gast
Fruuky schrieb:Titan gabs anfangs meistens ohne custom Designs. Ist nichts Neues. Dazu völlig egal ob prinär Gaming solang sie die schnellste Gaming Karte ist...
Ähm ja, was für Die Titan Modelle kamen nahezu ausschließlich als im Referenz Design raus und die schnellsten Karten waren sie dank festgelegten Standard Takt auch nicht, die OC Modelle der TIs waren nur allso oft schneller.
Lediglich beim manuellen Übertaktenb hatten sie dank der zusätzlichen Recheneinheiten eine gute Chance schneller zu sein.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
@ascer
das letzte was einem am GTX TITAN OC hindern wird ist das Power / Temp Limit ^^
das letzte was einem am GTX TITAN OC hindern wird ist das Power / Temp Limit ^^
Gibt weder Custom TIs noch andere Titan zu kaufen, von daher wird die neue Titan die schnellste Karte sein, da mach ich mir jetzt keine Sorgen. Klar kann in ein paar Monaten anders aussehen und nächstes Jahr kommt Volta (oder auch nicht), da kommt (hoffentlich) immer wieder was neues, da kann ich auch auf den Tod warten... Solange 20% plus Leistung bei rumkommen bin ich zu frieden und normal senkt die Wasserkühlung den Stromverbrauch. Meine 1080 Founders Edition geht ja auch ganz gut OC ohne Custom sonstwas. Diese doppel 8 Pin bringen in der Realitaet doch Null bei den Custom 1080 Karten ohne gemoddetes Bios.
W
Wadenbeisser
Gast
ascer schrieb:@Wadenbeisser: bei scientific usage hast du nie nur eine GPU im Einsatz. Bei uns im großen Cluster werkeln über 100 Tesla-GPUs, dazu gesellen sich über 200 Workstations, wo Ti- oder Titan-Karten werkeln. Es geht dabei also schlicht darum, dass man sich für vergleichsweise wenig Geld viele Workstations zum experimentieren kaufen kann und nicht für jeden Test gleich den Hauptcluster, bestehend aus sauteuren Teslas, bemühen muss.
Und wenn darin TI und Titan Modelle in den Workstations arbeiten, wo woll dann der ach so große Vorteil für die Titan sein der den Aufpreis rechtfertigt?
Ich gehe mal davon aus das die Vorberechnung von den Workstations erledigt wird und er Cluster übernimmt den Part der hohen Präzision.
Angesichts der TIs liegt ist der ach so große technische Vorteil der Titan bei dieser Anwendung gleich 0, bestenfalls der größere Speicher könnte da noch relevant sein.
@Wadenbeisser: Die aktuelle Konstellation sieht so aus, weil in der Maxwell-Generation 12 vs. 8 GB VRAM der Hauptunterschied zwischen Titan vs. Ti war. 4GB mehr VRAM machen eine Menge aus für scientific usage, besonders deep learning.
Moderne Deep Learning Architekturen haben schnell mehrere Hunderttausend, teilweise Millionen, Neuronen. Dadurch liegt der Speicherverbrauch sehr schnell im GB-Bereich und ist der VRAM voll, müssen aufwendige Buffermechaniken geschrieben werden, was Entwicklungs- und Simulationszeit in die Höhe treibt. Deshalb ist viel VRAM sehr wichtig für scientific usage.
Moderne Deep Learning Architekturen haben schnell mehrere Hunderttausend, teilweise Millionen, Neuronen. Dadurch liegt der Speicherverbrauch sehr schnell im GB-Bereich und ist der VRAM voll, müssen aufwendige Buffermechaniken geschrieben werden, was Entwicklungs- und Simulationszeit in die Höhe treibt. Deshalb ist viel VRAM sehr wichtig für scientific usage.
Ähnliche Themen
- Antworten
- 198
- Aufrufe
- 34.768
- Antworten
- 20
- Aufrufe
- 10.217
- Antworten
- 1.307
- Aufrufe
- 149.076
- Antworten
- 42
- Aufrufe
- 8.592