News Nvidia: Titan V mit Volta und knapp 15 TFLOPS für 3.100 Euro

user2357 schrieb:
Wait - whaaat?? :confused_alt: bei den 653 GB/s handelt's sich doch um die Bandbreite zwischen Chip und HBM-Speicher. Hakelig wirds doch eher, wenn aus dem Hauptspeicher über die CPU und PCIe "on the fly" nachgeladen werden muss, falls der Kartenspeicher zu knapp wird. Also es hakt nicht, wenn es im VRAM vorhanden ist. Versteh ich da was falsch?

Es hakt lediglich wenn man seine Logik auf BWL beschränkt.:D
 
Herdware schrieb:
Viele professionelle Anwendungen laufen doch um einiges besser auf den dafür optimierten Quadro-Treibern, auch abseits von OpenGL. Und was sehr wichtig ist, die Quadro-Treiber und entsprechende Grafikkarten werden offiziell für diese Anwendungen zertifiziert.

Könnte mir durchaus vorstellen, dass man in gewisse Schwierigkeiten kommt, wenn man bei der Hotline z.B. von Siemens oder Dassault anruft und denen dann sagen muss, dass man ihre Profi-Anwendung auf einer Titan mit GeForce-Treiber laufen hat. Da wird man wahrscheinlich die Antwort bekommen, dass man sich eine Quadro (oder FirePro) anschaffen soll und wenn man dann noch Probleme hat nochmal anrufen. ;)

Ich glaube kaum, dass Forscher und Entwickler die ihre neuen Ideen mit einer starken Hardware testen und verbessern wollen, eine vorgefertigte Software mit zertifizierten Treibern dafür brauchen.
Für unser 3D-Design (Dassault) hab ich letztens auch ne Quadro geholt. Diese Art von Entwicklung bedient sich existierender Technik. Mit den Titan V Karten, sollen aber genau diese Techniken verbessert oder ersetzt werden um in Zukunft eingesetzt zu werden. Also ganz anderer Bereich.
Wenn ich KI-Forschung betreiben wollen würde, wäre ich dankbar für eine 3000 Dollar Titan, wenn es bedeuetet dass ich keine 10000 Dollar für ne Tesla ausgeben muss. Etwas weniger Bandbreite und etwas weniger VRAM sind da sicherlich zu verschmerzen wenn man 7000 Dollar sparen kann.
 
Niemals weil Nvidia keine an CB sendet und ein Kauf ist irrelevant.
 
Hi,

Deep-Learning-Leistung

so wird das bei nVidia auf der Homepage genannt. Mich würde jetzt eine klare Definition interessieren, wann und unter welchen Bedingungen genau ich diese Rohleistung abrufen kann.

Klar, 15 TFLOPS sind auch mächtig, aber 110 TFLOPS ist irrsinnig hoch. Wäre durchaus schön zu wissen, wann man diese wirklich einsetzen kann.

VG,
Mad
 
@ CB
Auf der im 12-nm-Prozess bei TSMC gefertigten und 21,1 Milliarden Transistoren schweren GV100-GPU sind 5.120 Shadereinheiten aktiv, wobei die GPU physisch 5.376 ALUs bietet – ein Streaming Multiprocessor ist deaktiviert.

1. Finde ich die Formulierung etwas ungünstig. Ich kenne mich damit aus und es hat ein Bisschen gedauert, bis ich verstanden habe, dass ihr mit "physisch" den Vollausbau von Volta meint. Vllt etwas besser formulieren?

2. Die Zahlen haben mich auch verwirrt... 5376-5120 = 256 = 1 SP? Vollausbau = 21 SP? Neee oder? Sicher, dass es nicht 4 deaktivierte SP mit je 64 ALUs sind? Demzufolge 84 SP im Vollausbau und hier 80 auf der Titan?


user2357 schrieb:
Wait - whaaat?? :confused_alt: bei den 653 GB/s handelt's sich doch um die Bandbreite zwischen Chip und HBM-Speicher. Hakelig wirds doch eher, wenn aus dem Hauptspeicher über die CPU und PCIe "on the fly" nachgeladen werden muss, falls der Kartenspeicher zu knapp wird. Also es hakt nicht, wenn es im VRAM vorhanden ist. Versteh ich da was falsch?

Das ist vollkommen korrekt. Wenn du Daten für die GPU brauchst, die du nicht im VRAM hast, kannst du dir deine XYZ GB/s, die zwischen VRAM und GPU anliegen in die Haare schmieren.
Weiteres siehe unten.

Cool Master schrieb:
Da wir mittlerweile DDR4 mit 4600 MHz haben denke ich nicht das es ein Problem werden wird.

Dann denk nochmal. Deine ~73GB/s (DDR4 4600 im Dual Channel) kannst du dir in die Haare schmieren, wenn die Daten über PCIe in den VRAM sollen.
Wir haben keine 6-Link-NVLink-Rechner o.Ä. zuhause stehen, die 150 GB/s zur GPU schaffen. Auch PCIe 4.0x16, das wenigstens 32GB/s schafft haben wir nicht.
Das Nachladen von VRAM hängt komplett an den 16GB/s von PCIe3.0x16. Da kann der Treiber durch kompression ein Bisschen etwas reißen, aber auch das hat seine Grenzen.
 
Zuletzt bearbeitet:
naja so teuer ist sie ja nicht wenn sie fast die 10 fache leistung wie die 1080ti hat und nichtmal das 40fache kostet.
denke damit hat man auch einige jahre ruhe XD
 
@Edelhamster

Mit dem Unterschied, dass die AMD Karte wohl EOL ist. Weil anders kann man ein Preisrutsch von 500 € nicht erklären vor allem nicht über ~6 Monate.

Edit wegen #93:

Evtl. kommt es aber so wie Linus in einem seiner Videos gesagt hat (aktuell erst im Early Access) dass die FE die Features, zumindest wo möglich, der WX9100 bekommt.
 
Zuletzt bearbeitet:
@Cool Master: Jau, so ein Preisrutsch tut richtig weh wenn man sich eine FE im Sommer geholt hat.

Weiß jetzt eigentlich jemand warum der Pixeldurchsatz diser TitanV mit 139 Milliarden Pixeln/s gegenüber allen Pascal-Karten (147-151 Milliarden Pixel/s) geringer ausfällt?

Und bzgl. der 15 TFlops – ne 1080ti @2GHz bringt auch 14,3 TFlops auf die Straße.
Interessant bleibt dann vor allem der gestiegene Speicherdurchsatz.

Glaube aber hier handelt es sich um eine prestigereiche Resteverwertung seitens Nvidia.
4 HBM Stacks = 12 GB VRAM an 3072-bit -> finde den Fehler!^^ Unter den vieren hat sich scheinbar ein hässliches Entlein versteckt..

edit: Also Warnung an alle Early Adaptor - Titan V(2) mit 16GB an 4096-Bit ist nicht unwahrscheinlich ;)
 
@Madman1209
So wie ich es verstanden habe schafft ein TensorCore ein 4*4 Multiplikation mit einer anschließenden Addition (auch 4*4) in EINEM Takt. Also A*B+C (findet man auf der NVIDIA Seite). Und wenn man die Operationen, die ein TensorCore pro Takt macht, zählt, erreicht man schnell mehrere 100 Operstionen pro Takt. Bei ~2GHz kommen schnell einige TFlops zusammen.

Soweit mein Verständnis dazu.
 
Zuletzt bearbeitet von einem Moderator:
Nach GTX Titan, GTX Titan X (M) und GTX Titan X (P) werde ich mir diese GTX Titan V nicht kaufen. Da ist auch gar nichts, was mich reizen könnte.
a) der Preis ist der Leistung nicht angemessen
b) schon die Titan X (M) war zur Titan X (P) nur eine messtechnische Verbesserung (auf einem i7 4960x System in UHD). In den Spielen (z.B. BF1) habe ich da keine Verbesserung gemerkt. Ich will dabei nicht ausschließen, das das auch an mir liegen kann :).
c) ein GTX .... Ti SLI bringt mehr und die Kasse wird auch geschont.

Aber die Spieler (mit mehr Geld) sind offenbar nicht die Zielgruppe für diese Grafikkarte.
 
Ich werde auf den Nachfolger der 1080 Ti warten. Wenn sich Nvidia treu bleibt, kommt der frühestens 2019 auf den Markt. 2018 gibt es erst einmal Midrange-Chips zu Ti Preisen.
 
An dieser Stelle sage ich ganz klar: »Ich habe mich getäuscht.« Und bin mir aber dessen nicht mal wirklich sicher, ob ich mich wirklich getäuscht habe, als ich sagte, dass wir Konsumenten die Grafikkarte in der Form nicht zu Gesicht bekommen.

Ich glaube ich muss mich selbst korrigieren:
Wir werden den GV100 und diese Volta-Architektur wahrscheinlich nicht auf GeForce-Karten zu Gesicht bekommen.
 
Lässt sich denn irgendwie herausfinden, was dieser Monster-Chip in der Fertigung kostet?
Also wieviel nVidia selbst für jeden funktionierenden Chip abdrücken muss?

Man merkt wirklich immer mehr, dass die Miniaturisierung an ihre Grenzen stößt.
Klar, kleinere Strukturen, größere Chips geht immer noch.
Aber bald sind die Preise für Privatleute einfach nicht mehr realistisch...
 
Das sind keine Karten für den Ottonormalverbraucher. Da kommen nächstes Jahr mit Sicherheit kleinere Ableger mit GDDR6.
 
Ich hätte da in 12 nm mehr erwartet und hoffe im gaiming Bereich legen sie noch orfentlich was drauf.
 
Hmmmm ... Miningpower?
 
Zuletzt bearbeitet:
Zurück
Oben