Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia: Titan V im Detail auseinander gebaut und erste Benchmarks
Naja in ein paar Monaten wird die Titan V eh wieder von irgendeinem "Performance" Chip für diesmal wohl 800-900€ abgelöst ;-) Zumindest wenn man Gaming Leistung haben will, wo die Titan V mich ein wenig enttäuscht. Desweiteren Stört der Migrige VRAM von nur 12GB, naja in manchen Sachen ist die Titan V ja garnicht mal so schlecht ;-), fürs Gaming wäre mir die Karte allerdings für 3000$ erheblich zu langsam und VRAM limitiert. Aber jedem das seine ^^
Wer ne Titan V zum Spielen kauft ist selber schuld oder hat einfach zu viel Geld und warum jemanden die Gamingleistung der Titan V enttäuscht kann ich nicht nachvollziehen, da sie ja keine Gamerkarte ist.
wow, das is ein beachtlicher Vorsprung in einem jungen Marktsegment. Und wieder macht Nvidia alles richtig, man hat den ersten wirklichen Deep Learning Monsterchip am Start, investiert in Bildung und unterstützt die Karte ab Start und bindet so die Kunden und Software Entwickler die später nichts anderes mehr wollen als Cuda. Da kann die Konkurrenz dann noch so viele "Open Source" Projekte starten, wenn man am Markt mal wirklich quasi Monopol hat wie im Cuda Umfeld wirds äußerst schwer das zu knacken.
Nvidia hat gemerkt dass aktuell viele auf den AI Zug aufspringen wollen. Intel experimentiert mit Chips, Google, Apple usw... vielleicht haut man deshalb die TITAN V raus um der Konkurrenz möglichst schnell das Wasser abzugraben.
Nicht rein hardwareseitig, eher wenns darum geht dass die eigene AI Cuda Welt genutzt wird.
Wenn ich als Entwickler nun am Anfang stehe und offen ist auf welche Lösung ich setze, dann liegt es nahe direkt auf die brachiale Nvidia Leistung zu setzen. Und bin ich einmal über diesen Punkt dann gibts kaum eine Abkehr davon.
So penetrant wie das Problem ignoriert wird werde ich es jetzt einfach immer posten wenn es mir auffält:
„Hallo,
würdet ihr das jetzt bitte endlich mal fixen, dass bei einem Update zu einer News das Erstellungsdatum der ersten News-Meldung überschrieben wird!?!?
Wie bescheuert das Ganze ist sieht man doch jetzt (mal wieder) perfekt! Denn so ist offiziell das erste Update zur News VOR den eigentlichen News erschienen!
Ich habe das schon mal angemerkt. Das muss doch wirklich sogar Euch mal langsam nerven!“
Ich bin echt gespannt wann ich es erleben werde das der letzte Hansnapf hier begriffen hat wofür die Titan V gemacht ist und das sie keine Gamerkarte sein soll.
Ich verstehe auch nicht warum sie ständig angeprangert wird im Bezug auf Gaming, das ist doch nur eine Fantasie der Community und keine Idee von Nvidia. Ich verlgeiche doch auch keine Salatgurke mit einem Apfel und beschwere mich drüber das die Salatgurke nicht süß ist.
Die Titan V ist und wird keine Game Karte. Wann hats der letzte begriffen?
Die Karte ist wofür man sie einsetzt. Der Preis ist doch für viele kein Hindernis. Der Chip ist technisch einfach nur beeindruckend. AMD ist von der Effizienz und Leistung noch ganze zwo Generationen weg.
Ahhh...hat man also doch noch ein Anwendungsgebiet für die Titan gefunden. Wer sucht wird sicherlich immer fündig werden. Deep Learning also....das ist nun die Titan-Serie mit Gaming-GeForce-Treibern. Wer da den Knall nicht gehört hat, der ist einfach nur noch Taub.
Kleiner Tipp:
Wer sich tatsächlich mit solchen professionellen und wissenschaftlichen Programmen beschäftigt, welche auch mal schnell in den 5 stelligen Bereich klettern können, der schreckt auch vor einer etwas teureren Tesla/Quadro mit richtigen und echten Profi-Treibern nicht zurück.
Aber hey. Jetzt können die ganzen Gamer hier mit ihrer neuen Titan V so richtig auf dem Putz hauen und haben ein gutes Anwendungsgebiet für ihr zukünftiges Hobby gefunden. Deep Learning ist nun mehr ihr neues Programm. Wurde ja auch Zeit dafür.
Für mich ist Volta einfach nur der Versuch von NVIDIA eine GPU rein nur für den Profimarkt zu entwickeln. Die Titan V sind die Überreste davon, die man noch schnell auf eine Titan gepresst hat um wenigstens den Totalverlust zu kompensieren. Für Gamer uninteressant, aber trotzdem gekauft.
Also wenn ich als Miner mir überlege 3 Geforce 1070 zu kaufen um 70mh/s zu erreichen, dann kann ich auch gleich eine Titan kaufen, sobald der Preis in die 1500 Euro Region fällt.
Ahhh...hat man also doch noch ein Anwendungsgebiet für die Titan gefunden. Wer sucht wird sicherlich immer fündig werden. Deep Learning also....das ist nun die Titan-Serie mit Gaming-GeForce-Treibern. Wer da den Knall nicht gehört hat, der ist einfach nur noch Taub.
Kleiner Tipp:
Wer sich tatsächlich mit solchen professionellen und wissenschaftlichen Programmen beschäftigt, welche auch mal schnell in den 5 stelligen Bereich klettern können, der schreckt auch vor einer etwas teureren Tesla/Quadro mit richtigen und echten Profi-Treibern nicht zurück.
ähm, wozu wenn man sich mit Deep Learning beschäftigt, und Deep Learning wird mehr und mehr das Ding von Hobby Programmierern & Studenten. Die TITAN V ist von Anfang an genau wie der GV100 eben für genau das da. Deswegen ja Tensor Cores. Wozu dann das X fache ausgeben?
NVIDIA VOLTA
Mit der neuen Grafikprozessorarchitektur hält KI in jeder Branche Einzug.
Ich überleg mir auch was mit Deep Learning umzusetzen, es is einfach ein irre spannendes Thema. Wie wärs wenn man sich einfach mal mit der Sache beschäftigt? Viele Studiengänge setzen da an und nicht jeder kauft sich für 15k ne Tesla ohne Displayanschlüsse. Für 3000€ is das ne unschlagbar schnelle Hobby Karte die neben Zocken auch noch ideal für semi professionelle AI Projekte ist.
das is zb schon cool wie man mit wenigen Zeilen Code und Training Sets tip top handgeschriebene Zahlen von 0-9 erkennen kann. Genauso kann man eigentlich viele Probleme angehen welche man nicht definiert ausprogrammieren kann / will... man bringt es dem Code quasi bei.
Kleiner Tipp:
Wer sich tatsächlich mit solchen professionellen und wissenschaftlichen Programmen beschäftigt, welche auch mal schnell in den 5 stelligen Bereich klettern können, der schreckt auch vor einer etwas teureren Tesla/Quadro mit richtigen und echten Profi-Treibern nicht zurück.
Kleiner Tipp: für die allermeisten GPGPU/Compute-Applications im wissenschaftlichen Bereich benötigt man keine Profitreiber. Besonders für Deep Learning ist das vollkommen egal.
Kleiner Tipp Nr. 2: die TITAN V ist kein kläglicher Abklatsch der V100, sondern deren Ableger für Workstations, kleine Compute-Cluster usw. Sie geht den nächsten Schritt, den NVIDIA seit Kepler sukzessive für die TITAN vorgesehen hat: professionelle Anwendungen außerhalb von Supercomputern / großen Compute-Clustern.
Von den TensorCores über INT8 bis hin zu FP16 & FP64 Leistung ist das eine professionelle Karte.
Die Titan V bleibt eine beschnittene Profikarte. Sie ist weder ein Ersatz noch eine Alternative für die Quadros/Teslas auch wenn das die Gamer plötzlich anders sehen wollen.
Und ganz nebenbei. Zum Rumdoktern benötigt man keine teure Titan. Da kann man auch eine normale Karte verwenden und somit die Grundlagen lernen!
Es ist schon recht amüsant hier die ganzen Vollblutgamer argumentieren zu hören, wie sie sich plötzlich für die exotischen Anwendungsgebiete interessieren damit sie einen Grund haben diese Titan V in ihren Gamingrechner zu stopfen.
Ich warte da lieber auf die Gamingableger alla Ampere oder besorge mir gleich eine echte Profikarte, wenn ich professionell sein möchte.
man sollte anderen nicht die Sichtweise erklären wollen wenn die eigne am beschränktesten ist. Wer was mit Deep Learning und co zu tun hat der hat selten nen Server zu Hause in welchem er für zig 1000€ headless Karten reinstopft. Und nein, du hast bei Deep Learning schnell große, sehr große Testreihen die je nach Neural Network auch sehr schnell sehr zeitintensiv sind. Ob du dann dein System mit 20 Einheiten/s trainierst oder 550 Einheiten / s macht nen riesen Unterschied und dann geb ich sogar für nen Hobbi gern 3000€ aus.
Stell dir vor du machst ne speziellere Bilderkennung, dann hat dein neural Network schon schnell mit Megapixeln zu tun die je nach Neural Network in Gruppen und mehreren Layern verarbeitet werden. Das gibt logischerweise extreme Vektor Operationen (genau das was in den Tensor Cores abgewackelt wird) und wenn du dein System dann zb mit deinem Testset aus 10000 Bildern füttert ist es schon nen Unterschied ob du 1s oder 0,05s / Bild wartest.
Es ist schon recht amüsant hier die ganzen Vollblutgamer argumentieren zu hören, wie sie sich plötzlich für die exotischen Anwendungsgebiete interessieren damit sie einen Grund haben diese Titan V in ihren Gamingrechner zu stopfen.
Eigentlich bist du in diesem Thread der einzige, der unterschwellig behauptet, daß sich Gamer die Titan V schön reden, es ist keine Gamerkarte und Nvidia bewirbt sie ja auch nicht als Gamerkarte.