Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia Volta: Tesla V100 bringt 15 TFLOPs bei 5.120 ALUs auf 815 mm²
Man muss abwarten Was die Tensor Cores bringen aber ich sehe das die Entwiklung bei Nvidia klar weg vom PC hin zu diversen Spezialisierungen (Automotive AI Deep Learning).
Welche Spielleistung dabei abfällt wird wohl in Zukunft eher ein Nebenprodukt sein (solange es Reicht um oben mitzumischen ...wen kümmert es?)
Wenn Spielehersteller aber in der Lage sein sollten die Tensor Cores voll zu nutzen dann wird das wieder in einer gespaltenen Spielergemeinde enden.......meant to be......
15 Teraflops, also genau soviel wie meine übertaktete 1080Ti. Wenn die als Geforce dann kommt und sich der Takt ebenso gut steigern lässt wie bei den Vorgängern, dann sollte da schon was zwichen 18-20 Teraflops machbar sein.^^
Das Teil steht doch allein auf weitem Feld. Wenn dann muss AMDs Dual VEGA M25 dagegen halten.
Bei Preisen von 150000 Euro für das 8 Karten System machen HBM2 und DIE Preise dezent weniger als als bei Consumer Chips um 700 Euro.
Und was wieder diese Kommentare von wegen "pro Shader gleiche Leistung" sollen haha. Das is bei GPU seit Jahren so. Änderungen sind da eher marginal. Maxwell untypisch was aber eher auf das Rendering Verfahren zurück geht. Auch bei GCN ist die Pro Shader Leistung bis heute quasi unverändert.
GPU wachsen wegen der Paralellisierung jeher in die Breite. Bei jedem Fertigungs Sprung gibt es etwa Faktor 2 an Leistung.
Bei Double-Precision beträgt das Verhältnis bei den Desktop-Chips 1:32, was mal ein ziemlich krasser Unterschied zu den 1:2 bei den Tesla-Karten ist.
___
Ob das Ding INT8 beherrscht, dürfte automatisch auf dem zweiten Blockdiagramm beantwortet sein. Da sind ziemlich eindeutig neben den FP64 & FP32 Einheiten auch "INT" Blöcke zu erkennen.
> 800 mm² DIE-Fläche ist natürlich heftig. Aber ok, bei dem Zielmarkt kommt es auf ein paar € mehr oder weniger auch nicht drauf an. Und ob sich das vergleichsweise ordentlich fertigen lässt, wird man wohl im Vorfeld mit TSMC abgeklärt haben.
Woher weißt du das ?
Vega hat mit 12,5 TFLOPS 32Bit kaum weniger als Volta und ist mit knapp unter 500 mm^2, einem 2024 Bit SI sicherlich um einiges billiger zu produzieren. Hierzu kommt, dass AMD offensichtlich das Recht hat, die HBM Stacks mit 8 Layer zu verbauen, dass beide 16GB HBM max haben.
Ein weiterer Punkt ist, dass Volta eventuell wie bei Fijii eben durch das größere SI weniger am Speicher-Takt spielen kann.
Also wieso weißt du jetzt schon, dass NV mit Volta so weit alleine am Feld ist, speziell weil Vega nicht erst ab 3Quartal auf den Markt kommt, auch wenn man bei NV bereits vorbestellen kann ?
PS. Die Video-Rendering Karten von AMD für 8k mit SSD auf Fijii Basis haben auch 10k gekostet. Vega Varianten bringen vllt auch mehr "Marge".
Fand ich auch damals echt armselig, bereits Giftpfeile in Richtung Volta zu schießen, obwohl man schon deutlich hinterherhinkt. Die sollen sich lieber darauf konzentrieren, den Anschluss nicht komplett zu verpassen. Auf dem Papier ist eine Sache, in der Realität dann eine andere (siehe Radeon 2900).
Wenn das alles ist was Volta bringt, wird das ne ziemliche Luftnummer für Gamer.
Okay, bis dahin könnten die GPUs in 10nm gefertigt werden (12nm.... was ein Marketingbullshit, dagegen ist Samsung mit dem verbesserten 14nm Prozess für Polaris 2x ja geradezu ehrlich) aber ansonsten?
Der Tensor-Kram bringt uns Gamern nichts solange die Spiele die KI nicht über die GPU laufen lassen. Möglich dass da was kommt, aber hey, PhysX war auch sowas, riesen Erfolg...
Paar shader mehr durch den verbesserten Aufbau ist bei der Größe kein Hexenwerk. Dass er nicht so hoch takten kann deutet darauf hin dass sie die Hitze nicht aus dem Core bekommen.
Und 15Tflops ist jetzt auch eher mau für ein nextgen-Flaggschiff. Fiji schafft bei 560mm² Fläche 8,5 Tflop (FP32). Jaja, die Tensor-Einheiten werden viel Platz auf dem Riesending einnehmen - über 800mm² am Stück aus dem wafer geschnitten ist ein Rekord, oder? - aber Fiji wurde in 28nm gefertigt. Das sind quasi 3 Generationen schlechtere Fertigung. Bei selbem Stromverbrauch bringt eine Generation Pi mal Daumen 30% Mehrleistung.
8,5 * 1,3 * 1,3 * 1,3 = 18,675 TFlops.
Selbst wenn man etwas "Schwund" beim Upgrade durch die Prozesse einrechnet (mit 20% mehr Leistung pro Fetigungsgeneration kommen immer noch knapp 15TFlop raus) sieht das nicht sonderlich eindrucksvoll aus was die wenigen für gamer relevanten bekannten Daten anbelangt.
Die kleineren Chips Anfang 2018 erwarte ich eigtl in 10nm, bei solch einem Monstrum muss man eben auf bewährte Prozesse zurückgreifen. Aber für gaming relevante Änderungen an der Architektur? Ich hoffe da kommt noch was.
Ergänzung ()
Beitrag schrieb:
Was für einen Kühler haben die großen Teslakarten eigentlich, wenn die 300 W TDP abführen können müssen?
Das sind idR Module die in ein schockgefrostetes Serverrack gehängt werden. Sprich, die haben einfach nur einen massiven Kupferkühler drauf welcher mit Unmengen kühler Luft durchgeblasen wird. Wenn man Zugriff auf quasi einen beliebig starken Luftstrom kühler (je nach System, 15 - 22°C in etwa) Luft hat und die lautstärke auch keine Rolle spielt, sind 300W kein Thema.
Das führt ja schon fast eine übertaktete 1080 ab, mit übertakteten 1080Ti, den Titanen, Hawaiis, Fijis etc kommt man da immer rüber.
In den Markt in Nvidia doch schon lange weit enteilt. Dabei geht es nicht nur um die reine GPU, sondern um das ganze Gedöns drumrum, einschließlich mittlerweile NVLink als zusätzliches Interconnect und mit Volta ebenfalls Cache-kohärent zu den Host CPUs (mit IBM POWER9 wird es da ein paar schicke Lösungen zu geben). Dazu kommt noch das komplette Software-Framework (CUDA 8.0 mit u.a. TensorFlow bzw. cuDNN)
AMD krepselt da seit Jahren mit OpenCL umher, was vielleicht offen ist, aber dafür kaum jemand nutzt und sich mit dem neuen AI-Kram und Frameworks bislang auch eher schwer tut. Mit Vega kommt da ein bisschen Schwung rein, aber Nvidia ist da eben fünf Jahre voraus und hat sich entsprechend eine Kundenbasis aufgebaut, die im Zweifelsfall auch eher bereit ist, ein paar Kröten extra für die Hardware zu zahlen, als sämtliche ultra-hoch-optimierte Zeilen Code auf etwas anderes zu portieren.
Dazu kommt noch, dass Nvidia mit der DGX-1 (in Zukunft dann DGX-1V) fertig konfigurierte Entwickler-Systeme anbietet, durchgetestet & zertifiziert vom Hersteller. Ok, 150.000 US-Dollar sind kein Pappenstiel, aber das ist letztlich auch nur ein Jahresgehalt von einem Entwickler, der sich in diesem Fach Experte nennen darf.
@ TenDance
Dass die Tensor Cores so wie von Computerbase geschrieben ausschließlich für neuronale Netzwerke gedacht sind ist meines Erachtens und mit Verlaub leider kompletter Unsinn (auch einige andere Stellen in der News lassen mich leider etwas am Verständnis des Autors von der Matiere zweifeln). Denn die von NVIDIA angegebene "Beispielinstruktion" der Tensor Cores (wahrscheinlich wird es noch mehr Instruktionen geben) berechnet eine 4x4 FP16 Matrizenmultiplikation gefolgt von einer 4x4 FP16/32 Matrizenaddition. Dies kann man zum Beispiel in der Computergraphik dafür verwenden um eine Koordinatensystemtransformation von vier Vektoren zu berechnen (Matrizenmultiplikation für die Rotation, denn da ist die FP16 Genauigkeit egal, und anschließend die FP32 Addition für die Translation). Und lass dir gesagt sein, die Computergraphik ist voll von solchen Koordinatensystemtransformationen .
Auch hier wird wieder mit sehr "hippen" Floskeln hantiert.
Leider sehe ich hierbei -vor allem so pauschal- jedoch keine Kausalität.
Ganz im Gegenteil ist nicht von der Hand zu weisen, dass wir als Menschen gerade in den letzten Jahrzehnten in erster Linie durch die EDV großartiges geleistet haben.
So wurden alleine in den letzten 80 Jahren nachweislich mehr wissenschaftliche Fortschritte erzielt als in den 5000 zuvor.
Zeit uns auch mal selbst auf die Schulter zu klopfen und dafür zu beglückwünschen wie ich meine.
@Topic :
Keine wirkliche Entwicklung in dem Bereich aktuell - eher Stagnation.
Nun wird es interessant zu sehen ob das Ganze -ähnlich dem CPU-Sektor- die kommenden Jahre eher nur noch weiter in die Breite wächst, oder ob doch in absehbarer Zeit ein eklatanter Architektur-Sprung zu vermelden sein wird.
ich habe mal schlechte Nachrichten wenn die 12,5tflops stimmen bei amd
Amd benötigt etwa 40% mehr tflops um dieselbe leistung wie nvidia zu erreichen
heißt gv100 mit 15tflops benötigt amd min 21 tflops um dieselbe Leistung zu haben. in games
GPGPu sieht das anders aus weil man den Flaschenhals dx11 nicht mehr hat bzw die fehlende 6ghz CPU
So gesehen liegt die rx590 vega etwa bei gtx1080 niveua mit 8,9 tflops wo vega 12,5 braucht.
aber ich bezweifle das nvidia 15tflops erreicht da müsste der chip ja min 1,4ghz laufen
und das bei 5200 shadern klar doch
pascal hat 3584 und nur 1,5ghz
volta wird in 14nm+ also keiner Verkleinerung gebaut da müsste der chip höllisch heiß werden bei 1,4ghz
Klar man geht in die breite aber dennoch müsste die tdp auf min 300w steigen
aktuell 220w
Stimmt auch wieder, hab mich nur auf den Chip konzentriert, festhalten jetzt kommts.
VRam Krüppel!
Scheint so als ob HBM² VRam wirklich NV zum extremen Vram knausern anspornt damit die Gewinnmarge schön hoch bleibt. War ja schon die ganze Zeit unsere Vermutung warum die Titan XP und Titan Xp nicht mehr wie 12GB VRam bekommen darf. Wegen den Volta Modellen...
Wir reden hier über eine 2018er vielleicht auch 2019er GPU, 16GB sind da wirklich verdammt mager.
Als Prozess gibt Nvidia für den GV100, so heißt die GPU hinter der Tesla V100, die 12-nm-Fertigung bei TSMC an, wobei es sich um einen optimierten 16-nm-Prozess handelt.