PHuV schrieb:
Das hat er so oft erwähnt. Ich sage, die 3080TI wird dann bei 1499 € liegen.
Was in dem Fall aber kaum verwundert dürfte. Der GA100 wird ein ziemlich teurer Chip bei seinen über 800 mm². Die Frage aktuell ist auch, ob der GA100 RT-Cores besitzt oder nicht besitzt. (Es scheint nämlich so zu sein, dass er keine hat.)
Beim GA100 sind in den SM 64 FP32-CC, 64 INT32-CC sowie 32 FP64-CC untergebracht sowie 4 Tensor-Cores.
(Bild von CB kopiert, Quelle NVIDIA)
Die FP64-CC dürften bei einem GA100 auf jeden Fall rausfallen. Sieht man sich den schematischen Plan des GA100 an, besitzt er aber keine RT-Cores.
(Bild von CB kopiert, Quelle NVIDIA)
Hier gibt es jetzt einige Fragen, die man stellen kann. Sicher ist bei einem fiktiven GA102, dass die FP64-CC rausfallen werden:
Frage 1 ist, wie viel Platz durch den Wegfall der FP64-CC gespart wird.
Frage 2 ist, ob der GA102 auch 128 SM besitzen wird.
Frage 3 ist, wieviele RT-Cores kommen hinzu und wie viel Platz benötigen sie.
Das Speicherinterface kann man etwas "heraus" nehmen. Die Die-Shots, die ich nun zu Vega64 als auch Polaris gesehen habe, entsprechen ca. 64Bit eines GDDR5 Interface 1024Bit eines HBM-Interface. HBM hat ja ein recht simples Interface.
GA102 wird vermutlich genauso fett wie der GA100 und damit auch entsprechend kostenintensiv als Chip, selbst in 7nm.
Recharging schrieb:
Da bin ich bei dir, die KI-Betitelung ist einfach nur werbewirksam und teilweise irreführend, von einem selbstlernendem Ding ohne Zutun sind wir, je nachdem wie man es sehen möchte, zum Glück (wenn's um Einschränkungen) oder leider (wenn's um Komfort geht) noch weit entfernt.
Naja, man spricht ja heute in den "Fachkreisen" auch nicht umsonst von Deep Learning, als wirklich von KI/AI. Und so beeindruckend der Sprung 2015 mit Alpha Go war und dem Deep Learning, so sehr hat sich jetzt halt auch wieder Ernüchterung in den Fachkreisen breit gemacht.
Die Grundlagen des DL und der KI-Forschung haben sich aktuell nicht drastisch geändert und stammen immer noch aus den 80er und 90er. Hab mich mal mit einem Freund am MIT unterhalten, der seit 20 Jahren in der KI-Forschung arbeitet, und viele der Konzepte die seit 2015 nun ihren "Durchbruch" hatten, stammen eben aus den späten 80er und frühen 90er, damals fehlte aber die Rechenleistung.
Vielen Forschern war schon 2015 klar, dass zwar ein "Durchbruch" gelungen ist, weil nun die Theorien endlich in die Praxis umgesetzt werden konnten, aber bei den Theorien fehlt es halt aktuell an neuen Ideen, die wieder einen neuen Entwicklungsschritt einleiten.
Das Thema ist echt interessant und ich kann jedem nur empfehlen sich zumindest mal den Grundlagen der KI-Forschung zu befassen. Es gibt eben nicht nur Neurale-Netzwerke, sondern eben auch den evolutionäre Algorithmen und nun, wo man mit den neuralen Netzen wieder gegen eine Wand rennt, besinnt man sich auch wieder auf Algorithmen und versucht hier jetzt weiter zu kommen und auch beide Systeme miteinander zu verbinden, damit man den nächsten Schritt gehen kann.