duskstalker schrieb:
natürlich braucht ne 1080 weniger, ist auch n mittelklasse chip
Das hängt aber sehr stark von der Betrachtungsweise ab. Rein auf Gaming-/Desktop-PCs bezogen ist die 1080 ganz sicher (Leistung und auch Preis) kein Mittelklasse-Chip sondern High-End. Es gibt als einzig sinnvolles Upgrade für Anwender aus dem Feld ja auch nur noch die 1080 Ti dadrüber.
duskstalker schrieb:
ne 1080 hat nicht die leistung von vega, die 1080 erreicht lediglich die selben fps in einigen spielen. die hardware von vega ist auf titan niveau oder sogar drüber, und die titan verbraucht auch nicht nur 150w.
Das ist so aber nicht korrekt. Die 1080 ist in den meisten Spielen ähnlich schnell und in manchen sogar leicht flotter.
Das Leistungsniveau (theoretische Rechenleistung) - gerade für GPGPU-Anwendungen - von der
Vega 64 ist im Übrigen
über einer
Titan X. Das liegt vor allem an den knapp 13 TFLOPs fp32 und dem HBM2 Speicher. Da kann sich, rein die GPU betrachtet, eine Vega 64 schon
fast mit einer Titan V vergleichen.
Hier gibt es aber auch wieder ein
großes Problem: Software.
Volta wurde ja (TensorCores & Co) extra für GPGPU-Anwendungen, ganz speziell Machine Learning / Deep Learning entwickelt. NVIDIA bietet dafür auch sehr viele Libraries die hochoptimiert sind und sehr viel aus ihren GPUs an Rechenleistung herausholen.
Bei AMD wartet man selbst für den größten Vertreter aus der Branche - TensorFlow von Google - seit Jahren vergeblich auf eine stabile Version die zuverlässig auf AMD-Chips läuft. Und dort, wo AMD mit ROCm & Co und Fuß gefasst hat im professionellen Segment liegt der reale Leistungsoutput - besonders in Betracht der Rohleistung - häufig sehr weit hinter CUDA und den dazugehörigen Libraries zurück.
Liegt natürlich daran, dass NVIDIA (1) mehr Leute hat die an der Software arbeiten und (2) CUDA seit Jahren professionell im Einsatz ist und stetig weiterentwickelt wird und AMD erst jetzt mit Vega wirklich in dieses Segment (softwaretechnisch) vorstößt. Viele Lösungen haben da noch eher "Beta-Status".
Wenn man aber eines der raren Szenarien hat, wo die Software auch nur annähernd so effizient läuft wie bei NVIDIA, dann hat eine Vega 64 durch ihre brachiale Rohleistung schon genug Power um einer Titan X davonzulaufen. Passiert nur in der Realität so gut wie nie, wegen Software.
duskstalker schrieb:
zudem war der schritt von maxwell auf pascal leistungsmäßig eine genieleistung - man kann von amd nicht erwarten auch die >70% leistungsplus zum vorgänger zu schaffen - nicht mit dem budget. und ich hab so meine zweifel, ob das selbst nvidia nochmal schafft.
Das
hat NVIDIA doch schon mit Volta.
Das neue CUDA9 (+libs) läuft mit den großen libraries - z.B. TensorFlow - im Bereich machine learning bei mir (hab schon mehrere AI-Simulationen damit gebencht) im Schnitt immer so 20-30% flotter auf einer Titan
X - also auf Pascal. Da hat NVIDIA noch mal sehr viel per Software geregelt.
Darüberhinaus wurde Volta doch sowieso exklusiv (TensorCores, ...) für diesen Markt optimiert und Gaming abgeschrieben. Deshalb kommen die Gaming-Chips jetzt ja auch immer deutlich später: "Datacenter first" (Jensen Huang, NVIDIA CEO).
Ist auch verständlich, bei den Margen und vor allem bei dem Wachstumspotenzial in dem Bereich (um ein Vielfaches höher als im Gamingmarkt).
Nichtsdestoweniger hat NVIDIA es mit Volta in dem neuen Primärmarkt GPGPU - speziell machine learning - ja schon geschafft. CUDA9 holt nochmal deutlich mehr Leistung raus ab Pascal und die TensorCores bei Volta bieten für bestimmte Szenarien im Peak fast
ZEHN MAL so viel Leistung wie Pascal. In den meisten realen Tests die ich gesehen habe, schrumpfen die zahlreichen Volta-Optimierungen zwar sehr stark zusammen, aber zumindest sowas wie +50% bleiben am Ende immer mindestens übrig. Das ist definitiv erneut ein sehr großer Schritt.
Ob NVIDIA das mit
Ampere auch im Gaming schafft ist natürlich zu bezweifeln, weil (1) Gaming NVIDIA ja nicht mehr sehr interessiert und (2) Volta deshalb so viel schneller ist, weil NVIDIA sehr viele Ressourcen in CUDA und in die Architektur - speziell die TensorCores - gesteckt hat.
Und
keine dieser Neuerungen sind für Gaming auch nur im entferntesten Sinne nützlich.
Letztendlich müssen sie das ja aber auch nicht mehr. Gaming ist nicht mehr der Wachstumsmarkt. Deshalb hat sich NVIDIA ja auch schon umpositioniert.
Das ist imho auch das größte Problem von AMD. Mangels Ressourcen haben sie es gerade im Bereich GPGPU schwer, wo man eben noch viel mehr investieren muss als in Gamingtreiber. Und gerade da lauert jetzt ja die große Marge und vor allem die gigantischen Wachstumszahlen.