stoneeh schrieb:
Nvidia hat halt mit der Kepler, Maxwell und Pascal absolute Meisterstücke abgeliefert, die in jeder Hinsicht der Gipfel der Technik waren/sind. Bis Fermi/Tesla war AMD/ATI eh über Jahre vorne.
Fangen wir mal vorne an: Tesla ist keine Architektur, sondern eine Kartenserie für einen bestimmten Anwendungszweck. Dann: Kepler war ein Meisterstück? Das wusste ich noch gar nicht. Es gibt hier zwei Dinge, die nVidia besser kann, als AMD: Geld ausgeben (z.B. für mehr Masken in der Chipfertigung und
Treiberoptimierung) und Tile Based Rasterization seit Maxwell, was ja nun auch mit Vega so teilweise bei AMD Einzug erhalten soll. AMD muss mit einer sehr begrenzten Anzahl Masken alle Bereiche abdecken (so kommen eigentlich für Profis gemachte Chips wie Hawaii zum Heimanwender), nVidia macht seit Pascal für Datacenter und HPC einen Extrachip und verkauft für alles andere die in FP64-Einheiten stark beschnittenen Consumerchips -- fairerweise braucht man das nicht überall. nVidia baut gute Karten für den Moment, die mit guten Day-One-Treibern erscheinen. Als die keplerbasierten Karten rauskamen, waren die nicht schlecht. Aber wie furchtbar Kepler gealtert ist im Vergleich zu GCN, sieht man bei allen Möglichen "revisits" z.B. der GTX 780, die im Gegensatz zur R9 290, die sich etwa auf RX 470-Niveau bewegt, leistungsmäßig eher zur GTX 1050Ti passt. Auch die Effizienz war bei Kepler nur am Anfang besser als bei GCN, mit Hawaii hat sich das geändert. Die GTX 780 (Ti) stellen sogar die größte elektrische Single-GPU-Heizung von AMD, die R9 390X, in den Schatten, was den Stromverbrauch angeht.
stoneeh schrieb:
Das erklärt definitiv große Leistungszugewinne bei vereinzelten Spielen durch neue Treiber in der Vergangenheit. Ich bin kein Spieleentwickler, so dass ich Dir klar widersprechen kann, aber wenn Spiele im zweistelligen Prozentbereich von neuen Treibern profitieren, kann es nicht nur an der Engine liegen.
stoneeh schrieb:
Was wird dann wohl der Unterschied zwischen dem normalen und dem Gaming Modus bei der Vega FE sein? Dass sich die Shader umkonfigurieren wie ein Transformer und die Karte zum ultimativen Gamingmonster wird?
Offensichtlich wird nix anderes passieren, dass ein anderes Takt-, Voltage- und Lüftermuster geladen wird. Im Workstation Betrieb muss die Karte halt leise sein, und dann werden die "typical engine clock" von 1382 MHz schon stimmen.
Auf Videocardz werden alle gestesteten Karten im Gaming Modus mit den vollen 1600 MHz angegeben:
https://videocardz.com/70541/amd-radeon-vega-frontier-lands-in-the-hands-of-the-first-owner
Die Benches, die auf Videocardz verlinkt sind, kommen von WCCF-Tech, genauer gesagt vom User #define. Der hat zu seinen "Messungen" genau keine zusätzlichen Informationen geliefert, die nötig wären, um die Ergebnisse zu bewerten. Keine Logs für Takt, Stromverbrauch, Temperatur, was man alles vom Afterburner loggen lassen- und anschließend auswerten kann. Wenigstens Mittelwerte dazu wären nötig, um das ganze irgendwie einordnen zu können.
stoneeh schrieb:
Die AMD Hypemaschine ist hart am arbeiten, und der User lernt wieder und wieder und wieder nichts. Könnt ihr euch zB noch an die versprochenen 2,8x Performance/Watt zu Fury erinnern? Und dann kommt die neue Karte genauso mit nem 2x8 PIN Stecker wie die alte, mit 300 bzw 375w TDP, wird von Haus aus gleich mit ner Wasserkühlung angeboten - haha, das Ding könnt ihr im Winter zum heizen benutzen!
Man sollte halt irgendwann die Kapazität zum lernen haben.
Volta kommt in ein paar Monaten mit 5072 Shadern vs den 3584 Shadern des Pascal-Topmodells (1080 Ti). Bin mir sicher bis dahin holt AMD noch die nötigen ~70% via Treiber auf
Es geht doch gar nicht unbedingt um die absolute Leistungskrone, es geht um High-End Karten von AMD. Zum richtigen Preis findet alles einen Abnehmer. Und wie gesagt, die Leistungsdaten sind absolut nicht zu bewerten im Moment, das wird schon die Zeit zeigen müssen. Das absolute Must-have für mich ist FreeSync, das will ich jetzt nach ~ 2 Wochen ohne @144Hz nicht mehr missen. Das gleicht ungleichmäßige Frametimes schon ziemlich aus.
Dass nVidia das Geld für noch größere Consumerchips hat, für die sie auch alles verlangen können, was sie wollen (die IT-Welt war ja erstaunt und glücklich gleichermaßen, dass die 1080Ti für "nur" 700$ erschienen ist), ist kein Geheimnis.