Teralios schrieb:
... kann mich absolut nicht den Eindruck erwehren, dass bei AMD zwar durchaus sehr kompetente und kluge technische Informatiker im Bereich Hardware am Werk sind, jedoch die Informatiker für Treiberentwicklung hinterher hinken ... bei AMD die in der Hardware sich auch ständig beweisen müssen und statt kleine "Anpassungen" vorzunehmen, muss halt immer versucht werden noch besser "Technik" ins Silizium zu gießen. Entsprechend kommen die Treiberentwickler einfach nicht hinterher. Erst ihr VLIW5, dann VLIW4, dann ihr bei dem sie ja alles Radikal umgebaut haben. Statt jedoch teilweise dort "Probleme" jedoch mal im kleinen anzugehen, wird immer versucht Probleme an anderen Stellen zu lösen. AMD steht immer noch bei "64 ROPs" - bei ca. 98,9 GP/s - nVidia steht mit GP102 bei 96ROP mit ca. 151,9 GP/s. Und mehr als 64ROPs sind wohl bei AMD auch nicht möglich ... Statt mal an solchen Stellen anzupacken, wurden wieder mal die Shader und aktuell wohl auch die ROPs massiv überarbeitet. Vielleicht sind die 1024 Shader pro Block einfach etwas "zuviel" und man müsste da am Aufbau mal etwas ändern. nVidia ging ab Fermi wohl deutlich gezielter und gleichzeitig behutsamer vor, so dass auch die Treiberentwickler gut mitkamen. Statt vieles neu zu machen, haben sie von Fermi zu Kepler sich ihre Shader angesehen, diese "grundlegend" verändert, jedoch andere Sachen nur angepasst, jedoch nicht grundlegend verändert. Danach haben sie "Flaschenhälse" in der Organisation ihrer Shader beseitigt und scheuten vor einer Reorganisation nicht zurück, haben jedoch die "Shader" im kleinsten nicht massiv umgebaut - 192 zu 128 - usw. Vielleicht würde es AMD mal gut tun, wenn sie ihre Ingenieure zügeln würden und statt Limitierungen durch Revolution mal durch Reorganisation und Evolution zu beseitigen.
Ja, ein guter Punkt den Du machst, ich glaube auch, dass man bei AMD mit der Umsetzung der Vega Architektur etwas über das Ziel hinaus geschossen ist und mehr bieten wollte als man personell managen/verkraften kann derzeit.
Das zeigt die seit über einem halben Jahr laufende Treibererstellung/-arbeit, der man zum Marktstart - mit dem unfertigen Treiber - immer noch nicht Herr geworden ist, was Bände spricht.
Auf dem Papier (und darüber hinaus wohl noch deutlich mehr, wenn Herr Koduri von über 200 neuen Architektur-Features - klein und groß - spricht) liest sich das schon beeindruckend, nur was bringt es, wenn keine dieser Architekturneuheiten optimiert ist und (in absehbarer Zeit) ausgereizt werden kann bzw. sticht (in besserer Rohleistung und/oder Effizienz sich widerspiegelt) und man an etlichen Baustellen immer ein wenig herumwerkelt ohne eine davon fertig zu bekommen und
systematisch vorzugehen.
Das stört mich eigentlich auch bei AMD und ist auch nicht wirklich mit vorbildlichem Ingenieurswesen - so wie ich es gelernt habe, nur in einem anderen Bereich - zu vereinbaren bzw. solch eine "springende Vorgehensweise" wirft Fragen auf, da sie sich ineffizient gestaltet und in Schludrigkeit münden kann.
Vielleicht ist der Rückstand zum Konkurrenten so groß und der Ruf als "Preissenker" und Billigalternative so zementiert, dass man auf "Teufel komm' 'raus" versucht mit Alleinstellungsmerkmalen und technischen Innovationen zu glänzen und massiv in einem großen Wurf aufzuholen, aber zumindest bei RX Vega scheint man sich übernommen zu haben und das Ganze scheint wieder einmal nur teilweise anzukommen.
Da ich (leider oder zum Glück) kein PC-Hardware-Ingenieur bin, kann ich nicht wirklich beurteilen, ob die 64 ROPs hier seit einiger Zeit schon der limitierende Faktor der GCN-/NCU-Architektur sind und ultimativ dafür (mit-)verantwortlich, dass wieder nicht die theoretische TFLOPS-Rohleistung annähernd "auf die Straße" gebracht werden kann.
Man scheint ja die Pipeline massiv umgekrempelt zu haben, wenn man sich die neuen Features im Detail (im CB Artikel etwa) so durchliest, aber wie schon von Dir spekuliert scheint die Treiberabteilung damit (trotz angeblicher 80% Auslastung) massiv damit überfordert (gewesen) zu sein.
Es scheint so, als ob alte und neue Spiele komplett treibermäßig neu optimiert werden müssen um mit Pascal GPUs gleich zu ziehen oder diese gar zu überholen wie bei Battlefield 1 trotz unfertigem Treiber schon ersichtlich.
Da erscheint es fragwürdig, ob das AMD wird leisten können (in Zusammenarbeit mit den einzelnen Spielentwicklern) und sicherlich gibt es da auch Limitierungen und man wird es in besonderem/großen Maße nur für die als wichtig erachteten Spiele/Engines tun, die auch in Zukunft relevant sein werden, auch wenn das nicht erklärt, wieso Battlefield 1 mit Frostbite Engine soviel besser zu laufen scheint als Mass Effect (4) Andromeda wofür m.W.n. auch die Frostbite Engine genutzt wurde, nur eben von Bioware anstatt von Dice.
Etwas weniger Gigantismus bei AMD/RTG wäre bestimmt nicht verkehrt, aber die Konkurrenz ist in Größe, Finanzen und Marktposition natürlich aktuell weit überlegen, da wird man sich bei RTG vielleicht denken, dass sie idealerweise einen "Hail Mary" Wurf (im American Football ein verzweifelter letzter großer Pass-Versuch, um doch noch zu gewinnen/punkten vor Ablauf der Zeit) landen müssen, um mit nVidia wieder auf Augenhöhe zu landen.
Komischerweise scheint es in anderen GPU Bereichen AMD/RTG deutlich besser zu gelingen nVidia Paroli zu bieten als im PC Gaming Bereich.
gerzerk schrieb:
... Freesync Monitor besitze, hatte ich mich eigentlich bereits auf Vega gefreut, aber das Paket stimmt halt nicht, ähnlich wie die Furys. Jetzt habe ich mir eine ordentliche 1080 für 470,00 € bestellt und muss mich halt damit abfinden auf FS zu verzichten. Die 120W TDP Unterschied gehen halt mal gar nicht und die Preise passen für eine Karte mit Werkskühler ebenfalls nicht. Dann die Preise für die 64 mit Wasserkühlung für über 730,00 €, momentan gibt es eine 1080 von MSI für 550,00 € mit einer "richtigen" Wasserkühlung, wie will man dagegen anstinken?
Nur kurz als Erinnerung, direkt oder kurz nach Marktstart der GTX 1080 hat man anfangs die billigsten Kartenmodelle für 650 Euro zu kaufen bekommen (vernünftige/überdurchschnittliche über 700 Euro). So gesehen wäre meine Empfehlung aktuell erst einmal zu warten, wie sich die Preise in 2 Monaten (noch vor dem Vorweihnachtsgeschäft, also spätestens Anfang bis Mitte November, eingependelt haben.
Wer wirklich jetzt RX Vega denkt kaufen zu müssen, wird wohl - egal ob mit Referenz-Ausführungen (es sei denn man hat sehr viel Glück eine der rabattierten Erstkontingent-Referenzkarten zu bekommen, die man dann ggfs. umbauen kann) oder Custom-Ausführungen - in den sauren Apfel überzogener Händler-Early Adopter-Preise beißen müssen.
AMD behauptet ja, das sie auf die Preisbildung kaum Einfluss haben und nur die unverbindliche Preisempfehlung setzen können (wobei der preisliche Spielraum bei Händlern natürlich nicht bekannt ist, aber selbst wenn dieser klein angesetzt sein sollte, sehen aktuell die Händleraufschläge/-verdienstspannen schon sehr üppig aus).
Für mich käme eine RX Vega 56 Custom-Grafikkarte über 500 Euro auch nicht ernsthaft in Frage (zumal das Free-Sync Argument bei mir auch gar nicht sticht, da ich solch einen Monitor nicht habe und nicht vorhabe mir extra in den kommenden Jahren einen anzuschaffen, sondern erst wenn ein UHD/4K HDR Monitor mit DP1.4 und 120+Hz fällig wird, was zu akzeptablen Preisen momentan noch in den Sternen steht), selbst wenn die kleinere/sparsamere RX Vega GTX 1080 Niveau per Treiberoptimierung/Architekturnutzung erreichen sollte (wovon ich kurz - bis mittelfristig ausgehe).
450 Euro sind für mich das gesteckte obere Limit für eine vernünftige 56er Karte von XFX, Sapphire, Powercolor, MSI, Gigabyte oder HIS (aber kein Billigstmodell mit starken Limitierungen (bei Kühlung, Lautstärke, Komponenten-/Verarbeitungsqualität, oder Verbrauch)) und wenn das nicht vor oder zur Volta-Veröffentlichung passt, dann wird's wohl leider wieder eine "grüne GPU" bei mir werden und das AMD (RX Vega) Paket war dann im Endeffekt für meine Bedürfnisse nicht stimmig genug.