Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRadeon Vega Frontier Edition: Einordnung der Spekulationen zur Spiele-Performance
Die Arbeit die Nvidia mit einem GV102 hat geht gegen 0. Es ist nichts weiter als ein etwas größerer GP102 mit ~1000-1500 Shadern mehr, genau wie von P100 auf V100.
Jep. Bei dem, was ich die letzten Tage so oft gelesen hab, dass Volta nicht für den Consumer Markt kommt, kräuseln sich meine Haare ein. Natürlich kommt Volta auch für Consumer. Ist technisch überhaupt kein Problem, und ich glaub nicht dass Nvidia nachlässt, nur weil sie mit der letzten GPU Generation noch immer den Markt dominieren.
Blueline56 schrieb:
(Zu TBR) ... stellt sich nur die Frage ob AMD das auch so gut hinbekommt und bei deren Architektur genau so effektiv arbeitet wie bei Nvidia?
Kommt sicher stark auf die Arbeit von AMD an, und was das Potential auf der vorhandenen Architektur ist/war. Vega ist ja kein kompletter Neuentwurf, nur eine weitere GCN Iteration.
Dass AMD tiefstapelt, hab ich schon lang nicht mehr erlebt. Die letzten Grafikkartenreihen, die überrascht haben, waren die HD3000 und besonders die 4000 Serie.. kurz nach der Übernahme durch AMD, damals noch als ATI vertrieben.
Hatten wir bei R600 oder BD alles schon. Das war aber im Grunde nicht meine Aussage. AMD hat seit mindestens November Silizium. Das die Entwickler da in den letzten 4 Wochen den Treiber von 0 auf 100 zusammenfrickeln ist aber auch eine hanebüchene Aussage.
Von Polaris wurde auch deutlich mehr erwartet. Ich höre noch die großen Töne bezüglich AMDs Vorsprung in 16nm und wie man eine bessere 970 Cashcow entwickeln will. Eine 970 ist es dann am Ende wirklich geworden... eine Genration zu spät, kaum Verbrauchsverbesserungen und nach den NV Performance Karten.
Die nächste Frage ist wo AMD mit Vega eigentlich stehen wird. Pascal ist absehbar EOL. Eigentlich müssten wir lange über Navi spekulieren. Derweil erreicht der HBM nicht mal die angepeilten 1000MHz bzw. 500GB/s. Der GDDR6 "Leak" sprach von ~880GB/s für die nächste NV Karte. Was das AMD -Marketing hier betriebt ist mal wieder geschäftsschädigend.
Naja bei der RX480 wurde vieles hineinspekuliert, was aufgrund der Chipgrösse und der "nur Evolution an GCN" nicht machbar war.
Dazu landeten die Takte nicht dort wo man es im Vergleich zu Pascal erwartet hat.
Man hatte am Ende GTX970+ Leistung, in einer Chip und Preisklasse tiefer. Was grundsätzlich nicht schlecht ist.
Davon ab, dass die RXx80er in DX12 und Vulkan erst richtig aufdrehen und hier auch zukünftig gut profitieren werden können. Also zuviel erwartet, aber doch einiges geliefert.
Das sieht aufgrund des Aufwandes an VEGA auch realistisch betrachtet ganz anders aus.
Wieso sollte man es sonst auch so aufwendig machen, wenn der Einfache Weg ein ebenso gutes
wenn nicht gar besseres Ergebnis gebracht hätte, als wir bei der FE sehen?
Eine Fiji in GCN4 mit 1600Mhz Takt und 14NM zerpflückt die GTX1080 in jedem Bereich.
Wieso nicht VEGA?
Weil man zuerst wohl noch Treiber und Software auf die völlig andere Architektur anpassen muss vielleicht?
Und wenn nicht jetzt, wieso nicht in 6 Monaten?
Ergänzung ()
@stoneeh
Die HD5XXX waren auch ein ziemlicher Paukenschlag für NV.
Zumindest die HD68XX und HD69XX konnten sich gut gegen die
Fermi Derivate behaupten.
Im Nachhinein betrachtet waren die GCN1 aka HD7XXX auch viel besser
als Kepler.
Und Hawaii/Grenada ist auch heute noch ein klasse Chip, der
bei DX12 und Vulkan und eben auch Mining so richtig aufdreht,
auch wenn der Verbrauch recht heftig ist.
Und erst kürzlich bei Ryzen hat man auch tiefgestapelt.
Und hat dann kurz vor dem Launch mit 52% getrumpft. Das meint er.
Als ob denen das erst kurz vor Launch aufgefallen wäre: " Oh, doch mehr als 40%, goil! " ...
Selbst wenn die Benchmarks bis jetzt gar nichts aussagen - Vega hat ziemlich genau die gleiche Rohleistung wie der Pascal Vollausbau. Glaubt ernsthaft wer, dass Vega aus der Rohleistung mehr rausholt als Pascal? Daten zum Verbrauch haben wir ja schon, und die sind deutlich schlechter als die der Konkurrenz.
Dafür monate- bis jahrelanges Marketing im Vorhinein mit weissgottwieviel Konferenzen und hübschen Grafiken. Was derzeit abgeht, ist alles andere als Understatement. Besonders, da der bittere Nachgeschmack von Polaris und den versprochenen 2,8x Performance/Watt zum Vorgänger auf 28nm noch nachhängt. Da sollte man einfach nur die Fresse halten und liefern.
1. Vega ist knapp 500mm groß. Darin passt Polaris mit seinen 232mm 2x rein - keine neue mArch, dabei kaum verursachte Kosten, dazu mit +1,3Ghz (siehe 580) vielleicht noch ein 512 Bit SI mit GDDR5x und hätte das selbe Ergebnis abgeliefert.
2. Gerüchte das die Arbeiten am Treiber erst im Mai begonnen haben (siehe Cyberfries Post) dann die Verlautbarungen von Raja Koduri, dass die Treiberentwicklung sehr kompliziert sei.
Das ist schlichtweg Blödsinn. Treiber- und Hardware-Entwicklung laufen immer parallel. Meistens sind die Treiber schon fertig bevor es überhaupt erste Chips gibt, weil man diese zuvor nämlich simuliert.
Das Prinzip Hoffnung, das du hier offenbarst, hat nichts mit Hand und Fuß zu tun.
Tilidin schrieb:
4. (Speku) Sie haben im Mai einen schweren Bug entdeckt, der ein Respin nötig hat, dies für den genannten Termin gegenüber den Investoren ( 1H 2017 ) Zeitlich nicht schaffbar war, daher haben sie einen Fallback auf den nächst Stabilen Treiber veranlasst, was nun zum FE gezeigten Ergebnis führte.
Prinzip Hoffnung. Wer sagt denn, das der überhaupt immer und überall funktioniert?
The draw-stream binning rasterizer won't always be the rasterization approach that a Vega GPU will use. Instead, it's meant to complement the existing approaches possible on today's Radeons. AMD says that the DSBR is "highly dynamic and state-based," and that the feature is just another path through the hardware that can be used to improve rendering performance.
Damals ist nicht Heute. Was früher möglich war, ist mit Heutigen Finanziellen Mitteln vielleicht nicht mehr so einfach möglich, oder hat andere Formen angenommen, die Heute als Kurios bezeichnet werden können.
Aktuell hält AMD, wie du es ungepflegt ausdrückst: "Die Fresse" - obwohl Gegenteiliges hinsichtlich des TBR besser gewesen wäre.
Ja, sage ich ja ... da ich jetzt im Sommer eh viele andere Dinge mache, drängt es nicht so extrem mit ner neuen Grafikkarte. Hab ja gesagt, vermutlich gibts dann die Gamer-Karten in ausreichender Stückzahl im August/September, passt ja zum "Release 30./31. Juli".
Da du ja selbst die News zitierst, weißt du ja auch, dass ein Release auf einer Messe sicher keine 100% Verfügbarkeit am gleichen Tag zur Folge hat, war ja beim "Release" der Profi-Karten auch nicht so.
AMD kommt auf jeden Fall entgegen, dass auch die Konkurrenzkarten von nVidia jetzt von den Minern weggekauft werden, dadurch sind viele "gezwungen" doch noch weiter zu warten, anstatt zB auf eine GTX 1070 umzusteigen ... oder sie geben halt einen Premium-Preis dafür aus.
[...] Vega hat ziemlich genau die gleiche Rohleistung wie der Pascal Vollausbau. Glaubt ernsthaft wer, dass Vega aus der Rohleistung mehr rausholt als Pascal? [...]
1080TI Referenz liegt bei 11,3 TFLOPS
Titan Xp liegt bei 12,1 TFLOPS
Und VEGA FE liegt bei 13,1 TFLOPS und wie Raja schon sagte, sollte die RX VEGA schneller getaktet sein.
Und weil AMD in der Vergangenheit aus mehr Rechenleistung oft weniger Frames gemacht hat muss das
in Zukunft so bleiben?
ich sage mal die "echte" Leistung kommt erst 3 Monate nach Release wenn die Zreiber einigermaßen hinhauen, hab seit der ersten Radeon AMD-Karten und muss sagen der Treibersupport ist in den letzten 2 Jahren stark in den Keller gegangen, 1 Fix zieht 3 Bugs nach die erst 3 Versionen später wieder gefixed werden und dann fängts von vorne an. War bei TW3 und CF ebenso wie bei ME:A, erst CF-Flackern beheben dann wieder reinpatchen und erst einmal nicht mehr erwähnen.
Ich warte noch ab und dann entscheide ich mich ob 2 RX oder 2 TI meine R390X ablösen werden
Ergänzung ()
Und weil AMD in der Vergangenheit aus mehr Rechenleistung oft weniger Frames gemacht hat muss das
in Zukunft so bleiben?
Ich hatte mal grobe Schätzungen basierend auf Maxwell/Keppler Vergleich gemacht und kam auf ca. 30-35% Vorteil durch TBR.
Sollte TBR im finalen treiber funktionieren, wird Vega das Niveau einer 1080Ti custom Karte spielend erreichen können.
Ich hatte mal grobe Schätzungen basierend auf Maxwell/Keppler Vergleich gemacht und kam auf ca. 30-35% Vorteil durch TBR.
Sollte TBR im finalen treiber funktionieren, wird Vega das Niveau einer 1080Ti custom Karte spielend erreichen können.
AMD hat TBR bisher noch nicht mal zum laufen bekommen.
Es ist immer noch möglich, dass AMD an TBR scheitert und es nie implementiert wird.
Die nVidia Architektur unterscheidet sich deutlich von GCN.
Wir wissen nicht, wieviel Nutzen AMD aus TBR ziehen kann, es könnte auch wesentlich geringer sein.
Die Verbesserungen von Maxwell auf Kepler beschränken sich nicht nur auf TBR.
Wieviel kommt von Architektur-Verbesserungen, wieviel von TBR?
Man sollte immer überaus vorsichtig sein mit seinen Prognosen.
Ja. Aber da Nvidia nicht sagt wieviel TBR bringt (wahrscheinlich wissen sie das selbst nicht so genau, ist von Szene zu Szene anders), ist eine Abschätzung besser als nichts. Ich habe die umrechung GFLOP bereinigt. Andere Architekturverbesserungen kann ich natürlich nicht isolieren, aber viel wird es i.d.r. nicht sein. Maxwell kocht auch nur mit Wasser, genau wie Keppler.. Andere Onlinemagazine sprechen von 20-50%
Danke für den Link. Aus meiner Sicht bestätigt es, dass möglicherweise irgendwas mit der Karte nicht stimmt.
Vergleicht man nur mal Vega mit FuryX, indem man den Mittelwert aus den angegebenen Leistungssteigerungen bei den Spielen, 3DMark und Unigine Heaven, erhalte ich einen Wert von +23%.
Laut Test lief die Karte relativ stabil bei 1440MHz, was ein Plus von 37% gegenüber der FuryX bedeutet. Sicherlich wird eine reine Taktsteigerung nicht 1:1 in Gaming-Leistung übertragen, aber dennoch verwundert mich dieser Unterschied zwischen Taktsteigerung und Gamingleistung etwas.
Im Test wird auch erwähnt, dass die von AMD angegebenen 1600MHz erst durch OC erreicht wurden. Das deutet erst mal darauf hin, dass die GPU von dem PT eingeschränkt wird.
Schaut man sich jedoch dann den Abschnitt zur Leistungsaufnahme an, so könnte man auch hier etwas in Grübeln kommen (genauso wie der Tester im Review). Denn die GPU senkt bspl. bei Metro Last Light die Leistungsaufnahme von 280W auf Zustände bei 240W oder gar 200W. Nur hat die GPU dabei den Takt von 1440MHz nicht gesenkt, was man wohl erwarten würde. (" At 240 watts and 200 watts, the card was pulling less power, but interestingly, did NOT appear to drop the clock speeds during those intervals. That seems counter-intuitive to be sure, and we are still asking questions of AMD to figure out what is going on. ").
Erst als der Tester die Lüftergeschwindigkeit maximiert hat, war die Leistungsaufnahme durchgehend bei 290W. Nur wie gesagt, scheinbar werden gar nicht durchgehend 290W benötigt, damit die GPU ihren Takt von 1440MHz hält, sondern nur 240W oder 200W (bei Metro Last Light).
Insgesamt also irgendwie total merkwürdig oder hat jemand von euch dafür eine gute Erklärung?