News Radeon Vega Frontier Edition: Einordnung der Spekulationen zur Spiele-Performance

Krautmaster schrieb:
Die Arbeit die Nvidia mit einem GV102 hat geht gegen 0. Es ist nichts weiter als ein etwas größerer GP102 mit ~1000-1500 Shadern mehr, genau wie von P100 auf V100.

Jep. Bei dem, was ich die letzten Tage so oft gelesen hab, dass Volta nicht für den Consumer Markt kommt, kräuseln sich meine Haare ein. Natürlich kommt Volta auch für Consumer. Ist technisch überhaupt kein Problem, und ich glaub nicht dass Nvidia nachlässt, nur weil sie mit der letzten GPU Generation noch immer den Markt dominieren.

Blueline56 schrieb:
(Zu TBR) ... stellt sich nur die Frage ob AMD das auch so gut hinbekommt und bei deren Architektur genau so effektiv arbeitet wie bei Nvidia?

Kommt sicher stark auf die Arbeit von AMD an, und was das Potential auf der vorhandenen Architektur ist/war. Vega ist ja kein kompletter Neuentwurf, nur eine weitere GCN Iteration.

modena.ch schrieb:
Das sieht für mich schwer nach Taktik aus.

Dass AMD tiefstapelt, hab ich schon lang nicht mehr erlebt. Die letzten Grafikkartenreihen, die überrascht haben, waren die HD3000 und besonders die 4000 Serie.. kurz nach der Übernahme durch AMD, damals noch als ATI vertrieben.
 
Botcruscher schrieb:
Hatten wir bei R600 oder BD alles schon. Das war aber im Grunde nicht meine Aussage. AMD hat seit mindestens November Silizium. Das die Entwickler da in den letzten 4 Wochen den Treiber von 0 auf 100 zusammenfrickeln ist aber auch eine hanebüchene Aussage.
Von Polaris wurde auch deutlich mehr erwartet. Ich höre noch die großen Töne bezüglich AMDs Vorsprung in 16nm und wie man eine bessere 970 Cashcow entwickeln will. Eine 970 ist es dann am Ende wirklich geworden... eine Genration zu spät, kaum Verbrauchsverbesserungen und nach den NV Performance Karten.

Die nächste Frage ist wo AMD mit Vega eigentlich stehen wird. Pascal ist absehbar EOL. Eigentlich müssten wir lange über Navi spekulieren. Derweil erreicht der HBM nicht mal die angepeilten 1000MHz bzw. 500GB/s. Der GDDR6 "Leak" sprach von ~880GB/s für die nächste NV Karte. Was das AMD -Marketing hier betriebt ist mal wieder geschäftsschädigend.

Naja bei der RX480 wurde vieles hineinspekuliert, was aufgrund der Chipgrösse und der "nur Evolution an GCN" nicht machbar war.
Dazu landeten die Takte nicht dort wo man es im Vergleich zu Pascal erwartet hat.
Man hatte am Ende GTX970+ Leistung, in einer Chip und Preisklasse tiefer. Was grundsätzlich nicht schlecht ist.
Davon ab, dass die RXx80er in DX12 und Vulkan erst richtig aufdrehen und hier auch zukünftig gut profitieren werden können. Also zuviel erwartet, aber doch einiges geliefert.

Das sieht aufgrund des Aufwandes an VEGA auch realistisch betrachtet ganz anders aus.
Wieso sollte man es sonst auch so aufwendig machen, wenn der Einfache Weg ein ebenso gutes
wenn nicht gar besseres Ergebnis gebracht hätte, als wir bei der FE sehen?
Eine Fiji in GCN4 mit 1600Mhz Takt und 14NM zerpflückt die GTX1080 in jedem Bereich.
Wieso nicht VEGA?
Weil man zuerst wohl noch Treiber und Software auf die völlig andere Architektur anpassen muss vielleicht?
Und wenn nicht jetzt, wieso nicht in 6 Monaten?
Ergänzung ()

@stoneeh

Die HD5XXX waren auch ein ziemlicher Paukenschlag für NV.

Zumindest die HD68XX und HD69XX konnten sich gut gegen die
Fermi Derivate behaupten.

Im Nachhinein betrachtet waren die GCN1 aka HD7XXX auch viel besser
als Kepler.

Und Hawaii/Grenada ist auch heute noch ein klasse Chip, der
bei DX12 und Vulkan und eben auch Mining so richtig aufdreht,
auch wenn der Verbrauch recht heftig ist.

Und erst kürzlich bei Ryzen hat man auch tiefgestapelt.
 
Zuletzt bearbeitet:
Bei Ryzen hat man +40% IPC ggüber Bulldozer versprochen. Tiefstapelei war das keine. Wenn auch die Leistung vs Energieeffizienz überraschend war.
 
Und hat dann kurz vor dem Launch mit 52% getrumpft. Das meint er.
Als ob denen das erst kurz vor Launch aufgefallen wäre: " Oh, doch mehr als 40%, goil! " ...
 
Selbst wenn die Benchmarks bis jetzt gar nichts aussagen - Vega hat ziemlich genau die gleiche Rohleistung wie der Pascal Vollausbau. Glaubt ernsthaft wer, dass Vega aus der Rohleistung mehr rausholt als Pascal? Daten zum Verbrauch haben wir ja schon, und die sind deutlich schlechter als die der Konkurrenz.
Dafür monate- bis jahrelanges Marketing im Vorhinein mit weissgottwieviel Konferenzen und hübschen Grafiken. Was derzeit abgeht, ist alles andere als Understatement. Besonders, da der bittere Nachgeschmack von Polaris und den versprochenen 2,8x Performance/Watt zum Vorgänger auf 28nm noch nachhängt. Da sollte man einfach nur die Fresse halten und liefern.
 
Zuletzt bearbeitet:
Tilidin schrieb:
Ja. Weile es Hand und Fuß hat,

Da hat überhaupt nichts Hand und Fuß!

Tilidin schrieb:
1. Vega ist knapp 500mm groß. Darin passt Polaris mit seinen 232mm 2x rein - keine neue mArch, dabei kaum verursachte Kosten, dazu mit +1,3Ghz (siehe 580) vielleicht noch ein 512 Bit SI mit GDDR5x und hätte das selbe Ergebnis abgeliefert.

Was hat das mit dem Thema zu tun?

Tilidin schrieb:
2. Gerüchte das die Arbeiten am Treiber erst im Mai begonnen haben (siehe Cyberfries Post) dann die Verlautbarungen von Raja Koduri, dass die Treiberentwicklung sehr kompliziert sei.

Das ist schlichtweg Blödsinn. Treiber- und Hardware-Entwicklung laufen immer parallel. Meistens sind die Treiber schon fertig bevor es überhaupt erste Chips gibt, weil man diese zuvor nämlich simuliert.

Tilidin schrieb:
3. Eine neue mArch sollte idR. deutlich mehr bieten, als das, was Aktuell der Fall ist. ( Was sie tut, siehe Fallout 4 Benchmark von PCper )

Das Prinzip Hoffnung, das du hier offenbarst, hat nichts mit Hand und Fuß zu tun.

Tilidin schrieb:
4. (Speku) Sie haben im Mai einen schweren Bug entdeckt, der ein Respin nötig hat, dies für den genannten Termin gegenüber den Investoren ( 1H 2017 ) Zeitlich nicht schaffbar war, daher haben sie einen Fallback auf den nächst Stabilen Treiber veranlasst, was nun zum FE gezeigten Ergebnis führte.

Pure Spkulation != Hand und Fuß

Tilidin schrieb:
5. Sie sind noch nicht fertig und wir sehen erst auf der SIGGRAPH was Sache ist

Spekulation.

Tilidin schrieb:
6. Allein die Tatsache, dass TBR ausgeknipst wurde, zeigt eindeutig, dass der Treiber nicht bereit ist.

Prinzip Hoffnung. Wer sagt denn, das der überhaupt immer und überall funktioniert?

The draw-stream binning rasterizer won't always be the rasterization approach that a Vega GPU will use. Instead, it's meant to complement the existing approaches possible on today's Radeons. AMD says that the DSBR is "highly dynamic and state-based," and that the feature is just another path through the hardware that can be used to improve rendering performance.

http://techreport.com/review/31224/the-curtain-comes-up-on-amd-vega-architecture/3

Du schreibst hier absolut NICHTS, was irgendwie Substanz hat. Das ist alles leeres Gerede, mehr nicht.
 
Damals ist nicht Heute. Was früher möglich war, ist mit Heutigen Finanziellen Mitteln vielleicht nicht mehr so einfach möglich, oder hat andere Formen angenommen, die Heute als Kurios bezeichnet werden können.
Aktuell hält AMD, wie du es ungepflegt ausdrückst: "Die Fresse" - obwohl Gegenteiliges hinsichtlich des TBR besser gewesen wäre.
 
Colindo schrieb:
@forumuser05
Dir ist aber schon bekannt, dass der offizielle Release-Termin für die RX Vega für Gamer der 30.-31. Juli ist, oder?
Ja, sage ich ja ... da ich jetzt im Sommer eh viele andere Dinge mache, drängt es nicht so extrem mit ner neuen Grafikkarte. Hab ja gesagt, vermutlich gibts dann die Gamer-Karten in ausreichender Stückzahl im August/September, passt ja zum "Release 30./31. Juli".
Da du ja selbst die News zitierst, weißt du ja auch, dass ein Release auf einer Messe sicher keine 100% Verfügbarkeit am gleichen Tag zur Folge hat, war ja beim "Release" der Profi-Karten auch nicht so.
AMD kommt auf jeden Fall entgegen, dass auch die Konkurrenzkarten von nVidia jetzt von den Minern weggekauft werden, dadurch sind viele "gezwungen" doch noch weiter zu warten, anstatt zB auf eine GTX 1070 umzusteigen ... oder sie geben halt einen Premium-Preis dafür aus.
 
stoneeh schrieb:
[...] Vega hat ziemlich genau die gleiche Rohleistung wie der Pascal Vollausbau. Glaubt ernsthaft wer, dass Vega aus der Rohleistung mehr rausholt als Pascal? [...]
Was spricht denn dagegen, dass AMD bei Vega mehr rausholt im Vergleich zu Pascal?
 
@stoneeh

1080TI Referenz liegt bei 11,3 TFLOPS
Titan Xp liegt bei 12,1 TFLOPS
Und VEGA FE liegt bei 13,1 TFLOPS und wie Raja schon sagte, sollte die RX VEGA schneller getaktet sein.

Und weil AMD in der Vergangenheit aus mehr Rechenleistung oft weniger Frames gemacht hat muss das
in Zukunft so bleiben?
 
Zuletzt bearbeitet:
ich sage mal die "echte" Leistung kommt erst 3 Monate nach Release wenn die Zreiber einigermaßen hinhauen, hab seit der ersten Radeon AMD-Karten und muss sagen der Treibersupport ist in den letzten 2 Jahren stark in den Keller gegangen, 1 Fix zieht 3 Bugs nach die erst 3 Versionen später wieder gefixed werden und dann fängts von vorne an. War bei TW3 und CF ebenso wie bei ME:A, erst CF-Flackern beheben dann wieder reinpatchen und erst einmal nicht mehr erwähnen.
Ich warte noch ab und dann entscheide ich mich ob 2 RX oder 2 TI meine R390X ablösen werden
Ergänzung ()

Und weil AMD in der Vergangenheit aus mehr Rechenleistung oft weniger Frames gemacht hat muss das
in Zukunft so bleiben?
Auch das liegt an den Treibern :( NV macht da aktuell einfach den besseren Job
 
Alter Hut:
r4yn3 schrieb:
Anhang anzeigen 630617

Allerdings bin ich mir nicht sicher was genau ich einstellen soll. Es flickert halt irrsinnig schnell, und der Bereich ist größer als beim Video von http://www.realworldtech.com/tile-based-rasterization-nvidia-gpus/

3D Mark ist gekauft und wird nachher mal durchgejagt.

Edit: Also meinem Verständnis nach, ist TBR nicht aktiv. Es wird bei mir immer nur ein Trianlge nach dem anderen gerendert.

Ach nochwas, GPUz selbst sagt, TBR nein:

Anhang anzeigen 630629
 
Schon klar. Als News sowohl dort als auch PCGH hat mehr "Gewicht" - möchte deine Mühen damit nicht schmälern. Hoffe du verstehst was ich meine.
 
Ach keine Sorge, ich tu nur so als wär ich "beleidigt" :)
 
Ich hatte mal grobe Schätzungen basierend auf Maxwell/Keppler Vergleich gemacht und kam auf ca. 30-35% Vorteil durch TBR.
Sollte TBR im finalen treiber funktionieren, wird Vega das Niveau einer 1080Ti custom Karte spielend erreichen können.
 
yurij schrieb:
Ich hatte mal grobe Schätzungen basierend auf Maxwell/Keppler Vergleich gemacht und kam auf ca. 30-35% Vorteil durch TBR.
Sollte TBR im finalen treiber funktionieren, wird Vega das Niveau einer 1080Ti custom Karte spielend erreichen können.

AMD hat TBR bisher noch nicht mal zum laufen bekommen.
Es ist immer noch möglich, dass AMD an TBR scheitert und es nie implementiert wird.

Die nVidia Architektur unterscheidet sich deutlich von GCN.
Wir wissen nicht, wieviel Nutzen AMD aus TBR ziehen kann, es könnte auch wesentlich geringer sein.

Die Verbesserungen von Maxwell auf Kepler beschränken sich nicht nur auf TBR.
Wieviel kommt von Architektur-Verbesserungen, wieviel von TBR?

Man sollte immer überaus vorsichtig sein mit seinen Prognosen.
 
Ja. Aber da Nvidia nicht sagt wieviel TBR bringt (wahrscheinlich wissen sie das selbst nicht so genau, ist von Szene zu Szene anders), ist eine Abschätzung besser als nichts. Ich habe die umrechung GFLOP bereinigt. Andere Architekturverbesserungen kann ich natürlich nicht isolieren, aber viel wird es i.d.r. nicht sein. Maxwell kocht auch nur mit Wasser, genau wie Keppler.. Andere Onlinemagazine sprechen von 20-50%
 
kisser schrieb:

Danke für den Link. Aus meiner Sicht bestätigt es, dass möglicherweise irgendwas mit der Karte nicht stimmt.

Vergleicht man nur mal Vega mit FuryX, indem man den Mittelwert aus den angegebenen Leistungssteigerungen bei den Spielen, 3DMark und Unigine Heaven, erhalte ich einen Wert von +23%.

Laut Test lief die Karte relativ stabil bei 1440MHz, was ein Plus von 37% gegenüber der FuryX bedeutet. Sicherlich wird eine reine Taktsteigerung nicht 1:1 in Gaming-Leistung übertragen, aber dennoch verwundert mich dieser Unterschied zwischen Taktsteigerung und Gamingleistung etwas.

Im Test wird auch erwähnt, dass die von AMD angegebenen 1600MHz erst durch OC erreicht wurden. Das deutet erst mal darauf hin, dass die GPU von dem PT eingeschränkt wird.
Schaut man sich jedoch dann den Abschnitt zur Leistungsaufnahme an, so könnte man auch hier etwas in Grübeln kommen (genauso wie der Tester im Review). Denn die GPU senkt bspl. bei Metro Last Light die Leistungsaufnahme von 280W auf Zustände bei 240W oder gar 200W. Nur hat die GPU dabei den Takt von 1440MHz nicht gesenkt, was man wohl erwarten würde. (" At 240 watts and 200 watts, the card was pulling less power, but interestingly, did NOT appear to drop the clock speeds during those intervals. That seems counter-intuitive to be sure, and we are still asking questions of AMD to figure out what is going on. ").

Erst als der Tester die Lüftergeschwindigkeit maximiert hat, war die Leistungsaufnahme durchgehend bei 290W. Nur wie gesagt, scheinbar werden gar nicht durchgehend 290W benötigt, damit die GPU ihren Takt von 1440MHz hält, sondern nur 240W oder 200W (bei Metro Last Light).

Insgesamt also irgendwie total merkwürdig oder hat jemand von euch dafür eine gute Erklärung?
 
Zuletzt bearbeitet:
Zurück
Oben