News Radeon Vega Frontier Edition: Einordnung der Spekulationen zur Spiele-Performance

@Cronos83: darum schreibe ich ja "nach aktuellem Wissensstand". Impliziert ja dass man nicht alle Informationen hat. Und solche Threads sind ja wohl dazu da um ein wenig zu spekulieren oder? Man muss ja nicht teilnehmen und kann sich von solchen Threads fernhalten, wenn einem das stört und man nur "Fakten" haben will oder?
 
Die Benchmarkwerte passen ziemlich genau auf das was man ohne die angepriesenen Vega Features erwarten würde.
Ich gehe weiterhin von einer RX Vega Gamingleistung aus, die auf Augenhöhe mit der 1080 TI liegt.
 
Und selbst wenn rx vega auf die leistung der 1080ti kommt, ist man hinsichtlich Effizient wieder stark abgeschlagen und das im Vergleich zur alten Generation. Volta kommt ja erst noch. AMD kann man somit nur wünschen, dass sie wenigsten den Abstand bei der Effizienz (aber auch bei der Performance) gleich halten können und der sich nicht noch weiter vergrößert.

@issenia: wenn das stimmt, sieht man leider, dass es stimmt, dass fehlende Konkurrenz den Fortschritt behindert. Schade.
 
Tja so Effizient sind die Custom GTX 1080Ti auch wieder nicht mit Ihren 300 W + Verbräuchen.
 
Shoryuken94 schrieb:
Der "große" Volta-Chip wird den Consumerbereich aller Wahrscheinlichkeit niemals erreichen, ebenso wie es der große Pascal-Chip nicht in den Consumerbereich geschafft hat.

nVidia wird - und ich gehe darauf jede Wette ein - für den Consumer und Workstationmarkt (CAD usw.) vermutlich erneut ein eigenen Chip entwickeln, der mit der aktuell vorgestellten Volta-Architektur bis auf ein paar Eckdaten (Shader, TMUs, ROPs) nicht viel gemein hat. Sie werden vermutlich zwar Verbesserungen einzelner Bestandteilen übernehmen, doch auf DP-Shader und Tensor-Cores werden wir als Consumer mit sehr hoher Wahrscheinlichkeit verzichten dürfen. Ebenso wird vermutlich dank dem internen Aufbau der Shader-Sturktur sogar weniger L1 und L2-Cache bei den Consumer ankommen.

Und vorsorglich: Schaut euch GP100 und GP102 genau an. Bis auf die gröbsten Daten (Shader, TMU, ROP) gibt es doch einige starke Unterschiede.
 
Ne entfesselte 1080 ti zieht sich auch 375w rein, Effizienz ist immer relativ zur Leistung zu betrachten. Ich bezweifle nicht das ne RX Vega noch mehr schlucken kann, aber ob das denn auch unbedingt nötig sein wird ist die Frage.

Fiji braucht für die letzten 10% Geschwindigkeit 100% mehr Strom, siehe Fury Nano.
 
Zergra schrieb:
Naja vergesse nicht das die CPU bei den 450 Watt auch dabei ist.

Und das PT auf Anschlag war.. gleichzeitig war die Kühlung am Limit, was die Leistungsaufnahme zusätzlich erhöt.
Das die Karte diese hohen Taktraten hält finde ich zunächst bemerkenswert. Ich glaube auch nicht das Vega RX hier noch deutlich Boden gut machen kann. Bleibt zu hoffen, dass hier treiberseitig noch was passiert.
 
Es muss einfach nur "endlich mal" ein Vega FE Käufer Doom in UHD benchen und wir wissen was Sache ist.
 
l_uk_e schrieb:
P/L Killer wohl kaum im Profibereich...Selbst ne Quadro P4000 ist ja besser und die kostet weniger.

Irgendwie hatte ich für die nen ganz anderen Preis im Kopf, deutlich höher, ka wieso. Irgendwas hab ich da verwechselt.
 
Das sieht nicht gut aus. War aber zu erwarten das Vega keine Offenbarung wird.
An die 1080 Ti kommt die eh nicht dran. AMD kann mal wieder nur über Preis punkten.
 
issenia schrieb:
Nur dass es keinen Volta Chip im Konsumerbereich geben wird, sondern einen Refresh von Pascal, der selber ein refresh von Maxwell ist.

Da wäre ich vorsichtig, dazu gibt es keine offiziellen Informationen. Zumindest wird es die Architektur auch deutlich kleiner und ohne HBM2 geben. Nvidias Xavier soll ja auch auf eine Volta GPU setzen. Mich würde zumindest stark wundern, wenn man Volta nicht auf die klassischen Grafikkarten bringen würde. Die wirklichen Neuerungen stecken ja eh in den tensor cores. Diese würde man wie die meisten FP64 Cores eh wieder weglassen. Die reinen Shader von Volta sind wahrscheinlich eh im Herzen Pascalcores in neuer Fertigung.

Das ganze ändert so oder so nichts daran, dass nvidia mit der neuen TSMC Fertigung deutlich mehr Shader bei ähnlichem verbrauch bringen kann. Selbst angenommen eine GTX 2080ti würden dann einfach noch mal 500 Shader draufpacken und auch wieder mit 2+Ghz laufen, dann würde Vega dagegen auch nicht ankommen. Alleine durch die fertigung hat Nvidia ja schon deutliche Vorteile.

Die Effizienz von pascal, obwohl es im grunde nur ein maxwell Shrink ist (und Maxwell ist schon starkk verwand mit Kepler) zeigt nur, was für einen riesen Sprung nvidia mit Maxwell gemacht hat. Teilweise haben Polaris 14nm GPUs Probleme die Effizienz von maxwell 28nm GPUs zu erreichen. Egal ob man nvidia nun mag oder nicht (ich finde es ist eine ziemlich arrogante firma), man muss anerkennen, dass sie technologisch ziemlich weit sind.

Tja so Effizient sind die Custom GTX 1080Ti auch wieder nicht mit Ihren 300 W + Verbräuchen.

Die Custom Modelle sind auch wesentlich schneller, als das thermisch limitierte Referenzdesign. Das ist doch bei den AMD Karten auch nicht anders, dass die Custommodelle teils deutlich mehr Saft brauchen. Solange die Leistung auch steugt, ändert sich an der Effizienz nicht viel. Nur der absolute verbrauch geht in die Höhe. Selbst wenn Chip a 500 Watt verbrauch und Chip b nur 300, Chip a aber doppelt so schnell ist, dann ist er trotz absolut höherem verbrauch effizienter.
 
issenia schrieb:
Nur dass es keinen Volta Chip im Konsumerbereich geben wird, sondern einen Refresh von Pascal, der selber ein refresh von Maxwell ist.
Ist alles auf THW nachzulesen. Und auf die ist meist Verlass.
http://www.tomshardware.de/pascal-volta-gtx2000,news-258178.html
Ich habe bereits bei der Vorstellung von Volta auf dieses mögliche Szenario hingewiesen und man wurde ich auf GameStar mit roten Daumen versehen und wurde fertig gemacht.

Ich wiederhole mich an der Stelle aber kurz: Volta als GV100 werden wir als Consumer nicht zu Gesicht bekommen. Wir werden aber einen GV102 und GV104 sowie GV106 zu Gesicht bekommen.

Verbesserungen an Shadern, ROPs und TMUs die mit GV100 eingeführt werden, werden wir wahrscheinlich auch bei GV102, GV104 und GV106 zu gesicht bekommen. Ansonsten:

GV100: 2 * SM (64 SP-Shader/32DP-Shader/8 Tensor) + 8 TMUs + 8 TAUs = 1 TPC.

Der GV102: 1 * SM (128 SP-Shader) + 8 TMUs + 8 TAUs = 1 TPC.

Ab da an werden beide wieder gemeinsam verlaufen: 7 TPC = 1 GPC. 6 GPC = GV100/GV102. Damit kommen beide am Ende beim Vollausbau auf: 5376 Shader, 336 TMUs, 336 TAUs. (Vollausbau).

Weitere Unterschiede werden beim L1 und L2-Cache finden zu sein.

-- Edit --
Ah mir fällt auf. Wenn der GV104 der Grundstruktur des GP104 und des GM104 folgt (4 * GPC/TPC), dann dürften wir uns auf ein GV104 mit ca. 3584 Shadern freuen.
 
Zuletzt bearbeitet von einem Moderator:
Einhörnchen schrieb:
Bis zum Vega Release ist es ja nicht mehr lange hin, solange kannst du nun ja noch warten ;)
Naja, woher weißt du das? ;-)
Bzw. noch besser gefragt, ab wann gibt es denn wirklich die Vega Gamer-Karten in breiter Verfügbarkeit? Wenn bis Ende des 2. Quartals nicht mal eine Ankündigung oder wenigstens ein fester Termin genannt wird, sondern nur "später" oder sowas, ist das schon bisschen enttäuschend für die ganzen Leute, die nun schon ein ganzes Jahr lang auf AMD Konkurrenz oberhalb der Mittelklasse warten.

Ich hatte halt schon gehofft, dass irgendwie mal zeitnah eine abgespeckte Version auf GTX 1070 Niveau oder leicht darüber erscheint, die aber auch in einem kompakten Gehäuse noch zu bändigen ist... wenn aber die Vega-Karten in allen Versionen weit über 200 oder gar 300W TDP haben werden, dann sehe ich da eher schwarz.
Wäre auch bisschen schade, denn gerade mit so einer lange speziell entwickelten, mehrfach hochgelobten neuen Architektur sollte es doch möglich sein, Karten zu produzieren die 1 Jahr nach RX480 Release den gleichen Verbrauch/Abwärme haben, dabei aber 40-50% schneller sind.
Wenn die Mehrleistung aber fast 1:1 mit dem Mehrverbrauch skaliert, wäre in meinem kompakten Gehäuse eine GTX 1070 oder 1080 wohl die bessere Wahl.

Einhörnchen schrieb:
Für 4K hast du eine 1070 in Erwägung gezogen?
Ja, reicht mir vollkommen aus ... denn 1. brauche ich nicht überall "ultra", oft sieht "High/Very High" nicht wirklich schlechter aus, außerdem reichen mir 40-60fps aus (da wär Freesync halt gut, weil das mein Monitor hat), weil ich keine competitive Shooter spiele und auch aus dem Grund sind die Anforderungen auch nicht so extrem, sodass eine 1070 da schon in Ordnung geht
 
Hat sich hier irgendwer mal die Wattman Einstellungen für den 'Benchmark' genau angesehen?
AMD-Radeon-Vega-Frontier-Edition-Clocks.jpg

Die letzten 3 P-States auf 1602MHz, wer macht den bitte sowas?? Und den davor auf 1342MHz!:rolleyes:

Ist vollkommen klar daß die Karte mit den Erstlingstreibern mächtig Leistung aufnimmt und demzufolge stark drosselt...
 
forumuser05 schrieb:
Ich ärger mich auch gerade, dass ich mir nicht vor gut einem Monat noch eine GTX 1070 geholt habe, so eine MSI Armor oder ITX Variante inkl. 30 Euro Cashback und man lag bei 350€ ... davon kann man jetzt nur noch träumen, die Preise sind ja teilweise höher als zum Release :-D

Und gerade weil sich das mit dem Vega-Release wie ein sehr zähes Kaugummi hinzieht, wär das echt besser so gewesen.
Da kann man nur hoffen, dass die "Gaming"-Vega deutlich mehr zu bieten hat, denn so ein bisschen geht es gerade in die Richtung der tollen RX480 CF Präsentationen ... man bekommt GTX1080 Leistung für 300W TDP (2x 150W) zum GTX 1080 Preis (das wissen wir noch nicht, aber viel günstiger vermutlich auch nicht, schließlich gibts ja die 1080er für 500€), nur halt dann in einer Karte und nicht im Crossfire ... dafür aber so wie es aussieht eben auch nur 8GB Speicher und bei den derzeitigen Bedingungen mit HBM2 auch wie immer mit sehr schlechter Verfügbarkeit zu Beginn :-(
Es spricht ja schon Bände, dass auch der Juni jetzt komplett rum ist und nicht mal konkrete Preise und Veröffentlichungs-Zeitpunkte genannt werden ... einfach die Leute im Unklaren lassen und hoffen, dass sie weiter brav warten.

Wenigstens bin ich meine RX480 jetzt für 340€ losgeworden, hat sich das ganze also doch schon mal gelohnt ^^
nur pfeift die für 45€ als Ersatz geholte GTX660 gerade bisschen aus dem letzten Loch am 4K Bildschirm...

Scheiße, wenn ich das boß früher gewußt hätte, daß war nämlich meine Schmerzgrenze. Mist aber auch.
 
forumuser05 schrieb:
Ja, reicht mir vollkommen aus ... denn 1. brauche ich nicht überall "ultra", oft sieht "High/Very High" nicht wirklich schlechter aus, außerdem reichen mir 40-60fps aus (da wär Freesync halt gut, weil das mein Monitor hat), weil ich keine competitive Shooter spiele und auch aus dem Grund sind die Anforderungen auch nicht so extrem, sodass eine 1070 da schon in Ordnung geht

Na wenn Du meinst, wieso bestellst Du keine vor (mit Preisgarantie), wie diese hier bspw.:

https://www.amazon.de/dp/B01INKRH2M...H2M&childASIN=B01INKRH2M&tag=geizhalspre03-21

Der Preis ist auch in Ordnung und nicht als heftig ueberhoeht anzusehen wegen des Mining-Booms, die Bauweise auch eher als kompakt einzustufen ... also eine Ausrede das nicht zu tun hast Du eigentlich nicht, ausser vielleicht, dass die Karte nicht direkt lieferbar ist, aber so lange sollte es nicht dauern bis Verfuegbarkeit vorhanden ist und wenn RX Vega doch frueher verfuegbar waere, kannst Du die Order auch sofortig stornieren ;).

Mir persoenlich waere eine GTX 1070 fuer WQHD Downsampling (von UHD und 60 fps in High Settings ganz zu schweigen) jetzt/mittlerweile schon zu wenig, also Leistung auf GTX 1080 Niveau sollte schon sein ... die Leistungsanforderungen werden nicht geringer werden ...
 
Der Game-Modus im aktuellen Treiber für die Vega FE verändert lediglich das PT-Limit und die Lüfterkurve. Aktiviertes ECC für HBM und fehlendes TBR tun ihr übriges. Also warten, bis RX Vega für den Spielemarkt erscheint, samt den Features, die mit GCN5 eingeführt werden. Die einzig interessante Frage in Bezug auf RX Vega FE ist: Wie attraktiv ist die Karte für Kunden aus dem Bereich Data Center, Virtualization und VR? Wenn ich mir die offizielle Seite von AMD zur FE ansehe, dann sehe ich lediglich Leistungsangaben für professionelle Software, die sich an Spieleentwickler und VR-Creator richtet.
 
Zurück
Oben