News 3DMark 11: Potentielle Radeon RX Vega mit 8 GB und 1.630 MHz

Somal ja auch die Frage wäre wieso AMD nicht einfach Polaris weiter als Grundlage genommen hätte, statt eines Fiji Shrinks. Das macht hinten und vorne kein Sinn. Wird schon noch was kommen Ende des Monats. Werd gleich mal vorbestellen, bevor die ganzen Miner kommen ;-)
 
Fiji und Polaris unterscheiden sich kaum. Genau genommen unterscheiden sich alle GCN Karten nicht wirklich. AMD wirbt zwar mit GNC Gen X aber schaut man sich die Shader an sind diese seit der HD7970 tupfen gleich.

Vega ist neu. Das erste mal seit GNC ändert man die Shader (angeblich). Das zeigt sich auch in der Größe.
Ergänzung ()

HD7970:
GCN_CU.jpg


Hawaii:
AMD-Hawaii-GCN-Architecture-Compute-Unit.jpg


Polaris:
amd-cu-gcn4-architecture.png


Fällt auf oder ? ;)

Die Leistung / Performance kannste auch fast 1:1 über die Anzahl der Shader seit HD7970 skalieren.

Vega dürfte anders aussehen. Bei Fiji hat man gemerkt dass die 4096 Shader zwar brachiale theoretische Performance bringen, aber die Auslastung einfach zu schlecht ist. Vega hat die gleiche Anzahl an Shadern (vielleicht mit neuem Design) und wird eher die Auslastung dieser als Ziel haben. Auch im Hinblick auf die Zukunft. Man will ja demnächst auch 8000 Shader gut auslasten können.

Nicht umsonst ist Vega die größte Änderung am GPU Design seit der HD7970. Deswegen kann die Performance auch kaum abgeschätzt werden. Sowas kann immer nach hinten und vorne losgehen. Neustes Beispiel ist Skylake X. Auch da mag die Änderung am Mesh, Cache usw teils Vorteile bringen, teils aber auch massive Nachteile.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Das kann doch nicht ernsthaft gewolltes Marketing sein.

Ich hoffe es ist wie bei Ryzen ein erster technischer Test. Auch bei Ryzen gab es zu beginn einzelne Ergebnisse, die aber das fertige Produkt dann noch mal übertroffen hat.
 
Ryzen gab es vorab Cinebench Benches in denen man von Beginn an geglänzt hat. Es gab generell überhaupt was handfestes was Optimus auf ein gutes Produkt geschürt hat.
Bei Vega hat man eher den Eindruck als täte AMD alles für einen möglichst schlechten VEGA Geschmack zu hinterlassen.
 
Zuletzt bearbeitet:
Wer sagt, dass es sich bei 687F:C1 zwangsläufig um RX Vega mit 4096 Shadern handelt?! Dabei könnte es sich doch genauso gut um eine Art Pro-Variante mit weniger Shadern handeln. Es gab doch nämlich die News, dass 687F:C3 der Vollausbau sei ;).
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Fällt dir noch ne GPU dieses Jahrtausend ein die >12 Monate zu spät für die Konkurrenz kommt, >500mm² die Leistung von 320mm² aufwiegen bei gut >50% mehr Verbrauch beim Einsatz von revolutionärem Speicher der das x fache kostet (+ Fläche und Leistung sparen soll) ? Das ist imho das was Vega aktuell zeigt und wäre in meinen Augen der versiebteste GPU Launch der letzten 17 Jahre. ;) ... Performance >1080 TI ist genau das auf das mein PC wartet und da steck ich AMD dann auch gern 700€ für in Hals. :D

Schöne Zusammenfassung, nur mach' Dich wegen der kursierenden Gerüchte nicht verrückt, in ca. 3 Wochen dürften wir endlich mehr wissen und am Ende ist alles meist wieder anders als vorher "geleakt"/gerüchteweise gehandelt ;).

Also wenn Du eine 16 GB Version der RX Vega Vollausbaus anpeilen solltest, bezweifle ich stark, dass Du diese für einen 700 Euro Schnäppchenpreis (im Vergleich zur GTX 1080Ti mit bewusst verknappten 11 GB und natürlich einer Titan Xp mit gerade einmal 12 GB GDDR5X) bekommen wirst können, ich denke eine 16 GB Limited Edition wird eher bei 900+ Euro liegen und man lässt sich das von Speicherfetischisten vergolden.

Falls HBM2+HBCC wirklich ordentlich funktionieren sollte, dann dürften 8GB HBM2 mehr als ausreichend für die kommenden 4+ Jahre sein, also mir werden 8GB (vorausgesetzt HBM2+HBCC funktioniert, aber wieso sollte es nicht?) vollkommen ausreichen und 16 GB HBM2 sind kompletter Overkill und für echte Enthusiasten sowieso wenig sinnvoll, da diese spätestens 3 Jahre später wieder eine neue GPU kaufen dürften.


Schaut 'mal hier:

Feature-levels-in-Direct3D-Wikipedia.png

Nicht nur wird DX 12_1 Feature Level jetzt erstmalig mit GCN5/NCUs unterstützt - was definitiv für gesteigerte DX12 Leistung verantwortlich sein sollte, sobald im Treiber implementiert - sondern auch FP16 Gleitkommaberechnungen und in dem Bereich dürfte RX Vega richtig Bums haben, mit 26+ TFLOPS wird hier gerechnet.

Ratlosigkeit macht sich auch bei PC-Per breit :p :D:

https://www.youtube.com/watch?v=2NWKWaz-vsU

Ich habe irgendwie das Gefühl, dass AMD/RTG/Koduri die meisten "Spekulanten" foppt, um RX Vega deutlich besser dastehen zu lassen, als die GPUs derzeit gehandelt werden, aber wer weiss, ich kann mich auch gewaltig täuschen.

Interessant ist zudem, dass es scheinbar keinen Leistungsunterschied zwischen Vega FE Game und Pro Modi gibt.

gaming-vs-pro-vega-specviewperf.png

Ich würde dass aktuell so deuten ,dass der Game Modus noch gar nicht läuft/aktiviert ist (womit sich die fehlende Rasterization, usw. erklären lasen), weil der entsprechende Treiber bei AMD noch in der Mache ist (für den RX Vega Marktstart und rückwirkend für Vega FE Käufer).
 
Zuletzt bearbeitet:
Chismon schrieb:

hmmm also ganz ehrlich, die ganzen Feature level sind eigentlich Schrott .... man sollte nicht mit denen Werben dürfen, solange nicht voll alles unterstützt wird oder nur durch Tricks (wie bei Nvidia zu das Featurelevel durch den Treiber bei den AS ) erreicht wird.

Entwerder ganz oder ganz nicht.
 
Sebbi schrieb:
... ganz ehrlich, die ganzen Feature level sind eigentlich Schrott .... man sollte nicht mit denen Werben dürfen, solange nicht voll alles unterstützt wird oder nur durch Tricks (wie bei Nvidia zu das Featurelevel durch den Treiber bei den AS ) erreicht wird. Entweder ganz oder ganz nicht.

Da hast Du natürlich in gewisser Weise recht, dass die Aussagekraft des Feature Levels begrenzt ist, wenn es sich anderweitig umgehen lässt und diese in der Mehrheit der Spiele sowieso noch nicht Anwendung finden bzw. ausgereizt werden.

Allerdings dreht es sich hier ja hauptsächlich um die Rasterization und man hat eben FP16 Nutzung den nVidia Karten wohl voraus ... die Frage ist dann allerdings wie relevant das sein wird und wie oft das Anwendung findet und wieviel das im Einzelfall bringen kann/wird.
 
Chismon schrieb:
Ratlosigkeit macht sich auch bei PC-Per breit :p :D:

Witzig finde ich, dass sie TBR einen Effekt im einstelligen Prozentbereich vorhersagen. Dann frage ich mich aber, wie hat Nvidia es geschafft trotz gleichem Prozess von Kepler auf Maxwell nicht nur massiv die Performance zu steigern, sondern weniger zu verbrauchen UND auch noch bei nem kleineren Chip? So massiv war die Architekturveränderung nämlich nicht. Man hat den L2-Cache massiv aufgebohrt, um für TBR "fit" zu sein. AMD macht ja mit Vega das Gleiche.....hmm...
 
Zum Krautmaster noch Mal der ja immer ausschweift und nahezu panisch a4 Blöcke an belanglosem Text als Antwort Postet:
Was bringt dir eine etwas schnellere GPU wenn sie nicht durchhält ?
Im Subforum : Probleme mit Nvidia häufen sich threads von abgerauchten GTX 10X0 Karten
Einem ist die 1070 3 Mal in 3monaten gestorben
*Krautmodus äähh bashing Modus einer anderen Partei an*
Daraus lässt sich schließen das Nvidia bei der Produktion geld sparen muss infolge des Leder fetisch ihres CEO somit werden wichtige Komponenten absichtlich minderwertig gebaut . Zudem werden die aktuellen gpus schon künstlich gedrosselt




Merkst was ? Absolut provozierender und überzogener Text sowie all deine 16 k Beiträge

Bitte verschon die nächste AMD News..
 
Zuletzt bearbeitet:
AMD hatte doch mal nen Benchmark gezeigt, wo Doom in 4k ultra mit 60+ fps lief, was 10-20% schneller ist als auf der FE, und das war im Januar.

Oder habe ich das falsch im Hinterkopf?
 
Krautmaster schrieb:
Ryzen gab es vorab Cinebench Benches in denen man von Beginn an geglänzt hat. Es gab generell überhaupt was handfestes was Optimus auf ein gutes Produkt geschürt hat.
Bei Vega hat man eher den Eindruck als täte AMD alles für einen möglichst schlechten VEGA Geschmack zu hinterlassen.

Ja und was gab es bei Ryzen trotz handfester Benchmarks ??

Kritiker die nicht glauben was in den Benchmarks steht, weil Cherry Picking der Fall sein könnte :D

Schließlich hast du den Eindruck, dass sie einen möglichst schlechten Eindruck hinterlassen wollen.



Ich habe hingegen den Eindruck, dass man einfach wieder ( wie bei Ryzen) bewusst niedrig stapelt um die Nvidianer auf eine falsche Fährte zu locken.

Warum sonst hat AMD erst die VEGA FE auf den Markt gebracht ?

Warum sonst hat Fiji dieselbe IPC wie Vega obwohl Vega soviele Neuerungen haben soll ? Da fehlen definitiv Features.

Taktbereinigt ist Vega schließlich keinen Deut schneller als Fiji.... Warum hätte man sonst nicht einfach einen Shrink gemacht wie es bei Pascal der Fall war und einfach Fiji neuaufgelegt ?

Das ist viel zu viel widersprüchliche Information....

Da ist doch was in den Argen oder willst du das nur nicht sehen ?
 
Joa wie gesagt hoffen wir das alle Vega Benchmarks sei es leaks oder FE bisher fürn Arsch sind wegen Treiber.

Ich sah bei Ryzen viel aber mit Sicherheit kein "niedrig stapeln"
 
Zuletzt bearbeitet:
Rock Lee schrieb:
... dass sie TBR einen Effekt im einstelligen Prozentbereich vorhersagen. Dann frage ich mich aber, wie hat Nvidia es geschafft trotz gleichem Prozess von Kepler auf Maxwell nicht nur massiv die Performance zu steigern, sondern weniger zu verbrauchen UND auch noch bei nem kleineren Chip? So massiv war die Architekturveränderung nämlich nicht. Man hat den L2-Cache massiv aufgebohrt, um für TBR "fit" zu sein. AMD macht ja mit Vega das Gleiche.....hmm...

Ja, eine einstellige Zunahme bei der Rohleistung wäre schon ziemlich mau, hoffen wir, dass der TBR Einstieg bei AMD mindestens so leistungssteigernd wird wie zu Maxwell Zeiten bei nVidia, bei der Effizienz wird es vermutlich weniger werden weil man noch viel mehr weitere Neuerungen (HBM2+HBCC, Primitive Shaders, hardwareseitiges AsyncComp, usw.) gleich mit im Gesamtpaket haben dürfte.

Dann, ja dann könnte nVidia mächtig der Wind ins Gesicht blasen und vielleicht bleiben dann die Pascal Refresh oder Volta-GPUs nur gerade einmal so/unwesentlich vor den AMD RX Vega GPUs mit ihrer vergleichsweise vermutlich eher altbackener Architektur, wer weiss?

Ein große resultierende Leistungslücke zur RX 580 und deutlich höhere Effizienz bei etwas geringerer Leistung könnte dann ja Anfang kommenden Jahres mit einem Klein-Vega(11) Chip gestopft werden.

Gut wäre es für die Kundschaft in jedem Fall und es ist schade, dass AMD/RTG solange gebraucht hat um TBR endlich auch in deren GPUs zu implementieren, aber dafür soll es ja - im Gegensatz zu den aktuellen nVidia GPUs schon Stufe/"Tier" 3 bei der "Conservative Rasterization" sein (bei Tiled Resources zieht man gleich bzgl. Stufe/"Tier" 3 und implementiert erstmalig "rasterizer ordered views").

Basierend darauf dürfte der Architekturumbau zu GCN5/NCUs schon ziemlich massiv ausfallen und ich gehe auch nicht davon aus, dass in ca. 3 Wochen alles reibungslos zum Marktstart implementiert sein wird (aber damit müssen Early Adopter i.d.R. ja sowieo immer leben, wenn sie Produkte vorbestellen bzw. direkt zum Marktstart kaufen, wie jetzt eben auch bei der Vega FE, wo ich mir vorstellen kann, dass erst zum Erscheinen von RX Vega ein richtiger Gaming Treiber - und somit ein sich vom Pro Modus wirklich unterscheidender Gaming Modus - nachgereicht wird).

Denn dafür ist die Architektur der Vega-GPU-Generation zu weitläufig rundumerneuert, wenn auch vielleicht nicht so extrem wie es bei RyZen der Fall war, aber dort hat es ja anfänglich auch noch ausbesserungswürdige Kleinigkeiten gegeben.

Es bleibt zu hoffen, dass sich doch ein mächtiger Leistungs- und Effizienzzuwachs bei RX Vega zeigen wird im Vergleich zu den vorherigen GCN-Generationen und dass spätestens zum Pascal Refreshs/Volta Marktstart der Konkurrenz alle möglichen/störenden "Kinderkrankheiten" bei RX Vega ausgeräumt worden sind.
 
Zuletzt bearbeitet:
Also für derart hohe Taktraten sehe ich für die RX Vega schwarz, Profi-Overclocker berichten, dass sich die Vega FE (derselbe Chip) auch mit 450 Watt Power-Target stabil nicht weiter als 1650 MHz übertakten lässt, sie läuft ins power Limit und braucht noch mehr Leistung.
Der Vega-Chip wir wohl selbst bei Stock weit über dem Optimum betrieben.

https://www.twitch.tv/videos/157583411?t=3h02m45s
 
Zuletzt bearbeitet:
ich hoffe das braucht sie gar nicht sobald der Treiber sie richtig unterstützt. Bisher setzt AMD ja 0 von dem vermeintlichen riesigen Plus an Transistoren (zu Fiji) in Gaming Performance um. 3 Wochen wissen wir hoffentlich mehr.
 
Zuletzt bearbeitet:
Wir sollten uns zurücklehnen und den Kampf zwischen Nvidia und AMD genießen. Je härter die Beiden kämpfen desto besser kommen wir Konsumenten davon.

Ganz nüchten betrachtet: AMD muss eine Karte raushauen die 300 € kostet und mit einer 1070 mithalten kann ODER eine Karte die weniger als eine 1080 TI kostet und zudem stärker ist.

Alles andere macht für uns keinen Sinn, eine solche Karte zu kaufen. 500 € werde ich für Vega nicht ausgeben wenn sie gerade so eine 1080 schlägt. Dann warte ich einfach auf die nächste Nvidia Karte. Klar ist der neue Speicher für AMD teuer, aber solange sie keine Konkurrenzfähigkeit aufweisen können ist mir das schnuppe. Will weniger Geld zahlen für eine bessere 1080/1080 TI oder ich will deutlich mehr Leistung!

Sollen sie mich überraschen oder ich ersetze meine GTX 670 einfach durch die neue Nvidia Karte.
Hat jemand eine Vermutung wann ich mit einer Nvidia Karte rechenn könnte?
 
Zurück
Oben