News AMD Radeon Vega: Frontier Edition fotografiert und ab heute erhältlich

Wer glaubt denn 4 Wochen vor dem Start der RX Vega noch an unfertige Treiber?
Die Frontier hat doch auch einen Gaming Modus, dafür gibt es doch auch frische Treiber dafür.
Sollten die GCN 5 Optimierungen zum jetzigen Zeitpunkt noch fehlen, dann kommen diese auch nicht in 4 Wochen.
 
Jaja, das böööse AMD. Kaum Entwicklungsgelder und die bescheuerten Käufer springen schon deshalb ab, weil Karten mit X Leistung halt mal etwas mehr Strom verbrauchen als die NVidia Konkurenz.
Und auf dieser Grundlage sollen dann gefälligst wieder neue, absolut konkurenzfähige Karten entstehen, die NVidia in nichts nachstehen.
Und das natürlich auch jetzt und gleich.

Ehrlich, dieses bescheuerte Denken geht einem irgendwann so richtig auf den Sack. Wenn ihr der Meinung seid, dass NVidia sooooo viel toller und besser ist, dann kauft halt deren Karten und gut ist.
Tut ihr doch sowieso.

Das dauernde Lammentieren über AMDs Schwäche ist doch nur ein Spaß für euch.

Ich persönlich bin mit meiner RX480 8GB sehr zufrieden.
 
1) Fury (X) ist in der Tat ein wahres Monster, solange das Tonga-Frontend nicht limiert. Ein größeres hätte aber nicht in den Chip gepasst.
2) Polaris lässt sich sehr einfach ordentliche Trinkmanieren beibringen, an der Stelle ist es aber mE die Erwartungshaltung der Tech-Presse und (vieler) Käufer. 10% schlechter als das Konkurrenzprodukt? Unbrauchbar!
 
stoneeh schrieb:
Seit der Einführung von GCN folgt bei AMD eine Schlaftablette nach der anderen.. der letzte gute Leistungssprung war von der HD4000 auf die HD5000 Serie.

So anders lief das bei Nvidia auch nicht..


3870>4870 = 63%
4870>4890 = 21%
4890>5870 = 52%
5870>6970 = 16%
6970>7970 = 36%
7970>290X = 30%
290X>390X = 8%
390X>FuryX = 14%


Im gleichen Zeitraum bei Nvidia

9800GTX>280 = 35%
280>285 = 9%
285>480> 68%
480>580 = 16%
580>680 = 33%
680>780 = 21%
780>980 = 24%
980>1080 = 60%

Man kann also auch sagen, Nvidia hat erst mit der 1080 seit Langem wieder einen größeren Sprung gemacht.
Mal sehen wie der Sprung von Fury X zu RX Vega aussieht.

Cuxnase schrieb:
Sollten die GCN 5 Optimierungen zum jetzigen Zeitpunkt noch fehlen, dann kommen diese auch nicht in 4 Wochen.
Diese Optimierungen fehlen nicht wegen dem Zeitpunkt, sie sind schlicht nicht im Treiber für die FE enthalten
 
Zuletzt bearbeitet:
Cuxnase schrieb:
Wer glaubt denn 4 Wochen vor dem Start der RX Vega noch an unfertige Treiber?[...]

Hier, ich. Ist doch in der Branche mittlerweile Gang und Gäbe. Spiele werden auch mit dem Goldstatus versehen und zum Pressen gegeben 'lange' bevor der Endkunde sie kaufen kann oder sie fertig sind (fertig sind in meinen Augen meistens erst die Game of the Year Editions). Dann wird noch ein paar Tage oder Wochen fleißig an einem Day One Patch gearbeitet und die Bananensoftware hat ihren Zweck erfüllt.

Warum soll man die Vega Karten nicht produzieren und verschicken und die Zeit bis beides erledigt ist nutzen, um gemütlich weiter an den Treibern zu arbeiten?
 
Cuxnase schrieb:
Wer glaubt denn 4 Wochen vor dem Start der RX Vega noch an unfertige Treiber?
Wenn der gute Herr einen Treiber vom Januar verwendet, kann man schonmal einen unfertigen Treiber vermuten ;)
 
AMD macht keinen hehl draus, das sie die game- ing treiber noch zurückhalten!
 
Zuletzt bearbeitet:
McLovin14 schrieb:
Ca auf dem Niveau einer 1080. Und trotz 1,5 fachen Takts bei gleicher Shaderanzahl nur 1,2 - 1,3 mal schneller als Fury (X).

naja aber sowas grenzt an Unsinn, imho gibt es herzlich wenig außer ein CPU Limit was für schlechtere Skalierung spricht.
 
Schm1ddi schrieb:
Wahre Worte. Is halt so^^
Kannst doch nicht so ehrlich sein^^

Was jetzt kommt, ist nicht an dich gerichtet - nehme aber gerne dein Zitat mit^^

Das ist genau das was ich meinte mit RX570@ Crossfire Leistung - nur die "Oberklasse" will und kann es nicht verstehen weil sie die extremsten Fanboys sind. Fakten sind Fakten.
Und Fakt IST das viele technische Details nunmal zweier RX570 einer VEGA gleichen.

...

Ich sag nur eins, warte ende Juli ab. Aber ich gebe 99% der User recht du postest nur Unwissenheit. Keiner kann was vernüftiges sagen, bis Vega for Games veröffentlicht wurde. Also halt dich bitte bis dahin geschlossen. Danke.
 
Zuletzt bearbeitet: (Zitat gekürzt:))
So schlecht ist das Ergebnis gar nicht, ohne jeglichen Gaming Treiber knapp über der 1080 zu sein.

Screenshot 2017-06-29 00.51.58.png

Dafür, das hier wie gesagt noch keinerlei Game- bzw. in diesem Fall Benchmark-spezifische Optimierungen (gerade bezüglich der GCN5-Features) vorliegen, ist das Ergebnis schon ganz praktikabel: Die Radeon Vega Frontier Edition erreicht unter allen drei Auflösungen ein leicht besseres Niveau als die GeForce GTX 1080, kann sich damit in jedem Fall klar von GeForce GTX 1070 und Radeon R9 Fury X absetzen. Die GeForce GTX 1080 Ti ist allerdings noch zwischen 22-27% von der RV-FE entfernt – dies ist damit jene Differenz, welche AMD über die angepassten Gaming-Treiber noch herausholen muß. Eine solche Aufgabe erscheint nicht als unmöglich, denn ohne sinnvolle Gaming-Treiber ist die Performance aller modernen Grafikkarten immer ziemlich mau

Quelle http://www.3dcenter.org/news/erste-3dmark13-benchmarks-zur-radeon-vega-frontier-edition-aufgetaucht

Ach und dann wirft AMD mit den RV-FE-Spezifikationen auch eine neue Kenngröße in die Runde: Der "Typical Engine Clock" der Karte liegt bei 1382 MHz
 
Zuletzt bearbeitet:
Hier betrachten einige die Sache sehr subjektiv. Es tauchen Thesen über Architektur auf, Aussagen AMD´s werden von einigen ignoriert, andere legen sehr viel Hoffnung darauf. Der Hahnenkampf ist vorprogrammiert^^

Wir müssen doch nur noch 1 Monat abwarten dann wissen wir mehr.
Ansonsten kann ich nur AMD´s Aussagen trauen das diese Karte nicht für den Gamer ausgelegt ist, sondern an den Entwickler, der mal eben schnell am selben Rechner was testen kann.

Sollte die Vega für Gaming die 1080 Ti schlagen oder nicht sehen wir dann. Dann machen solche Diskusionen mehr Sinn ( wenn es mal Diskusionen wären )

Und Volta alias Maxwell Refresh refreshment und Vega 20 alias 2x 580er stehen auch bald vor der Tür ;)
 
Und ganz ehrlich selbst wenn Vega die 1080ti nicht schlagen kann wird die Welt auch nicht unter gehen.
Es wird Leute geben die mit der Leistung von Vega zufrieden sind und AMD kaufen eventuell auch weil man sich ein paar Euro sparen kann und es wird Leute geben die Nvidia kaufen.

Und selbst wenn Vega 20% schneller wäre und trotzdem günstiger als die 1080ti würden immer noch Leute Nvidia kaufen.
Es macht also kaum einen Unterschied wie schnell Vega ist oder auch nicht ist.
 
Zuletzt bearbeitet:
Taxxor schrieb:
So anders lief das bei Nvidia auch nicht..

Nvidia hat halt mit der Kepler, Maxwell und Pascal absolute Meisterstücke abgeliefert, die in jeder Hinsicht der Gipfel der Technik waren/sind. Bis Fermi/Tesla war AMD/ATI eh über Jahre vorne.

karl_laschnikow schrieb:
Aussagen AMD´s werden von einigen ignoriert

Oder auch erklärt, und die Erklärungen ignoriert ;) -> https://www.computerbase.de/forum/t...ute-erhaeltlich.1692170/page-15#post-20215470

TheTrapper schrieb:
Ach und dann wirft AMD mit den RV-FE-Spezifikationen auch eine neue Kenngröße in die Runde: Der "Typical Engine Clock" der Karte liegt bei 1382 MHz

Was wird dann wohl der Unterschied zwischen dem normalen und dem Gaming Modus bei der Vega FE sein? Dass sich die Shader umkonfigurieren wie ein Transformer und die Karte zum ultimativen Gamingmonster wird?
Offensichtlich wird nix anderes passieren, dass ein anderes Takt-, Voltage- und Lüftermuster geladen wird. Im Workstation Betrieb muss die Karte halt leise sein, und dann werden die "typical engine clock" von 1382 MHz schon stimmen.

Auf Videocardz werden alle gestesteten Karten im Gaming Modus mit den vollen 1600 MHz angegeben: https://videocardz.com/70541/amd-radeon-vega-frontier-lands-in-the-hands-of-the-first-owner

Die AMD Hypemaschine ist hart am arbeiten, und der User lernt wieder und wieder und wieder nichts. Könnt ihr euch zB noch an die versprochenen 2,8x Performance/Watt zu Fury erinnern? Und dann kommt die neue Karte genauso mit nem 2x8 PIN Stecker wie die alte, mit 300 bzw 375w TDP, wird von Haus aus gleich mit ner Wasserkühlung angeboten - haha, das Ding könnt ihr im Winter zum heizen benutzen!

Man sollte halt irgendwann die Kapazität zum lernen haben.

Volta kommt in ein paar Monaten mit 5072 Shadern vs den 3584 Shadern des Pascal-Topmodells (1080 Ti). Bin mir sicher bis dahin holt AMD noch die nötigen ~70% via Treiber auf :D
 
stoneeh schrieb:
.......
Volta kommt in ein paar Monaten mit 5072 Shadern vs den 3584 Shadern des Pascal-Topmodells (1080 Ti). Bin mir sicher bis dahin holt AMD noch die nötigen ~70% via Treiber auf :D


Schwachsinn. Bleib mal bitte Reallistisch.
 
Das wird aus dem tollen Volta:


GPU-Beschleuniger für den Einsatz in Servern haben sich für Nvidia zu einem wichtigen Geschäftsfeld entwickelt. Die letzten Architektur-Generationen wurden zunächst in Form eines Highend-Grafikchips vorgestellt, der für den Einsatz auf einer Server-Karte bestimmt war, bevor sie auch für Grafikkarten für Desktop-PCs adaptiert wurden.
Bei der kommenden Volta-Architektur könnte sich diese Herangehensweise erneut ändern: Die auf dieser Architektur basierenden GPUs könnten ausschließlich für die Nutzung in Hochleistungsrechnern gedacht sein. Denn die Chips sollen zu sehr auf Anwendungsszenarien im Bereich der Künstlichen Intelligenz und des Maschinellen Lernens optimiert worden sein, sodass sie sich nicht mehr für eine Nutzung bei klassischen Grafikkarten eignen. An dieser Stelle soll Nvidia stattdessen dem Beispiel Intels folgen und auf eine Tick-Tock-Strategie setzen.
Privaten Anwendern soll also eine optimierte Version der Pascal-Architektur geboten werden, die mit einer verringerten Strukturbreite aufwartet und im 12-nm-FinFET-Verfahren von TSMC gefertigt wird. Beim Grafikspeicher scheint der Hersteller - wie sich bereits zuletzt abzeichnete - weiterhin auf den GDDR5X-Standard zurückgreifen.
Gänzlich unwahrscheinlich ist ein solcher Schritt nicht: Die leistungsstarken Grafikkarten der GTX-1000-Serie treffen bisher auf keine ernstzunehmenden Konkurrenten. Die kommenden RX-Vega-Karten von AMD sollen zwar (unter erheblichem Energieeinsatz) mithalten. Ein großer Leistungssprung scheint sich jedoch nicht anzudeuten. Zudem kursierten bereits Anfang des Jahres Gerüchte, die eine GTX-2000-Serie in Aussicht stellten, die auf einer optimierten Pascal-Architektur basiert.

Und was weiß m an vom 12-nm Verfahren? Ein nur Kostenoptimierter 16nm ...

Daher rührt wohl auch der tolle Spruch von AMD: Poor Volta - wohl darauf bezogen, dass mehr auf Energiebedarf als auf Leistung gesetzt wird und dahingehend nicht viel kommen wird. Naja Speku halt, die zufällig passt.

http://www.tomshardware.de/pascal-volta-gtx2000,news-258178.html
 
Zuletzt bearbeitet:
TheTrapper schrieb:
So schlecht ist das Ergebnis gar nicht, ohne jeglichen Gaming Treiber knapp über der 1080 zu sein.

Anhang anzeigen 630362



Quelle http://www.3dcenter.org/news/erste-3dmark13-benchmarks-zur-radeon-vega-frontier-edition-aufgetaucht

Ach und dann wirft AMD mit den RV-FE-Spezifikationen auch eine neue Kenngröße in die Runde: Der "Typical Engine Clock" der Karte liegt bei 1382 MHz

Eben. Zumal zu RX Vega Gaming noch nichts weiteres bekannt ist. Ob die Karte sich vom Aufbau her an der FE orientiert oder ob das mehr in Richtung Fury Nano/X geht samt AiO, kürzeren PCBs, etc. geht. Weiß derzeit keiner. Laut Kodori soll die Gaming Variante auch höher takten können als die FE. Was die Custom-Modelle bringen werden, weiß auch keiner. Aber hier verstehen einige nicht, dass Game Mode != Gaming-Treiber bedeutet. Die 22-27% zur 1080Ti klingen erst einmal viel aber letzten Endes weiß niemand wie sich die Veränderungen der Architektur mit den GCN5-Features auf Spiele auswirkt. AMD hat ja auch an einer verbesserten Shader-Auslastung gearbeitet. Aber hier gibt es wieder Experten, die meinen, sie wüssten direkt wie schnell die Karte sein wird. Für die FE würde es meiner Meinung nach mehr Sinn ergeben die Leistungssteigerungen im produktiven Bereich zu testen. 172% Mehrleistung im Vergleich zu einer Titan Xp in Maya ist schon eine Hausnummer. Zumal die Xp auch noch mehr kostet. Wer weiß, evtl. ist die FE für große Publisher und ihre Entwicklerstudios eine Option. Vega ist nicht nur der Wiedereinstieg in den Highend-Markt für Privatkunden, sondern dient zeitgleich auch der Marktdurchdringung im Bereich Data Center. Ist für Leute, die so Software wie 3ds Max, Maya, Solidworks, Blender oder auch für VR-Creator mit Sicherheit eine sehr interessante Karte.
 
SKu schrieb:
Eben. Zumal zu RX Vega Gaming noch nichts weiteres bekannt ist.

Weißt du was ich vermute und sich bisher auch abzeichnet? Bei der FE ist der Tiled based Rendering NICHT Aktiv.
Es streamt nämlich gerade jemand mit einer FE und hat 1650Mhz geschafft und kommt auf knapp 6800 Punkte! ( Graphic Score ) und bei Witcher3 34fps sogar langsamer als Fury X..
Das ist unterhalb einer 1080 @3dmark.
Verglichen mit der Fury X sollte sofort auffallen, dass da eben besagtes TBR nicht aktiv ist bei der FE
Hinsichtlich Mining sagte er, dass er mit er 30-33Mh/s schafft. Bei dem Verbrauch und den Kosten also schon mal ein gutes Zeichen, dort zunächst nicht von den Minern behelligt zu werden *puh :D

Drum. Das ist für mich eigentlich bereits fakt, nach den Infos dort. Die FE hat TBR NICHT Aktiv und ist daher quasi eine Fury X auf 1600mhz Takt :D
AMD hat da ne nette Spaßbremse drin und foppt alle total - verdammt ein Monat noch bis zur RX Vega -.-

https://www.youtube.com/watch?v=QuFG7pw_k50
 
Zuletzt bearbeitet:
stoneeh schrieb:
Nvidia hat halt mit der Kepler, Maxwell und Pascal absolute Meisterstücke abgeliefert, die in jeder Hinsicht der Gipfel der Technik waren/sind. Bis Fermi/Tesla war AMD/ATI eh über Jahre vorne.

Fangen wir mal vorne an: Tesla ist keine Architektur, sondern eine Kartenserie für einen bestimmten Anwendungszweck. Dann: Kepler war ein Meisterstück? Das wusste ich noch gar nicht. Es gibt hier zwei Dinge, die nVidia besser kann, als AMD: Geld ausgeben (z.B. für mehr Masken in der Chipfertigung und Treiberoptimierung) und Tile Based Rasterization seit Maxwell, was ja nun auch mit Vega so teilweise bei AMD Einzug erhalten soll. AMD muss mit einer sehr begrenzten Anzahl Masken alle Bereiche abdecken (so kommen eigentlich für Profis gemachte Chips wie Hawaii zum Heimanwender), nVidia macht seit Pascal für Datacenter und HPC einen Extrachip und verkauft für alles andere die in FP64-Einheiten stark beschnittenen Consumerchips -- fairerweise braucht man das nicht überall. nVidia baut gute Karten für den Moment, die mit guten Day-One-Treibern erscheinen. Als die keplerbasierten Karten rauskamen, waren die nicht schlecht. Aber wie furchtbar Kepler gealtert ist im Vergleich zu GCN, sieht man bei allen Möglichen "revisits" z.B. der GTX 780, die im Gegensatz zur R9 290, die sich etwa auf RX 470-Niveau bewegt, leistungsmäßig eher zur GTX 1050Ti passt. Auch die Effizienz war bei Kepler nur am Anfang besser als bei GCN, mit Hawaii hat sich das geändert. Die GTX 780 (Ti) stellen sogar die größte elektrische Single-GPU-Heizung von AMD, die R9 390X, in den Schatten, was den Stromverbrauch angeht.


stoneeh schrieb:

Das erklärt definitiv große Leistungszugewinne bei vereinzelten Spielen durch neue Treiber in der Vergangenheit. Ich bin kein Spieleentwickler, so dass ich Dir klar widersprechen kann, aber wenn Spiele im zweistelligen Prozentbereich von neuen Treibern profitieren, kann es nicht nur an der Engine liegen.


stoneeh schrieb:
Was wird dann wohl der Unterschied zwischen dem normalen und dem Gaming Modus bei der Vega FE sein? Dass sich die Shader umkonfigurieren wie ein Transformer und die Karte zum ultimativen Gamingmonster wird?
Offensichtlich wird nix anderes passieren, dass ein anderes Takt-, Voltage- und Lüftermuster geladen wird. Im Workstation Betrieb muss die Karte halt leise sein, und dann werden die "typical engine clock" von 1382 MHz schon stimmen.

Auf Videocardz werden alle gestesteten Karten im Gaming Modus mit den vollen 1600 MHz angegeben: https://videocardz.com/70541/amd-radeon-vega-frontier-lands-in-the-hands-of-the-first-owner

Die Benches, die auf Videocardz verlinkt sind, kommen von WCCF-Tech, genauer gesagt vom User #define. Der hat zu seinen "Messungen" genau keine zusätzlichen Informationen geliefert, die nötig wären, um die Ergebnisse zu bewerten. Keine Logs für Takt, Stromverbrauch, Temperatur, was man alles vom Afterburner loggen lassen- und anschließend auswerten kann. Wenigstens Mittelwerte dazu wären nötig, um das ganze irgendwie einordnen zu können.

stoneeh schrieb:
Die AMD Hypemaschine ist hart am arbeiten, und der User lernt wieder und wieder und wieder nichts. Könnt ihr euch zB noch an die versprochenen 2,8x Performance/Watt zu Fury erinnern? Und dann kommt die neue Karte genauso mit nem 2x8 PIN Stecker wie die alte, mit 300 bzw 375w TDP, wird von Haus aus gleich mit ner Wasserkühlung angeboten - haha, das Ding könnt ihr im Winter zum heizen benutzen!

Man sollte halt irgendwann die Kapazität zum lernen haben.

Volta kommt in ein paar Monaten mit 5072 Shadern vs den 3584 Shadern des Pascal-Topmodells (1080 Ti). Bin mir sicher bis dahin holt AMD noch die nötigen ~70% via Treiber auf :D

Es geht doch gar nicht unbedingt um die absolute Leistungskrone, es geht um High-End Karten von AMD. Zum richtigen Preis findet alles einen Abnehmer. Und wie gesagt, die Leistungsdaten sind absolut nicht zu bewerten im Moment, das wird schon die Zeit zeigen müssen. Das absolute Must-have für mich ist FreeSync, das will ich jetzt nach ~ 2 Wochen ohne @144Hz nicht mehr missen. Das gleicht ungleichmäßige Frametimes schon ziemlich aus.

Dass nVidia das Geld für noch größere Consumerchips hat, für die sie auch alles verlangen können, was sie wollen (die IT-Welt war ja erstaunt und glücklich gleichermaßen, dass die 1080Ti für "nur" 700$ erschienen ist), ist kein Geheimnis.
 
Könnte auch sein, dass HBM im ECC Modus läuft. Für Leute, die von mir oben erwähnte Software nutzen, macht das Sinn. Für eine Gaming-Karte allerdings nicht. Und da die Frontier Edition primär eben für Content Creator und nicht Gamer gedacht ist, dürfte die RX Vega für das reine Gaming auch kein ECC Support aufweisen.
 
Möglich... jedenfalls ist mit der FE tatsächlich nichts Aussagekräftiges raus zu bekommen, hinsichtlich RX Vega.
Und da die Karte ja auch gut ausgelastet ist ( 1650Mhz und pie mal daumen auf 375W kommt ) kann es eigentlich nur am TBR liegen. Wie man bei NV weiß, brachte das NV einen enormen Performance-Boost.
 
Zurück
Oben