News AMD Radeon Vega: Frontier Edition fotografiert und ab heute erhältlich

Wieso? Was ist anders als beim P100? Der GP102 ist jetzt nicht technisch am Größenlimit. Ich erwarte einen 16nm Chip (auch wen 12 genannt) mit etwa 600mm2, eben so wie der GM200.
 
stoneeh schrieb:
Volta kommt in ein paar Monaten mit 5072 Shadern vs den 3584 Shadern des Pascal-Topmodells (1080 Ti). Bin mir sicher bis dahin holt AMD noch die nötigen ~70% via Treiber auf :D

Ja toll, für Consumer aber eben nicht, dazu wird das Ding locker flockig paar tausend € kosten da es auf einen 815mm² großen Die setzt, die Ausbeute wird katastrophal schlecht sein.
Aber gut das Thema ist schon ewig breit getreten worden, manche wollen es einfach nicht einsehen oder verstehen.
 
Volta is nur ein Name. Es wird wenn dann wie beim quasi zeitgleichen Launch von P100 und GP102 laufen. Natürlich haut Nvidia nicht den 815mm Chip für Consumer raus.

Ich denke when Volta Titan kommt dann eher Oktober, teilaktiv GDDR5X, dann ~März ne vollaktive Karte auf selbem Chip mit GDDR6.
 
Zuletzt bearbeitet:
stoneeh schrieb:
Die AMD Hypemaschine ist hart am arbeiten, und der User lernt wieder und wieder und wieder nichts. Könnt ihr euch zB noch an die versprochenen 2,8x Performance/Watt zu Fury erinnern?

soweit ich mich noch daran erinnere und im schnellen googeln was gefunden hatte, war die Nano damit gemeint. Da stimmt das auch ungefähr. Ebenso haust du wie andere Nutzer gerne mit Worten (wie versprochen, zugesichert usw.) um dich, jedoch ist das wie bei jedem Anbieter von Technik. Es werden in den Präsentationen immer die Idealwerte angegeben, aber die so nicht unbedingt im Alltag so zutreffen. Das wird irgendwie immer für bare Münze genommen, muss man nicht verstehen.
 
sTOrM41 schrieb:

Ich habe mich auf diesen (sehr umfangreichen) Nachtest bezogen. Bei 20:36 fängt das Fazit an, Tabelle zum Stromverbrauch gibts bei ~14.00.

tic-tac-toe-x-o schrieb:
8000er, 9000er und 200er Serie... Alles unter dem Codenamen Tesla.

Ich hatte im deutschen Wikipedia in den Artikeln zur 8000 / 9000 / 200er Serie nichts zum Codenamen Tesla gefunden, erst jetzt im englischen Wiki hab ich den entsprechenden Artikel gesehen. Dann entschuldige ich mich, das war mein Fehler.
 
Zuletzt bearbeitet:
immortuos schrieb:
Ja toll, für Consumer aber eben nicht, dazu wird das Ding locker flockig paar tausend € kosten da es auf einen 815mm² großen Die setzt, die Ausbeute wird katastrophal schlecht sein.

Soso. Und das Maxwell und Pascal Flagship (GM/GP 100/102) hat's auch nur im Profibereich gegeben, und nicht etwa auch im Consumerbereich als Titan bzw x80 Ti.

Exar_Kun schrieb:
Stoneeh, du bist dir doch im Klaren darüber, dass über dich ein Shitstorm hinweg wehen wird, wenn RX Vega am Ende doch sehr schnell sein sollte, oder? ;)

Gehen wir's nochmal durch.

Was haben wir derzeit? Etliche Userberichte der Vega FE, mit maximalen Taktraten (1600, in einem Fall sogar 1650 MHz), bei maximiertem Power Target - also Höchstleistung. Die Ergebnisse der einzelnen User decken sich, Anwenderfehler sind inzwischen so gut wie ausgeschlossen.
Die Ergebnisse in Spielen und in synthetischen (Pro- als auch Gaming-)Benchmarks, als auch in Spielen, bewegen sich dabei stets im Bereich zwischen GTX 1070 und 1080. Ausreisser gibt's keine, alles kohärent.
Die Treiber-Ausrede kauf ich aus Erfahrung, und anhand der Tatsache, dass die FE sehr wohl auch für Gamer angepriesen worden ist, einen Game Mode hat, und der Tatsache, dass laut AMD selbst die Treiber schon seit Monaten in der Finalisierung waren, nicht.

Aber nehmen wir doch einfach den Idealfall her. Vega hat die gleiche Shaderanzahl wie Fury, und 50% mehr Takt. Rein mit dem Anstieg der Rohleistung würden wir ziemlich genau bei einer 1080 FE landen. Rechnen wir meinetwegen noch 20% bessere IPC mit ein (so einen Sprung hat's noch nie bei AMD gegeben, aber bitte, seien wir grosszügig), und wir landen knapp unterhalb einer 1080 Ti FE. Wie gesagt, das wäre der absolute Idealfall.

Nun gibt's aber nicht nur die 1080 Ti FE, sondern Partnerkarten mit nochmal 10-20% mehr Leistung, da die Nvidia Architektur einfach noch ordentlich Headroom hat. Und Volta steht vor der Tür, und nein, die Karten werden weder langsamer noch ineffizienter als Pascal werden ;)

Wie sieht's mit dem Headroom bei Vega aus?
Ich war ja eh auf der vorigen Seite so nett, und hab die Ergebnisse des zweistündigen Streams/Userberichts zur Vega FE zusammengefasst. Offensichtlich war auch das zu schwer/anstrengend zu lesen. Aber nochmal, damit es einsinkt: von Idle auf Last hatte das System mit Vega eine Differenz von bis zu 450w.
Man wühle sich durch die Tests von CB - so eine Differenz hat's bei einer Single Karte selten bis nie gegeben. Vega ist ein Heizstrahler, getarnt als Grafikkarte. Der User vom Stream hat nur mit offenem Case und zusätzlicher starker Belüftung der Karte überhaupt die Standardtaktrate halten können. Da ist NULL Headroom vorhanden. Okay, mit einem Triple Fan Design oder WK kriegt man die Temps schon weg, aber dann limitieren halt die 2x8 PIN Stecker. OC Editions der Vega werden mit 3x8 PIN Anschlüssen kommen müssen. Und nebenbei halt ner Strom-Flatrate oder nem Kleinkraftwerk :D

Also selbst das Best Case Szenario, Leistung knapp unterhalb einer 1080 Ti, bei 100+w mehr Verbrauch ist enttäuschend.
Das Worst Case Szenario, Leistung im Bereich einer 1080, beim locker doppelten Stromverbrauch, wäre einfach nur verheerend.

Mal sehn. Wer will, soll den Thread in nem Monat gerne nochmal hochzuholen. Ich würd's auch gern machen, aber was hab ich davon.. dass ich recht hab, weiss ich eh jetzt schon. Und freuen tu ich mich auch nicht drüber - Konkurrenz am GPU Markt hätten wir bitter benötigt.
 
Zuletzt bearbeitet:
sTOrM41 schrieb:

Nicht das ich jetzt den hohen verbrauch der 390X verteidigen will, aber schon aufgefallen, dass in diesem Balkendiagramm explizit da die MSI Gaming angegeben ist, also Custom, während alle anderen Referenz zu sein scheint, da dort keine weiteren Angaben existieren?

Wenn man jetzt die kolportierten 300W der Vega FE als zu hoch einstuft, was haben da denn die Custommodelle der 1080Ti, die gehen doch auch stark in Richtung 300W.

Meine Einschätzung: Vega wird nicht das Effizienzwunder und hier sicher nicht Nvidia von jetzt auf gleich schlagen können. Ist auch nicht schlimm, wichtiger ist eine Alternative im Highend-Bereich. Dazu muss man auch nicht zwangsweise die Ti in allen belangen übertrumpfen, die Nähe ist da schon eine gute Sache. Dazu noch ein angemessener Preis und fertig ist die Laube.

Vor Kurzem war ich noch darauf eingestellt, nie mehr as 300€ für eine Grafikkarte auszugeben, aber mittlerweile habe ich Zunehmens mehr Vergnügen an Spielen. Dazu kommen noch etwas aktuellere Spiele aber von Vollpreisspielen, also nagelneue bin ich noch weit entfernt. Aktuellste Spiele: Rise of the Tomb Raider und Fallout 4 gerade erst im Summersale gekauft.
So langsam wir mehr Power bei der Grafik interessanter, habe aktuell eine RX580 8G. Also langsam schwindet die mir gesetzte Obergrenze. Vega wird da jetzt durchaus in Betracht gezogen, insbesondere, wenn ich meine RX580 noch für rund des Neupreises bekommen würde. Wären da nicht noch andere Hobbies, bei denen ich eine dicke Equipment-Wunschliste habe, wären die überlegungen deutlich einfacher.
 
#Define hat ein bissl weiter getestet:

Hi all,

Now proper shock. Finished SPECPerfview12_1_1 test on VEGA FE and is almost on par with Quadro P6000 and P5000 with the same settings. Biggest difference is that VEGA FE price was £977 and is running in my PC and both Quadro benchmark results are taken from spec.org as follows:

P6000
https://disq.us/url?url=https://www....html:7WgwGn1sXBu9xl7f6VvhlOsuyEM&cuid=870217

P5000
https://disq.us/url?url=https://www....html:gHmxy0NDxNzRZvCZPnasi7QWcpw&cuid=870217

...and of course both are in workstations with Xeon CPU's, then no compare to my PC.

VEGA is perfectly prepared for PRO, it behaves completely different no issues at all, it is quiet.. and you get so MUCH performance per dollar is just amazing (compare to Quadro cards - P5000 -£2000, P6000 - £4000 to £5000).

Please look at the screen shots as follows:

1. Vega results - all benchmark frame rates and my platform
2. Vega results - rest of the settings from my platform
3. SPECPerfView12_1_1 - initial settings, as per http://disq.us/url?url=http://spec.org:07lDbrLJkzDXyvPBJb1RZ4a3Uy4&cuid=870217 I've run it with defaults to make sure that it will match uploaded results on their websites
4. All the numbers on the same image and as you can see most of the time VEGA is on par with those two (again not in workstation but standard PC).

19f4d63bf292f229441413646c46298b222c00b5f0189860be89e7085348a587.jpg19f4d63bf292f229441413646c46298b222c00b5f0189860be89e7085348a587.jpg65315cb54e441b1b99943ee53e6312960b87e22da35ded8c05d641b6001584ab.jpgc5603a208a814e38a0051a544afe97d67041b681a5ee17c111b1fe82ffa9c6e3.jpg8c4adf8d42d1fb43e74207ebb37441b1b3d22f15b80bbd999267a417f2718aff.png
 
@stoneeh:
Auch wenn es sehr negativ ist was du schreibst, du argumentierst wenigstens :)
Ich kann mir aber einfach nicht vorstellen, dass AMD da eine "1080 mit 450W Verbrauch" raus haut.

Deswegen glaube ich auch eher, dass irgendwas noch nicht final / aktiviert ist.
Das dauert aber alles schon viel zu lange, AMD soll endlich mal was belastbares raushauen.

Ich meine, für die Leute die sich eine Karte in der Region zulegen möchten:
Wenn Vega "schlecht" sein sollte, ist es auch egal ob die Leute jetzt oder in einem Monat zur 1080/Ti greifen.
Wenn Vega "gut" sein sollte, kann man vielleicht noch ein paar Leute zum Warten überreden.
 
Zuletzt bearbeitet:
Hi,
@yummycandy: das sieht ja mal gar nicht so verkehrt aus. Bleibt also definitiv spannend bis Ende Juli was die RX Vega dann abliefern wird.
Bis dahin abwarten und Tee trinken.
 
@Boa-P,

die Ergebnisse sind halt genauso aussagekräftig wie die anderen. :D
Interessant wirds erst, wenn die Karte mit fertigen Gametreibern auf Referenzssystemen getestet werden kann. Ich glaub nichtmal, daß die Pro-Treiber final sind.

@Forum
Inwiefern werden Pro-Treiber eigentlich verbessert? Gibts da genauso häufig Updates wie bei den Consumerkarten? Und wie läuft das dann mit der Zertifizierung? Muss die ständig neu durchgeführt werden?
 
M4deman schrieb:
Ich kann mir aber einfach nicht vorstellen, dass AMD da eine "1080 mit 450W Verbrauch" raus hat.

450w ist die Differenz des Systems von Idle zu Last, nicht rein der Grafikkarte. Das System war ein 1800X. Die Differenz der CPU von Idle zu Last ist beim 1800X ca 100w. Somit ca 350w rein für die Grafikkarte - bei maximiertem Power Target, gibt es auch dazuzusagen. Beim Standard Power Target sollte es bei den vom Hersteller angegebenen 300w TDP bleiben - was aber natürlich auch überhaupt nicht zeitgemäss ist.
 
@yummycandy
stimmt natürlich. Nur passen für mich diese Ergebnisse ein wenig besser in das Bild / Einsatzzweck der Karte. ;)
 
stoneeh schrieb:
450w ist die Differenz des Systems von Idle zu Last, nicht rein der Grafikkarte. Das System war ein 1800X. Die Differenz der CPU von Idle zu Last ist beim 1800X ca 100w. Somit ca 350w rein für die Grafikkarte - bei maximiertem Power Target, gibt es auch dazuzusagen. Beim Standard Power Target sollte es bei den vom Hersteller angegebenen 300w TDP bleiben - was aber natürlich auch überhaupt nicht zeitgemäss ist.

Ah sorry, hatte Idle->Last nur für die Graka im Kopf.
Dann ist es schon realistischer. Dennoch zu viel, da gebe ich dir recht. Zumindest für "1080" Leistung.

Aber wie gesagt, ich bin zuversichtlich, dass die RX Vega besser abschneidet.
 
Tilidin schrieb:
Es gibt eigentlich nur 2 Optionen:

1. AMD hält mit dem Treiber und der FE alle zum Narren, Strategie.
2. AMD ist noch mit den Arbeiten am TBR beschäftigt und hat den bei der FE einfach deaktiviert und erhält damit auch erst mit der RX Vega Zugriff darauf. Was nebenbei den selben Effekt hat wie Option 1.

Und wo soll der Sinn hinter so einer Strategie sein? etwa darin potenzielle Käufer abzuschrecken ?, wobei, die Marketing Abteilung von AMD ist sowieso nicht das gelbe vom Ei ;)
 
Mir gefällt das Blau nicht, es wirkt irgendwie nicht Deluxe und man müste es sich durch blausaufen schön reden ....

Dafon abgesehen das Ich keine 550,00 für einen Wasserkühler zahlen würde da man dafür den kompletten Kreislauf für GPU, CPU aufbauen kann mit obersten Parts (bsp. superedler Kupfer Look von Aquacomputer)

https://shop.aquacomputer.de/produc...=3459&XTCsid=nso6gg8pii6c3gtt3krciabd3er1c2mq
https://shop.aquacomputer.de/product_info.php?products_id=3463

oder

https://www.caseking.de/phanteks-glacier-gtx-1080-ti-fe-wasserkuehler-rgb-chrome-wach-497.html
https://www.caseking.de/phanteks-glacier-gtx-1080-ti-gigabyte-gaming-rgb-schwarz-wach-504.html

Ich denke mal der Mehrheit gefallen diese Part Example besser :)

Ansonsten bin Ich durch aus gespannt ob sich die 500 Taken Aufschlag zur GTX 1080 TI rechnen könnten. Solang die Game Performance identisch ist dann klares Ja zum Kauf aber nur Luft oder Custom Wasserkühler wegen dem 500 Euro Bullshit
 
Zuletzt bearbeitet von einem Moderator:
afaik arbeitet AMD seit Anfang Mai am Treiber für VEGA. Raja betonte extra, das diese Zeit auch nötig sei und man bis zuletzt an der Optimierung der RX arbeiten werde. Das würde für die These sprechen, daß die FE noch keine fertigen Treiber haben kann.

AMD wollte schon bei PCWorld, daß keine Gameperformance veröffentlicht wird. Wahrscheinlich auch um das Endergebnis am Launchtag nicht zu verfälschen. Ich tippe auch drauf, daß der "Gamemode" kein Gamermode ist, sondern einzig der Erstellung von Spielen dient.

Ich finde es allerdings ziemlich verwunderlich, daß ein einzelner User (#define) jetzt als Kompletteinstufung für VEGA, also einer ganzen Architektur, dienen soll. ;)
 
Die Frage ist halt, was mit fehlender Treiberoptimierung gemeint ist. Wenn es die spielespezifischen Optimierungen sind, die üblicherweise in den Game ready Treibern geliefert werden, dann wäre die Bench-Ergebnisse tatsächlich enttäuschend. Wenn aber die gesamten Architekturverbesserungen der Vega im aktuellen Treiber noch nicht angesprochen werden und sie stattdessen quasi als 'Generic GCN Hardware' läuft, dann dürfte man nochmal mit einem erhelblichen Performanceboost durch die finalen Treiber rechnen. Ich bleibe erstmal optimistisch.
 
Meine :freak: könnt ihr mal ein wenig chillen? Erst wenn die Endkarte für Spieler rauskommt wissen wir alles was wir wissen wollen.
Hier wird bereits eine Hexenjagt betrieben obwohl die Kirche noch nicht einmal steht... :mad:
 
-Spectre- schrieb:
[...]Hier wird bereits eine Hexenjagt betrieben obwohl die Kirche noch nicht einmal steht... :mad:

Ganz so ist es ja auch nicht. Die Pro-Kirche steht, problematisch ist nur, dass die Gamer-Gemeinde jetzt in die Pro-Kirche rennt und überrascht ist, dass etwas anderes gepredigt wird. :D
 
Zurück
Oben