News Radeon Vega Frontier Edition: Einordnung der Spekulationen zur Spiele-Performance

Hab gerade nochmal bei #defined reingeschaut. Testet er die ganze Zeit nur mit 30% PT? Und wo steht da was von 400W Differenz, er hat doch nur ein 550W Netzteil?

Results from the 3DMark Fire strike, as of now is on level of 1080. I have dig on the drivers as they are not showing correctly and I've downloaded correct package from AMD but I've used half pro and game drivers now I will use just the gaming ones to see the difference.

I had to make sure that power limit in Wattman is set to 30% and manually set 1600 MHz for last 3 states to make sure that no changes in GPU clock. I think as well that temperatures limits have impact but I did set them to MAX. I will let you know later on.
 
Warten auf Vega kam für mich nicht in Frage, hatte hohe Leistung einfach eher gebraucht und mich für eine GTX1080ti entschieden.
Sollte die Vega besser werden, was durchaus noch möglich ist, dann ist es eben so.
In ein paar Jahren (Ich wechsle alle 5-6 Jahre das komplette System) gibt es wieder weit bessere Hardware.

Grüße
 
da_reini schrieb:
zwischen 300 und 390W, für das Gesamtsystem!! 450W ist nur die Differenz zwischen Idle und Last so wie ich das verstanden habe. Also in Summe eher so 500W

Der Streamer hatte einen Stromzähler und daran das System mit dem 1800X und der Vega FE, und nen ~40" TV. Der TV hat ~200w verbraucht. Idle ohne TV hat das System ~110w gefressen. In Hitman hat der Stromzähler für alles zusammen bis zu 800w angezeigt.

Lol, komm grad drauf, in meine Rechnung von vorher hab ich noch gar nicht den Idle Verbrauch der Grafikkarte miteinberechnet (offensichtlich auch ziemlich hoch, GPU Takt war bei Idle 827 MHz).
Wenn man jetzt die 800w Maximalwert hernimmt, 200w für den TV abzieht, sagen wir nochmal grosszügige 150w für CPU und den Rest des Systems, bleiben wir immer noch bei 450w rein für die Grafikkarte. Hofftl hab ich mich hier auch verrechnet, weil das wäre ja ziemlich krank.

Bin auf weitere Userberichte der nächsten Tage gespannt, da werden sicher weitere Verbrauchswerte auftauchen.
 
Wir haben ein neues Produkt... wofür es gut ist wissen wir noch nicht. Gaming oder doch Profi oder beides?

Erinnert an das Marketing um den Amiga A1000.
Da hat sich AMD echt was von Commodore abgeschaut ^^
In 30 Jahren hätte man aber schon was dazu lernen können...

Der einzige Unterschied... der Amiga A1000 war revolutionär. Ob Vega das wird wage ich bei dem Stromverbrauch zu bezweifeln.
 
stoneeh schrieb:

Der Monitor hing auch noch mit dran ;-)

Ihr dürft net vergessen, die Features, wenn dann mal alle aktiv sind, senkt die Belastung der GPU bei gleichzeitig erhöhter Performance... weniger Belastung der GPU = weniger Verbrauch, da die GPU nicht Sinnloses bzw. nicht benötigtes Zeugs berechnen muss.
 
Zuletzt bearbeitet:
Joshua schrieb:
So wie immer. Nervige Salami-Taktik und monatelang keine brauchbaren Informationen, das durften wir ja auch bei Ryzen schon so ähnlich erleben.

Thema RyZen, bis zum Release hieß es auch 40% IPC und dann plötzlich doch 52%.
Das Wegwerfen von Berechnungen unnützer Daten kann auf alle Fälle sehr viel bringen.
Man erinnert sich, dass AMD Vega explizit das erste Mal mit USB Schnittstelle gezeigt hatte und betont hatte, man benötigt einen neuen Compiler.
Also nicht unrealistisch, dass der aktuelle Treiber der Fijii Treiber von Dezember mit paar Anpassungen ist und noch nicht jener von 5.0.
Dann wären auch die Werte, die zum Taktskalieren logisch.

Auffällig, das Front End müsste besser sein, denn unter 1080p hatte man Fijii ja eine Limitierung gesehen. Die Typen sollten nicht nur 4k Testen.
 
Das NVIDIA sich recht sicher fühlt sieht man doch an den tatsächlich verbauten CPUs (GTX 980 - GM204/GTX980 Ti GM 200 und mit Pascal 1080 GP104 und 1080 Ti GP102) als Topmodell 70/80 wird ein beschnittener Kern GM204/GP104 vorgestellt und wertigere große Chips der Titan oder wie bei Pascal der Tesla vorbehalten und da wird dann verdient.

Ich kann mich noch erinnern als Chips mit einer 4 noch im Mid End lagen innerhalb des GPU lineups
 
Uninstaller schrieb:
Na da bin ich jedenfalls froh mir vor einem Jahr die GTX 1070 gekauft zu haben. :D

Ich ärger mich auch gerade, dass ich mir nicht vor gut einem Monat noch eine GTX 1070 geholt habe, so eine MSI Armor oder ITX Variante inkl. 30 Euro Cashback und man lag bei 350€ ... davon kann man jetzt nur noch träumen, die Preise sind ja teilweise höher als zum Release :-D

Und gerade weil sich das mit dem Vega-Release wie ein sehr zähes Kaugummi hinzieht, wär das echt besser so gewesen.
Da kann man nur hoffen, dass die "Gaming"-Vega deutlich mehr zu bieten hat, denn so ein bisschen geht es gerade in die Richtung der tollen RX480 CF Präsentationen ... man bekommt GTX1080 Leistung für 300W TDP (2x 150W) zum GTX 1080 Preis (das wissen wir noch nicht, aber viel günstiger vermutlich auch nicht, schließlich gibts ja die 1080er für 500€), nur halt dann in einer Karte und nicht im Crossfire ... dafür aber so wie es aussieht eben auch nur 8GB Speicher und bei den derzeitigen Bedingungen mit HBM2 auch wie immer mit sehr schlechter Verfügbarkeit zu Beginn :-(
Es spricht ja schon Bände, dass auch der Juni jetzt komplett rum ist und nicht mal konkrete Preise und Veröffentlichungs-Zeitpunkte genannt werden ... einfach die Leute im Unklaren lassen und hoffen, dass sie weiter brav warten.

Wenigstens bin ich meine RX480 jetzt für 340€ losgeworden, hat sich das ganze also doch schon mal gelohnt ^^
nur pfeift die für 45€ als Ersatz geholte GTX660 gerade bisschen aus dem letzten Loch am 4K Bildschirm...
 
Mein Corsair 850 watt netzteil wird sich freuen.
Ich liebäugle auf folgende Komponenten


CPU : Ryzen 16 kerne 32 threads
GPU : Vega RX Radeon



Tja war also doch richtig beim Netzteil nicht zu sparen :p
 
forumuser05 schrieb:
Ich ärger mich auch gerade, dass ich mir nicht vor gut einem Monat noch eine GTX 1070 geholt habe, so eine MSI Armor oder ITX Variante inkl. 30 Euro Cashback und man lag bei 350€ ... davon kann man jetzt nur noch träumen, die Preise sind ja teilweise höher als zum Release :-D
Bis zum Vega Release ist es ja nicht mehr lange hin, solange kannst du nun ja noch warten ;)
forumuser05 schrieb:
Wenigstens bin ich meine RX480 jetzt für 340€ losgeworden [...] nur pfeift die für 45€ als Ersatz geholte GTX660 gerade bisschen aus dem letzten Loch am 4K Bildschirm...
Für 4K hast du eine 1070 in Erwägung gezogen?
 
Pah, mein Monitor (Eizo) frisst schon 200W, der i7 auf 4,6 GHz und die R9 290 (auf 390x niveau übertaktet) fressen auch 550W unter Volllast (prime und furmark)..
Ich spiele vielleicht 10-20h im Monat, solange die Vega übertaktet und unter Wasser nicht das Netzteil überlastet (860w) ist mir der Verbrauch völlig egal. Die 2x360er Radiatoren halten die locker kühl.

Wenn sie (voll übertaktet) eine custom 1080Ti packt, bin ich happy.
Nvidia kaufe ich aus Prinzip nicht.
 
Sharangir schrieb:
Wenn sie (voll übertaktet) eine custom 1080Ti packt, bin ich happy.
Tja, nach aktuellem Wissensstand ist das leider nur Wunschdenken. Wenn sich nicht etwas gravierendes ändert, wird sich die Performance bei den 1080(OC) modellen einpendeln. Und übertaktungsspielraum bleibt nicht viel...

Aber wir werden sehen. Ich hoffe auf das Beste, weil Konkurrenz ist wichtig. Aber sehr berauschend sieht das ganze zum aktuellen Zeitpunkt leider nicht aus. Immerhin ist Ryzen gut geworden.
 
Ziel erreicht - alle reden drüber. :king:

Einfach mal abwarten. Die Matrox Parhelia wurde auch endlos gehyped und entpuppte sich als lausig.

/HP/
 
Wenn selbst PCGH titelt, dass die Aussagekraft sehr eingeschränkt ist, dann müssen eigentlich sofort die Alarmglocken runtergehen.
 
Es ist gut vorstellbar, dass RX Vega aufgrund des Featuresets deutlich schneller ist. Man möchte vielleicht Nvidia nur wie Intel mit Ryzen und dem lange geheim gehaltenen Threadripper im Schlaf erwischen und pokert jetzt, bis die weichen für Volta gestellt sind um Volta zu crashen.
 
Myrskyntuoja schrieb:
Weiß eigentlich jemand wie Nvidia Quadro Karten bei Spielen im Vergleich zu den GeForce Versionen abschneiden? Und ist das extrapolierbar auf die Vega FE?

Weil der Stand hier wäre anscheinend: P/L Killer im Profi Bereich, für Gamer aber eher weniger toll. Zumindest laut den non-gaming benches.

P/L Killer wohl kaum im Profibereich...Selbst ne Quadro P4000 ist ja besser und die kostet weniger.
 
da_reini schrieb:
ach aktuellem Wissensstand ist das leider nur Wunschdenken.

So? Was wissen wir denn?

Wissen wir, wieweit die Karte Hardwareseitig aktiv ist?
Nein.

Wissen wir, was die Spieletreiber ändern?
Nein.

Wissen wir irgendetwas verlässliches auf die Game Variante bezogen?
Nein.


Also.... Wissensstand ist für die Tonne.

Wartets halt einfach alle ab - ihr werdet sehen was am Ende wirklich Sache ist.
 
@LordLaden:

Das ist aber ziemliches Wunschdenken... wenn sie die 1080Ti packen, dann ist alles gut. Viel mehr wird da wohl bei den aktuellen Specs nicht drinn sein. Sieht man ja alleine an der theoretischen Rechenleistung. Der große Volta Chip wird auch im Consumerbereich über 5000 Shader haben und auch der GV104 dürfte deutlich über 3000 besitzen. Es ist zudem nicht davon auszugehen, dass sich Volta schlechter takten lässt, als Pascal, selbst beim GV100 gibt man ja als typicalboost schon 1455mhz an und wenn man mal sieht, wie konservativ Nvidia bei den taktangaben ist und wie selten die AMD Chips die angegebenen taktraten dauerhaft halten können, denke ich nicht das Vega gegen die großen Voltas wirklich eine chance hat. Besonders was die Energieeffizienz angeht. Mal schauen, vielleicht überrascht AMD hier ja wirklich, ich kann es mir anhand der aktuellen lage aber kaum vorstellen.
 
Zurück
Oben