Test Radeon RX Vega 64/56: 6 BIOS-Power-Modi und Undervolting im Test

s3bish schrieb:
Ich habe wirklich das Gefühl, dass mit aller Macht der große Konkurrent von nVidia am Leben erhalten werden soll, während er eigentlich schon hilflos abgeschlagen ist.
[...]Reine Spekulation, aber für mich sind die aktuellen AMD(ATI?) Karten völlig uninteressant. :stacheln:
Ja genau, deswegen liegen die AMD-Karten auch überall in den Läden auf dem Grabbeltisch, damit sie endlich gekauft werden, was die sind kaum zu bekommen? Dann stimmt wohl irgendetwas an deiner Annahme nicht.
Zum zweiten Satz, was willst du eigentlich sagen? Irgendeine Spekulation? Deine Meinung? Gibt halt Leute, die stehen auf Bienen, andere nicht. Jedem das seine.

Krautmaster schrieb:
AMD hat ja auch ne RX 580 gebracht die quasi identisch zur RX 480, ich denke auch das Polaris 10 einfach in 20 relabled wurde. Auch das macht Sinn um eben "was neues" am Markt zu haben.
Ja genau, die 480 waren ja schon Ewigkeiten auf dem Markt. Da musste was neues her. Die 480er wären ja sonst auch absolute Ladenhüter gewesen.

Alienate.Me schrieb:
ich verstehe aber auch nicht warum ryzen im combined so abkackt, bzw. warum ein I7 die besseren werte hat im combined.
Combined ist offensichtlich wieder sehr viel GPU-Lastiger. Obendrein wie als ist Firestrike? Bald 5 Jahre. Dass der Combined-Test nicht auf einen Ryzen optimiert ist, ist kein Wunder.
Auch wenn eine nicht ausgelastete GPU in dem Test schon sehr verwunderlich ist.

janeeisklar schrieb:
Insofern sollte/muss AMD "das Rennen" auf Softwareebene ersteinmal wirklich aufnehmen, gerade da hätten sie deutlich mehr zu gewinnen.
Stimmt, wenn der eine auf offene/allgemeine Standards setzt und der andere sein eigenes Süppchen kocht, dann hat der mit der eigenen Suppe recht. :evillol:
Zumal NVIDIA da auch klar in der stärkeren Position ist, da sie einfach mehr Gamerkarten in den Rechnern haben.
 
@Kabelkasper

Du hast die LC?
Hast Du ihr so weit die Gurgel zugedreht das keine Leistung mehr ankommt?

Die LC die ich mal ne Woche hatte lief deutlich geschmeidiger

Superposition_Benchmark_v1.0_Vega.jpg

Das sind gute 20% Unterschied... :freak:
 
mace1978 schrieb:
Zumal NVIDIA da auch klar in der stärkeren Position ist, da sie einfach mehr Gamerkarten in den Rechnern haben.

eigentlich ist es gerade umgekehrt. durch die konsolen hat NV viel macht im x86 markt verloren. der größte teil der gamersysteme hat eine AMD GPU auf diese hin auch optimiert werden muss und NV mehr ressourcen benötigt diese für ihre grakas anzupassen. das ist ein spiel auf zeit für AMD und langfristig sehe ich AMD in der besseren position.
 
DannyA4 schrieb:
Das war vielleicht früher mal so..

Heutzutage gibt es, zumindest bei AMD, Technoligien, welche die Energieaufnahme während des spielens drastisch reduzieren.
Radeon Chill ist ein sehr gutes Beispiel!

Wer es bei einem unterstützten Spiel nicht nutzt, ist selbst Schuld.

Naja wenn man auf nem 60hz 1080p Panel spielt sicher. Aber wozu brauch ich dann so ne GPU?

Wer Freesync oder 4K zockt ist über jedes FPS froh, ergo kommt iChill nur dann zu tragen wenn er grad Caesar III rausgekramt hat (oder eben alte Titel die den Monitor durchweg ausreizen). iChill und sowas ist vor allem im Mobile Segment relevant.
Ergänzung ()

mace1978 schrieb:
Ja genau, die 480 waren ja schon Ewigkeiten auf dem Markt. Da musste was neues her. Die 480er wären ja sonst auch absolute Ladenhüter gewesen.

war das ironisch gemeint? Klar hat AMD die RX580 in erster Linie gebracht um überhaupt was bringen zu können. Was genau kann die Karte denn mehr? Es is derselbe Chip ;)
Man kurbelt halt den Markt etwas an. Und es macht die Karte ja nicht schlecht.

Das ist auch kein Verbrechen. Das macht AMD wie Nvidia nur das letztere ja deutlich mehr Chips auflegen können da sie die Mittel zu haben. AMD muss aus wenig Masken und Designs das Maximum rausholen. Deswegen wird ihr Polaris in 2 Gens gepackt. . War bei Hawaii ja auch in 2 Gens. Würde mich nicht wundern wenns gar ne 3. mit den Polaris 10/11 Chips gibt.

Die Grafikkarten / Chipdesigns die AMD die letzten 2 Jahre vorgestellt hat kann man ja an einer Hand abzählen. Da wären. Polaris 10, Polaris 11. Und natürlich 20 / 12 die identisch und relabled. Okay, nun noch RX Vega, einen Chip, wo auch einst zwei vermutet wurden. Genau genommen also 3 Chips. 4 Chips, Polaris 10, 11, 12, Vega

Bei Nvidia im selben Zeitraum allein in 16nm nen GP108, GP107, GP106, GP104, GP102, GP100. Dazu V100.

Ich denke AMD war ganz schön auf Sparkurs die letzten 3 Jahre, hat alles in Ryzen und Epyc gesteckt. Hoffentlich kann von Ryzens Erfolg auch die GPU Entwicklung wieder profitieren.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Naja wenn man auf nem 60hz 1080p Panel spielt sicher. Aber wozu brauch ich dann so ne GPU?

Wer Freesync oder 4K zockt ist über jedes FPS froh, ergo kommt iChill nur dann zu tragen wenn er grad Caesar III rausgekramt hat (oder eben alte Titel die den Monitor durchweg ausreizen). iChill und sowas ist vor allem im Mobile Segment relevant

Krauti, du hast offensichtlich keine Ahnung vom Thema.
Informiere dich bitte, bevor wir hier weiterreden.

-Radeon Chill
-Freesync
 
DannyA4 schrieb:
Krauti, du hast offensichtlich keine Ahnung vom Thema.
Informiere dich bitte, bevor wir hier weiterreden.

-Radeon Chill
-Freesync

Wieso, er hat doch Recht. Radeon Chill ist ein power saving feature, das die FPS dynamisch regulieren soll um Energie sparen zu können. AMD selbst spricht bei Radeon Chill auch von "increasing battery life", was nicht auf Desktop-Systeme zutrifft. Je nach System und Game ist diese Dynamik aber auch nicht wirklich sinnvoll. Wer vor einem 144Hz Panel sitzt und überwiegend Shooter spielt, der möchte in der Regel hohe FPS ohne große Einbußen. In dem Fall bezweifle ich sogar, dass FreeSync zu einem wirklich fühlbaren Unterschied führt, denn Stuttering ist bei hohen FPS eher weniger ein Thema. Und die Wahrnehmung von Tearing ist eben auch von Mensch zu Mensch unterschiedlich.
 
Zuletzt bearbeitet:
das_mav schrieb:
Unter 1% Leistungsverlust bei um 25% reduzierter Leistungsaufnahme?
Was hat AMD denn da zusammen geschraubt?

Naja, einerseits finde ich's ja gut, dass es geht, frage mich dabei (Wie auch bei Autos oft) warum die Hersteller das nicht gleich so vorsehen. So einen großen Unterschied wird es in der Qualitätskontrolle da bestimmt nicht geben.




Energiesparlampen brauchen bei der Herstellung die Energie, die normale Lampen während Ihrer Lebensdauer benötigen - also schon mal Unsinn. Außerdem sind Energiesparlampen (teils) mit Quecksilber versehen, wenn die zerbrechen dann bist du auch gleich Frau und Kind los die zuHaus ein Nickerchen auf der Couch machen wärend du arbeitest - sehr effizient also das ganze.

Einen A+ oder Sonstwas Kühlschrank von 2005 jetzt wegzuwerfen um einen AAAAAAA+ Kühlschrank zu kaufen ist auch nicht sonderlich effizient, weder für den Geldbeutel noch die Ökobilanz :)

Aber hier, man kann auch seinen 60000€ Neuwagen nach 3 Jahren verschrotten weil der Nachfolger Euro6 hat, erst da versteht der Deutsche aber langsam, dass dieser ganze Kram absoluter Blödsinn ist. Gibt ja auch Prämien - so effizient wie heute war in den Müll kloppen noch nie.

Der Energieaufwand zur Herstellung eines Produktes interessiert einen Endanwender überhaupt nicht. Ihn interessiert nur das fertige Produkt.
Eben, also machen die 30Watt Ersparnis von NVIDIA keinen Sinn, wenn auf der anderen Seite nur verschwendet wird
 
Dieser Test von Gamersnexus ist noch interessant. Dort werden Vega 64 und Vega 56 bei gleichem Takt verglichen.

Benchmark: Ashes of the Singularity
v56-v64-aots-4k.png


Das Fazit:

As for the shaders, it looks like there’s not a big difference for the games we tested. There’s probably an application out there that likes the extra shaders, but for gamers, we’d say hard pass on Vega 64 and strongly consider Vega 56 as a highly modifiable counter.

In Spielen merkt man von der höheren Anzahl Shader überhaupt nichts.
 
Am Besten Vega56 mit dem 64er BIOS bespielen, damit man den HBM etwas höher bekommt, dann UV und Takt um die 1600mhz und man hat eine recht gute Karte, wenn auch mit viel Eigenaufwand.

Der Test von Gamernexus bestätigt damit auch die Ergebnisse von HWLuxx zumindest was die Leistung angeht(AoTS war auch kein Ausreißer, es betrifft jedes getestete Spiel), also ist der große Unterschied zur Vega64 bei CB wirklich allein auf die HBM Taktraten zurückzuführen.

945Mhz zu 800Mhz = +18%

Edit: Gerade bei Caseking wieder für 409€
 
Zuletzt bearbeitet:
Jenergy schrieb:
In Spielen merkt man von der höheren Anzahl Shader überhaupt nichts.
:evillol: Du zeigst die falsche Grafik:
v56-v64-aots-frequency.png

1. Warum zeigt man bei einem Vergleich mit gleichem Takt überhaupt eine solche Grafik?
2. Wer einen solchen Grafen präsentiert sollte einfach weder solche Tests machen und erst recht nicht veröffentlichen.
Wenn wir großzügig sind, spielt sich das Geschehen zwischen 1400 und 1800 Hz ab, warum zeigt man einen Grafen von 0 bis 2000 Hz. Nicht einmal 10% der Höhe des Grafen wird genutzt.
3. "We did not encounter thermal or power limits during these Tests", da stelle ich mir die Frage, wenn es keine Power und Thermal Limits gibt, warum Takten beide GPUs Hoch und Runter? Und vor allem warum bringt man bei einem solchen Verhalten 0.1% Low und 1% Low Werte, die sind völlig unbrauchbar.
4.
Here’s the clock comparison chart for 3DMark Firestrike at 1080p. As seen here, we’re roughly equal in clocks: Averaging the clock during actual tests, not between tests, we end up at 1585.6MHz for Vega 64 and 1583.5MHz for Vega 56, or a 0.1% offset. That’s close enough to be effectively the same. The ‘spiky’ behavior is during load screens between tests, and is not counted toward the score or average frequency.
5. Ich würde auch noch mal vorschlagen, den Test mit einem Athlon 64 zu wiederholen, nur um sicher zu gehen, dass die werte völlig gleich sind. Ich möchte damit nicht unterstellen, die CPU sei schuld, aber die Frage an dieser Stelle sollte doch sein, warum sollte vega 64 die zusätzlichen Shader nicht nutzen können?
Die Frage ist, wo liegt das Bottleneck. Der Test vermutet, es könnte der VRAM sein, und was man hört, bringt ein Overclocken des HBM2 ja auch viel. Aber auch dann könnte man den Test doch bequem so laufen lassen, dass man mit gleichem Takt einen stromsparenden undervolteten, underclockeden Betrieb ermöglicht.
6.Aber hier wird der Test natürlich dann völlig Absurd. Er beschränkt den Takt von Vega64 auf Vega56(übertaktet). Übertaktet den Vram des Vega 56, modded die V56, und ignoriert dabei ordentlich, dass Vega64+Vram deutlich schneller takten könnte, und schliesst dann, dass man direkt Vega 56 kann, weil die total gleiche Leistung bringen. Ich kann klar verstehen, warum man V56 vor V64 empfiehlt, aber hier macht es sich jemand ganz schön einfach.


nekro1 schrieb:
Der Energieaufwand zur Herstellung eines Produktes interessiert einen Endanwender überhaupt nicht.
Du kannst gerne für dich sprechen, aber sicher nicht für die Allgemeinheit der Endanwender. Für mich sprichst du sicher nicht.
 
Wenn die zusätzlichen Shader in Spielen nichts bringen, warum hat AMD dann nicht einfach nur die 56 auf den Markt gebracht samt AiO Kühllösung? Es gibt ja immerhin noch die Frontier Edition. Im Endeffekt bekommt man bereits mit der 56 für knapp 400€ die Leistung einer Karte für über 700€ (AiO). Vega 64 ist doch damit komplett überflüssig und als Käufer würde ich mir verarscht vorkommen, wenn ich von mehr Shadern im Endeffekt gar nicht profitiere. Der HBM-Takt auf der 56 wird wohl nicht grundlos auf 800Mhz festgelegt ab Werk.
 
mace1978 schrieb:
1. Warum zeigt man bei einem Vergleich mit gleichem Takt überhaupt eine solche Grafik?
Wie sie schon geschrieben haben, eben um zu zeigen, dass der Takt bei beiden Karten über die Testdauer gleich war. Nicht dass jemand das nachher anzweifelt.

mace1978 schrieb:
2. Wer einen solchen Grafen präsentiert sollte einfach weder solche Tests machen und erst recht nicht veröffentlichen.
Wenn wir großzügig sind, spielt sich das Geschehen zwischen 1400 und 1800 Hz ab, warum zeigt man einen Grafen von 0 bis 2000 Hz. Nicht einmal 10% der Höhe des Grafen wird genutzt.
Das ist aber sehr großzügig, ich sehe dort eher 1580-1650. Die Skala ist natürlich nicht optimal, aber mich stört es nicht.

mace1978 schrieb:
3. "We did not encounter thermal or power limits during these Tests", da stelle ich mir die Frage, wenn es keine Power und Thermal Limits gibt, warum Takten beide GPUs Hoch und Runter? Und vor allem warum bringt man bei einem solchen Verhalten 0.1% Low und 1% Low Werte, die sind völlig unbrauchbar.
Dieses Taktverhalten ist doch auch bei den CB Tests, auch bei der Strix Version genauso, und die ist auch nicht im Thermal oder Power Limit. Der Takt springt wohl je nach Spielsituation in einem kleinen Bereich, vielleicht ist das eine Eigenart der Vega Architektur?
Und warum sollen die Low Werte unbrauchbar sein? Dieses "Verhalten" ist bei allen Modellen so, also sind die Werte auch repräsentativ.

Bei For Honor ist der Takt übrigens komplett stabil ohne Spikes.


mace1978 schrieb:
Er beschränkt den Takt von Vega64 auf Vega56(übertaktet). Übertaktet den Vram des Vega 56, modded die V56, und ignoriert dabei ordentlich, dass Vega64+Vram deutlich schneller takten könnte, und schliesst dann, dass man direkt Vega 56 kann, weil die total gleiche Leistung bringen. Ich kann klar verstehen, warum man V56 vor V64 empfiehlt, aber hier macht es sich jemand ganz schön einfach.
Der Takt der Vega64 ist nicht beschränkt, er wurde bei beiden Versionen angehoben(Vega64 Standard ca 1400-1480Mhz), bei der 56 natürlich prozentual mehr, aber die 64 schafft auch nicht mehr als die 56, die ja auch bis 1700 gehen soll.
Der Takt des HBM geht wohl ganz gut auf 1000Mhz bei der 56 und darüber hinaus ist auch bei der 64 nicht mehr viel Spielraum, zumal der Performanceanstieg von 945 auf 1000 größer sein soll als der von 1000 auf 1100, was bisher so das Maximum war was ich gesehen habe.

SKu schrieb:
Wenn die zusätzlichen Shader in Spielen nichts bringen, warum hat AMD dann nicht einfach nur die 56 auf den Markt gebracht samt AiO Kühllösung? [..]Der HBM-Takt auf der 56 wird wohl nicht grundlos auf 800Mhz festgelegt ab Werk.

Ist wohl das gleiche wie bei den CPUs auch^^ HBM Takt runtergedreht, PT gesenkt, tadaa schnellere Vega64 für alle die nicht selbst Hand anlegen wollen.
Und vielleicht erhofft man sich aus den Shadern ja noch etwas für die Zukunft, wäre ja nicht das erste mal, dass AMD Sachen nutzt, die erst mal gar nichts bringen(und es vielleicht auch nie werden).
 
Zuletzt bearbeitet:
Alienate.Me schrieb:
eigentlich ist es gerade umgekehrt. durch die konsolen hat NV viel macht im x86 markt verloren. der größte teil der gamersysteme hat eine AMD GPU auf diese hin auch optimiert werden muss und NV mehr ressourcen benötigt diese für ihre grakas anzupassen. das ist ein spiel auf zeit für AMD und langfristig sehe ich AMD in der besseren position.

Auf welchen Planeten lebst du?
http://store.steampowered.com/hwsurvey/

82% NVidia
17% AMD

Wenn auch nur Steam....

Bei den Konsolen magst du Recht haben, aber du redest ja nur von "Gamersystemen"
 
Und eine Konsole ist kein Gamersystem, für das Spiele entwickelt werden?

Ich sehe da übrigens 67% gegen 18%, warum rechnest du Nvidia und Intel zusammen?

Und ja wie du selbst sagst, Steam..Die Statistik wo 80% der Systeme eben keine Gamersysteme sind sondern OEM PCs/Laptops mit GPUs wie GT630, GT730, GT940M ect.
 
Zuletzt bearbeitet:
@XMenMatrix: Nach den Quartalszahlen der großen Spieleentwickler macht der Konsolenmarkt etwa 70-80% deres Umsatzes aus. Damit hat Alienate.Me durchaus einen validen Punkt, bei Konsolenports ist es ja auch nicht so unüblich, dass AMD-Karten im Vorteil sind (z.B. CoD und frühes Quantum Break). nVidia landet seit langem einen Großteil der OEM-Deals, da würde ich eine Ursache der großen Popularität von nVidia in den Steamcharts sehen -- gerade im Mobilsegment ist AMD ja quasi nicht mehr präsent.
 
Zumal die Steam-Statistik auf freiwilliger Basis beruht. Sicher hat Nvidia einen höheren Anteil, allein schon wegen den ganzen OEM-Deals. Und trotzdem gibt die Stastik nicht die absolute Wahrheit wieder. Ich würde auch eher sagen, dass "Gamersysteme" eher in Bezug auf die Konsolen Relevanz besitzen. PC-Systeme, gerade wie sie hier auch in Computerforen vorzufinden sind, haben in der Realität kaum Relevanz.
Ergänzung ()

Taxxor schrieb:
Ist wohl das gleiche wie bei den CPUs auch^^ HBM Takt runtergedreht, PT gesenkt, tadaa schnellere Vega64 für alle die nicht selbst Hand anlegen wollen.
Und vielleicht erhofft man sich aus den Shadern ja noch etwas für die Zukunft, wäre ja nicht das erste mal, dass AMD Sachen nutzt, die erst mal gar nichts bringen(und es vielleicht auch nie werden).

Vega 64 ist lediglich der Gegenspieler zur GTX1080, kann aber von der 56 ausgestochen werden, sofern manuell eingegriffen wird. Im Prinzip nichts anderes als Marketing-Psycholgie, um ein Pendant für das Konkurrenzprodukt zu haben. Ansonsten stünde Vega 56 alleine gegen GTX1070 und 1080 dar.
 
Im Superposition Benchmark (1080P Extreme) kackt die Vega 56 gegen die 64 ziemlich ab. Inwieweit das in Spielen zutrifft dürfte wohl sehr individuell ausfallen. Mal mehr Abstand bis zu fast gar keinem, halt je nach dem wie ein Spiel von mehr Shader- und Textureinheiten profitieren kann.

Zum Thema Konsolen sag ich mal jetzt nichts. Die Performance von AMD ist trotzdem sehr sehr bescheiden für eine neue GPU-Generation am PC.
 
Zuletzt bearbeitet:
SKu schrieb:
Wieso, er hat doch Recht. Radeon Chill ist ein power saving feature, das die FPS dynamisch regulieren soll um Energie sparen zu können. AMD selbst spricht bei Radeon Chill auch von "increasing battery life", was nicht auf Desktop-Systeme zutrifft.


Du darfst schließlich nicht außen vor lassen, dass "increasing battery life" nur Eines von Drei Features von Chill ist.
hinzu kommt noch, dass die GPU leiser ist und dabei sogar noch kühler.

Dazu kommt noch eine geringere Leistungsaufnahme, was seit Kepler plötzlich der Grund schlechthin ist
AMD im DESKTOP Segment zu boykottieren, davor übrigens auch, aber nur weil Nvidia die höhere Abwärme hatte und Nvidia Fans einfach ihre Heizungen ausgelassen haben. Schließlich darf man einen bis zu 30% geringeren Verbrauch nur durch das einsparen von Bildern die keine Relevanz aufs aktive Gameplay haben nicht unterschätzen.


Übrigens greift Chill in extrem vielen Situation in denen man einfach keine Leistung benötigt und nur sinnlos Energie verpulvert wird.

zB. im Inventory, wenn du mir erklären kannst warum man da in WOW jetzt 144 FPS braucht dann würdest du mir einen großen Gefallen tun.


BTW: Ich hab Desktop weiter oben bewusst Dick geschrieben nur um die zu zeigen, dass "Energie" sparen nicht nur im Laptop Segment von Relevanz ist.
 
Zuletzt bearbeitet:
SKu schrieb:
Wenn die zusätzlichen Shader in Spielen nichts bringen, warum hat AMD dann nicht einfach nur die 56 auf den Markt gebracht samt AiO Kühllösung? E

das Problem ist doch dass genau das Vega verbessern sollte. Die Skalierung über Shader. Eigentlich sollte die Vega 64 bei gleichem Takt sehr gut zur Vega 56 skalieren. Tut sie das nicht ist was mit der Architektur im Argen, zb limitiert die VRam, Bandbreite.
Ergänzung ()

DannyA4 schrieb:
Krauti, du hast offensichtlich keine Ahnung vom Thema.
Informiere dich bitte, bevor wir hier weiterreden.

-Radeon Chill
-Freesync

klar bringt dir Chill genau wie Nvidias Pendant was wenn du zb im Strategiespiel statt 144hz dann auf 60hz limitierst und die GPU dann wenig zu rechnen hast. Wenn dein Desktop PC Gaming Alltag allerdings daraus besteht hast du die falsche GPU gekauft.

Das kommt etwa dem gleich dass du sagst du kaufst nen i7 8700K und taktest ihn auf 3,5 Ghz da ja viel effizienter.

Chill hat sicher seinen Nutzen, würde annehmen man kann in Software steuern dass Titel A (Strategie) mit max 60FPS (zb auf einem 144hz freesync panel) rennt während Titel B (Shooter) auf 100% GPU Laufen darf, richtig? Eine globale Einstellung also generelles Limit wäre schon mal fail.

Bin nur der Meinung dass ich keine starke GPU kaufe um sie dann unter Halblast zu betreiben. Das ist wenn dann nette Dreingabe in Ausnahmefällen wenn ich zb nen asbach Uralt Tietel auskram. idR schaubt man die Settings so weit hoch dass man bei 100% GPU Auslastung für sich ausreichende Frameraten hat.

@aivazi

Klar im Prinzip stellt man an einem Panel, das dynamische Frequenzen unterstützt, für jeden Titel die FPS ein die man haben will. So kann die GPU also dynamisch die Auslastung und Takt so steuern dass diese Zielframerate erreicht wird.

Das dürfte aber nichts an der Kernaussage ändern, dass die GPU hier dennoch den zumeist weit größeren Verbraucher stellt als die CPU. Selbst wenn diese auf 5 Ghz OC wird. Mit limitierter Framerate ist man quasi ja immer im GPU Limit und die CPU auf vergleichsweise kleiner Teillast.

Chill bzw Framelimiter sind toll gerade wenn man ein Panel mit hohen Hz Zahlen hat und Titel zockt die keine 144hz fordern, WOW zb. Wer auf sowas dann aber aktuelle Ego Shooter spielt oder auf 4K zockt - für den kann die GPU nicht schnell genug sein. Ergo limitiert er da auch kaum die Frames. Und genau für sowas sind die Top End GPU doch da. Ich kauf mir doch keine Vega für WoW.
 
Zuletzt bearbeitet:
Zurück
Oben