Test Radeon RX Vega 64 Strix im Test: Asus Vorserie schlägt das Referenzdesign deutlich

SKu schrieb:
Natürlich beherrschen die Nvidia-Karten DX12. Nur hat DX12 kaum Relevanz. Angefangen mit Mantle in Battlefield 4, gab es dann DX12 von Microsoft. Nur welche Relevanz hat DX12 im Spielemarkt? Die Titel, die DX12 unterstützen, kann man an einer Hand abzählen und funktionieren mit DX11 genauso gut.

Leider.
Bzw. ist das die harte Wahrheit.
Ich persönlich kenne kein Spiel was ich spiele, was mir in DX12 einen Vorteil gibt.
Außer in irgendwelchen erstellten Szenarien (Crap CPU gepaart mit einer ordentlichen GPU) kenne ich in der Praxis echt keinen Vorteil.
Einzig DOOM hat mich unter open GL echt umgehauen. Wahnsinn (wir unterschiedlich sich 120fps anfühlen können je nach API)
 
Das wird auch weiterhin so bleiben. Solange die Spiele nicht out of the box mit DX12 auf den Markt kommen, bleibt die API eine Nische, in der unter ganz besonderen Umständen gewisse Hardware-Konfigurationen profitieren können. Persönlich konnte ich bisher nicht einen einzigen Vortel von DX12 in Spielen erkennen. Rein subjektiv gibt es keinen Unterschied zu DX11. Und dabei war es egal, ob es ein Titel von EA, Ubisoft oder Square Enix gewesen war.

Mal gucken inwiefern die Xbox One X von DX12 profitiert. Aber das ist auch wieder so eine Sonder-Konfiguration. Die CPU ist ja nun im Vergleich zu den Desktop-CPUs absoluter Crap.
 
BoB DeR BaeR schrieb:
Ich verstehe die Nvidia-Käufer einfach nicht.

Ja die 1080ti verbraucht weniger und liefert mehr Leistung. Das stimmt und wenn ich nur darauf schaue würde ich ich mir auch eine 1080ti kaufen. Mal abgesehen das wir hier eigentlich die 1080 als Vergleich nehmen müssen schließlich ist die 1080ti ja auch 100€ teurer als die Vega.

Was ich und viele AMD Käufer wollen ist aber eine Karte für Sync in meinem Fall halt Freesync weil ich damals nicht dazu bereit war Nvidia ihre Synctechnologie, die quasi identisch ist zu AMDs, mit extra Geld zu honorieren. Jeder der einmal mit Sync gespielt hat weiß das das viel mehr Wert ist, als 30% mehr Leistung(in Bezug auf die 1080ti).

Dazu kommt das ich grundsätzlich versuche eine AMD Karte zu kaufen nur um den kleinen Konkurrenten zu unterstützen und nicht weil ich FAN bin. Ohne AMD würden die Nvidiakarten sicher noch mehr kosten und keiner von uns will ein reines Nvidiamonopol. Freut euch lieber das wir "AMD Idioten" dafür sorgen das eure heiß geliebten Karten nicht doppelt soviel kosten. Ein einfaches Danke reicht uns :)

Ich DANKE dir! :D Geniales Kommentar!^^

Der Kühler der ASUS schafft ja einiges weg.... muss er auch. Bin gespannt, was die anderen z. B.MSI hier auf die Vega schnallen.
 
Ich sehe das total anders. Für mich ist jegliche Sync-Technologie absolut irrelevant. Ich habe jetzt seit über einem Jahr G-Sync und benutze es zu 90% nicht.

In Multiplayer Shootern will man möglichst hohe FPS-Zahlen haben. Da bringt mir Gsync schonmal gar nichts. Des weiteren fühlen sich Shooter mit Gsync total schwammig an und das ist mit Freesync auch nicht anders, da ich mit meiner FuryX auch Freesync benutzt habe.

Es wird wohl so sein, dass man diesen Sync Kram bei normalen Spielen gut nutzen kann. Witcher 3, Rennspiele und sowas halt. Doch Personen wie ich spielen nur Multiplayer Shooter und da setze ich lieber auf maximale Performance, als auf < 120 FPS + Gsync.

Ich empfinde nahezu jedes Spiel < 120 FPS als ruckelig, hakelig und mit Inputlag. Ab 120 FPS sind Spiele gut zu genießen und da brauche ich dann auch kein Sync mehr.

Ich habe mir einen Monitor mit Gsync geholt weil alle davon geschwärmt haben und wie viel "smoother" alles ist. Ich hatte davor einen mit 144Hz ohne Gsync. Framedrops spürt man auch mit Sync absolut massiv und wenn man eh nur 70 FPS oder so hat, kann man competitive eh vergessen.
 
GERminumus schrieb:
Leider.
Bzw. ist das die harte Wahrheit.
Ich persönlich kenne kein Spiel was ich spiele, was mir in DX12 einen Vorteil gibt.
Außer in irgendwelchen erstellten Szenarien (Crap CPU gepaart mit einer ordentlichen GPU) kenne ich in der Praxis echt keinen Vorteil.
Einzig DOOM hat mich unter open GL echt umgehauen. Wahnsinn (wir unterschiedlich sich 120fps anfühlen können je nach API)

Erstellte Szenarios ist Crap es geht um Overhead Verteilung um Stabileres Rendering mit höherer Komplexität und im Endeffekt um sehr viel Geld bei Mobile.

Crap CPUs exestieren schon lange nicht mehr.

Du kennst Crap CPUs garnicht mehr ;)

Ich empfinde nahezu jedes Spiel < 120 FPS als ruckelig, hakelig und mit Inputlag. Ab 120 FPS sind Spiele gut zu genießen und da brauche ich dann auch kein Sync mehr.

Und genau hier setzen Low Level APIs an und nicht bei irgendwelchen Crap Balken gerade das was du da empfindest die fluktuationen in den griff zu bekommen und so einen stabileren renderablauf hinzubekommen der unter höherer last soweit es geht stabil bleibt und das möglichst ohne in deinen 120 FPS Verbrauch zu rutschen.

Allerdings steigt die last mit VR so extreme nach oben und sachen wie HDR machen es auch nicht besser das es alleine nicht aussreicht deshalb sind Freesync und G-sync da.

Gerade im Competitive berreich sind Low Level APIs ein riesen Vorteil für jemanden der es nutzen kann vs jemanden der es nicht nutzen kann auf dem selben System, sie kompensieren dir teils auch die Zeit des Netcodes und bis die Prediction dort reagiert.
 
Zuletzt bearbeitet:
t3chn0 schrieb:
Ich sehe das total anders. Für mich ist jegliche Sync-Technologie absolut irrelevant. Ich habe jetzt seit über einem Jahr G-Sync und benutze es zu 90% nicht.

Aber genau die Freesync Technologie ist derzeit für mich das einzige Argument sich eine Vega zuzulegen und auch hier muss sie es erstmal schaffen auf die 40 FPS zu kommen, die die meisten (4K) Monitore als unterste Grenze haben.
Der Preisvorteil der Freesync Monititore wird aber wieder vollends aufgefressen durch den zu hohen Preis der Vega und die zu hohen laufenden Kosten.

Für den restlichen Schnickschnack wie Compute Leistung und die sonstige hochmoderne Technik kann ich mir, Stand heute, rein gar nichts kaufen. Wer sowas braucht kauft sich die vega frontier edition.
Ich will Gaming Leistung jetzt und nicht Morgen, denn Morgen kommen wieder neue Karten auf dem Markt und wer weis heute was die dann alles können.
 
SKu schrieb:
Das wird auch weiterhin so bleiben. Solange die Spiele nicht out of the box mit DX12 auf den Markt kommen, bleibt die API eine Nische, in der unter ganz besonderen Umständen gewisse Hardware-Konfigurationen profitieren können.

Nvidia hat auch bis zum Anschlag seine Fuchteln drin. "Gang besondere HW-Konfigurationen" sind in dem Fall AMD-Karten.
Siehe einmal PUBG, das läuft so abgrundtief schlecht auf AMD, genauso wie die meisten Blizzard-Games.
Zufall? Bestimmt nicht!
 
Elephant lol schrieb:
Nvidia hat auch bis zum Anschlag seine Fuchteln drin. "Gang besondere HW-Konfigurationen" sind in dem Fall AMD-Karten.
Siehe einmal PUBG, das läuft so abgrundtief schlecht auf AMD, genauso wie die meisten Blizzard-Games.
Zufall? Bestimmt nicht!

PUBG läuft auch auf Nvidia bescheiden. Evtl. besser als auf AMD aber gewiss nicht optimal. Zufall? Eher nicht. Bei Blizzard laufen zumindest Overwatch und Hots einwandfrei mit einer AMD CPU.
 
SKu schrieb:
PUBG läuft auch auf Nvidia bescheiden. Evtl. besser als auf AMD aber gewiss nicht optimal. Zufall? Eher nicht. Bei Blizzard laufen zumindest Overwatch und Hots einwandfrei mit einer AMD CPU.

Stimmt, aber eben weil nicht so anspruchsvoll und nVidia immer besser. DX12 wird natürlich, weil die eigene Hardware es nicht beherrscht, vehement nach hinten geschoben, daher der Vorteil.
 
Elephant lol schrieb:
Stimmt, aber eben weil nicht so anspruchsvoll und nVidia immer besser. DX12 wird natürlich, weil die eigene Hardware es nicht beherrscht, vehement nach hinten geschoben, daher der Vorteil.

Klar beherrscht Nvidias Hardware DX12. Nur bringt es keinen Vorteil bei leistungsstarken Systemen.
 
Teralios schrieb:
Ich glaub, du missverstehst ihn da ein wenig.

Was ihn wohl stört - und mich auch - ist, dass ein paar Pappnasen immer großspurig davon sprechen, sie würden ja AMD kaufen, wenn deren Produkte "gut" wären, was im Endeffekt jedoch einfach nur eine Alibibehauptung ist und sie so oder so zu nVidia oder Intel gegriffen hätten.

Ich hab auch so ein paar Spezis in meinem weiteren Bekanntenkreis und die Argumente sind im Endeffekt auch nur ein im Wind drehen, da sie IMMER einen Grund finden, der gegen AMD spricht. Als AMD die effizientesten GPUs hatte, war halt nVidia schneller. Als beide ungefähr gleich gut waren, war es PhysX, jetzt ist es halt die "Effizienz".

Und gerade die Effizienz ist für mich bisher der Gipfel an Unverschämtheit dieser Anti-AMD-Argumentation. Als AMD wirklich effizientere GPUs gefertigt hat war nämlich oft das Argument dann eben das besagte PhysX oder das ja die nVidia-Karten nen paar Prozent schneller sind usw.

Da bin ich voll bei Dir! Ich kaufe mir in der Regel auch keine Spitzenkarten, für die man ein eigenes Atomkraftwerk samt Netzteil dazu braucht... sondern solides Mittelfeld. Ob nun 70 oder 140 Bilder die Sekunde macht für mich, der als Kind noch Schwarzweissfernsehen erlebt hat, keinen Unterschied :)
 
Fragt euch mal, warum kaum Spiele mit DX12 / Mantle rauskommen. nVidia hat in so vielen Games seine Finger drin mit ihrem lachhaften Gameworks-Abfall, kein Wunder, dass AMD da kein Land sieht.
EDIT:
Dass nVidia ASC hardwareseitig nicht beherrscht, ist ein Fakt. Überhaupt nicht verwunderlich, dass nVidia DX12 solanage wie möglich rausschiebt. Ist auch kein Problem, da eh 90 % nVidia User sind.
 
Zuletzt bearbeitet:
naja elephant... die Optimierung der Spiele in Richtung Konsolenmarkt und die Überhand von AMD bei Konsolen darf man aber auch nicht leugnen ;)
 
DubZ schrieb:
naja elephant... die Optimierung der Spiele in Richtung Konsolenmarkt und die Überhand von AMD bei Konsolen darf man aber auch nicht leugnen ;)

Welche Optimierungen gibts da bisher? Mir wäre keine Konsolenport bekannt, der gut auf dem Desktop läuft, bzw. weitaus besser auf AMD-PCs läuft wie du suggerierst.
Da kommen wohl doch sehr unterschiedliche APIs zum Einsatz. Xbox sollte ja zumindest DirectX basierend sein, die PS4 Spiele sind es aber sicherlich nicht.
 
NilRecurring schrieb:
“[we] won’t be making a custom card anytime soon, [...]”

So siehts aus. Auch den Termin von Asus sehe ich mittlerweile eher im November und dass es größere Mengen geben wird, nunja, eher unwahrscheinlich.

Bei Powercolor usw. muss man ja dazu noch bedenken, dass die Massenproduktion im November starten könnte, aber bis die Karten dann hier sind (per Schiff), dürfte es locker Dezember/Januar/Februar werden.

Sorry AMD, ich hab dir so lange die Stange gehalten, aber Vega ist einfach ein Riesen-Reinfall. Nun ists bei mir ne 1080 Ti geworden.
 
Und das ist jetzt so wichtig, das du es extra uns allen mitteilen musst? Mal ehrlich. Kauf doch Leistung wenn du sie brauchst und nicht wenn Hersteller XY seine Karten auf den Markt bringt.
Das du und andere immer davon ausgehen, das Hersteller von ähnlichen Produkten immer zur selben Zeit diese auf den Markt bringen müssen. Müssen sie nicht. Und es wird auch immer Käufer geben, die ein Produkt auch nach Tag A kaufen werden. Diese Verblendung, das ein Produkt nur bis Zeitpunkt 1 verkaufbar ist und danach nie wieder.
Gerade in einem Tech Forum, sollte man davon ausgehen, das deren User eben mehr Wissen aufweisen wie gerade Produkte im Hightech bereich an Zeit benötigen bis diese fertig beim Händler vor zu finden sind und es eben immer und immer wieder zu Verzögerungen im kleinen wie großen Rahmen kommen kann.

Du hast jetzt eine GTX 1080Ti. Ist doch toll. Und laut deiner Signatur hast du auch ein G-Sync Monitor. Somit bist du ja für die nächsten Jahre gut gerüstet (theoretisch). Aber dein Sorry AMD, das kannst du dir echt verkneifen.
 
Und du hast nix anderes zu tun, als auf einen einzigen Satz eines Posts zu antworten, der dort als Randbemerkung steht?
Ich habe seit Juni 2016 einen Freesync-Monitor gehabt und seitdem auf Vega gewartet. Und jetzt nach fast 1,5 Jahren war es mir einfach genug und ich bin auf nvidia/G-Sync gewechselt.
Der enorme Energiehunger von Vega und die nicht gerade überzeugende Leistung für die aktuell und in absehbarer Zeit aufgerufenen Preise taten da ihr übriges für die Entscheidung.

Also: Wenn man keine Ahnung von den Hintergründen hat und unter Realitätsverlust zu leiden scheint: Einfach mal Klappe halten.
 
Nochmal: Warum wartest du 1,5 Jahre auf Leistung, die du ja schon vorher hättest haben können? Außer du hast diese Leistung bisher nicht benötigt. Selbst dann, ist dein Verhalten eher merkwürdig. Du holst dir 1,5 Jahre im vor raus einen Monitor, für ein Produkt, was eben erst jetzt auf den Markt ist. Du kanntest weder die Leistungsfähigkeit noch den "Energiehunger" (wie man so konsequent immer wieder das als Totschlagargument nutzen kann als PC User, ist süß). Aber du holst dir schon einmal einen passenden Monitor.

Also was willst du uns jetzt mitteilen? Wie böse AMD doch ist, und das du dich ausgenutzt fühlst, weil du ja so hoffnungsvoll gewartet hast. Auf was eigentlich? Einen GTX1080Ti Killer? Auf die Ultimative Gamingkarte die nur 30Watt verbraucht aber eine Leistung hat, die nVidia in 5 Jahren nicht erreicht?
Sorry, aber anderen Realitätsverlust unterstellen, aber selber naiv auf etwas warten, was nie eintreffen wird. Ja passt schon.

Leistung kauft man, wenn man sie braucht und nicht wenn Hersteller XY sie auf den Markt bringt. Man kann zwar Unternehmen priorisieren und deren Produkte. Aber man sollte nie so blind und einfältig sein, die Leistung der anderen Unternehmen und der Leistungsfähigkeit ihrer Produkte zu schmälern oder gar zu verleugnen.
Fakt ist, die Leistungskrone hat nVidia. Fakt ist auch, den kleineren Energieverbrauch hat nVidia. Fakt ist ebenso, das nVidia dafür bei den Gamingkarten Hardwarefeatures weggelassen hat, die AMD eben dabei hat. Kann man alles sehen wie man will. Aber immer darauf rumreiten, das nVidia ja soviel weniger Verbrauch hat, ist schon echt lustig. Weil es eben wieder nur die halbe Wahrheit ist.

Seit doch wenigstens endlich mal ehrlich zu euch selber und allen anderen. Wenn ihr kein AMD kaufen wollt, dann ist das doch auch ok. Aber packt nicht immer und immer wieder zig an den Haaren herbei gezogen Argumente vor euren nicht vorhandenen Kaufwillen was AMD Produkte angeht.
 
Zurück
Oben