• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Wolfenstein 2: Neuester Patch beschleunigt RX Vega um bis zu 22 Prozent

Wieder viel Aluhutträger hier die ohne Hirn Verschwörungen an jeder Ecke sehen ^^

Klar, CB sucht sich erst ne buggy Szene raus um AMD schlecht aussehen zu lassen, und kommentiert das dann auch so in einer der wenigen News und Benches zu Patch 2 der Vega super steht.

Wenn man also so Anti AMD ist, wieso bringt man dann überhaupt diesen Artikel hier?

Am Ende eines langen Tages kassiert CB natürlich von NVidia für das alles. Liegt doch auf der Hand. :)

Muss man CB nicht eher anrechnen dass
- aufgrund der komischen Messwerte aus Szene 1 der Sache auf den Grund gehen und eine weitere Szene einbringen?
- Jedes Update auf Performance untersuchen
- im Update jetzt die Fehler kommentieren? Vermutlich sah man den Skybox Bug garnicht so einfach, im Gegensatz zum Nvidia Bug jetzt.
 
Zuletzt bearbeitet:
Krautmaster, du kannst zwar versuchen die Kritik einiger ins lächerliche zu ziehen, aber es stellt sich dennoch die Frage weshalb man eine klar erkennbare und dem Entwickler bekannte fehlerhafte Szene nimmt um es als "Worst Case" Szenario darzustellen - ohne im Original Artikel darauf einzugehen.
Ein typisches Wirst Case Szenario wäre eine Szene in der sehr viel passiert an Menschenmassen mit Explosionen noch und nöcher - nicht eine Szene in der das Spiel fehlerhaft ist.
 
Siehe mein edit. Den Fehler in Manhatten sieht man vermutlich garnich so ohne weiteres. Außerdem wird hier immer so getan als hätte CB nur worst case gebencht. Man hat doch extra direkt 2 Szenen genommen hallelujah.

Edit; also obs besser gewesen wäre wenn man die Frameraten in Manhatten unterschlagen hätte.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Edit; also obs besser gewesen wäre wenn man die Frameraten in Manhatten unterschlagen hätte.

Es wäre besser gewesen dem auf den Grund zu gehen bevor man ihm gleich 2,5 von 3 Seiten im Test widmend.
Aber mein Aluhut drückt vermutlich gerade etwas. Aber wenn ich ihn ablege, werde ich für die Welt einfach zu naiv. :)
 
Zuletzt bearbeitet:
Volkimann schrieb:
Im Prinzip? Nicht wirklich miteinander vergleichbar.
Der Titel wurde auf alle Architekturen hin optimiert (und eben auch auf die Vega Architektur und zeigt damit Potential das in ihr schlummert.)

Gameworks hingegen ist eine proprietäre DLL Sammlung, wo bis auf seltene Ausnahmen wie Gothic 3, kein Entwickler irgendwas für die AMD Architekturen anpassr, sondern es rein auf nvidia optimiert auf den Markt rotzt.

Das kann man so nicht stehen lassen. Rapid Packed Math ist z.B. ein Vega exklusives, proprietäres Feature, auf das extra hin programmiert werden muss. Das ist also sehr gut mit Gameworks Libraries vergleichbar.

Ich finde man soll sich halt nichts vormachen. Der Punkt ist, Nvidia hat genug Geld zweigleisig zu fahren: Compute- und Grafikkarten. AMD hat nicht das Geld zwei Sachen zu entwerfen, daher hat Vega halt soviel Transistoren im Vergleich und bringt aber weniger Leistung. Ist aber auch total logisch, weil einfach im Vergleich von den ganzen Transistoren deutlich weniger tatsächlich sich eignen zur Berechnung von Computerspielen. Abhilfe versuche man z.B. durch Rapid Packed Math zu erlangen, aber auch da gilt, dass man nicht wundersamer Weise alle brachliegenden Transistoren nutzen kann, da nicht alle Berechnung in 16-Bit berechenbar sind. Übrigens ein Feature was Nvidia ja auch bereits kläglich mit der CineFX Architektur probiert hatte.

Ich finde man sollte da auch nicht die Rosarote Brille aufhaben, viele der Marketing-wirksamen Begriffe bei AMD und die Mär mit dem alten Wein sollen am Ende nur darüber hinwegtäuschen, dass man glaublich viele Pflaster braucht, damit die eigene Architektur einigermaßen konkurrenzfähig ist. AMD sollte halt aufhören die eierlegende Wollmilchsau zu entwickeln, GPGPU Compute auf PCs im Heimbereich hebt halt leider doch nicht so ab wie erhofft. Und das war ja auch bei den APUs schon sichtbar.
 
Zuletzt bearbeitet:
Ich habe doch geschrieben was der Unterschied ist und weshalb es nicht vergleichbar ist.
Die Wolfenstein Macher optimieren für beide Hersteller und versuchen das Beste rauszuholen ohne den anderen zu benachteiligen (sofern es denn fehlerfrei läuft).

Bei der Verwendung von Gameworks ist es eine einseitige Optimierung auf nvidia, seltene Ausnahmen wie Gothic 3 versuchen das GW zu mindestens keinen Negativeffekt hat.

Rapid Packed Mat ist übrigens auch nur ein Marketing Name für FP16 und INT16 Berechnungen, die nvidia auch beherrscht. In ihren entsprechend teuren Quadro Modellen WI das Feature freigeschaltet ist, im Gegensatz zu den Gaming Karten.
Nennt sich bei nvidia Halfprecision.
 
Zuletzt bearbeitet:
dMopp schrieb:
Ich hoffe einfach, dass Vega als Refresh/v2 dann sauber mit nVidia mitzieht. WIRKLICH!

Ich würde mal vermuten, damit du deine nächste Nvidia günstiger bekommst?

Ich dagegen hoffe, AMD zieht sich komplett aus dem Spiele GPU Markt raus, damit 80% der Käufer mal ihre Quittung bekommen, nach der sie schon sooo lange betteln.
 
Wadenbeisser schrieb:
Oder man wählt einfach das Power Save Profil aus, nimmt 5-10% Leistungsverlußt hin und hat ein deutlich leiseres und sparsameres System.

Nun dann hat man aber auch nicht mehr die Leitung die eine Vega 64 angeblich liefern kann.
Also warum soll ich 5-10% Leitungsverlusst akzeptieren, wenn ich für weniger Geld eine 1080 bekomme, die dann schneller/leiser ist und immer noch weniger Strom verbraucht ?

So sehr ich mich für AMD freue, das sie endlich ein bisschen Konkurenz aufbauen können, das verstehe ich aber nicht.
 
combatfun schrieb:
Vega hat sogar ~ 1,6 Tflops mehr. Generell sind AMD GraKas auf dem Papier oft schneller. Wo verpufft die Leistung? Liegt wohl bei PC Spielen wirklich viel an nVidia Optimierungen und an besseren Treibern. Fällt beides weg (Mining), gehen die Karten ab wie Schmitz Katz.

Die 1.6Tflops mehr hat Vega aber nur wenn man annimmt dass sie permanent im Turbo gehalten werden kann

Folgende Rechnungen zum Vergleich:

Vega64 LC 4096 Shadern und 1406 MHZ Baseclock = 11.5GFlops
NUR mit dem Turbo von 1677 MHz kommt man bei Vega auf 13.7 GFlops
EDIT: mit den Turbowerten aus dem CB-Test von ~1510MHz kommt man so auf 12.3 GFlops.

1080 Ti hat mit 1582 MHz Turboclock = 11.3 GFlops
Ohne Turbo kommt die 1080 Ti auf 10.1 GFlops.
EDIT: mit den eher üblichen 1797 MHz kommt eine Ti auf 12.9 GFlops.

Allerdings weiss man ja aus den Benches dass die 1080 Ti effektiv in der Lage ist ca 1580 MHz zu halten.
Bei Vega64 selbst in der LC edition wäre mir neu dass die Karten dauerhaft halten können siehe:
https://www.computerbase.de/artikel....60604/seite-2#abschnitt_taktraten_unter_last
https://www.computerbase.de/artikel...666/#abschnitt_taktraten_nach_20_minuten_last

Die 1080 Ti hat real sogar meist mehr als die nominellen 1582 MHz der FE edition. (eher so 1700-1800 MHz).

Ergo ist man GFLops mäßig eigentlich eher gleich auf - statt dass man sagen kann das AMD hier noch 1.6 GFlops mehr hat und diese Leistung "verpufft".

Wenn AMD es im nächsten Schritt schafft die Effizienz (Leistungsaufnahme) deutlich zu verbessern und die Taktraten im Bereich 1600-1700MHz wirklich gehalten werden können. Dann hätte eine Vega-Refresh wirklich so ca 14 GFlops aber aktuell haben die Karten bestenfalls 11.5-12 GFlops zu bieten.
 
Zuletzt bearbeitet:
Darum ist AMD schlecht. Auch wenn die Hardware es nicht ist, aufgrund ihres Marktanteils optimiert keiner für AMD. Ergo, Nvidia wird die Nase vorne haben, auch wenn es mal schlecht läuft.

Für mich als Konsumenten zählt nur was am Ende herauskommt. Der Krieg zwischen den Fronten geht an mir vorbei. Hätte und könnte ist nichts in was ich investiere.
 
Investitionen tätigt man besser für die Zukunft und auf längerer Sicht gesehen.
Sogesehen ist es besser AMD zu unterstützen um langfristig einen bessern Wettbewerb zu erzeugen. Man sieht ja an der CPU-Sparte was passiert, wenn es keinen Wettbewerb mehr gibt. Hohe Preise und wenig Fortschritt ist das Ergebnis einer kurzfristigen Investition.
 
Ypselon schrieb:
Nun dann hat man aber auch nicht mehr die Leitung die eine Vega 64 angeblich liefern kann.
Also warum soll ich 5-10% Leitungsverlusst akzeptieren, wenn ich für weniger Geld eine 1080 bekomme, die dann schneller/leiser ist und immer noch weniger Strom verbraucht ?

So sehr ich mich für AMD freue, das sie endlich ein bisschen Konkurenz aufbauen können, das verstehe ich aber nicht.

hmmm, lass mich aufzählen.
- Unterstützung für halbe Präzision bei deren Nutzung sich die Shaderleistung nochmal verdoppelt
- voller DX12.1 Support
- HBCC dass je nach Spiel für mehr Leistung sorgen kann und vermutlich auch die Grafikspeicher Grenze über den lokalen Grafikspeicher hinaus verschieben könnte
- Die Aussicht das sie Karten der GTX1080, wie seinerzeit bei der HD7970 und der R9 290, dem Konkurrenzmodell im laufe der Zeit davon laufen könnten
- es gibt heute schon Spiele wo sie abseits von OC schneller sein kann
- Unterstützung der günstigeren FreeSync Monitore gegen sie sich nvidia verweigert um besser an ihrem eigenen G-Sync zu verdienen
- Die Dinger gab es schon für ca. 500€ (fangen derzeit bei ca. 550€ an) und in der Preisklasse fängt deine GTX1080 auch erst an
 
Und wer spielt Wolfenstein noch? Das war ein ziemlich kurzweiliger Shooter mit guter Inszenierung. Und egal ob Release, Patch 1 oder 2. Ich habe keine Bugs mit Nvidia feststellen können. Aber die Story ist recht mau vom Umfang her.
 
Wadenbeisser schrieb:
hmmm, lass mich aufzählen.
- Unterstützung für halbe Präzision bei deren Nutzung sich die Shaderleistung nochmal verdoppelt
- voller DX12.1 Support
- HBCC dass je nach Spiel für mehr Leistung sorgen kann und vermutlich auch die Grafikspeicher Grenze über den lokalen Grafikspeicher hinaus verschieben könnte
- Die Aussicht das sie Karten der GTX1080, wie seinerzeit bei der HD7970 und der R9 290, dem Konkurrenzmodell im laufe der Zeit davon laufen könnten

sehr schön geschrieben, was mich aber stört sind im besonderen:
"bei deren Nutzung"
"je nach Spiel für mehr Leistung sorgen kann"
"im laufe der Zeit davon laufen könnten"

Insgesamt also sehr vage und in blaue zielende Wünsche.

Ich fasse mal für mich zusammen,
wenn man heute Leistung benötigt und kein Problem damit hat sich durch G-Sync gängeln zu lassen = kauf NVIDIA
wenn man erst morgen Leistung benötigt die Vega dann evtl. liefern könnte (wer weis das schon) und auf FreeSync setzt = kauf AMD

- Die Dinger gab es schon für ca. 500€ (fangen derzeit bei ca. 550€ an) und in der Preisklasse fängt deine GTX1080 auch erst an

Wird auch langsam Zeit das die Karten in einer Konkurrenzfähigen Preisregion ankommen.
 
Toll das es mit einer AMD so gut läuft. Spiele mit einer Asus 1080 Ti und sobald ich auf Vollbild gehe stürzt der Mist ab, randloser Fenstermodus keine Probleme. Habe schon alles ausprobiert was ich bisher in diversen Foren gefunden habe. Von neusten Treiber, als Admin starten, Vulcan dll. Steam Overlay aus und den ganzen Kram...aber sobald Vollbild Bumm und weg. Der Führer wäre mehr als enttäuscht, voll die Grafikkartenrassisten...:D

Ps. Hoffe immer noch auf ein Patch oder Treiber der das behebt. Scheinen viele zu haben und soweit ich weiss betrifft das nur Nvidia und bei jeden ist die Lösung (wenn sie eine gefunden haben) immer bischen anders. Hatte die letzten Jahre nie Abstürze. Wie man das so releasen kann ist mir schleierhaft und ich benutze nun wirklich keine markenfremde Hardware.
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
- Die Dinger gab es schon für ca. 500€ (fangen derzeit bei ca. 550€ an) und in der Preisklasse fängt deine GTX1080 auch erst an

Ich habe eine Asus Strix Advanced GTX 1080 für 505€ gekauft und habe noch Assassins Creed: Origins und Destiny 2 obendrauf bekommen.

Eine Vega 64 im Fön Design bekomme ich im Idealfall ab 500€ ohne alles.

Auch wenn ich aus dem roten Lager komme, bin ich nicht Markenblind, sondern kaufe, was der Markt anbietet und nicht blind nach falscher Treue zu einem Unternehmen dem nur meine Kohle interessiert und nichts sonst.

Und wenn ich schon fast 600€ komplett ausgebe um eine halbwegs erträgliche selbstgebastelte RX Vega 64 zu betreiben, dann lass ichs lieber, entweder könnte ich dann eh direkt zur GTX 1080 Ti greifen, die ich mehrfach für deutlich unter 700€ kriegen könnte, oder ich kaufe mir die GTX 1080 für einen effektiv günstigeren Preis.

Ob die RX Vega noch reifen muss und/oder in manchen Spielen schneller ist, kann ich bei der Investition verkraften.

Eine Fön Karte besessen, NIE WIEDER!
 
Alphanerd schrieb:
Ich würde mal vermuten, damit du deine nächste Nvidia günstiger bekommst?

Ich dagegen hoffe, AMD zieht sich komplett aus dem Spiele GPU Markt raus, damit 80% der Käufer mal ihre Quittung bekommen, nach der sie schon sooo lange betteln.

Nö, man kann dann wieder wählen. Ich konnte mir nur die 1070 holen, amd hatte in der Klasse damals nix.
 
Zuletzt bearbeitet:
Volkimann schrieb:
Im Prinzip? Nicht wirklich miteinander vergleichbar.

Sind doch AMD eigene Features dabei. Nvidia hat die nicht. Wie rpm oda speziell angepasster Shadercode.
Um Leistung zu messen lieber auf neutrale Titel ohne spezielle Unterstützung schauen.

Entwickler irgendwas für die AMD Architekturen anpassr, sondern es rein auf nvidia optimiert auf den Markt rotzt.

Mit den neuen Updates läufts auf NV langsamer und es fehlt async Compute und n Treiber.
Bin mal gspannt wie das weidergeht. Vielleicht kommt bald nen neues patch heraus.

Krautmaster schrieb:
Wieder viel Aluhutträger hier die ohne Hirn Verschwörungen an jeder Ecke sehen ^^

Die Erde is eine Scheibe und so gibts halt in gesponserten Spielen immer einen Profiteur und einen Benachteiligten. Egal ob AMD das sponsert oder Nvidia. Denkt man hier und da.
Jetzt gibts exclusive Sachen bei AMD und schon störts nicht mehr.
Würd Nvidia das machn dann geht die Welt unter.

Let the wars beginn. Im nächsten Spiel gibts dann wieder ne Verschwörung.
AMD Nvidia oder CB schaunwer mal wer drann ist.:D

Volkimann schrieb:
Ich habe doch geschrieben was der Unterschied ist und weshalb es nicht vergleichbar ist.

Spezial Code/Features welche der andre Hersteller nicht hat oder nicht nutzen kann oder halt nicht zuschalten kann.
Async compute ist auf gewisse Weise AMD Land, RapidPackedMath und shader Optimierungen nur für AMD.
Culling ist auch drinnen.

Die Wolfenstein Macher optimieren für beide Hersteller und versuchen das Beste rauszuholen ohne den anderen zu benachteiligen (sofern es denn fehlerfrei läuft).

Das versucht doch jeder Hersteller und wenn der andere benachteiligt ist dann doch weil die Graka das einfach ned kann.

Bei der Verwendung von Gameworks ist es eine einseitige Optimierung auf nvidia

Beweise hab i noch keine gsehn.

rob- schrieb:
aufgrund ihres Marktanteils optimiert keiner für AMD.

AMD hat die ganzen Konsolen.
 
Zuletzt bearbeitet:
Es liegt in der Natur der Sache dass man als 3rd Party erstmal auf das stärkere Pferd setzt. Wenn zb der Marktanteil 80/20 is , gar nicht so lange her, dann doch lieber auf die 80% optimieren oder? Kurz gedacht mag man meinen, aber dem Gaming Publisher is erstmal egal ob die Zocker zu 100% wegen mir überteuerte Nvidia Karten kaufen oder AMD.

Auch bezweifle ich dass man bei 100% AMD Konsolen plötzlich am PC 100% Nvidia optimiert. Beides X86, beides vermutlich weniger auseinander als man denkt ;)
 
Zurück
Oben