• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Wolfenstein 2 im Benchmark: Das Vulkan-API-Spiel mit Vega-Feature

ab welcher Uhrzeit kann man spielen? Wird es unter Windows 1607 build14393 laufen?
 
Zuletzt bearbeitet:
Iscaran schrieb:
http://www.pcgameshardware.de/Wolfe...us-im-Technik-Test-Benchmarks-Vulkan-1242138/

Also in 4k sehe ich bei PCGh im 99er Percentil V64 ca gleich auf mit einer custom 1080 und.

Eine custom 580 ist ca 20% schneller als eine custom 1060...wo es sonst eigentlich eher -10% sind.

in FullHD ist eine custom V64 nur ~15% langsamer als eine custom 1080 Ti....und immer noch ~10% schneller als eine custom 1080.

Selbst eine custom V56 ist nur 10% langsamer als die custom 1080 und wie oben bei den midrange karten ist die custom 580 ~15% VOR einer custom 1060 ?

Also ich finde das ist schon erstaunlich wie gut hier AMD performt.

Das sind Dinge die sieht keiner. Vega ist scheisse weil sie nicht 500% vor der 1080 TI liegt in einem Vulkan Titel. Stattdessen halten sich jetzt alle mit einer Nvidia in dem Worst Case Szenario des Spiels auf und machen durchgehend 360 Grad Spins und erfreuen sich das ihre Frames nicht einbrechen. Der Rest des Spiels ist dann eher nebensache ...

Sorry für diese übertreibung, das musste aber raus.
 
Thema CPU-Test: Ist auf jeden Fall noch geplant. Aber das kann leider, leider etwas dauern. Heute noch eine Basis für Assassin's Creed (da gleich weniger GPU, dafür CPU). Nächste Woche 1070 Ti und Xbox One X im Fokus. Aber wir hören eure Rückmeldungen und sind ja selber gespannt!
 
canada schrieb:
Bitte nicht Falsch verstehen aber du hast den GPU Aufbau der zwei Chips immer noch nicht verstanden. Hauptsache viele MegaPixel = gut, viele GHz ist gleich besser, mehr Transistoren muss schneller sein ... AMD designt ihre Chips auf einem Design um alle Märkte ab zu decken, kurz sind keine reine auf Gaming entwickelte Grafikchips. Ob man das nun gut heißst oder nicht, sei jetzt mal dahin gestellt (mir persönlich gefällt es nicht), da dadruch natürlich viel Balast für die einzelen Bereiche mit geschleppt wird nicht. Deswegen kann man Anhand der Transistoren nicht sagen, schlechtes Produkt, weil einfach viele Transistoren bei AMD bei Spielen brach liegen und nur in anderen Anwendungfällen gebraucht bzw. genutzt werden.

Also bitte Kollege... Lies meinen folgenden Post, da steht genau das. Hauptsache erstmal abfällig rumpöbeln, dass man ja viel klüger ist. Nur weil wir hier anonym sind müssen wir nicht den Soziopathen raushängen lassen oder?
Wenn der Chip als Gamer-Karte vermarktet wird, dann muss er sich sehr wohl genau diese Kritik gefallen lassen.
 
BmwM3Michi schrieb:
ab welcher Uhrzeit kann man spielen?

Also ich habe heute schon eine Runde gespielt. Ich glaube um Mitternacht wurde das Spiel freigeschaltet. Nun müsste ich am besten noch Assassins Creed und Wolfenstein parallel spielen können. ;)
 
Schöner Test! Leider kann ich meine GTX970 nicht einordnen wo diese dann mit FPS landet. Wer benutzt noch diese Unschärfefilter? Ich muss alles gestochen scharf haben und über 75Hz flimmert ehe nichts.

CB@
kommt noch Full HD Test nachgereicht?

mein Gaming Monitor ->Lenovo

Edit: sorry bei mir ein Explorer Fehler gewesen, alles wieder sichtbar
 
Zuletzt bearbeitet: (edit)
@Jan stellst Mal Videos oder bitte zumindest Bilder der beiden Szenen hoch danke! Habt ihr Mal geschaut das dies kein Shader cache Problem ist am Anfang?
 
Die Engine ist einfach der Wahnsinn. Selbst eine 390 schafft auf FHD absolut ausreichende Frames für Maximale Details.

Da können sich einige Engines eine dicke Scheibe abschneiden die weniger Frames auf die Straße bringen und trotzdem nicht so gut aussehen.
 
Herdware schrieb:
Schließlich liegen die GPUs der jeweiligen Leistungsklassen ja in Sachen theoretischer Rohleistung, Transistorzahl usw. auch nicht allzu weit auseinander.

findest? Der GP104 Chip ist doch Kindergarten vergleichen mit Vega 10, und bei "anspruchsvoll" in 4K also GPU Limit geben sich beide fast nix.
Da setzt sich die GTX 1080 erstaunlich krass von der 1070 ab, skaliert super über die GPU Leistung. Bei AMDs Vega genau das Gegenteil. Die 64 kaum schneller als die 56.

Ich kann mir das fast nur dadurch erklären dass die Vega 64 hier massiv throttelt und auf knapp über 56er Niveau zurück fällt.
 
Jan schrieb:
Thema CPU-Test: Ist auf jeden Fall noch geplant. Aber das kann leider, leider etwas dauern. Heute noch eine Basis für Assassin's Creed (da gleich weniger GPU, dafür CPU). Nächste Woche 1070 Ti und Xbox One X im Fokus. Aber wir hören eure Rückmeldungen und sind ja selber gespannt!

Bei Origins solltet ihr definitiv auf Thread-Nutzung eingehen. Das Spiel killt selbst Octa-Cores.
 
Krautmaster schrieb:
findest? Der GP104 Chip ist doch Kindergarten vergleichen mit Vega 10, und bei "anspruchsvoll" in 4K also GPU Limit geben sich beide fast nix.
Da setzt sich die GTX 1080 erstaunlich krass von der 1070 ab, skaliert super über die GPU Leistung. Bei AMDs Vega genau das Gegenteil. Die 64 kaum schneller als die 56.

Ich kann mir das fast nur dadurch erklären dass die Vega 64 hier massiv throttelt und auf knapp über 56er Niveau zurück fällt.

Es spricht nicht für throttling eher dafür das die restlichen cu nicht gut versorgt werden. Also ein Frontend Problem. Vega baut auf primitive Shader auf, wenn das kaputt ist und nur die Notlösungen funktioniert dann könnte sowas dabei rauskommen. @Jan fragt Mal bei AMD nach was aus primitive shader würde nachdem es ja auch jetzt nicht in Wolfenstein integriert ist.
 
aivazi schrieb:
Freu dich doch einfach für die Leute die für 400 € eine RX 56 mit GUTEM CHIP bekommen haben und mit etwas OC und UV auf die Leistung einer 700 € Karte kommen....... zumindest in diesem Spiel.
Eine OC Karte mit einer Non-OC Karte zu vergleichen ist wohl auch mittlerweile gängiger K(N)onsens. Erkläre doch mal, wieso man seine 700€ Karte nicht übertakten darf? Vielleicht weil du dann nicht mehr auf die Leistung einer 700€-Karte kommen würdest? :rolleyes:
 
Man man man... Was ein Gelaber hier. Ich wünschte, hier würden mal die ganzen Fanboys rausmoderiert.

Ich hab seit ein paar Wochen einen Freesynch Monitor mit 1440p. Dazu eine Vega56 (409€). Spiel ist seit heute morgen spielbar und ich sitze noch im Büro, aber heute abend schreib ich hier ein rein, ob es Tearing o.ä. gibt :)
 
schkai schrieb:
Das sind Dinge die sieht keiner. Vega ist scheisse weil sie nicht 500% vor der 1080 TI liegt in einem Vulkan Titel. Stattdessen halten sich jetzt alle mit einer Nvidia in dem Worst Case Szenario des Spiels auf und machen durchgehend 360 Grad Spins und erfreuen sich das ihre Frames nicht einbrechen. Der Rest des Spiels ist dann eher nebensache ...

Sorry für diese übertreibung, das musste aber raus.

Du triffst den Nagel auf dem Kopf.
 
Aufgrund einer anderen Erwartungshaltung, bin ich etwas enttäuscht von der Leistung der Vega. Unabhängig betrachtet eine gute Leistung, sofern die Einbrüche von über 30% noch behoben werden.

Betrachte ich dies jedoch als AMD Vorzeigetitel mit Nutzung der favorisierten Vulkan API und zum ersten Mal auch der erweiteren AMD Funktionen, hätte ich eine eindeutigere Situation erwartet.

Die Ressourcen bei AMD sind im Vergleich zur Konkurrenz begrenzt. Eine neue Architektur. Mal sehen was hier noch möglich ist.
 
Foxman schrieb:
Bin nach 15 Jahren von ATI/AMD nun auf Intel/NVIDIA umgestiegen. Leider hinkt AMD immer (egal ob CPU oder GPU) hinterher.

Auch wenn es ein langer und schwieriger Weg war, nun bist du endlich bekehrt. Friede und Glückseligkeit erwarten dich nun. Willkommen!
 
Habs Explorer neu gestartet, war irgend wie ein Wurm drinn.

@Jan
alles wieder ok
 
ampre schrieb:
@Jan fragt Mal bei AMD nach was aus primitive shader würde nachdem es ja auch jetzt nicht in Wolfenstein integriert ist.

Würde mich auch Interessieren wann endlich die Primitive Shader im Treiber Aktiviert werden. Es nervt ein wenig das sie den Treiber nicht fertig gebacken kriegen.:utripper:

Laut AMD soll die maximale Durchsatzleistung für Geometrie auf Vega durch die „Next-Generation Geometry Engine“ um den Faktor vier höher ausfallen als beim traditionellen Rendern. Die Primitive Shader werden vom Treiber verwaltet und müssen nicht manuell in die Software integriert werden. Entwickler können das aber tun. Problem: Auch dieses Funktion ist im Treiber derzeit noch deaktiviert. Vega nutzt aktuell also nur die traditionelle Pipeline. Wann sich das ändert? AMD nennt keinen Termin.
 
Wir werden da wohl nichts höhren über primitive Shader. In einem anderen Forum wo viele Redakteure unterwegs sind hat da Mal jemand nachgebohrt. Die Antwort war deutlich, man will es sich mit solchen Fragen nicht bei den Herstellern verscherzen, denn man braucht ja noch review Sampels Von den Herstellern! Zeigt sehr deutlich wohin die Reise geht im Journalismus und der Hyptrain geht mit weil es zurzeit die beliebteste Marke fördert.

Die Diskusion über deaktivierte Features wäre Hundert mal hilfreicher als die andauernde Diskussion über Verbrauch und Taktraten. Aber warte ab der nächsten Kommentar geht wieder über Takt und Verbrauch
 
Zuletzt bearbeitet:
Zurück
Oben