• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Watch Dogs: Sechs-Kern-Prozessor für maximale Settings

Status
Für weitere Antworten geschlossen.
e-Laurin schrieb:
[...]Afaik werden die Animationen der Soldaten vorausberechnet und dann bei Bedarf nur noch abgespielt. Ein gutes Beispiel für eine Optimierung, denn das Abspielen benötigt quasi keine Rechenkapazität. Er muss nur noch schauen, wo die dazu nötigen Daten im Speicher liegen.[...]

Wird da nicht eh auch Hardware Instancing "missbraucht" und das Ganze auf die GPU geschoben?
 
Uff, da überfragst du mich. Es klingt sinnig, aber ob sie es so machen? Keine Ahnung.
 
pipip schrieb:
[...]
Sicherlich darf man fragen, ob das in der Fehlertolleranz drinnen steckt, anderseits darf man aber vermuten dass im letzten Tests mehr Games dabei sind, die auch Multithreading unterstützen. Somit man darf gespannt sein, wie die FX abschneiden, wenn Games wie BF4, Watchdogs, AssassineCreed IV ect vorkommen, die mehr und mehr die 8 Threads der FX ordentlich auslasten. Denn bei Anwendungen sah man damals schon, dass ein PhenomII x6 einen 2500k abhängen kann, wenn man nur den Prozessor ordentlich auslastet.


Ja, nachdem man die Engine darauf optimiert hat, dass SMT nicht core aufgaben abwickeln muss. Denn davor hat man gesehen, schaltet man SMT ab gewinnt man an Performance.
Ich bin ja gespannt ob diverse Firmen in Zukunft auch die Arbeit machen werden und bei Intel Prozessoren immer die Threads zuweisen werden. Intel hat immerhin die Marktmacht.

Laut Benchmarks der BF4-Beta ist der FX8350 erneut so schnell wieder 3570k, wobei SMT (noch?) keinen Vorteil bringt. Btw: Der "Nachteil" von SMT mit zwei oder drei Prozent ohne Optimierungen ist völlig undramatisch, der Performancegewinn durch Abschaltung minimal.
 
DA niemand weis welchen standard ubi heir ehrangezogen hat kann man absolut keine schlüsse daraus ziehen.
Auf jeden Fall scheint das Game mit mehr als 4 Kernen zu skalieren sonst könnte man auch einen i7 als maximum angeben.
Aber ob nun das game mit einem 6 kernern 60fps minimum in jeder szene schafft und mit einem i5 dann eben nur 40 würde das game trotzdem spielbar machen auch auf langsameren Rechnern.
Somit kann man nur abwarten bis das Gamer released wurde und Test zu lesen sind.

Bin echt schon auf erste Benchmarks gespannt und wie die FX abschneiden.
Wird Zeit das Intel etwas unter Druck gerät auch wenn das Gaming wohl nur einen geringen Teil ihres Marktes ausmacht.
Muss ja nicht zwingend sein das Intel sofort einen 6 Kernern loslässt auf den mainstream aber evtl bekommen jetzt auch die i5 HT standardmässig.
Man kann bei den i7 ja immer noch mehr cache , eine bessere igpu und paar mehr instruktionen einbauen um sich abzugrenzen.

Wird der 1230er Xeon wohl für Spieler noch attraktiver, als es bis jetzt schon war.

Also aus Technischer Sicht absolut interessant wie sich das gerade entwickelt.
 
Nai schrieb:
...
Dies ist allerdings, sofern man die Animation (zB. Partikel oder Skelett-Animation) noch auf der CPU und nicht durch GPGPU macht, korrekt.
Physik, die nicht auf der CPU läuft, ist doch, wenn ich mich bezüglich des fehlenden Rückkanals von GPGPU/PhysX zur CPU nicht irre, nicht interaktiv und damit einer der Schritte hin zu Spielen, die keine Spiele, sondern Videofilme sind, bei denen man ab und an eine Taste drückt, damit der "Videoplayer" nicht auf Pause geht. Ich will, wenn ich ein Glas zertrete, dass das Glas nicht nur für meinen Monitor, sondern auch für alle anderen zertreten ist. Ich will, dass beispielsweise eine Wand, die einen Feuerball blockiert, nicht nur dessen Grafik am Durchdringen der Wand hindert, sondern auch dessen Schadensradius.
 
Zuletzt bearbeitet:
Afaik werden die Animationen der Soldaten vorausberechnet und dann bei Bedarf nur noch abgespielt. Ein gutes Beispiel für eine Optimierung, denn das Abspielen benötigt quasi keine Rechenkapazität. Er muss nur noch schauen, wo die dazu nötigen Daten im Speicher liegen.
Asche auf mein Haupt, obwohl ich schon einiges an Shader programmiert habe, bin ich nie in die Situation gekommen Skelettanimation machen zu müssen. Ich nehme allerdings nicht an, dass die in dieser Art komplett gespeichert sind (zu viel Speicherplatz um Animationen flüssig hinzubekommen, stochastische Explosion), sondern sie werden vermutlich folgende Schritte verwenden: Laden der benötigten Key-Frames von den Teilanimationen (zB. wenn der Soldat lachend rennen und mit dem Schwert fuchteln soll -> eine Teilanimation für Lachen, eine für Rennen und eine für mit dem Schwert fuchteln). Zwischen diesen Keyframes und den einezelnen Teilanimationen wird dann wahrscheinlich mit einem Verfahren der geeigneten Ordnung interpoliert, damit die Bewegungen sanft aussehen. Das Ergebnis wird in einen Konstantenbuffer für die einzelnen Knochen geschrieben, welcher dann auf die GPU hochgeladen wird. Die Tatsache, dass die Animation CPU-Rechenkapazität ohne Ende kostet und nur in einem einzigen Thread läuft, kann jeder selbst vollbringen: In eine Massenschlacht reinzoomen -> 1 Kern mehr voll ausgelastet, als wenn man in den Himmel schauen würde und Ruckelorgie. Pausiert man das Spiel, so dass er nicht mehr animieren muss, so hat man wieder deutlich FPS.


Das ist auch ein gutes Beispiel dafür, wie viele Optimierung das ganze schon erfahren hat. Bei angenommen 100.000 zu untersuchenden Punkten bzw. Koordinaten würde er bspw. auch 100.000 mal rechnen müssen, ob es einen Weg dort hin gibt. Bei einem naiven (= unoptimierten) Algorithmus würde er hier die volle Anzahl berechnen müssen, das zwingt jede Consumer-CPU für ein paar Sekunden in die Knie. Ein optimierter Algorithmus würde mathematische Seiteneffekte berücksichtigen und schneller fertig werden (zB ist ein Punkt erreichbar, dann ist es der Nachbarpunkt wahrscheinlich auch - das kann man ausnutzen).

Das Problem ist nicht die Berechnung des Overlays, sondern die Tatsache, dass er das Overlay jeden Frame neu berechnet. Und es ist ja wirklich eine einfache algorithmische Optimierung, dass man Daten, welche man über viele Frames in Folge in dieser Art und Weise verwenden wird, nicht verwirft sondern einfach recyclet.
 
AbstaubBaer schrieb:
Laut Benchmarks der BF4-Beta ist der FX8350 erneut so schnell wieder 3570k, wobei SMT (noch?) keinen Vorteil bringt. Btw: Der "Nachteil" von SMT mit zwei oder drei Prozent ohne Optimierungen ist völlig undramatisch, der Performancegewinn durch Abschaltung minimal.

Sicher? PCGH spricht von Performancegewinn durch SMT:

Battlefield 4 Beta: Prozessor-Benchmarks

Seit dem Start der halboffenen Beta von Battlefield 4 wird in den Internetforen dieser Welt debattiert, welche Hauptprozessoren dem Geschehen gewachsen sind und welche nicht. Schnell wurde klar, dass Battlefield 4 auch prozessorseitig hohe Ansprüche stellt und selbst moderne Chips in die Knie zwingen kann. Faktisch vermag es die Frostbite-3-Engine zum gegebenen Zeitpunkt, Vierkern-CPUs komplett auszulasten und selbst mit acht Kernen/Threads zu skalieren. Vielerorts ist zu lesen, dass SMT alias Hyperthreading erstmals den Unterschied zwischen zäh und flüssig bringt und SMT-lose Chips wie beispielsweise der beliebte Core i5-2500K oder i5-3570K unter der Last zusammenbrechen.

Quelle: http://www.pcgameshardware.de/Battl...Beta-Test-Prozessor-Benchmarks-Cores-1091016/
 
@Nai
Ich kann dir nicht sagen, was bei dem Overlay verkehrt läuft. Vielleicht erzwingt es ein paar zusätzliche Berechnungsrunden, die den Render Pass ausbremsen. Oder es liegt an etwas anderem. Von uns kennt leider keiner den Quellcode.

In eine Massenschlacht reinzoomen -> 1 Kern mehr voll ausgelastet, als wenn man in den Himmel schauen würde und Ruckelorgie. Pausiert man das Spiel, so dass er nicht mehr animieren muss, so hat man wieder deutlich FPS.
Das Spiel verwendet hier vermutlich ein LOD-System. Je näher man ranzoomt, desto mehr Animationsframes werden angezeigt. Auf Entfernung kann man ja nicht erkennen, ob ein Soldat gerade lacht oder nicht. ;)
Ich würde die Geschwindigkeitseinbusen nicht nur an den Animationen festmachen. Mit der Pause pausiert man ja auch andere Berechnungen.

Verdammt, jetzt hab ich wieder Lust auf Total War.
 
ronrebell schrieb:

PCGH beschreibt an der Stelle lediglich Gerüchte. Im Fließtext weiter unten heißt es, dass SMT Vorteile bringen würde, "aber nicht über die Spielbarkeit" entscheidet. Die Benchmarks zeigen hingegen eine eher schlechte Optimierung, d.h. nur kleine einstellige Prozentgewinne. 3570 und 3770 liegen quasi gleichauf. Min-fps sind tendenziell eher kritisch zu sehen, sofern man keine Verläufe angibt. Da könnte man sich auch auf den L3-Cache berufen.
 
Physik, die nicht auf der CPU läuft, ist doch, wenn ich mich bezüglich des fehlenden Rückkanals von GPGPU/PhysX zur CPU nicht irre, nicht interaktiv und damit einer der Schritte hin zu Spielen, die keine Spiele, sondern Videofilme sind, bei denen man ab und an eine Taste drückt, damit der "Videoplayer" nicht auf Pause geht. Ich will, wenn ich ein Glas zertrete, dass das Glas nicht nur für meinen Monitor, sondern auch für alle anderen zertreten ist. Ich will, dass beispielsweise eine Wand, die einen Feuerball blockiert, nicht nur dessen Grafik am Durchdringen der Wand hindert, sondern auch dessen Schadensradius.

GPGPU-Physik hat doch einen Rückkanal. So kann man sich den Zustand von Objekten, welche man per GPGPU physikalisch simuliert, ohne weiteres wieder zurück auf die CPU ziehen. Des Weiteren kann man sich bei der so oft benötigten Kollisionsberechnung ohne Probleme sich die berechneten Kollisionspaare (zB. Spieler mit Kugel) zurück auf die CPU holen, um dann dementsprechend die Kollisionsbehandlund durch die Spiellogik zu berechnet (Spieler verliert Leben und stirbt).

Wird da nicht eh auch Hardware Instancing "missbraucht" und das Ganze auf die GPU geschoben?

Man muss trennen zwischen dem Berechnen der Knochen und das Zeichnen von Objekten, bei welchem die Vertexe gemäß den Knochen berechnet werden. Die Knochen müssen berechnet werden, bevor das Objekt selbst gezeichnet werden kann. Wie und wo man die Knochen berechnet kann man sich prinzipiell frei aussuchen (CPU, GPU-Shader GPU-GPGPU), wobei bei vielen Objekten und Knochen die GPU performanter ist. Instancing kann man lediglich beim Zeichenaufruf selbst verwenden um viele Objekte, welche aus ähnlich vielen Vertexen bestehen, zu einem Zeichenaufruf zusammenzufassen. Dadurch, dass man nur einen Zeichenaufruf hat, hat man dementsprechend auch einen niedrigen Overhead.


Ich kann dir nicht sagen, was bei dem Overlay verkehrt läuft. Vielleicht erzwingt es ein paar zusätzliche Berechnungsrunden, die den Render Pass ausbremsen. Oder es liegt an etwas anderem. Von uns kennt leider keiner den Quellcode.
Ok, du hast recht, vielleicht liegt es auch an etwas anderen; ich wollte allerdings nur an einem Beispiel darauf hinaus, dass Computerspiele in der Regel (wegen Wirtschaftlichkeit) nicht immer gut optimiert sind. Und dabei sind mir in letzter Zeit immer die Total War spiele hervorgestochen.

Das Spiel verwendet hier vermutlich ein LOD-System. Je näher man ranzoomt, desto mehr Animationsframes werden angezeigt. Auf Entfernung kann man ja nicht erkennen, ob ein Soldat gerade lacht oder nicht.
Ich würde die Geschwindigkeitseinbusen nicht nur an den Animationen festmachen. Mit der Pause pausiert man ja auch andere Berechnungen.

Im Vergleich zu nicht Pause pausiert man neben der Animation ja nur die KI-Berechnungen, während die Graphik weiterläuft. Die KI-Berechnungen liefen allerdings flüssig (verifiziert durch in den Himmel schauen), demnach muss es an der Animation liegen.

Verdammt, jetzt hab ich wieder Lust auf Total War.

Ruft nicht deine Masterabeit ? :)
 
Diese Anforderungen sind einfach nur lächerlich... Macht auf Konsolen aber eh mehr Spaß...
 
Nai schrieb:
Ruft nicht deine Masterabeit ? :)
Erst nächstes Semester. ;)

Möglicherweise wird es etwas über Pfadoptimierung bei autonomen Segelbooten. Falls das Thema für die Profs nicht schon zu ausgelutscht ist.
 
Ich kann mich der Meinung und den Aussagen von AbstauberBär anschließen.

Aktuell kommt es mir so vor, als wären viele AMD-Jünger gerade zu versessen, dass ihr FX jetzt doch endlich einen i7 in allem schlagen können muss. Da wird dann eine Situation aus Crysis herangezogen und außer Acht gelassen, dass auch die i7 mit dem Patch 1.3 nochmal einiges gut zulegen konnten.
Was ich damit sagen wollte:
Ein i7 ist bisher in eigentlich nahezu allen Tests durchweg (deutlich) schneller als ein FX - letzterer ringt mit dem i5, was den FX aber kein bisschen schlechter werden lässt, v.a. nicht im P/L - und daran wird sich wohl auch nichts mehr mit der aktuellen Generation ändern.
Sollte ein i7 mit 4C/8T nicht mehr reichen, wird es der FX mit 4M auch nicht mehr - umgekehrt bleibt ein Bonus von 20-40%, der zwar existent ist, aber nichts auf Dauer ausmachen wird.
Die von AMD angepriesenen Featuras mit hUMA etc. funktionieren, so mein Wissensstand, ohnehin nicht auf dem AM3(+) und sind daher für FX-Nutzer auch erst einmal wertlos.
Spannender dürfte es wohl erst wieder Anfang 14 werden, wenn Steamroller kommt, hoffentlich die versprochene Mehrleistung von +20-30% bei IPC und +15% im Front-End mit bringt (aber AMD versprach leider schon zu oft zu viel, wobei dann wenig rauskam) und sich davon dann wieder FX-Modelle anbahnen (ich hoffe als APU)!

Warum? Deshalb:
Worauf ich gespannt bin und wobei ich AMDs ganz große Chance gegen Intel sehe ist folgendes:
Ein i7 mit 6C hat ca 300GFlops, eine größere APU ca 1TFlop (durch den GPU-Teil). Sollte es also soweit kommen, dass die massive Parallelisierung von Aufgaben auf eine APU angepasst wird, sieht der i7 keine Chance mehr - weder mit 6 noch mit 8 noch mit 10 Kernen, da die GPU einfach viel besser darin ist parallel zu arbeiten.
Der Haken daran: dieser Ansatz muss sich erst mal durchsetzen, muss zeigen, dass er sich nicht nur bei einem Feld (wie Gaming), sondern generell besser Programmierern und Managen lässt und er muss sich allen voran erst mal behaupten. Bis dahin könnte aber Intel mit einen starken 8 ,10 oder 12-Kerner kontern, der in Verbindung mit einer stark weiterentwickelten HD xyz kombiniert wird - dann kommen auch wieder saftige Leistungen heraus und AMD sieht u.U. alt aus.

Gerade für mich als sehr Investitions-willigen PCler wären klare Aussagen von Intel zu HSA, hUMA, APU gut, von AMD bzgl. HighEnd Sektor, von Nvidia bzgl. Mantle, eigener API, Maxwell...

Ich präferiere keinen einzigen der Hersteller, ich lege für keinen meine Hand ins Feuer und wünsche keinem mehr Fluck als dem anderen bei Projekten wie Mantle und co, da es einfach alles bisher nur eines ist: Marketing, leer Versprechungen...keine offiziellen Benches zur 290X, dafür dann gekaufte API und Benchmarks, künstliche verschlechterte Nvidia GPUs, bei Intel Stillstand und nix neues, bei nVidia noch kein Statement zu irgendwas.
Ich möchte aber einfach etwas flottes mit Zukunft durch Leistung UND Art&Weise des Unterbaus...ansonsten behalte ich meine 1500-2000€ noch eine Weile...

Dass Watch Dogs jetzt solche Anforderungen hat, lässt einerseits auf einen guten Push hoffen, auf der anderen Seite auf einen Port fürchten - es wird zwar behauptet, der PC wäre die Leadplattform gewesen...aber das sagen doch viele ;)
Auch die Vorstellung von BF4 und Mantle durch Dice kam für mich eher wie dir Prasentstion einer Konsolen-API vor, da dort ohnehin alles Hardware-näher läuft...als PC Thema und Marketing-Feature hat es sich dann irgendwie auch angeboten...

Wie gesagt: ich präferiere niemanden, ich helfe niemandem, ich kaufe, was ich brauche...

Ich will aber eines: neues, weil es sein muss und weil es sein kann!
 
46704770_678x452.png

http://www.anandtech.com/show/7189/choosing-a-gaming-cpu-september-2013

Eigentlich brauchte man bist zum erscheinen von Battlefield4 und Watch Dogs kein 6 bzw. 8 Threads,
da müssen wohl auch die Testparcour für Benchmarks neu zusammen gestellt werde.

Mir fehlt zb. auch LOL hier im CB tests.
 
Hoot schrieb:
...
Ein i7 ist bisher in eigentlich nahezu allen Tests durchweg (deutlich) schneller als ein FX - letzterer ringt mit dem i5, ...
Ich verlinke die Cinebench R15 Ergebnisliste unseres Forums jetzt schon zum dritten Mal. okay, ich geb in diesem Beitrag mal als Textformat drei Eckpunkte ein, damit man auch ohne Klicken was lesen kann:

AMD FX 8350: 669 cb
Intel i7 3770: 662 cb
Intel i5 2500k: 559 cb

Also für mich kämpft der FX8350 eindeutig mit dem i7 3770 und nicht mit nem i5.
 
Ein i7 mit 6C hat ca 300GFlops, eine größere APU ca 1TFlop (durch den GPU-Teil). Sollte es also soweit kommen, dass die massive Parallelisierung von Aufgaben auf eine APU angepasst wird, sieht der i7 keine Chance mehr - weder mit 6 noch mit 8 noch mit 10 Kernen, da die GPU einfach viel besser darin ist parallel zu arbeiten.

Das Problem ist, welches den Laien meistens entgeht, ist, dass ein Algorithmus für GPGPU nicht nur sehr parallel (wir reden hier von im Moment 20 000 bis 60 000 Threads, während CPUs gerade mal 16 Threads ausführen können) sondern zusätzlich datenparallel sein sollte. Ist er das nicht, so kann je nach Anzahl und Komplexität der Sprungbefehle viel an Leistung verloren gehen. Des Weiteren sollte der Algorithmus nur ein sehr kleines Workingset benötigen (also wenig Zwischenergebnisse zwischenspeichern müssen). So kann man bei aktuellen GPUs bereits mit deutlichen Performanceinbussen rechnen, wenn der Algorithmus mehr als 31 Zwischenergebnisse einfacher Genauigkeit pro Thread benötigt. Berücksichtigt man zusätzlich diese beiden Einschränkungen, so gibt es sehr viele auch sehr parallele Probleme, welche sich einfach nicht gut auf einer GPU lösen lassen, wodurch jeder Prozessor effizienter ist.
 
Natürlich braucht man einen High-End Prozessor für Watchdogs... ach so ein quatsch!

Einfache Marketingstrategie:
1. Mindestanforderungen so nieeedrig wie möglich, um eine große Kundschaft zu gewinnen
2. Maximalanforderungen so hooch wie nur möglich, damit sich verwöhnte Kiddies und Leute mit viel Geld, wieder die neuste Hardware anschaffen.
3. ?????
4. PROFIT.

Ich wette das Spiel läuft mit einem i5-2400 und einer High-End Grafikkarte genauso gut.
 
NEO-GEO schrieb:
Ich würde mich nicht wundern, wenn es auf "Medium" fast genau so aussieht wie auf "Ultra...."

Könnte sein. Aber immer mehr Leute jammern rum, dass Watch Dogs heute nicht mehr so aussieht wie 2012. Und so wie 2012 sieht es bestimmt nur auf Ultra aus, was wiederum 95-98% dann nicht ruckelfrei hinkriegen, auch nicht mit nem 4-5ghz Quadcore?! Naja mal sehen, gespannt bin ich ja jetzt doch sehr.:evillol:
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben