• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Watch Dogs: Sechs-Kern-Prozessor für maximale Settings

Status
Für weitere Antworten geschlossen.
Wie gesagt, ich glaube es erst wenn das Spiel erscheint.
Diesen Vertrauensbonus hat sich da meiner Meinung nach kaum noch jemand verdient.

Ja solange Wetter und Physik nicht spielentscheident ist kann man es runterregeln.
Deswegen wird es auch NIE spielentscheidend werden solange für XBOX und PS3 portiert wird.
Ich meine, warum SOLLTE sich jemand für den PC die Mühe geben?^^
 
Benchmarks zeigen zumindest Tendenzen, insbesondere theoretische Tests/Anwendungen, die Architekturen gut auslasten.
der CB-Test Pacour hat sich meiner Meinung nach deutlich verbessert im Vergleich zu früher. Am wichtigsten ist wohl, dass jene Games vorkommen, die am meisten gekauft und gespielt werden.

Solche Tests können aber einen potentiellen Käufer von PC-Hardware nur einen Impuls geben, wie er seine Hardware kombinieren könnte.
Das heißt mit den und den Benchmarks kann man ca auf eine gewisse Breite absichern und davon ausgehen, dass er die Games zocken kann.
Somit war damals der i3 ausreichend um auch stärkere Grafikarten zu befeuern. Lange wurde ja auch dem i3 nachgesagt, er sei schneller als alles andere was AMD zu bieten hat.
Tatsache war, dass viele Games einfach nicht mit der Archiektur vom FX oder mit mehreren Threads umgehen konnte.
Somit, falls eben die Gegebenheiten und sagen wir die verschiedenen Games die häufig gespielt werden in einen neuen Test-Pacour von CB hineinkommen, die mehr und mehr multithreading unterstützen, dann wird man sehen, dass die FX wesentlich schneller sind als noch vor einem Jahr.
Mittlerweile kann man jetzt schon nachvollziehen dass die FX mehr und mehr an Performance gewinnen.

https://www.computerbase.de/2012-10/test-amd-fx-8350-vishera/7/
FX 8350 32 % langsamer als der 4770k

https://www.computerbase.de/2013-07/amd-fx-9590-prozessor-test/6/
FX 8350 28 % langsamer als der 4770k

Immerhin 4% unterschied, nur weil die Games mehr Threads unterstützen. Falls Mantle sich durchsetzt, wird der Trend nicht stoppen.
Sicherlich darf man fragen, ob das in der Fehlertolleranz drinnen steckt, anderseits darf man aber vermuten dass im letzten Tests mehr Games dabei sind, die auch Multithreading unterstützen. Somit man darf gespannt sein, wie die FX abschneiden, wenn Games wie BF4, Watchdogs, AssassineCreed IV ect vorkommen, die mehr und mehr die 8 Threads der FX ordentlich auslasten. Denn bei Anwendungen sah man damals schon, dass ein PhenomII x6 einen 2500k abhängen kann, wenn man nur den Prozessor ordentlich auslastet.

Mit Version 1.3 von Crysis 3 bringt SMT den in diesen theoretischen Tendenzen deutlich messbaren Schub auch im Spiel (+30% gegenüber dem 3570k)
Ja, nachdem man die Engine darauf optimiert hat, dass SMT nicht core aufgaben abwickeln muss. Denn davor hat man gesehen, schaltet man SMT ab gewinnt man an Performance.
Ich bin ja gespannt ob diverse Firmen in Zukunft auch die Arbeit machen werden und bei Intel Prozessoren immer die Threads zuweisen werden. Intel hat immerhin die Marktmacht.

sofern die GPU nicht limitiert, den Vorteilen in Anwendungen entspricht
Btw, es kann auch einfach daran liegen, wieso man für Ultra den FX-9370 gewählt hat, weil einfach nicht mehr nötig ist. Eventuell ist der FX 9370 im Spiel schneller als der i7 4770k. Hier kann man anfangen zu spekulieren.
Genauso ähnlich wie bei der Grafikkarte, wobei man sich bei dem Gap der 460 GTX und 5770 nicht eventuell PhysikX eine Rolle spielt. Immerhin arbeitet man hier ja Eng mit NV zusammen. Anderseits, ich kann nicht beurteilen wie Performance-Hungrig Physik X ist.
 
Ist das jetzt auf 6 "echte" Kerne bezogen, oder ist das Hyper Threading meines 2600K endlich zu was gut?
 
Hoffentlich reicht ein übertakteter I5 :D
Hätte ich nicht erwartet das da ein 6Kerner von Intel vorausgesetzt wird
 
Draco Nobilis schrieb:
Ich bin klar für den Fortschritt und den Einsatz und Nutzen stärkerer Hardware, aber eben nicht damit sich Entwickler beim portieren möglichst wenig Mühe geben müssen.

Und wieder so einer. :rolleyes:

Würden die Entwickler nicht optimieren, würden solche Spiele nicht mal auf Supercomputern flüssig laufen! Das scheint den meisten überhaupt nicht bewusst zu sein.

Eine Game Engine ist ein Sammelsurium an hochoptimierten Algorithmen. Das fängt bei Suchalgorithmen an und hört bei KI-Algorithmen auf. Gerade letztere können je nach Ausführung so viel Leistung ziehen, dass sie jeden Rechner in die Knie zwingen. Neben der Programmierung der Game Engine (die meist nur ein paar Monate bis ein Jahr dauert) ist es die Hauptaufgabe der Programmierer, effizientere Routinen zu finden, als gerade in der Engine drin stecken.
 
Draco Nobilis schrieb:
Aufgaben die eine CPU zu erledigen hat kann man normalerweise nicht in Form von Details einfach massiv herunterregeln. ...
Doch, kann man, wenn man weiß, welches Detail Auswirkungen auf die CPU-Last hat. Die Anzahl der Modelle, die an die GPU gesendet werden, hat massiv Auswirkungen an die CPU-Last - deren Detailgrad eigentlich auch, wobei sich die Auswirkung des Detailgrads durch Tesselation aufweichen lässt. Die Anzahl frei beweglicher Objekte hat den extremsten Einfluss. Und schließlich beweist GTA IV, dass man sogar die KI-Anforderungen variabel machen kann, indem man einfach die Verkehrsdichte variabel macht - gut, das ist grenzwertig, weil man bei weniger Verkehrsaufkommen leichter durchkommt, aber da die allermeisten Verfolgungsjagden in diesen Spielen aufs billigste durchgeskriptet sind, ist das nebensächlich.
 
Ich mein, schön wär's ja, wenn neue Spiele auch wirklich mal aktuelle High-End-Hardware voraussetzen würden, um sie ganz auszureizen.
Früher war das ganz selbstverständlich.

Wobei "aktuelles High-End" auch relativ ist. Meinen 3930K hab ich schon seit fast 2 Jahren. Es gab Zeiten, da taugte ein 2 Jahre alter PC nicht mehr ansatzweise dazu, aktuelle Spiele in guter Qualität drauf zu zocken und mit 3 Jahren war er schon Alteisen.
 
Mich wundern die Anforderungen null. Vor ner Woche gabs ein Interview mit Ubisoft, wo der Typ meinte, dass das Game auf den Next Gen Konsolen in 30fps laufen wird und er nicht mal wusste, obs am Ende nur 720p werden. :D
 
Erstmal schön abwarten, ob die Grafik solchen Hardwareanforderungen überhaupt gerecht wird -.-

Ich würde mich nicht wundern, wenn es auf "Medium" fast genau so aussieht wie auf "Ultra" - schließlich mussten die Entwickler wie immer auf die alte Gammeltechnik der Current-Gen-Konsolen Rücksicht nehmen und wie wir wissen bremst das üblicherweise den grafischen Fortschritt und artet selbst mit schnellen Karten in eine schlecht optimierte low-FPS-Ruckelorgie aus ;)

Es war noch nie wirklich sinnvoll, PS3 & Xbox 360-Konsolenports für die PC-Version mit irgendwelchen Grafikfeatures aufzublasen - die meisten Effekte sind sowieso kaum wahrnehmbar und kosten nur ansurd viel Leistung ohne das man es dem Spiel deutlich ansieht ! :rolleyes:

Von daher lege ich mich erst mal wieder hin und warte derweil auf Vergleichsbilder - gute Nacht -.-
 
sollte auf meinem System laufen zumindest auf High freu mich mega, BF4 Beta rockt auch sehr , automatisch auf Ultra/ High gestellt
 
hmm - also potzi muss wohl dezent gepimpt werden um hier land zu sehen :D
 
Die Anzahl der Modelle, die an die GPU gesendet werden, hat massiv Auswirkungen an die CPU-Last

Das "Senden" von Modellen verursacht dank DMA kaum CPU-Last. Falls du die Zahl der Zeichenaufrufe und die Konfiguration der GPU meinst: In den meisten Fällen, wo die Zeichenaufrufe so viel CPU-Last erzeugen, dass eine Limitierung durch diese eintritt, hat man meist ein ganz anderes Problem (Stichwort: Zusammenfassen durch Instancing).

deren Detailgrad eigentlich auch, wobei sich die Auswirkung des Detailgrads durch Tesselation aufweichen lässt.

Sofern die Modelle auf der GPU sind ist deren Detailgrad unerheblich für die CPU-Last.

Die Anzahl frei beweglicher Objekte hat den extremsten Einfluss.

Dies ist allerdings, sofern man die Animation (zB. Partikel oder Skelett-Animation) noch auf der CPU und nicht durch GPGPU macht, korrekt.

Eine Game Engine ist ein Sammelsurium an hochoptimierten Algorithmen. Das fängt bei Suchalgorithmen an und hört bei KI-Algorithmen auf. Gerade letztere können je nach Ausführung so viel Leistung ziehen, dass sie jeden Rechner in die Knie zwingen. Neben der Programmierung der Game Engine (die meist nur ein paar Monate bis ein Jahr dauert) ist es die Hauptaufgabe der Programmierer, effizientere Routinen zu finden, als gerade in der Engine drin stecken.

Tut mir leid, da habe ich zum Teil komplett andere Erfahrungen gemacht. Ein gutes Beispiel dafür sind die Total War-Spiele. So wird zum Beispiel die Animation der Soldaten (eigentlich ein peinlich paralleles Problem) durch einen einzigen CPU-Thread erledigt. Demnach finde ich es unpassend von hochoptimiert zu reden, wenn ein einfacher Multi-Threading-Ansatz auf den meisten Systemen einen Faktor 2 bis 6 an Performance liefern würde. Wieso bei Rome 2 die Performance einbricht, wenn die Engine ein einfaches Overlay rendern muss, wie weit seine Soldaten auf der Karte in einer Runde laufen können, ist mir ebenfalls ein unerklärliches Problem. Dies ist allerdings schon seit Empire so.
 
Zuletzt bearbeitet:
@e-Laurin
Um dich mit einem Wort zu widerlegen:
Skyrim


Weil man sich zu fein war einen Compiler fü+r den PC zu nutzen der SSE2(vlt. wars auch ein anderer Befehlssatz) nutzte hat man 40% weniger Performance weil die CPU rumgeröchelt hat.
 
ich frage mich wieso man für max auf sechskerner setzt ....
dazu noch auf 500€ cpu's
zu faul gescheit zu programmieren ?
ich würde nie mein sys umstellen wegen einem spiel, geschweige für watsch dogs.
ggfalls ne neue graka (ist ja alles zwei jahre so der so fällig) garantie usw, aber 700€ für mobo und cpu im leben nicht.
 
Weil man sich zu fein war einen Compiler fü+r den PC zu nutzen der SSE2(vlt. wars auch ein anderer Befehlssatz) nutzte hat man 40% weniger Performance weil die CPU rumgeröchelt hat.

Normalerweise verwendet man nicht die modernsten Befehlssätze damit das ganze noch auf älteren PCs lauffähig ist. Man könnte allerdings in der Tat mehrere Exen zur verfügung stellen, was dann allerdings schnell zu einem Gefriggel verkommt (mal x64, mal x86, mal mit Intel Extensions Modern, halbmodern, veraltet, das selbe nocheinmal mit AMD und schon hat man 12 Exen)
 
Watchdogs war doch auch als einer der ersten PS4 Titel angekündigt und hat im Vorfeld bei den Ingamevideos ziemlich überzeugt.

Warum wundern sich Leute, dass die AMD FX hier so unverhältnissmäßig besser prophezeit werden, als in "gängigeren" Szenarios?
Die PS4 Version als Basis und schwups profitiert man halt von der AMD-Architektur, die wissen sicherlich, dass man mit den Konsolenversionen, vorallem in der neuen Generation ein vielfaches an Umsatz machen wird und deswegen wird das Spiel eventuell einfach besser auf AMDs Architektur optimiert.

Jaguar ist natürlich nicht Bulldozer, aber trz ist die Philosophie recht ähnlich.
 
Sehe da kein Gefrickel? Das tolle "Setup" (das ja dafür sorgt, dass sich jedes Programm wie ein Rootkit im System festsetzt und sich dann nicht mehr restlos entfernen lässt) kann doch ganz einfach feststellen welche CPU verbaut ist und dadurch dann die richtige Executable installieren.
 
BOBderBAGGER schrieb:
das hat wenig nichts mit faul zu tun ein gutes Multithreding bedeutet oft sogar mehr Arbeit.

na gut, wieder was gelernt.
bei crysis 1 war das so, aber da war es die gpu.
bei warhead hatte man sich da einen tuck mehr mühe gegeben, war aber das polnische studio (oder cz) ? weiß es nimmer genau.
 
@Draco Nobilis
Ein Compiler kann nur relativ einfache Optimierungen machen. Es ist nicht in der Lage, zB Matrizenberechnungen automatisch auf mehrere Kerne zu verteilen. Matrizen sind neben umfangreicher Datenkopiererei das Kerngeschäft jedes modernen Spiels.

Bei deinem Beispiel ist es unklar, ob Skyrim durch die Verwendung von irgendeinem anderen zusätzlichen Befehlssatz profitieren könnte. Das Programm muss bei den neueren Befehlssatzerweiterungen so entwickelt werden, dass sie sie auch verwenden und vor allem davon profitieren können. Das setzt nämlich fast immer eine bestimmte Herangehensweise voraus, damit so was überhaupt etwas bringt.

Dein Argument ist sehr schwach, da du es nicht belegen kannst bzw. nicht den Grund benennen kannst.


@Nai
So wird zum Beispiel die Animation der Soldaten (eigentlich ein peinlich paralleles Problem) durch einen einzigen CPU-Thread erledigt.
Afaik werden die Animationen der Soldaten vorausberechnet und dann bei Bedarf nur noch abgespielt. Ein gutes Beispiel für eine Optimierung, denn das Abspielen benötigt quasi keine Rechenkapazität. Er muss nur noch schauen, wo die dazu nötigen Daten im Speicher liegen.

Wieso bei Rome 2 die Performance einbricht, wenn die Engine ein einfaches Overlay rendern muss, wie weit seine Soldaten auf der Karte in einer Runde laufen können, ist mir ebenfalls ein unerklärliches Problem.
Das hängt von der Qualität ab, die der Suchalgorithmus haben muss. Er muss ja schauen, welche Punkte von einem Soldaten aus erreichbar sind. Je nachdem wie eng diese Punkte gesetzt sind, ist er hier mit tausenden bis hunderttausenden Punkten konfrontiert, bei denen er schauen muss, ob es einen Weg dort hin gibt.

Das ist auch ein gutes Beispiel dafür, wie viele Optimierung das ganze schon erfahren hat. Bei angenommen 100.000 zu untersuchenden Punkten bzw. Koordinaten würde er bspw. auch 100.000 mal rechnen müssen, ob es einen Weg dort hin gibt. Bei einem naiven (= unoptimierten) Algorithmus würde er hier die volle Anzahl berechnen müssen, das zwingt jede Consumer-CPU für ein paar Sekunden in die Knie. Ein optimierter Algorithmus würde mathematische Seiteneffekte berücksichtigen und schneller fertig werden (zB ist ein Punkt erreichbar, dann ist es der Nachbarpunkt wahrscheinlich auch - das kann man ausnutzen).

Die Tatsache, dass dein Rechner an dieser Stelle nicht für mehrere Sekunden unbenutzbar wird, zeigt, dass hier schon optimiert wurde.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben