• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Watch Dogs: Sechs-Kern-Prozessor für maximale Settings

Status
Für weitere Antworten geschlossen.
@Mountwalker:

Sorry, hatte deine Links gar nicht angeschaut/anschauen können, weil es auf meinem iPhone irgendwie nicht richtig angezeigt wurde :(
Cinebench zeichnet natürlich nochmal ein anderes Bild, was wohl auch wieder an der idealisierten und daher (leider) theoretischen Ausrichtung liegen dürfte - ein Potential lässt er auf jeden Fall erkennen, die praktische Umsetzung der Leistung fehlt allerdings bisher beim AMD-Modell so deutlich wie wohl bei fast keiner anderen "Technik" ala SMT/HT...
Ob es noch kommt, weiß ich nicht und würde es weder bezweifeln noch bejaen... only time will tell!

@Nai:

Danke für deine Schilderung bzgl. Für und Wider (zum Teil gehst du, wenn auch sehr oberflächlich, auch ein bisschen in Richtung Machbarkeit)! Wie komplex, einfach, schwierig, ergiebig oder ähnliches, eine stärkere GPGPU-Ausrichtung durch eine APU wird, ist mir mangels Fertigkeiten hierzu leider nicht bekannt - zumal sehe ich natürlich, wenn auch sehr skeptisch, ein Potential. Ob es dann jemals genutzt werden wird....
Ich kann mir aber aufgrund der von dir genannten Punkte auch sehr gut vorstellen, dass es niemals soweit im Massenmarkt kommen könnte, da man die CPUs wie gehabt stärkt, etwaige GPGPU Aufgaben besser auf die GraKa auslagert und lediglich vorhandene Flaschenhälse beseitigt (darauf zielen hUMA/GCN und auch Maxwell zum Teil ab).
In Endnutzer-orientierten Computern hat sich aber wohl bisher das bisherige System soweit bewährt und etabliert, dass eine Abkehr davon wohl noch sehr lange, wenn überhaupt, auf sich warten lassen wird.

Generell bin ich immer sehr skeptisch, wenn die eine Firma (z.B. AMD mit Mantle, HSA, hUMA) das vermeintliche goldene Rad präsentiert und ALLE Konkurrent hierzu sich ausschweigen - ich habe zu den gesamten Themankomplexen keine Aussagen von Nvidia oder Intel, die ja beide sehr große und starke Markstellungen, v.a. Intel mit siener schieren Dominanz, inne haben. Ein Verpennen/Falschausrichtung wie damals mit Netburst oder ewig hinausgezögerter 64bit Unterstützugn kann sich wohl kein Hersteller mehr leisten, da die Luft wohl zu dünn ist, weshalb ich nicht glauben kann, dass bei solchen Unsummen an Entwicklungsbudgets, Spionage-Ausgaben, etc. gerade der "kleinste" immer der schnellste, beste und erste sein sollte, während alle anderen immer nur nachziehen - das wäre einfach zu sehr im Stile David gegen Goliaths... und das ganze dann auch noch viel zu oft....
 
Falls es niemand glaubt:
http://www.pcgameshardware.de/The-E...-noch-im-Januar-Spiele-News-des-Tages-864626/

Bei Skyrim war es so das Hobby Programmierer 10-30% mehr Leistung aus der CPU geholt hatten.
Grund war wirklich das die SSE2 Erweiterungen nicht genutzt wurden, die gibts für Konsolen ja so nicht.
Und ja, SSE2 können ALLE x86 CPUs seit etwa 2005^^

Daher glaube ich es erst wenn ich es sehe, bis dahin ist es Marketing Blödsinn.
Ja es stimmt, man kann das Wetter / Physik runterregeln, aber sollten all diese Features nicht mal langsam von den Grafikkarten per Compute erledigt werden? Soll nicht der Sinn der neuen konsolen darin liegen das die Grafikkarte die Hauptarbeit übernimmt? Schließlich haben die Konsolen deshalb recht starke Grafikkarten gepaart mit einer "relativ" schwachen CPU. Die meißten Aufgaben kann eine Grafikkarte einfach schneller bewältigen als eine CPU wenn es den für das Feature bereits GPU-Funktionen gibt.

Eine GTX 560 ist ca. 20% schneller als eine GTX 460. Außer es ist eine dieser hochgezüchteten 460er^^

Zu der Intel vs. AMD Debatte. Mantle soll in erster Linie CPUs entlasten und AMD Karten effizienter machen.
D.h. Intels werden auch profitieren.
Allgemein werden AMD CPUs zwar nicht an den Intels vorbeiziehen, aber zumindest immer näher kommen.
Ich hoffe nur es entsteht irgendwann mal wieder Konkurrenzkampf zwischen AMD und Intel im High-End Bereich.
In den letzten Jahren hat sich Intel ziemlich stark zurückgelehnt. Und jetzt kommt mir nicht mit Intel GPUs^^
 
Also ich freue mich, wenns nur mehrere solche Spiele geben würde könnte man Intels verkrustete Strategie mit "mehr als 4 Kerne kosten das Doppelte" endlich aufbrechen. Wir hatten jetzt lange genug defacto Stillstand. Das selbe gilt bei den GPUs, Aufgüsse wohin das Auge schaut.
 
Zuletzt bearbeitet:
Minimal = Quad Core

Nein. Das ist nur schlecht optimiert. Nein danke, Ubisoft. :)


Also wo die PS360 abgelöst wird, wo selbst schon ein Dual-Core Prozessor gelangweilt hat, muss man bei neuen Titeln die für die neuen Konsolen entwickelt werden erwarten, dass man Quad-Cores schon als Minimum braucht.
Was ist das für ein Bullshit?
 
Zuletzt bearbeitet:
Wenn die 4/6/8 "Kerne" auch richtig ausgelastet werden ist das doch super. Es wurde zeit das die Entwickler zu Kenntnis nehmen das Singel Core CPUs kaum noch verbaut sind.

Ich freue mich
Endlich bekommt mein FX-8230 mal was zu tun :D
 
Die ganzen Spekulationen bringen doch nichts, man kann nur auf Benchmarks warten. Wäre nicht das erste Mal, dass man Hardwareanforderungen nicht ernst nehmen kann.
Ist doch beim Arbeitsspeicher nicht anders. Empfohlen: 8 GB; Ultra: 8 GB oder größer. Wer's glaubt.
 
ToniMacaroni schrieb:
Die ganzen Spekulationen bringen doch nichts, man kann nur auf Benchmarks warten. Wäre nicht das erste Mal, dass man Hardwareanforderungen nicht ernst nehmen kann.
Ist doch beim Arbeitsspeicher nicht anders. Empfohlen: 8 GB; Ultra: 8 GB oder größer. Wer's glaubt.
Als Hersteller wird man wohl eher niedrigere Anforderungen ansetzen wollen, als so hohe, dass sich kein Mensch mehr dafür interessiert. Die Anforderungen wirken auf mich aber doch etwas zu hoch gegriffen, wenn man Minimum einen Quad Core benötigt.
 
Max Payne 3 läuft auch auf 6 Kernen bei meinem 1100T, zwar nur um die 75 bis 85% aber immer hin und sah dabei echt gut aus :)
 
also ich habe schon einmal vorgesorgt und habe mir einen pc zusammengestellt mit 4x Titans hoffentlich sind dann somit flüssige 60 fps drinne.
 
Die CPU-Anforderungen sind heftig. Nen 3770K bei "empfohlen"? Da bin ich ja mal gespannt, was mein X6 zu dem Spiel sagt.
Ich meine, ich finde es ja gut, wenn man in Richtung Multicore geht. Aber man muss es ja nicht gleich übertreiben :D
(Crysis 3 lief nebenbei permanent mit schönen 30-40FPS am Grafiklimit, da hat es auch geklappt mit dem Multithreading :) )
 
Nai schrieb:
[...]Man muss trennen zwischen dem Berechnen der Knochen und das Zeichnen von Objekten, bei welchem die Vertexe gemäß den Knochen berechnet werden. Die Knochen müssen berechnet werden, bevor das Objekt selbst gezeichnet werden kann. Wie und wo man die Knochen berechnet kann man sich prinzipiell frei aussuchen (CPU, GPU-Shader GPU-GPGPU), wobei bei vielen Objekten und Knochen die GPU performanter ist. Instancing kann man lediglich beim Zeichenaufruf selbst verwenden um viele Objekte, welche aus ähnlich vielen Vertexen bestehen, zu einem Zeichenaufruf zusammenzufassen. Dadurch, dass man nur einen Zeichenaufruf hat, hat man dementsprechend auch einen niedrigen Overhead.[...]

Ich sehe da jetzt kein Aber. Was man dem Shader übergibt und dann berechnet wird, bleibt dem Programmierer doch letztendlich selbst überlassen.

Bzgl. der GUI habe ich 2 Theorien: Einmal, dass u.U. am Rendertarget rumgefummelt wird und Nummer Zwei, dass es das auch bei vielen anderen Spielen gibt (Tribes Ascend bzw. somit bei der UE3). Da hat man sich denke ich einfach nicht die Mühe gemacht die einzelnen Controls fertig gerendert zwischenzuspeichern und evtl. auch die Aufrufe gar nicht gecached, alles weil "Scheiß auf die Performance, ist doch eh nur etwas GUI*.
Und wenn man nicht die fertige Textur des Controls zwischenspeichert, hat man bei Bufferaufrufen evtl. noch ein Problem mit der Reihenfolge. (Ich hatte da auch irgendwann mal vor 2-3 Jahren mich geärgert und gefragt wie weit ich da was optimieren wollte.) Ist aber auch eh alles Raterei. Normalerweise wird alles bei der Engine optimiert und dann nachher nur herumgespriptet.
 
Zuletzt bearbeitet:
Xgamer007X schrieb:
Dann hab ich doch nicht mein Geld verschwendet ;)

the future comes :evillol:

nöp aber so langsaam alle die die 4 kern spielzeuge mit verkrüpelter lane anbindung gekauft haben muhaha.

tja mein fast 3 jahre alter cpu ist rdy fore ultra XD
wie gut das die vor kurzem erschienen haswell das nicht können.

2x580 sollte dann auch reichen.
 
Zitat von Ltcrusher:
Und es wird auch vergessen, daß bei der Spieleproduktion für Konsolen auf einem Standart mehr oder weniger programmiert wird. Es müssen nicht 20000 verschiedene Grafikchips und 60000 verschiedene Prozessoren berücksichtigt werden.

Also wirklich wenn ich sowas schon wieder lese immer diese billige standardausrede :stock: paahh!! wenn für halbwegs moderne oder aktuelle PCs programmiert wird kommen ja höchstens 2 Prozessorgenerationen von AMD und von Intel in dafür in frage! und bei den Grafikkarten kommen auch nur die Karten von AMD und Nvidia in frage die DX11 beherrschen! Das heist von jedem Herrsteller biss jetzt 3 generationen von denen jede Karte aus der jeweiligen generation das gleiche Featureset unterstützt! nur das diese ihrer leistungsklasse entsprechend: Einsteiger, Mittelklasse, Performance oder Highend mehr oder weniger ausführungseinheiten also shadereinheiten/ textureinheiten/ tessaltionseiheiten/ vram haben und die dem entsprechende leistung haben.
Die müssen nicht tausende von verschiedenen CPUs oder Grafikchips unterstützen und auch nicht jede CPU oder GPU die jemals auf den markt kamm sondern nur das was gerade aktuell bzw. gebräuchlich ist!
 
Zuletzt bearbeitet:
Moin

Scheint wohl doch nicht, solch hohe Anforderungen zu haben.
Die Zukunft ist in weiter ferne ( Möglicherweise wenn The Witcher 3 rauskommt, was nicht so weit ist :) )

http://www.incgamers.com/2013/10/watch-dogs-pc-specs-may-demanding
https://twitter.com/SebViard/status/385815285116063744

Edit

Lol auf der Seite sind die "offiziellen" Anforderungen noch gelistet:
http://shop.ubi.com/store/ubiemea/d.../Watch_Dogs_Uplay_Digital_Deluxe_Edition.html

Und hier die für Assassin's Creed 4:
http://shop.ubi.com/store/ubiemea/d...Black_Flag™_Uplay_Digital_Deluxe_Edition.html

Naja, mal gucken...
 
Zuletzt bearbeitet:
MountWalker schrieb:
Ich verlinke die Cinebench R15 Ergebnisliste unseres Forums jetzt schon zum dritten Mal. okay, ich geb in diesem Beitrag mal als Textformat drei Eckpunkte ein, damit man auch ohne Klicken was lesen kann:

AMD FX 8350: 669 cb
Intel i7 3770: 662 cb
Intel i5 2500k: 559 cb

Also für mich kämpft der FX8350 eindeutig mit dem i7 3770 und nicht mit nem i5.
Der FX-8350 hat als direkten Konkurrenten den I5 3570K und nicht den I7...
Weiß gar nicht wie man immer auf diesen Trichter kommt? Cinebench ist nicht alles und der I7 ist sonst dem FX deutlich überlegen und zudem noch gut 100€uro teurer~ergo außerhalb jeglicher AMD Konkurrenz ;)
 
Zuletzt bearbeitet:
Draco Nobilis schrieb:
Bei Skyrim war es so das Hobby Programmierer 10-30% mehr Leistung aus der CPU geholt hatten.
Grund war wirklich das die SSE2 Erweiterungen nicht genutzt wurden, die gibts für Konsolen ja so nicht.
Und ja, SSE2 können ALLE x86 CPUs seit etwa 2005^^
Der Mann namens Arisu, der das programmiert hat, sagte selbst, dass Skyrim SSE2 verwendet. :rolleyes:

Draco Nobilis schrieb:
Ja es stimmt, man kann das Wetter / Physik runterregeln, aber sollten all diese Features nicht mal langsam von den Grafikkarten per Compute erledigt werden? Soll nicht der Sinn der neuen konsolen darin liegen das die Grafikkarte die Hauptarbeit übernimmt?
Man kann nicht alles auf die GPU packen. Die ist ein ziemlich spezialisierter Chip und kann eigentlich ziemlich wenig. Bei der CPU ist es andersrum. Sie kann viele verschiedene Dinge, aber dafür aber langsamer. Deshalb benötigt es auch recht viel Entwicklungszeit, eine "artfremde" Funktion für die GPU anzupassen. Und nicht alles lässt sich parallelisieren, damit man überhaupt einen Gewinn auf einer massivparallelen GPU bekommt.



SUPER DAVE schrieb:
wenn für halbwegs moderne oder aktuelle PCs programmiert wird kommen ja höchstens 2 Prozessorgenerationen von AMD und von Intel in dafür in frage! und bei den Grafikkarten kommen auch nur die Karten von AMD und Nvidia in frage die DX11 beherrschen! Das heist von jedem Herrsteller biss jetzt 3 generationen von denen jede Karte aus der jeweiligen generation das gleiche Featureset unterstützt!
(...)
Die müssen nicht tausende von verschiedenen CPUs oder Grafikchips unterstützen und auch nicht jede CPU oder GPU die jemals auf den markt kamm sondern nur das was gerade aktuell bzw. gebräuchlich ist!
Das Problem sind nicht die Hardware-Generationen, die im Umlauf sind, sondern die Kombinationen.

Beispiel:
Angenommen von Intel und AMD sind jeweils 3 CPU-Generationen gerade im Umlauf. Zu jeder Generation gibt es, wie du schon bemerkt hast, mal schnellere und mal langsamere Varianten. Nehmen wir an, es gibt derer 10 pro Generation (~20 wären allerdings realistischer). Das bedeutet, es sind 3 Generationen * 10 Varianten * 2 Hersteller = 60 verschiedene CPU-Typen im Umlauf.
Bei den Grafikkarten ist es ganz ähnlich, allerdings gibt es etwas weniger Varianten (die modifizierten Modell von Asus, Gigabyte & Co. ignoriere ich mal). 3 Generationen * 5 Varianten * 2 Hersteller (Nvidia & AMD; Intel wird ignoriert) = 30 verschiedene GPU-Modell im Umlauf.

Jetzt haben wir also 60 CPUs und 30 GPUs im Umlauf, die in einer beliebigen Kombination auftreten können. Genauer gesagt: 60 * 30 = 1800 Kombinationen!
Und die können auch mal unausgeglichen sein. Damit meine ich zB die Medion PCs, die gerne mal eine gute CPU und einer unterklassige GPU haben. Oder den Grafikfreak, der eine Highend-GPU aber nur eine Midrange-CPU eingebaut hat.

Es ist schon ein ziemlicher Akt, eine Engine so zu designen, dass sie mit der Unausgeglichenheit von möglichst vielen Systemen klarkommt.

Was ich hier rausgelassen habe, sind auch die Architekturunterschiede. Es gibt Funktionen und vor allem Funktionseinheiten, die sind auf langsameren CPUs und GPUs nicht verfügbar; bei höherklassigen allerdings schon.
Beispielsweise gibt es bei der einen CPU es einen Level-3-Cache, bei der anderen nicht. Ignoriert man diesen Cache dann sinkt die Leistung spürbar. Weiterhin sind Cachegrößen unterschiedlich. Wie will man die Engine so anpassen, dass sie trotz dessen immer alle nötigen Daten da drin parat hat, um nicht aus dem vergleichbar langsamen RAM lesen zu müssen?

Es ist nicht so einfach, wie du es dir vorstellst.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben