• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Civilization V mit Multi-Core-Unterstützung

Pjack schrieb:
Und nur mal nebenbei: wirklich effektive Parallelisierung ist nicht mal eben nebenbei in der Mittagspause gemacht, sondern äußerst kompliziert.

Ja da hast du recht, aber Spiele wie Civ bieten sich ja geradezu für die Parallelisierung an.

Egal ob Wegfindung, Zugberechnung, Diplomatieberechnung... es kann alles nebeneinander
laufen.

Aber da es rundenbasiert ist, verstehe ich nicht warum Dualcore Voraussetzung ist.
Splittet man ein Programm in Threads, dann können dir die Anzahl der Cores egal sein, die Verteilung übernimmt das Betriebssystem (was bei Civ ja gut machbar ist, da es kein zeitkritischer Shooter ist).
 
Hmm mein 520M hat bei der Taktung 1 Kern mit 2,92 Ghz anzubieten, 2 physische Kerne mit 2,66 Ghz oder 4 Kerne per HT mit 2,66 Ghz.

Was das Game wohl auswählen wird??
 
MasterWinne schrieb:
..also echt jetzt, wie schlecht man heutzutage noch programmiert. was bitte ist an diesem spiel, das es so hohe anforderungen setzt? jetzt mal von der grafik abgesehen.

Laggy.NET schrieb:
Da muss ich MasterWinne auch zustimmen.

Damals haben wir mit singel cores gespielt, GeForce 6 und 7.
Hat sich denn die KI verbessert? Eher nur geringfügig.

flappes schrieb:
Ja nee is klar, als hätten die eine so geniale KI programmiert die Mehrkerner braucht... das wäre mit Abstand dann das beste Strategiespiel aller zeiten.

Vor allem da es rundenbasiert ist !

Leute, ich glaube ihr habt nicht mal 10 Zeilen Programmcode in eurem Leben geschrieben. Das ihr Civ3 auf ne P3 gespielt habt ist klar, aber erstens wisst ihr überhaupt nichts vom Civ5-Code und zweitens habt ihr anscheinend keine Ahnung was man alles in einem rundenbasierten Vielvölkerspiel auf der Erde berechnen kann. Das fängt bei der Zeitachse an und hört beim Wetter auf. Bei Civ4/5 hätte man auch noch viel mehr berechnen können, besonders die Statistiken mit deren Werten sich die KI entscheidet dauern ewig und je mehr Statistiken man gegeneinander rechnet desto genauer kann die KI agieren.

Aber wer braucht schon Supercomputer zur Berechnung des Klimas oder zur Aufklärung von Proteinstrukturen, ist alles nur schlecht programmiert.
 
Tyr43l schrieb:
DX11 empfohlen, aber nur 4800 oder 9800GTX als Karte genannt?
Dort sollte wohl eher 5770 bzw GTX460 stehen.

Warum?
Wenn man ein Spiel mit DirectX 11 porgrammiert reicht ein Befehl um es auch für DirectX 10 Grafikkarten kompatibel zu machen und braucht den Code nur einmal zu schreiben. Daher werden alle nicht unterstützen Dinge emuliert oder man schaltet sie dann ab oder benutzt sie gar nicht erst.
Aber dafür benötigt man DirectX 11 auf dem System (Vista/Windows 7).

Im gegensatz zu DirectX 9 ... da muss man extra Code schreiben um es unter XP zu unterstützen.
Deswegen steht bei Empfohlene Systemvoraussetzungen auch kein XP aber DirectX11 und DirectX10 Grafikkarten!

http://msdn.microsoft.com/en-us/library/ff476876(v=VS.85).aspx
 
Zuletzt bearbeitet:
flappes schrieb:
Ja nee is klar, als hätten die eine so geniale KI programmiert die Mehrkerner braucht... das wäre mit Abstand dann das beste Strategiespiel aller zeiten.

Vor allem da es rundenbasiert ist !

Welchen Single-Core User juckts da, ob nach der Runde 10 Sekunden oder 20 Sekunden gewartet wird?

Nachvollziehen kann ich es bei Civ nicht, aber wass solls, die Gamer haben eh alle Dual/Quad/Hex-Cores.

ganz ehrlich, am liebsten für ich dich für diese antwort schlagen ( ist ein scherz! ).

im ernst: du scheinst keine ahnung zu haben von ki, und deren resourcenanforderungen.

ich versuch dir das mal an einem kleinen beispiel zu verdeutlichen:
schach - was die ki dort im grunde zu tun hat ist mehr oder weniger alle möglichen züge für die nächsten k runden zu durchdenken. das problem ist aber, das mit jeder weiteren runde, die es vorausdenken will, die datenmenge die zu durchsuchen ist exponentiell steigt.
d.h. ein bisschen besser denken = zig-mal längere rechenzeit.

der nutzen von einer runde mehr, ist aber vom "nutzen" her nicht besonders beeindruckend.

d.h. um nur ein bisschen die ki zu verbessern bruachst du sehr viel mehr rechenpower.

was foglern wir daraus: nur weil civ5 jetzt 4 statt einen kern in beschlagt nimmt, muss es nicht eine super dupa ki sein und ineffizient ebenfalls nicht.

im übrigen, was verstehst du unter "das beste strategiespiel"? meinst du die beste ki? und beste ki für das eine spiel ist nicht gleich beste ki für ein anderes spiel.

verzeih, aber du redest wirres zeug, voll von pauschalisierungen und brigst ne menge total durcheinander.

p.s. wie gut die ki von civ5 seien wird ist im übrigen noch unklar. aber deine folgerungen bzgl der effizienz und der mehrkerne bei civ5 entbehren jeglicher logik und grundlage.
 
Tyr43l schrieb:
DX11 empfohlen, aber nur 4800 oder 9800GTX als Karte genannt?
Dort sollte wohl eher 5770 bzw GTX460 stehen.

Eben nicht. Auch DX9 Karten können machen unter Windows 7 erweiterten Gebrauch von DX11 bzw. die Spiele. Vor DX11 konnte die Schnittstelle nur einen Core der CPU verwenden. Das ist mit DX11 endlich vorbei.
 
flappes schrieb:
Welchen Single-Core User juckts da, ob nach der Runde 10 Sekunden oder 20 Sekunden gewartet wird?

Hast Du schonmal Civ 4 auf einer riesigen Weltkarte mit hohen Anzahl an Völkern gespielt? Da dauert es im späteren Spiel nicht "10 Sekunden oder 20 Sekunden" die Runde zu beenden, sondern gerne mal ne Minute, trotz Dual Core.
 
Zuletzt bearbeitet:
Und ganz ehrlich:
Dass ich nur die Hälfte der Zeit wartend vor dem PC sitze ist für mich schon wichtig.
 
2Kern = Minimal
4Kern = Empfohlen

6Kern = Optimal?

Civ isn schönes Spiel, mal schauen wie sich das entwickelt
 
DvP schrieb:
Vielleicht ne blöde Frage, aber kann man mit vorhandener CPU Power nicht auch der Grafikkarte Unterstützung geben in dem man die zu berechnenden Daten vorbereitet OÄ? Ich hoffe du weißt was ich meine.
nein, du musst dir vorstellen, dass eine CPU ein Schweizer Taschenmesser ist, es kann sehr viel, aber es ist eben nicht in allem perfelt.
Deine Grafikkarte aber ist ein Akkuschrauber, es ist für diesen einen Einsatzweck gedacht und dadurch hochgradig dafür optimiert. Dein Schweizer Taschenmesser könnte auch Schrauben irgendwo reindrehen, aber es ist dabei deutlich langsamer, weil es eben nicht nur dafür entwickelt wurde, sondern für vieles gleichzeitig.
Noch untechnischer kann ich es nicht ausdrücken :D

DvP schrieb:
Bei der lächerlichen GPU Leistung einer PS3 müssen auch irgendwie die Grafikkracher wie God of War 3 auf den Bildschirm gezaubert werden. Kann die Cell-CPU da keinen Beitrag leisten? Hoffe auf Antworten sachkundiger!
Du musst dir die Cell-CPU wie eine riesen Grafikkarte vorstellen.
Sie hat (auf herkömliche Rechner transformiert) nur einen CPU-Kern und 8 Grafikkarten-Kerne. Für noch detaillierte Aussagen, müsste ich Vorraussetzen können, dass du dich mit der Funktionsweise von Prozessoren und Grafikkarten auskennst, dann kann ich da gerne nocheinmal drauf eingehen.


Sebl schrieb:
Das fängt bei der Zeitachse an und hört beim Wetter auf.
richtig, kann man. In optimierter Programmierung weiß man aber auch, dass man bestimmte Dinge vorberechnen kann um somit später weniger Zeit zu brauchen. Ich kann z.B. in dieser Runde (Runde mit wenig nötigen Berechnungen) die Zeitachse 20% länger berechnen und spare dafür in der nächsten Runde Rechenzeit (rechenintensive Runde) weil ich schon einige sehr wahrscheinliche Züge einbedacht habe. Dies ist analog zu Schachcomputern, die denken auch in die Zukunft.

Sebl schrieb:
Bei Civ4/5 hätte man auch noch viel mehr berechnen können, besonders die Statistiken mit deren Werten sich die KI entscheidet dauern ewig und je mehr Statistiken man gegeneinander rechnet desto genauer kann die KI agieren.
ich weiß nicht inwieweit du dich mit KI-Programmierung auskennst, aber es gibt nur wirklich wenige Einflüsse die eine KI signifikant beeinflussen können. Das Schwierigste der Programmierer ist es dabei die relevanten Einflüsse herauszufinden, und auf einmal funktioniert die KI in Lichtgeschwindigkeit ;)
Denn viele Einflüsse machen die KI auch nicht besser, sondern schlechter, weil sie viel mehr Testdaten zum Lernen benötigen würde.

Sebl schrieb:
Aber wer braucht schon Supercomputer zur Berechnung des Klimas oder zur Aufklärung von Proteinstrukturen, ist alles nur schlecht programmiert.
du willst doch nicht das Wetter oder chemische Strukturen mit einem Spiel vergleichen oder? :freak:
Überleg nur mal von wievielen Millionen Eigenschaften das Klima abhängig ist und wie sich dieses ändert, wenn sich eine statischstische Größe änder oO
Also wir sprechen hier von Äpfel und Birnen.
Und bei solcher Software hast du echte Spezialisiten, die sich mit der Optimierung von Algorithmen und paralleler Programmierung auskennen, ich bezweifel sehr stark, dass eine Spielunternehmen jemand mit auch nur halb so wenig Know-How hat. Alleine Softwareentwickler (bzw. theoretische Informatiker) im Gebiet der Algorithmen sind alles andere als günstig.
 
Zuletzt bearbeitet:
@Ice
Was du meinst ist eine echte KI, aber bei CIV geht die KI immer noch nach Wertetabellen und die müssen erst mal berechnet werden. Je nach Volk, Lage, Fähigkeiten, Zeit, etc. ;) Außerdem war mein letzter Satz ironisch gemeint.
 
@ice-breaker: im grunde sind deine aussagen ja richtig:
aber pauschal zu sagen, wenige einflüsse besser, mehr schlechtere ki ist falsch.

es stimmt, dass viele faktoren manchmal irrelevant sind und die miteinbezihung damit unnötige berrechnungen erfordert. schlachter macht dies enie ki aber nicht, nur langsamer, denn redundante einflüsse werden aussortiert.

aber weder civ 4 noch sosnt ein vergleichbaresspiel hat bisher alle relevanten faktoren ausgenutzt, die der ki zu gute kommen. insofern kann civ5 sehr wohl mehr faktoren nutzten als bisher um die ki zu verbessern.
 
oh man, einige scheinen echt noch keine Zeile code geschrieben zu haben und meinen sich damit auszukennen -.-

Multithreading für ein spiel(bzw. software) ist komplizierter als viele hier denken. das ist nicht einfach ein aufteilen von aufgaben ohne überlegung. da steckt viel, sehr viel überlegung und arbeit dahinter, damit das gut funktioniert. Wenn das nicht gut gemacht wird, wird sich das programm öfters aufhängen, bzw. hängen bleiben oder total langsam laufen.

threading verlangt nach einer grossen Vorstellungskraft und ist nicht einfach so schnell schnell gemacht!

man kann es den entwicklern/herstellern ned ganz übel nehmen, dass viele Programme/Spiele nicht multitcore unterstützung haben. viele haben das wissen nicht und andere die zeit nicht. es ist ein bedeutender mehraufwand. auch wenn ich finde, dass man den eigentlich in die Entwicklungszeit einberechnen sollte... ;)

greez
 
Zuletzt bearbeitet:
Sebl, davon würde ich bei Civ V nicht unbedingt ausgehen, die wurde komplett neu gemacht. Im Übrigen hat Civ schon seit Version 3 drei KIs (strategisch, wegfindung, diplomatisch) plus ein Expertensystem für Taktik, das extra vor Auslieferung von Testspielern trainiert wird.
 
Sebl schrieb:
@Ice
Was du meinst ist eine echte KI, aber bei CIV geht die KI immer noch nach Wertetabellen und die müssen erst mal berechnet werden. Je nach Volk, Lage, Fähigkeiten, Zeit, etc. ;) Außerdem war mein letzter Satz ironisch gemeint.
gut, dass es ironisch gemeint war, ist schonmal von gut :)

Neija sie sind ja nicht dazu gezwungen Wertetabellen einzusetzen, und somit eine so hohe CPU-Anforderung zu haben, es gibt so viele gute KI-Arten, die man nur ein "wenig" antrainieren muss und dann wirklich extrem effizient sind und intelligent.
Neuronale Netze können sich dem Spielniveau des Spielers anpassen und sogar ganz neue Taktiken entwickelt, auf die eine normale KI nie kommen würde
 
Berechnung für eine gute KI bei Mensch-Ärger-Dich-Nicht:
Pro Spieler gibt es vier Figuren: 4
Der Würfel hat die Werte 1-6
Somit gibt es schon mal 6x4 Möglichkeiten = 24

Gehen wir jetzt davon aus, dass die KI ihren Spielzug auf Grundlage der Position (Feld) der Figur, sowie die Stellung des Gegners auf dem Feld berehnet.

Auf dem Brett gibt es 72 Felder (wenn ich mich nicht verzählt habe): Also 24x72 = 1728

Der Gegner hat indes auch vier Figuren: Also 1728x4 = 6912
... die wiederrum auf 72 Feldern stehen können: Also 6912x72 = 497.664

Damit muss die KI 497.664 Möglichkeiten berechnen, um einen Zug auszuführen. Gehen wir dann noch davon aus, dass die KI auch den nächsten Zug des Gegners mitberechnet, sind es nochmal so viele.

Dabei habe ich mit Sicherheit noch zig Varianten und Variablen vergessen. Und trotzdem, selbst ich, der absolut keinen Dunst von KI-Programmierung hat, kann schon anhand dieser Zahlen sehen, was bei CIV abgeht.

Und CIV kann mal nicht nur zu zweit spielen.
 
@ ice-breaker

Ok, vielleicht war meine Frage falsch gestellt. Kann eine CPU Vorarbeit leisten, damit die GPU effizienter arbeiten kann? Die Sache bzgl. PS3 ist mir nicht ganz klar, die hat doch zum Cell zusätzlich noch eine dedizierte GPU!?
 
@ dese

1. wenn du mich schon ansprechen willst, schreib mich richtig
2. will ich weder ablenken
3. wenn du meinst "aus meinen aussagen" etwas "schließen" zu können, und das auch gleich für die gemeinde machst und als tatsache hinstellen willst, bist du sicherlich auch einer der menschen die sich einbilden das nur ihre meinung, und nichts anderes zählt.
4. im gleichen zug möchte ich noch sagen, das wenn du meine aussagen als FALSCH bezeichnest, ich hier erwarte ich mehr als nur deine alles oberwisser meinung.
5. das beispiel mit dem mesch ärger dich nicht war auf die aussage bezogen, das gute ki viel rechenpower benödigt, und kein vergleich mit civ.

das die abstimmung zwischen multithreading große arbeit ist, bezweifle ich nicht. ich wollte nur zum ausdruck bringen das sich die programmierer hier keine mühe mehr geben, ihre spiele sauber und ordenlich zu programmieren/optimieren. lässt man mal die grafikengine weg, bleibt eben nur das "brettspiel" übrig. mehr ist civ nicht.


anhang. das mensch ärger dich nicht gabs schon zu ms dos zeiten und war genial, sogar grafisch schon eines der besseren spiele durch die 1. highres grafiken damals. das lief sogar auf den damaligen schulrechnern mit dx 33 mhz prozessoren und 2 mb ram sauber. (ja das waren die schönen rechner mit turpokopf wo man auf 40 mhz gekommen ist). das bild heute, da wird für das gleiche spiel, natürlich grafisch hüpscher und in mehreren varianten des spieles schon 512mb ram und mind. 1,2 ghz verlangt. und ich glaube kaum der beim gleichem spiel die cpu heute mehr rechnen müsste wie damals.

noch ein vergleich: warzone 2100.. anforderungen. pentium 166mhz, 32 mb ram, 2mb grafik. hier konnte man (wenn man das balance einheitenlimit ausschaltet) auf rießen karten locker seine 500 oder 600 einheiten aufstellen (gebäute nicht mitgerechnet), zudem gab es weit über 1500 versch, einheitentypen, und jede einheit mit einzeln einstellberer ki, zudem noch extra komando einheiten die andere einheiten steuerten. das alles lief damals schon einwandfrei. man schaue sich heutige spiele ala c&c oder supreme comander an, wo die einheitenki nichtmal so komplex ist. hier fangen die anforderungen um ein vielfaches höher an, und im falle von supreme comander hängt nen quad auf ner 2 spieler openmap bei mehr als 400 einheiten pro spieler durch. und hier gibts nichtmal versch, ki´s pro einheit.
 
Zuletzt bearbeitet:
Kann eine CPU Vorarbeit leisten, damit die GPU effizienter arbeiten kann?

Ja kann sie. Oft werden Bilder vorberechnet, was aber auch negative Folgen haben kann. Es gibt viele möglichkeiten, was man unter vorarbeit verstehen kann ;)

Die CPU berechnet z.B. auch die schatten vor oder die Physik ;) (bevor das Bild an die Grafikkarte geht)

EDIT:
bringen das sich die programmierer hier keine mühe mehr geben, ihre spiele sauber und ordenlich zu programmieren/optimieren. lässt man mal die grafikengine weg, bleibt eben nur das "brettspiel" übrig. mehr ist civ nicht.

naja, ich korrigiere:
Die entwickler waren noch nie mit solchen komplexen Algorythmen in kontakt gekommen, den wie du sagtest, früher musste man sich über physik, multithreading etc. keinen kopf machen, da war es nur ein programmieren ohne "viel" zu überlegen. praktisch ein heutiges handyspiel, wobei diese auch schon einiges an lager haben ;)

zum brettspiel. ich kenn das spiel zwar ned, aber da ist weitmehr als nur das brettspiel, was die CPU berechnen muss.
wie gesagt, nebst der KI und was alles dazu gehört, was wahrscheindlich am meisten ausmacht, gibts noch schatten, physik(sofern das spiel das hat), events, statistiken, sound etc. etc. etc. es hat genug, was die CPU zu tun hat ;)

ein zeitsystem wurde mal erwähnt, damit ist auch so einiges verbuden, wann was ausgelöst wird, etc. ;)
 
Zuletzt bearbeitet:
DvP schrieb:
@ ice-breaker

Ok, vielleicht war meine Frage falsch gestellt. Kann eine CPU Vorarbeit leisten, damit die GPU effizienter arbeiten kann? Die Sache bzgl. PS3 ist mir nicht ganz klar, die hat doch zum Cell zusätzlich noch eine dedizierte GPU!?

Also ich glaub Ice-breaker hat da einfach n bisschen blödsinn gelabert:
Die PS3 hat zum einen eine dedizierte Grafikkarte (NVidia RSX, basiert auf der GeForce 7- Generation) und den Cell-Prozessor.
Der wiederum besteht aus einem kleinen Kern für die Verwaltung und 8 weiteren relativ unabhängigen Kernen, die verschiedene Aufgaben (Physik, KI, ...) übernehmen können (aber das sind KEINE GPUs)
 
Zurück
Oben