Blutschlumpf
Fleet Admiral
- Registriert
- März 2001
- Beiträge
- 20.349
Selbst wenn die nichts kosten würde wärs mir um den Stromverbrauch zu schade.
Wenn ich an nem normalen Rechner mit 19 Zoll TFT in 1280x1024 spiele, dann langweilt sich meine CPU bei 3/4 der Rechner heute schon weil die Graka immer vorher an die Grenzen kommt. Ergo hab ich jetzt schon überflüssige Rechenleistung. Wie soll das erst in 2 Jahren aussehen ?
Spiele werden nie richtig mit der Anzahl der Cores skalieren, ergo wird in Zukunft immer mehr CPU-Leistung brachliegen die man wunderbar für Physik oder KI nutzen kann.
@Willard:
Ist ja nett wenn ich die Explosion einer Granate bis ins kleinste berechnen kann, aber wozu ?
Merkst du beim Spielen ob du gerade von nem Schrabnell getroffen wurdest dich physikalisch korrekt gekillt hat oder nur durch einen Zufallsgenerator ?
Wenn ja: Zahlst du für die Gewissheit 99 Dollar ?
@An alle "ne CPU wird das nie so gut können wie ne spezielle Karte"-Anhänger:
In einem Spiel Mitte 2006 musste z.B. ein A64 SingleCore mit 2Ghz alles berechnen, Physik, KI, Teile der Grafik, sonstige Spiel-Logik. Sprich für Physik blieben vielleicht 20% der CPU-Power über.
Ende 2008 hat das Spiel 4 Penryn-Kerne a 3Ghz zur Verfügung, davon liegen für Physik und KI dann wohl 2-3 brach.
Wenn der Physikprozess nur einen Kern bekommt, dann hat er wenn man die höhere Leistung/Takt zugrunde legt schon 10x soviel CPU-Power wie das Game 2006.
Tendenz eher steigend als sinkend. Sprich die Physik wird auch so in Bereiche kommen in denen vieles machbar ist was noch vor 2 Jahren undenkbar war.
@HisN:
Es gibt jetzt die Software mit der man Sachen entwerfen kann die die PPU mal nutzen könnten. Grandios, dann kann ich ja schon 2009 mit fertigen Produkten rechnen.
Wenn ich an nem normalen Rechner mit 19 Zoll TFT in 1280x1024 spiele, dann langweilt sich meine CPU bei 3/4 der Rechner heute schon weil die Graka immer vorher an die Grenzen kommt. Ergo hab ich jetzt schon überflüssige Rechenleistung. Wie soll das erst in 2 Jahren aussehen ?
Spiele werden nie richtig mit der Anzahl der Cores skalieren, ergo wird in Zukunft immer mehr CPU-Leistung brachliegen die man wunderbar für Physik oder KI nutzen kann.
@Willard:
Ist ja nett wenn ich die Explosion einer Granate bis ins kleinste berechnen kann, aber wozu ?
Merkst du beim Spielen ob du gerade von nem Schrabnell getroffen wurdest dich physikalisch korrekt gekillt hat oder nur durch einen Zufallsgenerator ?
Wenn ja: Zahlst du für die Gewissheit 99 Dollar ?
@An alle "ne CPU wird das nie so gut können wie ne spezielle Karte"-Anhänger:
In einem Spiel Mitte 2006 musste z.B. ein A64 SingleCore mit 2Ghz alles berechnen, Physik, KI, Teile der Grafik, sonstige Spiel-Logik. Sprich für Physik blieben vielleicht 20% der CPU-Power über.
Ende 2008 hat das Spiel 4 Penryn-Kerne a 3Ghz zur Verfügung, davon liegen für Physik und KI dann wohl 2-3 brach.
Wenn der Physikprozess nur einen Kern bekommt, dann hat er wenn man die höhere Leistung/Takt zugrunde legt schon 10x soviel CPU-Power wie das Game 2006.
Tendenz eher steigend als sinkend. Sprich die Physik wird auch so in Bereiche kommen in denen vieles machbar ist was noch vor 2 Jahren undenkbar war.
@HisN:
Es gibt jetzt die Software mit der man Sachen entwerfen kann die die PPU mal nutzen könnten. Grandios, dann kann ich ja schon 2009 mit fertigen Produkten rechnen.