nanoworks schrieb:
Du kapierst es einfach nicht. Du kommst hier her, zitierst die Leute und verstehst gar nicht wovon sie reden. Es ist einfach unfassbar...
Und du wirfst mir Unwissen und Widersprüchlichkeiten vor und kannst sie nicht belegen. Richtig, ich versteh nichts von Architekturen. Ich hab erst recht keine Ahnung davon aus erster Hand, wie nervig es ist für eben Unterschiede bei genau denen zu entwickeln. Über sich mit frameworks der Hersteller rumklagen weiß ich auch nichts. Der einzige, der hier mit Unwissen glänzt bist du. Du liest hier deine Specs aus dem Marketinghandbuch ab und siehst darin das Allheilmittel. Du hast von semantischer Problemlösung offensichtlich keine Ahnung und denkst, dass höhere Specs automatisch besser seien. Und wenn man dir dann auch noch Denkanstöße gibt, wieso das vielleicht nicht so ist, kommt immer wieder der gleiche Unsinn.
Dieser Architektur war von Anfang an zu "groß" für die PlayStation 3, sie war 2006 Next-NextGen, aber das mit Absicht.
Richtig. Genau das habe ich in meinem ersten Post geschrieben. Sony hat nicht im Rahmen des Wohnzimmers, sondern darüber hinaus gedacht und genau das ist einfach komplett falsch. Die Verbreitung von Cell belegt das nur eindeutig und Trends wie IBMs Reduktion des PowerPC Portfolios untermauern das nur. Auch wenn dir das nicht passt. Im Endeffekt hat Sony bei Cell nichts anderes gemacht als zuvor bei Emotion Engine. Wie erfolgreich das Konzept war, sehen wir ja. Es hat sich nirgendswohin entwickelt. Einfach mal die nächsten Jahre abwarten und du wirst erkennen, dass es eben so ist, dass Sonys Cell nur in der PS wirklich Verbreitung erfährt.
Das PSGL ist ausgereift, die Entwickler kennen die Hardware mitlerweile und selbst die derzeitige Cell BE in der PlayStation 3 wäre stark genug für NextGen.
Ausgereifte Frameworks? So etwas gibt es nicht. Zu deiner Nextgen These:
Man schaue sich einfach mal Battlefield 3 auf der PS3 an. Damit ist deine These unhaltbar. Und bevor du jetzt mit so einem Unsinn wie "da sind noch genug Ressourcen" kommst, nein sind dort nicht. Bei einer multimillionen Unterhaltungssoftware-Entwicklung wird weder der Hersteller noch der Publisher sich mit "nur 90%" zufrieden geben.
Diese Architektur hat einfach unfassbar viel Power. Ein Shrink auf 32nm erlaubt höhere Taktraten, mehr SPEs, vielleicht mehr Power Cores im PPE, vierfaches Multithreading für diese Cores und so weiter.
Und genau das können MS und Nintendo auch. In der Wii werkelt ein in 90nm gefertigter mit 730 mhz. Was glaubst du was passiert, wenn die gleiche Architektur in einem neuen Werk mit kleinerer Strukturbreite gebaut wird? Richtig, die Taktraten können erhöht werden. Nintendo hat es nun ziemlich leicht einen deutlichen Leistungssprung zu schaffen, während die Konkurrenz durch den sowieso schon höheren Takt näher an der Grenze des möglichen ist.
Bitte verschone uns mit deinen Spekulationen, insbesondere über Multithreading. Hättest du ein wenig Ahnung, wüsstest du, dass sich nicht alles parallelisieren lässt und dementsprechend mehr Threads / Kerne / Tasks nicht automatisch besser sind.
Diese CPU-Architektur wurde so aufgebaut, dass sie extrem leicht und effektiv erweiterbar ist.
Das hat man ja gesehen, wie einfach die Entwicklung auf der Architektur ist im Vergleich zur Konkurrenz. Wenn ich anfange mir als kleiner Entwickler Gedanken über Memory Allocation machen zu müssen (anstatt zu können), ist es einfach nicht leicht. Ohne Leichtigkeit keine Effizienz.
In ein paar Jahren wird jeder Sony Fernseher eine Cell BE als Rechenherz nutzen. Microsoft und Nintendo haben diesen Vorteil nicht.
Weil MS und Nintendo ja auch soviele andere Homeentertainment-Geräte bauen. MS und Nintendo müssen nicht eine Architektur erschaffen, damit sie sie überall verwenden können. Sie können semantisch an neue Produkte rangehen, anstatt mit dem Leistungshammer zu schwingen. Ich seh ehrlich gesagt auch überhaupt keinen Sinn darin in einem Fernseher PowerPC zu verbauen, wenn ARM für die typischen Applikationen effizienter ist.
Aus was für einer "Spielebranche" du kommst *hust*, zeigt ja dein Enthusiasmus für ARM Chips: Das kann eigentlich nur irgend so ein billiger Yamba-Mist sein, der den Kids für 20€ pro Monat auf Viva angeboten wird.
Falsch. Ich arbeite nicht für Rupert Murdoch, sondern für einen Publisher mit über 200 Millionen Kunden mit über 70 Titeln im Portfolio. Würdest du auch nicht einfach dumm rumraten, wüsstest du es auch. Du wirst mit Sicherheit nicht zum Zielpublikum meines Arbeitgebers gehören und du magst von seinen Methoden halten was du willst, trotzdem bleibt es Spielebranche und hat exakt die gleichen Schritte in der Entwicklung wie z.B. Ubisoft.
Sowas als "Spielebranche" zu bezeichnen ist einfach nur lächerlich: So was haben wir damals im Informatikunterricht programmiert, wenn uns langweilig war.
Richtig, nur Hardcore Zeugs kann Spielebranche sein. Komisch, dass ausgerechnet die großen Publisher jetzt auf den Trip kommen, Casual als Marktlücke zu akzeptieren und den Vorreitern dieses Segments hinterherrennen. Kannst ja mal nen Termin mit der Pressestelle von EA beantragen und fragen, wie sie zu einem Publisher wie Zynga stehen.
Deine Ansichten sind anscheinend bei "damals im Informatikunterricht" stehen geblieben.
ARM ist ganz sicher nicht der Gral für Consumerelectronic in den nächsten Jahren: Diese Architektur ist auf maximale Effizienz getrimmt, lässt sich mit der Rechenleistung von PowerPC nicht mal im Ansatz vergleichen.
ARM wird mehr und mehr Bereiche des Homecomputings ersetzen. x86 ist am Ende der Fahnenstange angelangt und ist für das meiste zu stark. Kein Mensch braucht einen 102ps Motor in einem Smart, wenn 84ps auch für den sinnhaften Nutzen reichen. Das erkennen halbwegs intelligente Käufer der Produkte. Exakt das gleiche passiert mit PCs momentan. PowerPC macht aus dem Grund noch weniger Sinn als x86.
Natürlich kannst du mit ARM noch nicht alles abdecken, das Wachstum der Plattform an Leistung ist jedoch ein vielfaches größer als andere Architekturen momentan.
Die Anforderungen in Sachen Rechenleistung werden konstant höher und bleiben nicht einfach stehen.
Bei sowas stellt sich jeder Entwickler die Frage, ob die höheren Anforderungen dem Mehrwert gerecht werden. So mancher sagt dann nein und liefert lieber Software, die sich mit weniger zufrieden gibt (z.B. der Entwickler, der vor Frostbite2 die Standards gesetzt hat).
ARM wird sich weiterhin auf den Mobilmarkt beschränken.
Sieht man ja. Server, Fernseher, Nettops, embedded. Apropos embedded: Du sagtest ja, dass Sony die einzigen seien, die Cells herstellen (wobei das auch schon falsch ist, aber lassen wir das). Fahr ins Chariete, oder Uniklinikum Münster oder nach Heidelberg und zieh dir rein, womit MRTs von Toshiba arbeiten. Wer die nun herstellt ist weniger von Belangen, irgendwie vermute ich, dass Toshiba dafür bezahlt hat, dass darin ein aktueller PowerPC werkelt. Aber ja, natürlich, PowerPC setzt sich auch dort durch.. So eine Architektur die stets aktive Kühlung benötigt, wird sich bestimmt in Systemen in Operations-Säälen durchsetzen. Nur so als Tipp: In diesen Bereichen eingesetzte embedded-Systeme dürfen keine Lüfter besitzen.
Du verkennst bei all deinen "Specs sind so wichtig und der ach so große Cell", das wichtigste an den momentanen Trends in der Industrie:
1. Casual wächst stärker als klassische Segmente.
2. Egal um was es sich in der Anwendungsentwicklung dreht: Für ein System zu entwickeln steht besser da als für mehrere Systeme. Das ist der Grund, wieso DirectXbox höhere Akzeptanz hat. Das ist der Grund, wieso immer mehr in Richtung Javascript und serverseitigs Javascript geht (node.js). Das ist der Grund, wieso XNA populär ist. Eine Sprache/Framework zu verwenden ist immer besser als zwei vermischen zu müssen. Jetzt frag dich mal, was die Entwickler davon halten, wenn sie in Zukunft ihre Projekte für Desktop PCs nicht mehr elementar anfassen müssen, weil dort die gleichen Frameworks laufen wie auf mobil-devices, Homeentertainment-Geräten und was es dann sonst noch so gibt...