SchaGur
Welche Kritik, die ewige Leihe, dass die WiiU schwächer ist als die XOne und PS4. Sry, falls du es noch nicht geschnallt hast, wir wissen das alle. Tatsache ist aber, sie ist potenter als die PS360 und trotz 1/3 des Verbrauchs und das hat sie bereits bewiesen.
Du gehörst zu jenen Kinder, die tatsächlich glauben, eine Qualität eines Games lässt sich durch Grafik bestimmen und allein diese Information zu lesen, reicht es die letzten Posts von dir zu lesen.
Das hat nichts damit zu tun, dass ich keine Kritik zulasse, sondern weil ich mit deinen Core-Gamer Vorstellungen am Ende den Thread-Verlauf Zerstöre, weil du der Meinung bist, ja wir müssen hier eine sinnlose Unterhaltung aufbauen.
Aber wir können natürlich kurz deine Kritik angehen.
Als ein sehr großer und angesehender Spielkonsolen Primus, kann man doch nicht in das Flagschiff der Firma eine 1997 CPU einbauen?
Weißt du worauf sich ein Jaguar Core aufbaut ? Nein ? worauf sich Bobcat aufbaut ? Nein ?
Bobcat ist aus dem Jahr 2011 und basiert wahrscheinlich auf einen K7, der aus dem Jahr 1999 ist.
Die Konsole setzt mit der PowerPC-Architektur der dritten Generation (G3) auf ein CPU-Design, das beinahe unverändert bereits in der Nintendo Wii sowie dem Gamecube zum Einsatz kam und ursprünglich aus dem Jahr 1997 stammt.[28][36] Der gesamte Chip fällt mit circa 33 mm2 in 45 nm vergleichsweise klein aus.[35] Bei identischer Strukturgröße nimmt ein einzelner CPU-Core der Xbox 360 inklusive zugehörigem L2-Cache etwa dieselbe Fläche ein wie der gesamte Hauptprozessor der Wii U und verfügt damit ungefähr auch über dieselbe Anzahl an Transistoren.[37] Die CPU bewegt sich somit in der Größenklasse eines Intel Atom-Prozessor, wobei selbst dieser unter 45 nm teils größere Chipflächen aufweist
So, das steht in Wikipedia, was übrigens nicht bedeutet dass es richtig ist, weil es eben keine 100% genaue Daten gibt.
Tatsache ist, auch wenn hier "beinahe unverändert" steht, ist es nicht mehr der gleiche Prozessor aus 1997.
Der Prozessor hat 3 MB l2 Cache realisiert als eDRAM und ist offensichtlich auf dem 32mb eDRAM gemapped. Weiteres hat der Prozessor jetzt 3 Cores. Es gab von IBM selbst nie eine Dual-Tri oder Quad Variante, somit ist es nicht mehr der selbe Chip, selbst wenn die Basis auf 1997 basiert.
Was noch wesentlich wichtiger ist, die RISC Architektur, die kurze Pipline macht sie als Gaming CPU immer noch effizient.
Der Autor selbst vergleicht die CPU zwar mit einen ATOM Prozessor, der gegenüber Bobcat ziemlich groß ist, Tatsache ist aber, dass ein ATOM ein schlechter Vergleich ist, da dieser erstens ein X86 ist und eine inorder Architektur besitzt.
Schlimmer ist, dass viele nicht mal wissen, dass Der GameCube damals zwar die zweit schnellste Konsole war (schneller als PS2, langsamer als XBOX) aber dafür die wesentlich effizienteste Konsole war, weil die TEV-Einheiten und der Prozessor mit kurzen Befehlen auskam, man musste aber "direkter" Programmieren, was der Wii Probleme brachte, da die Programmierer sich nicht damit lange befassen wollten wie man mit TEV und den Prozessor ordentlich programmiert.
Und damit du es verstehst, dass "Watt" für Verbrauch aber auch Leistung steht und man davon nicht direkt ablesen kann, wieviel so ein Design benötigt, kann man dir genug Beispiele geben.
Bobcat, Vorgänger von Jaguar ist selbst in 40nm. Dieser ist aber noch kein SoC, wo im Vergleich die WiiU durchaus ein SoC ist, da alles auf dem MCM Chip zu finden ist. Somit hat hier die WiiU APU schon mal einen Vorteil. Bobcat konnte aber mit einer TDP (Thermal Design Power) von 15 Watt 2 Cores (1MB Cache), und eine 80 Shader GPU beherbergen.
Dazu sei gesagt, dass die 2 Cores mit X86 wohl viele Instruktionen haben, die für eine Spiele CPU, außer man möchte wie Sony oder MS noch andere Dinge wie mehrere VM ect anbieten, unnötig ist. Die GPU hat 80 Shader und wird teils durch den lahmen DDR3 1066 Anschluss und Single Channel abgebremst. Die WiiU hat aber mehr Shader und einen 32MB eDRAM der vllt gerade mal 1 Watt verbracht und eine schnelle Datenfütterung erlaubt. Somit kann allein was die Ram Verbindung angeht, Strom gespart werden. AMD selbst integrierte zuvor schon einen eDRAM in einigen embedded Chips, die auch in der Raumfahrt verwendet wurden.
Wenn wir jetzt einen Vergleich zu einer XBOX 360 oder PS3 machen, wissen wir, dass beide zwar einen hohen Takt hat, dieser aber klar ist, wenn die Pipline tatsächlich 32-40 Stages lang ist. Denn die CPU macht oft Fehler und muss die Stages neu auffüllen. Genauso sind die Stages dazu da, damit die CPU einen Ablauf hat, wie er ein Programm abspielt. Somit ist es schon bemerkenswert, dass die WiiU CPU die 32-40 Stages, die eine XBOX 360 CPU braucht und dazu noch HT benötigt um diese besser Auszufüllen in nur 4 Stages out of order schafft.
Natürlich müssen die Programmierer dann bemüht sein, den Code umzuschreiben, da sie gewohnt waren, die PS360 mit einen schnellen Code zu füttern und sicherlich verstehe ich dann, dass es für manche Programmierer kein Traum ist, besonders wenn der Arbeitsgeber Zeitdruck macht.
Tatsache ist, die PS360 haben eventuell mehr Rohpower, die WiiU kann aber offensichtlich, sobald man sie beherrscht mehr Power an den Tag bringen. Noch schlimmer wäre es wenn ich den Cell- Prozessor heran nehme, der viel Performance hat, aber für die Entwickler Jahre lang eine Qual war.
Die Jaguar Cores sind sicherlich effizienter, siehe oben, bessere SIMD-Einheiten, die wohl der Grund sind, wieso der Prozessor besser ist, ebenso haben sie einen ARM Chip für Security, welcher übrigens in der Wii GPU früher integriert war und AMD wohl zu dieser Lösung gekommen ist.
Wenn es aber um die Pipline geht und um die CISC vs RISC Architektur geht, hat der x86 sicherlich nicht nur Vorteile. Da wäre die 14 Stage Pipline und die Unterschiedlich langen Befehle die für CISC typisch sind. Somit die WiiU CPU könnte quasi 2 mal die Pipline refreshen und hat immer noch die Chance eine einfache Aufgabe gleich schnell wie die Jaguar CPU zu bearbeiten, allein nur weil die Stage gerade mal 1/3 groß ist.
Was bedeutet das ? Die WiiU CPU aus dem Jahr 1997 kann für spezielle Anwendungen, das sind Games extrem schnell sein kann und weist eine hohe IPC aus. Weiteres benötigt der RISC Prozessor weit aus weniger Arbeitsspeicher als eine x86 Architektur. Durch den 3 MB großen Cache und den doppelten so hohen Takt, eventuell kleinere interne Verbesserungen, die wir nicht wissen, aber möglich sind, hat dieser Prozessor aus dem Jahre 1997 weiterentwickelt und verbessert.
Klar gegen einen 8 Core Jaguar wird man kaum anstinken können, doch das muss er gar nicht. Seine Aufgabe sind Games und eine GPU zu befeuern die, von der wir alle wissen deutlich kleiner ist als die der XBOX One oder PS4. Trotzdem, das bisher gezeigt, zeigt, Nintendo hat eine sehr effizientes Design, dass genau auf das Zugeschnitten ist, was die Konsole können muss.
Da sind die APUs oder Vorherige Lösungen (naja Cell Prozessor jetzt ausgenommen) schnell angepasste Lösungen mit selbst Eigenentwicklung zur Effizienz.
Der Unterschied ist nämlich, MS und Sony haben nach einer Power Option gesucht und Effizienz ist nebensächlich, hier waren Flaschenhälse im Fokus und Nintendo hat eine effiziente Lösung gesucht, die wenig Verbraucht aber viel in Relation leistet.
Damit dir das in den Schädel geht, eine 28 nm Version, wäre kaum größer, könnte dann aber eine 6 Core Variante mit, wenn man den 320 Shader glauben darf, 640 Shader und der Chip wäre bei ordentlicher Optimierung auf einem Niveau etwas unterhalb der XBOX One.
Dabei wissen wir eigentlich von der WiiU von 8 CUs, von denen einige meinen es seien 160 Shader, wobei durch die effizientere GPU auch hier die XBOX 360 geschlagen wäre, zeigen genug 40nm GPU-AMD-Chips dass wesentlich mehr Shader als 320 Shader möglich wären.
40nm und nur max 30Watt Stromzufuhr ist ein Horror.
Das von dir verlinkte ist alles andere als aktuell und rein eine Zusammenfassung oder Vermutung, nirgendwo etwas offizielles oder gar bestätigt, und der Satz da oben würde zwar emotional Besetzt sein, mit Rationalität hat es aber wenig zu tun.
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-hd-6450-test.1472/seite-7
Der Idle Wert ist eigentlich total unnötig, weil die Konsolen, in erster Linie was die CPU angeht auf Maximum laufen und maximal die GPU hoch oder runtertaktet.
Man sieht aber, dass die 5570 in 40 nm trotz 400 Shader gerade mal 6 Watt mehr verbraucht als die 6450 mit 160 Shader.
Die 5570 taktet aber mit 650 Mhz und die 6450 mit 625-750 MHz.
Die WiiU wird sicherlich eine größere und effizientere GPU haben als die PS360 und das ist auch der Grund warum die WiiU grafisch trotz 32 Watt unter Last besser wegkommt. Die 40 nm Fertigung würde übrigens (besonders da GPU und CPU getrennt sind) mit einen etwas höheren Takt der GPU wegkommen. Auf 775Mhz würde das Design zwar um 20 Watt mehr verbrauchen, die TDP und die Kühlung der WiiU wäre aber das sicherlich gewachsen. Denn viele Vergessen, die 33 Watt tdp ist momentan nicht nur für den WiiU MCM Chip allein, denn sondern auch das Laufwerk die Platine (RAM ect) verbraucht auch etwas. Hingegen schaut die Lüftung und das Netzteil für den Vergleichbar großen Kühler und den vorhanden Windkanal relativ klein aus.
Deine Vermutungen basieren also rein aus der Tatsache, dass Nintendo ein kleines Case haben wollten und einige die Chip-Lösung als Power-Design und nicht als effizientes Design betrachtet haben.
Der WiiU MCM Chip ist also der einzige Konsolen Chip der Tatsächlich aufs Gamen optimiert ist und keinen Ballast mit trägt.
Du kannst was die Technik angeht gerne Stellung nehmen, aber wenn du dann so nett bist und mal auf die erste Seite gehst, dann wirst du sehen, dass wir uns hier zwar der WiiU widmen, dies aber wohl anders machen, als viele wohl die PS4 betrachten, nämlich der Wert der Konsole betrachten jene hier nicht wie manch andere durch die Hardware sondern eben durch die Software.
Und es sei gewagt zu behaupten, dass die WiiU Konsole mit Games wie Mario Kart 8 und Super Smash Bros.U , das kommende X dass von den damaligen Final Fantasy Gründer mitentwickelt wird nicht an Wert gewinnen, denn trotz SubHD Grafik der Wii habe ich sogar mit den Vorgänger noch ein Heiden-Spaß.
Nitnendo hat eine Tradition in der Konsolenentwicklung und klar man könnte meinen, es sei vllt nicht modern genug, es ist aber eben abhängig wie man ein Design begutachtet und dazu muss man sich im klaren werden, welche Einsatzgebiete ein solcher Chip nun mal besitzt.
Nintendo verwendet schon immer Chips die in embedded Bereich Anwendungen finden und designen/passen den Chip sosehr an, sodass dieser genau das kann was er soll, nicht mehr und nicht weniger. Und laut Chipworks, basiert der Prozessor auf alles andere als ein "billigen" Fertigungsprozess, sonst ist der Prozessor nicht durchdacht oder "billig" zu produzieren, allein deshalb weil dieser MCM Chip derart auf effizenz gedrillt ist.
Naja ich bin gespannt, wie Projekt CARS am Ende aussieht, denn laut Entwickler konnten PS360 schwer mithalten.
https://www.computerbase.de/forum/t...skussions-sammelthread.1228350/#post-14198345
Nur möchte ich Vergleiche im Sinne von XBOX ONE, PS4 ist besser eher vermeiden, weil dieses Thema schon oft genug diskutiert worden ist.
Also Hardware-Vergleiche stehen nicht im Mittelpunkt, denn es ist jedem klar die WiiU ist schwächer als PS4,XOne ist oder ob die WiiU eine "next Gen" ist.