Da lachen ja die Hühner. Die Konsolen sind tot. Sind aber nicht am eigenen Ehrgeiz oder Selbstverschulden da wo se sind: Entwickler und Spiele gibt es genug und ebenso kaufwillige Kunden.
Die Konsolenhersteller aber sind schuld an der Misäre:
Es gab in den letzten 3-4 so gut wie gar keine großen Fortschritte, weder bei CPU-power noch in der halbleiterindustrie selbst. die Hersteller wusste vorher, daß man in 28nm fertigen wird müssen. Geschwindigkeit ade. Hinzu kam der Trend der immer steigenden Auflösungen. FullHD ist nichts Neues, 1440p nicht wirklich etabliert im TV-Market, aber 4K wurde bereits seit Jahren angekündigt und vorangetrieben - allen voran Sony selbst! Keiner kann uns erzählen, daß zumindest Sony keine Ahnung hatte was 4K ist und wann es ungefähr beim Endkunden ankommen wird.
zitat : SONY, 4K’s pioneer and prime mover
2004
http://www.sony.net/SonyInfo/News/Press_Archive/200405/04-027E/ SONY kündigt erstes 4K LCD an, bzw. deren Entwicklung
2008
https://www.computerbase.de/2008-05/samsung-zeigt-82-zoll-lcd-fernseher-mit-2160p/ SAMSUNG kündigt erstes 4K Gerät an
2010
http://www.filmjournal.com/content/4k-goes-mainstream-behind-scenes-sony-headquarters-japan 4K-Mainstream-Sony-mit-DLP-dritter-Generation
2013
http://www.trustedreviews.com/news/sony-announces-world-s-first-4k-home-projector SONYs erster 4K Heim-Projektor
Von VR will ich gar nicht erst anfangen!
Ich bin der Meinung, daß
man 9-12 Monate vorher hätte erkennen müssen daß a) es für 4K einfach nicht reicht und b) es schon bei FullHD Probleme geben wird. Meiner Meinung nach hätte man die aktuell verbaute AMD-Grafiklösung frühzeitig als "nicht ausreichend" bewerten müssen. Nicht aber um bei NVidia einzukaufen, sondern um ein Design von AMD mit mehr Power zu ordern (mehr GCN-Units).
Das betrifft Microsoft ebenso wie SONY, bei Microsoft kann man zumindest vermuten, daß man sich stark auf den ESRAM verlassen wollte und musste, da ein Re-Design natürlich ebenso wie für SONY Verzögerungen und Kosten bedeutet. Man hat hier wohl auch dem Vorteil der frühen Markteinführung ein überhöhtes Maß an Wichtigkeit zugewiesen.
imho hätten beide APUs mindestens die doppelte anzahl an GCN Units nötig, optimalerweise sogar 4mal. Aber ein solcher monsterchip erreicht dann wohl locker 1000mm² - vielleicht hätte es aber auch ein Crossfire-ähnliche Lösung getan wobei derselbe Chip mehrmals verbaut hätte werden können - dann hat man aber wahrscheinlich temperaturprobleme. Wenn man aber sowieso eine Refreshversion bringen wird, wäre das Startmodell eben lauter und wärmer, der refresh@14-20nm hätte dieses Problem aber Ende 2015 gelöst.
Jetzt haben die Hersteller den Salat: man kann theoretisch mit den geshrinkten 16-20nm Chips demnächst leistungsstärkere Hardware verbauen, darf diese aber nicht schneller werden lassen als das ursprüngliche Modell, da man sonst auch bei den Spielen eine 2-Klassen Gesellschaft riskieren würde mit dann allen neuen Spielen, die in der Ur-Version schlecht bis gar nicht laufen (und eben denen die auf beiden Versionen anstandslos laufen). Nein, jede kleine Änderung wird alle aktuellen Kunden/Nutzer vergraulen und empören.
NextGen war mal. Hier sieht man aber auch deutlich, daß die Entscheidungen nicht von Experten der Materie, sondern von weltfremden Managern oder ahnungslosen Analysten gefällt wurden - entweder zugunsten einer frühen Markteinführung oder eben kostengünstig.