Hat schon mal jemand darüber nachgedacht, dass die Entwicklung auch aus physikalischen Gründen stagniert?
Das Optimierungspotential ist schon ziemlich ausgereizt.
Die Sprünge der vergangenen Jahre, beispielsweise von der Generation Core2Duo/Quad zur Core i waren sehr groß, danach nur noch sehr klein.
Im Prinzip nur noch Minisprünge , vor allem wurde an der Anzahl der Kerne gedreht (AMD) und an den Grafikeinheiten (AMD danach Intel).
Richtige Quantensprünge gab es kaum, deshalb ist ein Core i der ersten Generation bis auf den Energieverbrauch auch heute noch gut einsetzbar.
AMD hat nur den Fehler gemacht, sich mit Bulldozer und der falschen Multicore Technologie zu vergallopieren.
Was nicht zuletzte auch an ihren wenigen Entwicklungskompetenzen liegen mag (Weniger Entwickler und kleines Budget im Vergleich zu Intel).
Natürlich könnte man auch argumentieren, dass Intel wegen der quasi kaum vorhandenen Konkurenzsituation mit AMD nicht mehr viel investieren muss. Aber ich denke das wäre nicht korrekt.
Auch im Grafikkarten Bereich haben wir eine Art Stagnation, schließlich kann man mit einer für Computerverhältnisse uralten Grafikkarte wie der HD7970 heute immer noch gut mithalten, obwohl dieser GPU Chip aus dem Jahre 2011 stammt, also 5 (!) Jahre alt ist...
Erst dieses Jahr kam die RX480 raus, die in vielen Bereichen schneller ist und weniger Strom verbraucht.
Sicher spielen dort auch die Konsolen rein, aber Tatsache ist, dass die Strukturbreiten auf den Chips immer kleiner werden, die Chips damit komplizierter. Quantensprünge werden somit seltener.