Hört sich ja gut an, wenn Cache bei den Grafikkarten und Prozessoren anscheinend günstig genug Zusatzleistung bringt.
Ist nur die Frage: wie viel Watt frisst das pro Leistung?
Steigert das die Effizienz, oder verringert das diese?
Denn man wird von dem Wattwahnsinn so langsam mal runterkommen müssen.
Damals galt man mit 400 Watt Netzteil overpowert und schon als Overclockingnerd, jetzt sind 1000 Watt schon fast Pflicht als Gamer, um den Rechner überhaupt noch starten lassen zu können.
Im Prinzip sollten sich alle mal ein Beispiel an Apple nehmen, die setzen das Konzept ohne Rücksicht auf Verluste ziemlich erfolgreich um.
Wenn ich dagegen Intels lächerlichen Alder Lake Chip sehe, wo man einfach mit 10 Jahre alter Technik auf 241 Watt boostet, um damit überhaupt mal wieder in Benchmarks an Ryzen vorbei zu kommen, das ist absolut hilflos dahingerotzt.
Wenn man dann noch den 50 Jahre Intel Bericht liest, wonach sich damals ein paar der hellsten Köpfe dort zusammengefunden haben, dann ist das heute nur noch ein schwacher Abklatsch dessen.
Vom einstigen Marktführer nun nur noch auf Platz 3 von 3, was Technologie und Leistung pro Watt betrifft.
Armselig und Fremdschämen auf ganzer Linie.