Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntel Skylake-S: Spezifikationen zu 10 CPU-Modellen und erste Fotos
Interessant übrigens, dass der i7-5820K mit 6 Kernen in Spielen trotzdem noch ein gutes Stück über dem i7-6700K liegt, trotz deutlich niedrigerem Takt.
Ja, und wenn man dein einziges ausgesuchtes Spiel als Vergleich nimmt, vermutlich noch viel eher
Einzelne Spiele rauspicken, die meinen Standpunkt untermauern, kann ich auch. Look, mum!
Borderlands 2:
Skyrim:
Sinnvoller ist aber die Betrachtung über mehrere Spiele gemittelt, und die Tendenz geht selbst jetzt schon(!) in Richtung mehr Kerne. Dabei machen sich die Spieleentwickler sicher nicht die Extra-Arbeit für Optimierung für die paar Promille des Marktes, die überhaupt mehr als 4 Kerne im Rechner haben:
Klar gibt es Spiele, bei denen die Multicore-Optimierung echt zu wünschen übrig lässt. Das wird in Zukunft aber immer weiter abnehmen, weshalb mir nächstes Jahr einfach kein Quad mehr in meinen neuen PC reinkommen wird, da ich den für ein paar Jahre ohne nötige Upgrades weiternutzen möchte. Kann ja jeder machen, wie er will, wenn er das anders sieht. Meinetwegen einen superclocked dualcore @2x6.0GHz, damit ist die Single-Thread-Performance in irgendwelchen besch*ssenen Konsolenports sicher nochmal 2% besser....
Schlappe 10% mit einer neuen Architektur und zusätzlich einer Verkleinerung der Strukturgrösse. Was will man dazu noch sagen? Das wäre einfach nur erbärmlich...
Ja, tendenziell zahlen sich mehr Kerne vielleicht irgendwann in der Zukunft aus. Aber im Hier und Jetzt und auch auf absehbare Zeit für 90 oder mehr Prozent aller Spiele mehr oder weniger unnötig.
Ja, tendenziell zahlen sich mehr Kerne vielleicht irgendwann in der Zukunft aus. Aber im Hier und Jetzt und auch auf absehbare Zeit für 90 oder mehr Prozent aller Spiele mehr oder weniger unnötig.
Ich bezweifle, dass "in der Zukunft" noch so weit weg sein wird. In dem von dir verlinkten Test waren bereits 4 von 6 Spielen mit 6 Kernen schneller. Hier bei CB 4 von 8. Und DX12 kommt auch noch dieses Jahr. Davon ab ist die Performance in Anwendungen nochmal deutlich besser, das ist aber ein anderes Thema.
Sich hier über persönliche Ansichten zu streiten, hat auch keinen wirklichen Zweck. Wird die Zeit dann ja zeigen.
Schlappe 10% mit einer neuen Architektur und zusätzlich einer Verkleinerung der Strukturgrösse. Was will man dazu noch sagen? Das wäre einfach nur erbärmlich...
Nicht 'wäre', sondern 'ist'. Aber was soll man auch erwarten? Die Architektur ist am Ende (ohne thermische Probleme zu bekommen). Fortschitte im Sinne einer Evolution finden ringsherum im Ökosystem statt (Speicheranbindung, spezialisierte CPU-Befehle, iGPU, Energieeffizienz, ...).
Ich werde wohl sicher bei Skylake von meinem Celeron g1840 aufrüsten.
Aber wird es sich da eigentlich noch lohnen zu einem i5 zu greifen oder lieber direkt einen i7 wegen den 4 mehr Threads??
Da freue ich mich aber, doch zum 4790k gegriffen zu haben. So konnte ich ihn schon die ganze Zeit nutzen und habe im Endeffekt nichts verpasst, wenn Ich Skylake ignoriere.
@dark eagle
wenn du den 2600k auf 4,9 oder 5ghz taktest, hast du auch ca. 50% mehr. Es gibt keine CPU, die so gut mit 5ghz als 24/7 Takt klarkommt wie eine Sandy Bridge. Warum du es nicht schaffst, deinen 2600k zu übertakten,(Du kriegst ihn ja gar nicht übertaktet, nicht mal auf 4ghz) ist mir schleierhaft. Die CPU kann jedenfalls nichts dafür, sondern der Fehler wird irgendwo bei dir liegen^^.
Nein, nein, ich meine es viel... grundsätzlicher. Diesen (Intel-)Architekturen liegt die von-Neumann bzw. Harvard-Architektur (Link) zugrunde. Darin sehe ich den Engpass bzw. die Sättigung.
Nein, nein, ich meine es viel... grundsätzlicher. Diesen (Intel-)Architekturen liegt die von-Neumann bzw. Harvard-Architektur (Link) zugrunde. Darin sehe ich den Engpass bzw. die Sättigung.
Das ist die große Frage. Noch hofft man vor allem weiterhin auf Fortschritte in der Lithografie (10nm --> 7 nm --> ???) und auf die Fortführung des Moorschen Gesetzes. Aber das kann es in meinen Augen nicht sein. Irgendwann ist hier Schluss, da man in Bereiche vordringt, in der andere Gesetze gelten, d.h. man verlässt unseren Makrokosmos... und betritt die Welt der Quanten, wo es um (Aufenthalts-)Wahrscheinlichkeiten der Ladungsträger geht.
Die Sache mit den Quantenchips hat in der derzeiten Betrachtung das Problem, dass es nur in bestimmten Anwendungsfällen unglaubliche Geschwindigkeitssteigerungen bringt. Es ist keine Alternative zu den Möglichkeiten/Vielfältigkeit aktueller PCs (sofern man überhaupt mal einen Quantencomputer in der Praxis realisieren kann, mit dem man größere Probleme lösen kann).
Wenn Du eine gute Idee, dann kannst Du hier vermutlich eine Menge Geld machen und berühmt werden