Bericht 12900K, 12700K & 12600K: Alder Lake läutet als 12. Gen Intel Core die Hybrid-Ära ein

Tornavida schrieb:
Sieht wie 12600>5600 aus und das deutlich.Die neue Empfehlung für den "Einstieg" vermutlich.
Intel hat hier aktuell das gleiche Problem wie AMD vor zwei Jahren, als die Ryzen 3000 CPUs kamen. Aktuell verfügbar sind nur teure Z690 Boards, das macht die Sache für den "Einstieg" wieder weniger interessant.
 
Ja, deshalb ist der 12600K zum Start auch keine Empfehlung, Boards sind zu teuer. Das wird erst ab Januar besser mit B660 .. aber dann kommen ja auch 12400F usw.

Der 12700K hingegen sieht richtig guuut aus ;)
Dort oben kaufen Ryzen-Kunden ja auch keine 80 Euro Boards mehr, dann gleich sich das etwas an, CPU bei Intel günstiger, Board immer noch teurer, aber passt, DDR4 ist identisch. Für Gaming hast dann eine echte Maschine
 
  • Gefällt mir
Reaktionen: Convert, Tzk und Matthias80
Gibt aber auch Z690 Boards um 200 ,die bald die 200er Marke knacken dürften.Klar mit einem B450 um 70,- wird man da nicht konkurrieren können aber bald werden auch sicher B Boards erscheinen.Teurer als ein AMD Board werden die vermutlich dennoch sein wie bisher auch.
 
Tornavida schrieb:
Gibt aber auch Z690 Boards um 200 ,die bald die 200er Marke knacken dürften.
ja das sind dann Brack billig Versionen die man meiden sollte!
Nur weil da ein Z690 Chip drauf ist, ist es nicht gleich ein gutes MB.

MfG
 
  • Gefällt mir
Reaktionen: catch 22
Warum muss man denn auf so nen Troll antworten @VolkeR. Provoziert doch nur wieder die Grabenkämpfe. Dass ADL sich wieder die Gamingkrone holt sollte ja wohl klar sein, die Frage ist nur wie, mit welchem Abstand und zu welchem Preis. Wäre ja auch ein Witz wenn nicht.

Auch wenn viele hier nicht sehen, aufgrund der derzeitigen Preise, das wir eine Konkurrenzsituation haben. Konkurrenz wirkt sich nicht immer positiv auf die Preise aus, aber wir haben in den letzten Jahre so viel Fortschritte bei den CPUs gesehen wie in den letzten 10 Jahren nicht. Daher ist Konkurrenz gut auch wenn es sich erstmal nicht auf die Preise niederschlägt.
 
  • Gefällt mir
Reaktionen: catch 22 und Volker
Matthias80 schrieb:
Die wird immer Punkt aktuell festgestellt. ;)
Wenn deine neue Grafikkarte die CPU mehr fordert... was passiert? richtig der Leistungsaufnahme steigt.
Von fordernden neueren Spielen ganz zu schweigen... oder vielleicht ändert sich ja auch dein Scenario.
woher weiß man also die durchschnittliche Leistungsaufnahme in ein paar Monaten? :confused_alt:
Die durchschnittliche Stromaufnahme meines Gesamtsystems sehe ich auf meinen Stromzählern.
Für den "Gamer" wird diese kaum steigen, denn kein Game lastet eine halbwegs moderne CPU zu 100% aus.
Wenn also zwischendurch mal ein einzelner (oder auch mehrere) Kerne kurzzeitig "boosten" fällt das am Ende kaum ins Gewicht.

Vor allem, wenn dafür die restlichen 9 Stunden im Homeoffice - wo sich die CPU ziemlich langweilt - der Verbrauch dank big.LITTLE (hoffentlich) sehr gering ist.

Aber ich habe den Eindruck, du möchtest einfach AMD "vorne" sehen und daher zählt sowieso keines meiner Argumente.
 
Creeping.Death schrieb:
Aber ich habe den Eindruck, du möchtest einfach AMD "vorne" sehen und daher zählt sowieso keines meiner Argumente.
nein wirklich ned.
Kaufe immer das "beste" Gesamtpaket.
Hab alles schon gehabt.

Creeping.Death schrieb:
Für den "Gamer" wird diese kaum steigen, denn kein Game lastet eine halbwegs moderne CPU zu 100% aus.
mmh
wie geschrieben... liegt ja am Anwendungsszenario und beim spielen am GPU Limit.
Das kann sich durch eine bessere Grafikkarte oder Spiel halt ändern.
Die Anforderungen neuerer Spiele haben sich ja auch nach oben hin verschoben/angepasst.
Kein neueres Spiel hat mehr bei CPU nen alten 4 Core zu stehen.
was also die Zukunft bringt... k.A.
Gibts bei CB oder anders wo ein "Vergleich"
Wo die Spiele angepasst wurden?
Da könnte man einen Vergleich zwischen alten Spielen und neuen ziehen.
Denke da ist der Durchschnittsverbrauch gestiegen!
Logisch auch. Nen aktuelles System chillt teilweise bei einigen Titeln.
Während es in ein zwei Jahren bei einem neuen Titel an der Kotzgrenze läuft.
Das da nix mehr chillt ist logisch oder?
und ja aufs Jahr gesehen...
Auf die gesamte Laufzeit gesehen...
Sinnlos dann oder?
Könnten wir also auch sagen egal! Intel bitte beim nächsten Step 400Watt bitte!
Will das wer?

MfG
 
lzyORbw.jpg

Für 20€ höhere UVP ist das ausgesprochen gut. Boards sind leider noch zu teuer.


Insgesamt überzeugt ADL aber auf ganzer Linie, die ungezügelte Leistungsaufnahme mal außen vor. Die lässt sich aber deckeln ohne großartig viel Leistung einzubüßen.
 
  • Gefällt mir
Reaktionen: Tzk
Matthias80 schrieb:
wie geschrieben... liegt ja am Anwendungsszenario und beim spielen am GPU Limit.
Jain... selbst im absoluten Cpu Limit (720p mit fetter Gpu) ziehen aktuelle Cpus "nur" 100W. Da sind wir weit von Volllast entfernt.

@Reuter
Jop, der 12600K steht ggü. dem 5600x gut da, nur die Boards sind viel zu teuer. Eventuell ein günstiges Z690 und DDR4, dann könnte es was werden.
 
Matthias80 schrieb:
Könnten wir also auch sagen egal! Intel bitte beim nächsten Step 400Watt bitte!
Will das wer?

MfG
Du meinst Hand in Hand mit der GPU Industrie? Da sind ja bis zu 550 Watt bei Lovelace und ähnliches bei RDNA3 im Gespräch. Absoluter Irrsinn und der völlig falsche Weg.
 
Tzk schrieb:
720p mit fetter Gpu
da reden wir aber only über Grafikblender.
Ein Spiel was die CPU stark fordert. Was zugegeben nicht die Allgemeinheit ist.
Sieht das nicht so aus.
Volllast sowieso. Das hat Intel ja heute neu definiert!

Finde es echt schade das nur die Spitzenmodelle gekommen sind.
Ein B MB und eine nicht K / KF CPU und wir könnten alle staunen.
Weil ich denke im Mittelfeld hat sich viel mehr getan als diese paar % an der Spitze.

MfG
 
  • Gefällt mir
Reaktionen: Tzk
Reuter schrieb:
Für 20€ höhere UVP ist das ausgesprochen gut. Boards sind leider noch zu teuer.


Insgesamt überzeugt ADL aber auf ganzer Linie, die ungezügelte Leistungsaufnahme mal außen vor
...

Wer holt sich bitte für den Workstation Bereich (Creativ&rechenlastige Anwendungen) einen 6Kerner oder einen 6+4lahme-Kerner? Niemand.
 
Zuletzt bearbeitet:
Wie gehabt ist der Idle Verbrauch beim Intel deutlich geringer falls es so stimmt.Nicht immer bei Last schauen.Hoffe CB beleuchtet dieses Szenario ebenfalls,Idle und Desktop/Browser.
FDVB8N2UcAEyJpp.jpg
FDVCBzPVEAAjtsX.jpg
 
Workstations kann man auch mit den "normalen" Desktop-CPUs, wie 11900 oder 5800X+ und größer bauen.
Da muss nicht unbeding ein Threadripper rein.

Ich sprach deswegen nur darauf an, da Reuter den "Pruductivity" Chart nimmt, für 5600X(6 Kerner) vs 12600K(6+4 Kerner). Wer mit Anwendungen dieser Art arbeitet, holt sich sowieso 8 Kerne oder eben mehr.
 
Gortha schrieb:
...

Wer holt sich bitte für den Workstation Bereich (Creativ&rechenlastige Anwendungen) einen 6Kerner oder einen 6+4lahme-Kerner? Niemand.

Es ist doch nicht verboten mit einem "Gaming"-System auch rechenlastige Aufgaben wie Rendering oder Compiling durchzuführen. Verstehe das Argument nicht.

Intels Mittelkasse-CPU ist im Vergleich zur Konkurrenz sowohl in Gaming als auch Productivity schneller unterwegs. "Lahm" sind die E-Cores nun auch nicht. Die bewegen sich immerhin auf Skylake-Niveau.
 
Reuter schrieb:
Es ist doch nicht verboten mit einem "Gaming"-System auch rechenlastige Aufgaben wie Rendering oder Compiling durchzuführen. Verstehe das Argument nicht.
Klar macht man das eventuell "mal", jedoch sobald jemand mehr in dem Bereich macht, ist diese kleinere CPU sowieso weniger bis nicht interessant. Das ist das Arguemnt, dass Leute die diesen Scope haben, sowieso 8+ Kerner auswählen.
Ergänzung ()

Reuter schrieb:
Die bewegen sich immerhin auf Skylake-Niveau
Skylake mit 3,6 gHZ ;)
 
Wer ist schneller, CB oder ich ? :p
 

Anhänge

  • 20211104_133319.jpg
    20211104_133319.jpg
    1,3 MB · Aufrufe: 296
  • Gefällt mir
Reaktionen: Gortha
Zurück
Oben