Bericht 12900K, 12700K & 12600K: Alder Lake läutet als 12. Gen Intel Core die Hybrid-Ära ein

Intel muss sich nicht mit AMD messen, Sie wollen Apple als Kunden zurück gewinnen
Verdammt schon wieder den Monitor mit Kaffee geuscht.
Sie haben erstmal den M1/x/Pro/Max vor der Tür stehen und Apple wird sicher 2022 einen M2 uns zeigen.

mfg
 
mullen78 schrieb:
Seit Jahren nimmt man 2,5mm² und sichert nur noch mit 10er B Automaten ab
Vielleicht wenn du selbst baust und genug Geld und Aufwand darin investierst, im Normalfall wird nur dort 2,5mm² verlegt und einzeln abgesichert wo später Geräte wie Backofen, Waschmaschine oder ähnliches angeschlossen werden sollen und auch das ist nicht gesetzlich vorgeschrieben.

Es wäre übrigens auch absoluter Quatsch ein 2,5mm² Kabel zu legen und es dann nur mit 10A abzusichern, weil wenn du schon dicke Leitungen legst, dann willst du daran auch einen Backofen oder ähnliches anschließen und bei 3000-4000W fliegt dir dann die Sicherung um die Ohren.

ist aber jetzt auch völliger OT.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Northstar2710
Ich find keine Details zu der integrated UHD 770, hat da wer details zu? Könn die HDMI 2.1 also auch 4k@120Hz? Unterstützt Intel auch FreeSync?
 
Zornica schrieb:
ich wünschte die hätten diese Chance genutzt um gleich deren verwirrenden K, F, T, xyz Unsinn abzuschaffen.
K = übertakten
F = ohne iGPU
T = wird das noch genutzt? Auf die TDP beschränkt. Damit langsamer. Spart quasi nix ein, da es länger für Berechnungen braucht, aber lässt sich leicher kühlen
So verwirrend ist es nun nicht.
xexex schrieb:
und einzeln abgesichert wo später Geräte wie Backofen, Waschmaschine oder ähnliches angeschlossen werden sollen und auch das ist nicht gesetzlich vorgeschrieben.
Aber quasi schon Standard bei Großverbrauchern. Ansonsten hab ich auch noch nie gehört, dass man jede Steckdose einzeln absichern würde. Klar, die aktuellen Stromkästen sind ENORM gewachsen, aber so viele Einzelsicherungen hab ich auch noch nicht gesehen.
 
  • Gefällt mir
Reaktionen: dernettehans
Wenn das Intel eigenen Benchmarks sind dann werden die der freien Presse sicherlich noch ein paar Punkte sich in richtung zugunsten AMD verschieben. Bin nicht angetan, erst recht nicht wenn ich diese absurden Stromverbrauch sehe. Man bedenke das AMD jetzt noch den Zen3 refresh raus haut und im Jahr 2022 kommt Zen4 auf 5nm Basis!

"Früher" war Intel doch immer der Leistung/Energieeffiziente-CPU und jetzt hauen sie die 11+12 Gen raus und kehren das ins genaue Gegenteil...
 
Jake Grafton schrieb:
Oh ja, und dein 5950X ist ja so viel besser.
Wenn du so fragst, ja, ist er. Aber das brauch ich dir ja nicht erklären.

Jake Grafton schrieb:
Mann Mann Mann... Was wollt ihr eigentlich?
Deutlich mehr Effizienz, was sonst.
 
  • Gefällt mir
Reaktionen: IBISXI, DarknessFalls, or2k und 5 andere
Cardhu schrieb:
K = übertakten
F = ohne iGPU
T = wird das noch genutzt? Auf die TDP beschränkt. Damit langsamer. Spart quasi nix ein, da es länger für Berechnungen braucht, aber lässt sich leicher kühlen
So verwirrend ist es nun nicht.
Dass es so einer Erklärung bedarf zeigt doch schon, dass es verwirrend ist... Vor allem weil die Buchstaben überhaupt nichts damit zu tun haben was dahinter steckt.
Man könnte auch einfach "übertakten" zum Standard machen statt Kunden dafür extra zur Kasse zu bitten - und schon fällt das unnötige K weg. iGPU ist für Leute die wissen was "F" bedeutet komplett belanglos, darum sollte das umgedreht werden. Standardmäßig keine iGPU und kein "F", in OEM PCs die CPUs mit iGPUs drin haben können sie gern wieder ihr F dran setzen um zu zeigen, dass die CPU ein zusätzliches Feature hat.
Dass K für mehr "mehr Features" und F für "weniger Features" steht, ist ja auch nicht gerade intuitiv.
Ja, T scheint in der liste im Artikel auf, wenn das nicht wäre wüsste ich ja nicht mal dass es existiert.
AMD macht das mit dem X und dem G nur unwesentlich besser, aber zumindest ist dort die Rechnung X="irgendwie besser als kein X", und G=GPU zumindest noch irgendwie verständlich
 
  • Gefällt mir
Reaktionen: dernettehans
Jake Grafton schrieb:
...
Vor 15 Jahren hatten wir noch single core CPUs die 130W im Idle (!) verbrauchten...
Hab die Zeit mitgemacht und welche (exotische) CPU soll das gewesen sein? Hab mich mal 2-3 Minuten durch paar Specs geklickt. 2006 das Jahr mit CPUs ala Pentium 4/D, Athlon 64 + X2, Core2 Duo. Und bis auf den auf Core2 Quadcore haben alle andren CPUs eine TDP von unter 100W.

Ja damals war das Powermanagment noch nicht soweit wie heute. Aber als ob so ein Core2 Quad im "Idle" direkt an der TDP nagt... lol
Uebertreibung und Unwwahrheit in einem Satz und dann sowas verbreiten...
 
  • Gefällt mir
Reaktionen: Innocience und DriveByFM
Zornica schrieb:
Standardmäßig keine iGPU und kein "F", in OEM PCs die CPUs mit iGPUs drin haben können sie gern wieder ihr F dran setzen um zu zeigen, dass die CPU ein zusätzliches Feature hat.
Dir ist aber schon bewusst, dass zumindest aktuell Intel seine CPUs nicht zusammenklebt und die iGPU den Standard darstellt, während "F" CPUs letztlich Prozessoren mit einer defekten iGPU sind und dementsprechend markiert werden? Der Nachrüstmarkt ist im Vergleich zum OEM Markt klein und in dem Markt dürften die meisten wissen, was dieses "F" auch bedeutet, die OEM Kunden interessiert das wenig.

Es liegt hier im Auge des Betrachters, "K", "F" und "T" CPUs machen einen geringeren Teil des Umsatzes von Intel aus und werden entsprechend gekennzeichnet, weil sie speziell für bestimmte Märkte und Einsatzbereiche vorgesehen sind.

Zornica schrieb:
Man könnte auch einfach "übertakten" zum Standard machen statt Kunden dafür extra zur Kasse zu bitten - und schon fällt das unnötige K weg.
Das hat man bereits mehr oder weniger zum Standard gemacht, seit gut zwei Core Generationen lässt sich PL1=PL2 festlegen, egal ob man eine K, non K CPU hat und egal ob man ein H410 oder Z490 Board nutzt. Mehr "übertakten" braucht kein normaler Kunde, das "K" wird trotzdem bleiben weil es einen Mehrwert suggeriert. Frag AMD wieso sie einigen CPUs ein "X" anhängen, obwohl man sie auch so voneinander unterscheiden würde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Klever, Innocience und dernettehans
Also ich finde das mit Windows 11 und Ryzen ist nicht Intel anzulasten. Da haben Microsoft und AMD geschlafen. Solange Intel eindeutig klar stellt, welche Testbedingungen herrschen, dann ist die Folie keine Lüge, sondern allenfalls nutzlos.

Auch DDR5 bei Intel vs. DDR4-3200 bei AMD sehe ich kein Problem. Das ist halt die erreichbare Leistung mit dem, was offiziell unterstützt wird. Das Kosten/Nutzen-Verhältnis inkl. Mainboard und RAM zu ermitteln ist dann Aufgabe der unabhängigen Reviews. Und ob sich Alder Lake zu den erwarteten Preisen in den "der ideale Gaming-PC" Bauvorschlägen findet, wird sich noch zeigen, ich bezweifle es eher.
dernettehans schrieb:
Unterstützt Intel auch FreeSync?
Seit Tiger Lake / Rocket Lake geht DisplayPort Adaptive-Sync. Gibt leider kaum Tests dazu. HDMI VRR geht bislang nicht, und FreeSync über HDMI erst recht nicht.
 
  • Gefällt mir
Reaktionen: Klever und ArcherV
Cardhu schrieb:
Ansonsten hab ich auch noch nie gehört, dass man jede Steckdose einzeln absichern würde.
Jede an der ein Gerät mit einer Leistung >2kW hängt muss einzelnen abgesichert werden.
Für 1.5mm2 werden heute auch öfter 13A Sicherungen benutzt, ansonsten 16A
 
  • Gefällt mir
Reaktionen: Rockstar85
Player(1) schrieb:
Hab die Zeit mitgemacht und welche (exotische) CPU soll das gewesen sein? Hab mich mal 2-3 Minuten durch paar Specs geklickt. 2006 das Jahr mit CPUs ala Pentium 4/D, Athlon 64 + X2, Core2 Duo. Und bis auf den auf Core2 Quadcore haben alle andren CPUs eine TDP von unter 100W.

Ja damals war das Powermanagment noch nicht soweit wie heute. Aber als ob so ein Core2 Quad im "Idle" direkt an der TDP nagt... lol
Uebertreibung und Unwwahrheit in einem Satz und dann sowas verbreiten...
Die Pentium 4 haben damals um 130W verbraucht, kannst dir gerne einen der zig Tests dazu anschauen und dann vielleicht ein paar Watt monieren, so wie das offensichtlich deine Art ist. Leider ändert das aber nichts an der Aussage, dass ihr hier über Dinge meckert, die jemand, der diese Entwicklung wirklich selbst mitgemacht hat, nur als lächerlich bezeichnen kann. Ist aber sehr aussagekräftig, dass dich eventuelle 1 oder 2 Jahre mehr oder weniger, und Semantik generell, mehr interessiert als über die Fakten zu sprechen, dass die CPUs schon massiv effizient geworden sind in so kurzer Zeit, aber Leistung nunmal auch Strom benötigt, wie man sehr schön an der Veränderung der Kühllösungen seitdem sehen kann.
Wenn euch Verbrauch so wichtig wäre, wie ihr hier darstellt, dann würdet ihr sicher nicht über High End CPUs reden oder diese benutzen.

Und trotzdem wollt ihr immer mehr und mehr und dann heult ihr wenn der Verbrauch auch mal ansteigt (aber der jährliche Wechsel zu einer neuen CPU samt zusätzlicher Hardware ist dann plötzlich kein Problem von wegen Effizienz. Euch gehts also nicht um euer Geld, und euch gehts auch nicht um die Umwelt, denn sonst würdet ihr anders agieren. Oder seid ihr Politiker?
Wobei ich mir aber sicher bin, dass die meisten hier, die so "argumentieren" wie ihr, ganz sicher eh keine 16 Kerne brauchen.

Aber ich muss trotzdem sagen, dein Beitrag versucht es wenigstens, im Gegensatz du dem Zeug was der andere da gebracht hat, was sicher keine Antwort wert ist.
 
  • Gefällt mir
Reaktionen: iceshield, Klever, Monotony und 2 andere
squadric schrieb:
Du verstehst es nicht. Das heißt bis-zu...4096 bedeutet einfach nur "offen" bzw kein limit. (In Bios settings)

Super dafür Applaus einer der wenigen die sich nicht doof stellen obwohl die meisten die auf den Wert hacken es selber wissen müssen

Das ist einfach der Maximum wert im BIOS wenn man 9999999 eingibt wird eben 4096 gesetzt und das macht nichts anderes als Power Limit aufzuheben bzw den Zeitwert wie lange es Boostet .....

Edit

So mir juckt es in den Fingern CPU vorbestellt , RAM bestellt nun fehlt nur noch das ITX Board Asus oder Gigabyte ....Mal schauen was man als erstes bestellen kann
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: squadric
Selbst wenn Intel 10-20% jetzt schneller sein sollte bei Games...Who Cares? Wenn die kolpotierten Preise stimmen, dann kann die Intel CPU ruhig sogar günstiger sein, aber ich zahle kein 50-100% aufpreis für den DDR5-Ram und erst recht nicht 400-500 € aufwärts für ein Einfaches Mittelklasse Mainboard....da ist geschissen auf 10-20%. Erst Recht wenn der Verbauch bei spitzenlasten dann jenseits von gut und böse ist. Effizient ist das neue sexy (damit auch gleich wieder ein paar schreien können, dass ich ein linker grünversiffter depp bin)
Und wenn man eine halbwegs aktuelle CPU hat, juckt einem das alles am ende erst Recht nicht.
 
  • Gefällt mir
Reaktionen: Anon-525334
Jake Grafton schrieb:
Die Pentium 4 haben damals um 130W verbraucht, kannst dir gerne einen der zig Tests dazu anschauen und dann vielleicht ein paar Watt monieren, so wie das offensichtlich deine Art ist.
Nein es geht um den einfachen Fakt, dass der Stromverbrauch halt nicht am Anschlag ist bei Idle. Selbst wenn so eine CPU nicht seinen Takt noch Vcore senkt.
Jake Grafton schrieb:
Und trotzdem wollt ihr immer mehr und mehr und dann heult ihr wenn der Verbrauch auch mal ansteigt (aber der jährliche Wechsel zu einer neuen CPU samt zusätzlicher Hardware ist dann plötzlich kein Problem von wegen Effizienz. Euch gehts also nicht um euer Geld, und euch gehts auch nicht um die Umwelt, denn sonst würdet ihr anders agieren. Oder seid ihr Politiker?
Wobei ich mir aber sicher bin, dass die meisten hier, die so "argumentieren" wie ihr, ganz sicher eh keine 16 Kerne brauchen.
Wer ist dieses "ihr" und warum zaehlst Du mich dazu? Glaub das Spektrum der PC-Nutzer ist ein wenig groesser und komplexer als "Du vs ihr".
Das sich hier paar Gestalten wegen einem vermeintlichen Verbrauch aufregen (gibt ja noch keine Tests), ist halt Teil des ueblichen Hardware/Franchise-Kriegs. Wenn Du solange dabei bist, wie sich das hier bei Dir gerade liest, dann sollte Dir das doch bekannt sein. Ergo wo ist deine Toleranz? :)
Wenn es um Umweltschutz geht, da gibts dann doch ganz andere Baustellen, wo man eher dran drehen koennte.
Jake Grafton schrieb:
Aber ich muss trotzdem sagen, dein Beitrag versucht es wenigstens, im Gegensatz du dem Zeug was der andere da gebracht hat, was sicher keine Antwort wert ist.
Dann vielen Dank fuer die Reaktion. Nimm einfach noch eine clown pill und geniesse die Show in den Threads bis zum Release von Alder Lake.
 
chithanh schrieb:
Also ich finde das mit Windows 11 und Ryzen ist nicht Intel anzulasten. Da haben Microsoft und AMD geschlafen.
Ich hab da ne andere Theorie. Intel muss eng mit MS zusammengearbeitet haben, um den Windows Scheduler umzuschreiben für Windows 11, damit er Adler Lake supported. Das wird MS niemals alleine getan haben, sondern nur mit Intel, oder sogar einfach nur Code von Intel übernommen haben. Nun kann man daraus zwei Theorien spinn:

1. entweder hat Intel (absichtlich) den Scheduler so (um)geschrieben oder den einzubauenen Code, dass AMD im Nachteil ist oder absichtlich dort einen Bug eingebaut, dass AMD im Nachteil ist. Absicht kann man dann natürlich später kaum nachweisen.
2. oder Intel hat MS das so gesagt, sie sollen das so machen.

Ich glaube da an keinen "bug". Zumindest für den Launch und die Benchmarks hat es ja gereicht, dass MS das jetzt gefixt hat ist ja für den Launch irrelevant und Intel kann die "gepimpten" Folien schön überall verteilen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Anon-525334
Für ein paar % mehr Leistung lohnt sich das eh nicht, Straßenpreise gehe ich beim großen von ungefähr 700,- aus, dazu noch Speicher und mainboard nochmal 1000,-
 
  • Gefällt mir
Reaktionen: Anon-525334
scryed schrieb:
Das ist einfach der Maximum wert im BIOS wenn man 9999999 eingibt wird eben 4096 gesetzt und das macht nichts anderes als Power Limit aufzuheben bzw den Zeitwert wie lange es Boostet

Da wurde eben ein 12 Bit Integer spezifiziert. 4096 ist der Maximalwert.
 
Zurück
Oben