Bericht 12900K, 12700K & 12600K: Alder Lake läutet als 12. Gen Intel Core die Hybrid-Ära ein

aldaric schrieb:
Testet man hingegen in den Rasterizer-Spielen mit der stärksten GPU (6900XT) sieht das Ergebnis schon anders aus.
Sofern sich am CB Testsetup nichts geändert hat, testet Volker mit einer 6900XT und nach seinen Aussagen scheinen die Unterschiede die Intel gezeigt hat, ziemlich gut hinzukommen.

Am Ende kann aber auch alleine schon eine andere genutzte Szene im gleichem Spiel die Unterschiede zwischen den CPUs stark beeinflussen.
 
  • Gefällt mir
Reaktionen: ArcherV
Taxxor schrieb:
Am Ende kann aber auch alleine schon eine andere genutzte Szene im gleichem Spiel die Unterschiede zwischen den CPUs stark beeinflussen.

Da kannst du ja vom üblichen Cherry Picking ausgehen. Daher bedarf es einfach mehr unabhängiger Tests.
 
  • Gefällt mir
Reaktionen: Gortha und iron-man
ArcherV schrieb:
Wie schon gesagt wurde, nehmen 4 E Cores so viel Platz ein wie 1 P Core, sind aber von der gesamten Leistung her schneller. Im SC Bereich stinken die natürlich ab. Guck dir mal den Fuji A64FX an, der besteht fast nur aus "kleinen" Kernen.

https://www.fujitsu.com/global/products/computing/servers/supercomputer/a64fx/#anc-01

Platz wäre da für große Cores wenn man den überflüssigen IGP weglassen würde. Ich vermute genau das kommt im HEDT Bereich, dann wird es auch für mich interessant. Generell wird es interessant wenn Intel hier so weitermacht und AMD mit dem Cache Stacking anfängt, es wird dann ein "Qual der Wahl" Frühling wie schon lange nicht mehr. Das liebe ich, ernsthaft wählen zu können wie schon lange nicht mehr, das gibt den Preisen auch die richtige Richtung :). Idealerweise würden beim Klimagipfel die Tage auch endlich weltweite Maßnahmen gegen das Mining beschlossen werden, damit sich auch der Grafikartentenmarkt normalisiert.
Herr Moschus kann dann seine Groupies andersweitig manipulieren um weiterhin groß Geld zu verdienen..
 
Zwar am Rande von Off-Topic, aber:

I’ve found what looks to be an issue/bug with Windows 11 with AMD CPUs that might catch reviewers out. If you install W11 with a 5950X for example, and then change to the 5800X or really any other Ryzen CPU, the L3 latency increases...

and gaming performance drops quite significantly, sometimes by 20%. I’ve had this issue with a few CPU changes now. I first ran into it with a fresh W11 install on the Ryzen 5 3600, installed the 5950X and gaming performance was well down on where it should be...

Basically, it seems like you have to fresh install Windows 11 for every CPU change. I’d like to know if anyone else is seeing this issue or can replicate it. Needless to say it’s making updating our data a nightmare.

https://twitter.com/HardwareUnboxed/status/1454778534929461249

Ist das auch anderen Testern aufgefallen?
 
  • Gefällt mir
Reaktionen: Slayher666
aldaric schrieb:
Igor hat nun wirklich alles, aber keine fette AMD Brille.
Was ist das denn für eine lächerliche Behauptung?
Stimmt, AMD fehlt mir in meiner Brillensammlung, so wie NVIDIA und Intel auch. Da liegen überwiegend IC!Berlin, Cazal und Ray Ban, die jedoch null Bezug zur Hardware haben :D

Ich finde ADL im Übrigen aus technischer Sicht hochinterssant und auch der Rest passt. Es ist der beste IHS, den ich je auf einer Consumer-CPU gesehen habe und die Wärmeleitpasten-Dealer werden feuchte Augen bekommen, weil man ordentlich Paste sparen kann. :D

Ihr habt mich übrigens etwas aus dem Kontext gerissen zitiert, da ich die Teile vor allem im typischen Arbeitsalltag geradezu grandios finde. Das heißt nicht, dass sie schlechter zum Gaming sein könnten, aber mir stößt das Geleier mit dem "beste Gaming-CPU ever" echt sauer auf. Genauso wie die depperte PL1-Diskussion, nur weil man den Cinebench gewinnen will. Spielt den wer? Und zum Arbeiten taugt CPU-Rendering auch nicht mehr wirklich. Da gibt es mittlerweile gute GPU-Alternativen. Hätte jemand geschrieben "beste Allrounder CPU ever" hätte ich vielleicht gar nicht gemeckert. :)

Und bevor der Nächste denkt, ich wäre jetzt von Intel eingekauft worden - das Gegenteil ist der Fall. Aber ich trenne generell Produkt und Hersteller. Das ist nur fair ;)

Basically, it seems like you have to fresh install Windows 11 for every CPU change. I’d like to know if anyone else is seeing this issue or can replicate it. Needless to say it’s making updating our data a nightmare.
Das ist doch eigentlich normal. Dafür gibts Images :D
 
  • Gefällt mir
Reaktionen: iron_monkey, Dai6oro, Qyxes und 4 andere
Liebe Leute,

kurze Frage, bin mir nicht sicher, ob das hier schon gestellt wurde.
Aber, wozu ist der Stecker hier?
-siehe Bild-
Ist der wichtig bzw. der kommt mir so komisch vor.

Frage1.jpg
 
iceshield schrieb:
Aber, wozu ist der Stecker hier?
-siehe Bild-
Ist der wichtig bzw. der kommt mir so komisch vor.

Sieht mir nach einem ganz normalen USB3 Stecker aus
 
  • Gefällt mir
Reaktionen: Slayher666 und iceshield
Taxxor schrieb:
Sieht mir nach einem ganz normalen USB3 Stecker aus
Jetzt wo du es sagst:):):) oh man^^ Man sieht den Wald vor lauter Bäumen nicht.
Danke.
 
  • Gefällt mir
Reaktionen: iron-man
BetaHydri schrieb:
Platz wäre da für große Cores wenn man den überflüssigen IGP weglassen würde. Ich vermute genau das kommt im HEDT

Naja überflüssig sehe ich nicht so in einer Desktop / Consumer Plattform. Ne GPU kann immer mal kaputt gehen, und dann hat man wenigstens ein Backup, dass man noch an seinen PC / Daten rankommt.


BetaHydri schrieb:
Bereich, dann wird es auch für mich interessant. Generell wird es interessant wenn Intel hier so weitermacht und AMD mit dem Cache Stacking anfängt, es wird dann ein "Qual der Wahl" Frühling wie schon lange nicht mehr. Das liebe ich, ernsthaft wählen zu können wie schon lange nicht mehr, das gibt den Preisen auch die richtige Richtung :).

Full Ack. Bei AMD gibt es endlich ernsthafte Alternativen und Intel traut sich mal ein bisschen Innovation.

BetaHydri schrieb:
Idealerweise würden beim Klimagipfel die Tage auch endlich weltweite Maßnahmen gegen das Mining beschlossen werden, damit sich auch der Grafikartentenmarkt normalisiert.

Jop. Ich würde mir auch eine Leistungsobergrenze für PCs wünschen... ähnlich wie bei den Staubsaugern. Kann nicht sein, dass in Zeiten von Klimakrise und co. die Netzteile immer fetter werden, weil GPU u. CPU immer mehr ziehen. Ich werde meinen 12700k definitiv mit gesenkten Powerlimit betreiben genauso wie ich meine 3080 undervolted habe. Bei der 3080 immerhin fast 90w eingespart.
 
Zuletzt bearbeitet von einem Moderator:
ArcherV schrieb:
Jop. Ich würde mir auch eine Leistungsobergrenze für PCs wünschen... ähnlich wie bei den Staubsaugern. Kann nicht sein, dass in Zeiten von Klimakrise und co. die Netzteile immer fetter werden, weil GPU u. CPU immer mehr ziehen. Ich werde meinen 12700k definitiv mit gesenkten Powerlimit betreiben genauso wie ich meine 3080 undervolted habe. Bei der 3080 immerhin fast 90w eingespart.

Irgendwo nachvollziehbar, aber wenn man das zu oft ausspricht kommen noch irgendwelche Grünen oder FFF Kids wirklich auf die Idee das reglementieren zu wollen. Das wäre mal wieder ein absoluter Alleingang und die Hersteller würden schlicht keine RTX 3080 und Co mehr anbieten, man müsste sich illegalerweise Grafikkarten aus dem Ausland besorgen :D

In 2 oder 3 Jahren wären auch die meisten Fernseher nach aktuellem Stand illegal, da dort keine Energieeffizienz Klasse G mehr erlaubt ist. Man muss sich aber mal die effektiven Zahlen angucken, mein Samsung QN95A in 55 Zoll verbraucht max. 140 Watt, das ist genau so viel wie mein 11 Jahre alter Samsung in 40 Zoll. Damals hatte der Fernseher eine gute Einstufung.
 
ArcherV schrieb:
Ich würde mir auch eine Leistungsobergrenze für PCs wünschen... ähnlich wie bei den Staubsaugern. Kann nicht sein, dass in Zeiten von Klimakrise und co. die Netzteile immer fetter werden, weil GPU u. CPU immer mehr ziehen.
Sorry, aber das ist leider Unsinn.
Wissenschaft wie auch Wirtschaft (und auch die Menschen daheim, wenn man ihnen z.B. so was wie VR Brillen zugestehen will) benötigen immer mehr Rechenperformance. Nun hinzugehen und zu sagen "ein Computer darf nicht mehr als (z.B.) 300Watt aus der Steckdose ziehen" hätte nur zur Folge, dass Wissenschaft, Wirtschaft (und zwangsläufig auch die Menschen daheim), sich nicht mehr mit "einem" Computer zufrieden geben sondern dann die x-Fache Anzahl brauchen. Wobei das für Wissenschaft und Wirtschaft bedeutet, dass dann lediglich die Anzahl der heute existierenden Serverfarmen ver-10 / ver-100 facht wird. So hast du zwar einen Haufen Rechner die jeweils nur 300Watt ziehen, aber dafür dann viel viel mehr und verballerst dann noch überproportional mehr an Strom (ein Computer besteht ja nicht nur aus der CPU), Material (ein Computer besteht ja nicht nur aus der CPU), aber auch Fläche (ein Computer besteht ja nicht nur aus der CPU) und will Platz) und Gebäuden (ein Computer besteht ja nicht nur aus der CPU), will Platz und das auch noch im trockenem)!

Dass einzige was man im Bereich Computer "begrenzen" kann ist die Effizienz, also dass pro Watt die Performance immer besser wird. Tja, und das ist der Fall. Leider nicht immer so stark wie es sich alle Welt wünscht, aber in Anbetracht dessen, was bei der Entwicklung einer Computers und all seiner einzelnen Komponenten mit reinspielt (und schief gehen kann), ist das nicht verwunderlich, vor allem auch nicht voraussetzbar.
 
  • Gefällt mir
Reaktionen: xexex, Slayher666, Klever und 3 andere
catch 22 schrieb:
Sorry, aber das ist leider Unsinn.

Nein ist es nicht.
Bei den Staubsaugern hat es auch für Innovation geholfen. Heutige Staubsauger brauchen ein Bruchteil der Leistung und saugen trotzdem besser als die >1kW Monster von damals. Eben weil die Hersteller gezwungen wurden in andere Richtungen zu forschen als einfach nur die Power hoch zu drehen.

catch 22 schrieb:
Wissenschaft wie auch Wirtschaft (und auch die Menschen daheim, wenn man ihnen z.B. so was wie VR Brillen zugestehen will) benötigen immer mehr Rechenperformance. Nun hinzugehen und zu sagen "ein Computer darf nicht mehr als (z.B.) 300Watt aus der Steckdose ziehen" hätte nur zur Folge, dass Wissenschaft, Wirtschaft (und zwangsläufig auch die Menschen daheim), sich nicht mehr mit "einem" Computer zufrieden geben sondern dann die x-Fache Anzahl brauchen.

Es würde für Innovationsdruck sorgen wenn man nicht mehr über die Brechstange gehen kann. Es geht mir auch nicht um 300W, es geht mir um den Trend, dass es immer mehr in Richtung 1000W marschiert.
Ich merke es doch gerade selber. Früher (tm) ist man jahrzehntelang mit einem 500W Netzteil gut ausgekommen. Heute muss es für eine moderne CPU + GPU schon 750W sein, und die nächste GPU Generation soll nach den ersten Leaks noch mehr brauchen.

catch 22 schrieb:
Wobei das für Wissenschaft und Wirtschaft bedeutet, dass dann lediglich die Anzahl der heute existierenden Serverfarmen ver-10 / ver-100 facht wird. So hast du zwar einen Haufen Rechner die jeweils nur 300Watt ziehen, aber dafür dann viel viel mehr und verballerst dann noch überproportional mehr an Strom (ein Computer besteht ja nicht nur aus der CPU), Material (ein Computer besteht ja nicht nur aus der CPU), aber auch Fläche (ein Computer besteht ja nicht nur aus der CPU) und will Platz) und Gebäuden (ein Computer besteht ja nicht nur aus der CPU), will Platz und das auch noch im trockenem)!

Um Wissenschaft und Industrie geht es doch gar nicht, sondern um Consumer PCs welche die Masse ausmachen.
Moderne Rechenzentren setzen häufig auf EE, einfach weil es für den Betrieb billiger ist.

Mich würden ja mal so generelle Statistiken interessieren wie gesamter Stromverbrauch Supercomputer u. Consumer PCs. Bin mir ziemlich sicher, dass die Supercomputer da keine große Rolle spielen, kann mich natürlich auch täuschen.

Blumentopf1989 schrieb:
aber wenn man das zu oft ausspricht kommen noch irgendwelche Grünen oder FFF Kids wirklich auf die Idee das reglementieren zu wollen.
Tja, wir sind schon hier. :p
 
ArcherV schrieb:
Heutige Staubsauger brauchen ein Bruchteil der Leistung und saugen trotzdem besser als die >1kW Monster von damals. Eben weil die Hersteller gezwungen wurden in andere Richtungen zu forschen als einfach nur die Power hoch zu drehen.
Auch zu Zeiten der "unreglementierten Staubsauger" gab es immer wieder welche, die (erheblich) weniger verbrauchten, dabei mindestens genauso gut saugten und noch nicht mal teurer in der Anschaffung waren. Allerdings wollte der Markt nicht diese Geräte, sondern war dem Big Numbers Wahn verfallen und Griff zu der nächsten x-tausend Watt Schleuder.

Genauso wie viele hier bei Computern. Da wird dann ohne Sinn, Verstand und oft genug auch ohne Anwendungszweck (gerne auch noch bei jeder Generation) zum Top Modell gegriffen, welches für die letzten Zuckungen im Bereich der Big Numbers in die absurd lächerlichen vollen gehen muss.
Du solltest weniger eine Reglementierung des Verbrauches fordern, als viel mehr als eine Neuausrichtung des Marketings (gerade bei Computern für Privatpersonen), dass nicht die absolute Spitzenleistung als erstrebenswert darstellt, sondern ein Gesundes Verhältnis aus Verbrauch und Performance.

Rechenzentren die auf EE setzen sind übrigens kein wirkliches Argument. Ob nämlich "diese EE" bei Rechenzentren durch die Steckdose sausen, oder bei Willy Wutz, ändert nichts daran, dass es (viel) zu wenig EE gibt.
 
  • Gefällt mir
Reaktionen: xexex, or2k, Slayher666 und eine weitere Person
@ArcherV

Stimme dir zwar im Grunde zu, das Problem ist nur, dass das größte Einsparpotential auf Softwareseite liegt und zweitens, dass das einen sehr hohen Druck auf die Hersteller von Hardware verursachen würde, die aktuell bei der Fertigung im Hintertreffen sind.

AMD wäre zu Bulldozer Zeiten raus gewesen, Intel zu 14nm vs tsmc Zeiten.

Schwer zu lösen

Aber der NT Wahn ist eh etwas grotesk. Ich hab lange ein 1700er Ryzen mit einer RX470 beides OC mit einem Triathlor 300W betrieben, jetzt einen 5800x mit 1070Ti mit einem 450er. Kein prob.
 
Zuletzt bearbeitet:
ArcherV schrieb:
Eben weil die Hersteller gezwungen wurden in andere Richtungen zu forschen als einfach nur die Power hoch zu drehen.
Bei Staubsaugern gab es über Jahrzehnte keinen Innovationsdruck. Bei Computern ist eher das Gegenteil der Fall. Moores Law macht da schon genug Druck. Der Vergleich passt auch deshalb nicht, weil für Staubsauger nicht ständig neue Böden entwickelt werden, die eine Verdoppelung der Saugleistung notwendig machen. Außerdem gibt es keine Notwendigkeit einen Gamingrechner oder eine Workstation für alltägliche Büroaufgaben zu verwenden. Ein Laptop kann mit weniger als 10W durchschnittlicher Leistungsaufnahme bei normalen Büroanwendungen betrieben werden. Auch ein MiniPC mit Monitor benötigt dafür nur wenig mehr als 20W.
 
  • Gefällt mir
Reaktionen: iron-man, Slayher666 und Klever
Ned Flanders schrieb:
Aber der NT Wahn ist eh etwas grotesk. Ich hab lange ein 1700er Ryzen mit einer RX470 beides OC mit einem Triathlor 300W betrieben, jetzt einen 5800x mit 1070Ti mit einem 450er. Kein prob.

Ja habe es auch probiert. Mein altes Bequiet Dark Power 550W war zu wenig für die 3080 + CPU. So in 90% der Zeit war es OK, aber wenn halt die Spikes der 3080 kommen und in dem Moment die CPU auch etwas hochdreht, gingen die Lichter aus.
 
Fand Igors Ausführungen sehr interessant. Auch die Unterschiede zwischen 125W und 241W sind wohl enorm.

Ein anderer Aspekt kommt wohl noch zu kurz. Alder Lake hat für den RAM nicht nur Gear1 und Gear2 sondern auch 3 und 4. Die Cache Frequenz wird schon bei Gear 2 bereits halbiert.

Hat wohl nochmals massive Auswirkungen auf die RAM-Latency, kann es sein, dass DDR5 oberhalb von 4800 (Gear 1) so richtig schlecht wird was die Latenz betrifft?





[But does it run Arma3 YAAB? Ich stelle die Frage wieder und wieder :) ]
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron_monkey, Tigra456 und Slayher666
ArcherV schrieb:
Die E Cores skalieren im Multicore Bereich deutlich besser als die P Cores. Siehe auch ARM.
Das ist doch vollkommen irrelevant da die Software da gar nicht mit macht. Und da wo die Software das mit macht (siehe Video Rendern / Encoden) da haben die Leute schon einen Threadripper der auch dazu noch schneller ist da mehr Big Cores.
Alle anderen brauchen eher weniger Kerne die dafür umso schnell sind. Man kann von Glück reden das Alder Lake auch gut einen Sprung bei der IPC macht.
Ideal wären 6 bis 8 Kerne aber dazu heftig Frequenz und viel IPC und viel Cache das wäre eine Top CPU die in vielen Anwendungen fliegen würde.

Nolag schrieb:
Ja, 8 E-Cores sind beim Cinebench eindeutig zu wenig. Wer hauptsächlich Rendering betreiben will, kauft sich auch keinen 12900K. Wie von anderen bereits erwähnt, stelle man sich aber eine CPU mit 32 oder 40 E-Cores vor, die dann im Cinebench eine höhere Leistung bietet als ein 5950X, und das auf weniger Fläche bei geringerer Leistungsaufnahme.
Wozu? Damit man dann den ganzen tag Cinebench laufen lassen kann :D? Guck dir mal ne Grafikkarte an da hast du deine Hunderte oder sogar Tausende mini Kerne die super effizient sind und dafür super langsam sind. Aber was willst du damit ? Was lässt du darauf laufen ? Da laufen nur Nische Apps drauf ...
 
  • Gefällt mir
Reaktionen: Gortha
ArcherV schrieb:
Bei den Staubsaugern hat es auch für Innovation geholfen. Heutige Staubsauger brauchen ein Bruchteil der Leistung und saugen trotzdem besser als die >1kW Monster von damals.
Nö! Die Abschaffung der Glühbirnen hat durchaus zum Erfolg geführt und die Technik war veraltet und obsolet. Die künstliche Begrenzung der Staubsaugerleistung ist und bleibt hingegen absoluter Unsinn.

Die meisten Staubsauger funktionieren heute genauso wie sie vor 50 Jahren funktioniert haben, sie saugen Luft durch einen Staubsaugerbeutel ein. "Innovation" in Form von Staubsaugern ohne Beutel, gab es schon viele Jahre früher von Dyson. Nun hat aber jeder zweite Sauger einen Saugkopf mit Drehbürste spendiert bekommen, damit er noch halbwegs so saugt wie früher. Super für die Hersteller, die können mehr Ersatzteile verkaufen, blöd für den Kunden der diesen Unsinn mitmachen muss.

Der "richtige" Weg ist die Energie entsprechend zu besteuern und nicht dem Kunden vorzuschreiben was er zu kaufen hat, und da ist Deutschland "führend", doppelt schikanieren braucht man an dieser Stelle nicht. Da können wir auch gleich Zement, Kalk, Alu und zig andere Sachen verbieten und jegliche Durchlauferhitzer in Privathaushalten gleich mit.
 
Zurück
Oben