Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntel Core i9-13900K: Gigabyte macht jeden Core i9-13900K zum „i9-13900KS“
Gehört nicht zum Thema aber nur als Hinweis: PCIe 5.0 SSD funktionieren auf Z790 nur, wenn das Board Lanes vom PEG umswitcht, der dann auf x8 läuft.
@Alphanerd Du wirst dafür keinen größeren Kühler brauchen. Das ist Single-Core bzw. max. 2 Kerne. Durch die Anpassung der Loadline Calibration wird die Multicore-Leistung und Leistungsaufnahme die gleiche sein.
Ich nicht, Intel hat das schon getan. Zudem ist hier die Rede von Cores auf einer CPU und nicht zwischen mehreren CPUs. Die CPU identifiziert die besten Cores für sich selbst. Das hat mit Binning erstmal nichts zu tun, das können auch die schlechten Exemplare.
Turbo Boost Max Technology 3.0 for one or two “favored cores” in an i7-11700K.
Due to production differences, processor cores vary in maximum potential frequency. Intel® Turbo Boost Max Technology 3.0 identifies up to two of the fastest cores on your CPU, known as “favored cores.” Then it applies a frequency boost to those cores (or that core) and directs critical workloads to them.
Ist auch logisch, denn nicht jeder Core taktet gleichhoch, daher wäre es unsinnig versprechen zu wollen irgendwelche Cores auf 6Ghz zu prügeln.
Gigabyte übertaktet die ohnehin von Intel ausgesuchten guten Cores nur noch ein Stück weiter bis auf 6Ghz unter Zuhilfenahme einer höheren LLC und größerem Vcore Offset. Das ist alles.
"Der Hersteller spricht von einer 3 Prozent höheren Single-Core-Leistung durch die Aktivierung der BIOS-Option.Der Hersteller spricht von einer 3 Prozent höheren Single-Core-Leistung durch die Aktivierung der BIOS-Option."
Na für 3% lohnt es sich doch fett, viel mehr Energie und Kühlkörper drauf zu schmeißen......
Naja mit dem "Lohnen" ist das eh eine Sache für sich wenn du dich mal im Forum umschaust wo manche Leute für 3-10 Prozent ganze Plattformen für einen 1000er wechseln, die sie nicht mal in ihrer Auflösung bemerken werden 🤣 . Im Vergleich dazu ist Das doch harmlos und mindestens mit den Worten "Hobby" und "Spieltrieb" zu rechtfertigen und das Beste, es kost nix.
@Onkel Föhn Hardware Unboxed hat die Grafik übrigens zurückgezogen, weil bei ihnen was mit XTU nicht stimmte und es immer ohne Ende Spannung draufgeklatscht hat. Das Power Scaling stimmt nicht.
"Please note I will trim (remove) the power scaling section from our review. The data is accurate for the MSI motherboard used. BUT It appears as though MSI is very aggressive on voltage and doesn’t correct this when power limiting the CPU." Anhang anzeigen 1273476
RPL ist zwischen 85-95W ein Effizienzbiest. 24/7 Settings genau an diesem Punkt setzen zum Zocken etcpp. Und falls man mal mehr braucht um Raketenwissenschaften zu simulieren –alle– hätte es noch fette Reserven auch dafür. Niedriger Idle Verbrauch (6-8W) triggert mich aber so richtig mit meinem nie_weniger_als_ 35W 5900x
edit:
Differenz ist genug Power um 6 e27 Hue Lampen bei 50% brennen zu lassen.
Selten so ein unnötiges Feautre gesehen, weiss der Geier wie hoch sämtliche Spannungen und Powerlimitis angehoben werden müssen, damit sich mal ein oder zwei Cores in die 6 Ghz verirren.
Am Bildschirm werden exakt 0 fps ankommen, wer solche Hardware betreibt, spielt in mindestens 1440p mit allen Reglern rechts auf Anschlag, ein 13900K wird hier sicherlich nicht der limitierende Faktor sein.
Ich dachte es ist mittlerweile jedem klar dass dies Massiv vom Spiel abhängig ist.
Es gibt so viele gute spiele die haben ne Rotzgrafik aber Fressen jede Moderne CPU zum Frühstück und zwingen sogar ne 2060 bei 4k auf unter 50% Auslastung und weit unter 60Fps. Oxygen Not Included, Kerbal Space Program, Call to Arms, Arma3 und bestimmt noch viele andere die ich vergessen hab oder nicht zocke. Trifft halt weniger auf die Konsolenports zu. Vor allem wenn sie auf der alten Gen (PS4/XBO) laufen soll die eine CPU aus 2013 hat die bei Release schon unterirdisch langsam war.
Nicht zu vergessen: im Single-Core-Benchmark!
Das muss mann dann Hochrechnen auf alle Kerne.
Da wird dann gratis ein Diesel-Aggegat mitgeliefert.
Oder einfach mal alles lesen und nicht den halben Satz abscheiden und die hälfte gekonnt auslassen:
Das Power Limit lief obgleich einer Limitierung auf 4.095 Watt in der Praxis quasi unlimitiert. Die von HWiNFO64 protokollierten maximal 26 Watt CPU Package Power gelten nur für den Single-Core-Benchmark von Cinebench R23 und wären selbst hierfür sehr niedrig.
Interessanterweise wird auch nirgendwo die Kühlung erwähnt. Einmal mal eben Vcore anheben reicht nicht. Die Leistung muss auch irgendwie aus dem Gehäuse raus. Von der Stromrechnung darf man da gar nicht anfangen.
Der Sweetspot der neuen intel-Generation liegt definitiv beim 13600K, wie auch der Test der CB gezeigt hat. Der wird von dem "Feature" aber ausgenommen - warum?
Und selbst dort sollte man die Leistungsaufnahme begrenzen, um das beste Performance/Watt Verhältnis zu erhalten. Die Default-Settings von Intel sind auf den höchsten Balken um jeden Preis ausgerichtet - im Alltag Schwachsinn!
Wenn die Situation so ist, dass weder mehr Kerne noch ein Anpassen der Software die Lösung sind, weil es prozedural nacheinander abgearbeitet wird, ist es effizient die ST Leistung gegen steigenden Strombedarf auszuquetschen, da die Last in der Regel nur kurz anliegt.
Wenn Du, Browser, Tabellenkalkulation oder E-Mail-Client öffnest, dann werden keine 16 Cores ausgelastet. Im Alltag kommt es auf Reaktionszeiten an (Schwuppdizität) und da zählt einfach nur Single-Core. Wenn Intel da x % schneller ist, dann ist jemand mit so einem PC auch sofort produktiver. Und deshalb kauft man in Büros weiter Intel...
Nein. genau das ist der Gedankengang hinter der effizienz.
es wird niemals effizienter sein für 5% mehr Peformance 15% höhere Leistung (in Watt) abzurufen.
Das kann nur dann der Fall sein, wenn das mehr an Performance dazu führt dass so viel schneller der Idle-Zustand eintreten kann, dass trotz der kurzzeitig höheren Leistung der gesamtverbrauch kleiner ist.
Und genau das drückt die effizienz ja gerade aus...
Naja mit dem "Lohnen" ist das eh eine Sache für sich wenn du dich mal im Forum umschaust wo manche Leute für 3-10 Prozent ganze Plattformen für einen 1000er wechseln, die sie nicht mal in ihrer Auflösung bemerken werden 🤣 . Im Vergleich dazu ist Das doch harmlos und mindestens mit den Worten "Hobby" und "Spieltrieb" zu rechtfertigen und das Beste, es kost nix.
Nope. Weder noch, zumindest nicht in Games.
Im Durchschnitt 88W vs 70W = 26% mehr Verbrauch bei 4% mehr FPS spricht gegen den 13600K bzgl der Effizienz.
Der 13700K ist mit 107W (52% mehr Verbrauch) bei 9% Mehrleistung genauso weit davon entfernt.
Würde man beide auf 88W oder weniger drosseln wären sie auch von der Leistung unterhalb des 5800X3D
Hier auch nochmal die IPC
Die Mehrleistung des RL kommt durch den Takt zustande. Aber bezgl Effizienz hat der 3DCache das sagen.
Darum freue ich mich auch auf die kommenden 3D Versionen von Zen4.
7700X3D vs 13900K, das wird spannend