News Gerüchte zu Alder Lake: Desktop-CPU mit bis zu 5,3 GHz und Leistung eines 5950X

@Dome87

Ist egal diese CPUs sind in keinster Weise zu vergleichen im Community Bench. Da ist bis auf die CPU alles anders. Diese Abweichungen sind zu erwarten, wenn bis auf die CPU alles drumherum anders ist. Dass es ne Serienstreuung gibt ist ja nix neues. Solange aber jeder den angegeben Boost schafft oder übertrifft, gibt es hier definitv kein SC Problem bei Ryzen 5000 so wie von dir postuliert. Meiner macht sogar 150Mhz mehr im SC als angegeben (mit richtigem Bios).
 
  • Gefällt mir
Reaktionen: bensen und Otsy
GHad schrieb:
Wenn dann mal Full Power benötigt wird, wäre es aber blöd, die kleinen Kerne mitlaufen zu lassen, da die ja weniger Leistung haben als die großen und denen nur das Power-Budget klauen.
Solange die Anwendung gut in die Breite skaliert bringen die kleinen Kerne mehr. Einfach weil du bei den großen Kernen für die letzten paar Mhz Takt viel mehr Leistung brauchst. Im Umkehrschluss takten die großen Kerne nur sehr wenig herunter und verbrauchen aber sofort sehr viel weniger. Und diesen Unterschied kannst du dann für die kleinen Kerne nutzen, die im gleichen Powerbudget deutlich mehr Rechenleistung bieten als die großen Kerne beim Sprung von hohem zu sehr hohem Takt.

Kurz: Auch bei Full Power lohnen sich die kleinen Kerne, wenn die Anwendung ausreichend skaliert.

andr_gin schrieb:
Die kleinen Kernen werden in etwas die IPC von Skylake schaffen allerdings:
.) mit ca. 3GHz deutlich niedriger getaktet
.) kein SMT
.) Meines Wissens nach kein AVX

Wenn die kleinen Kerne mit "nur" 3ghz laufen, dann müssten die großen Kerne deutlich mehr als 20% IPC Plus zu Zen3 bieten oder viel höher takten. Beides halte ich für unrealistisch. Mal gucken... Aber ich kann mir nicht so recht vorstellen das Alderlake bei ~140W PPT an einem 5950X vorbei kommt.
 
Tzk schrieb:
Kurz: Auch bei Full Power lohnen sich die kleinen Kerne, wenn die Anwendung ausreichend skaliert.

Ja nur leider skalieren die meisten Anwendungen nicht besonders gut über beliebig viele Kerne.

Denke mal mittelfristig wird sich big.little definitiv durchsetzen, aber in welcher Form genau ist wohl die Frage.

Ob ein paar kleine Kerne fürs idlen oder eine Menge kleine Kerne fürs massive Multithreading wirtschaftlicher sind wird sich erst zeigen müssen.
Oder wie weit die kleinen Kerne kastriert werden dürfen um leistungsfähig genug zu bleiben, usw.

Bei Produktivsystemen mit diesen Lizenzmodellen, wo je nach Kern die Software bezahlt wird ist das wohl nicht so angenehm auf einmal irgendwelche little.Kerne mitzubezahlen oder es gibt dann Rabatte für entsprechende CPUs.

Was evtl. etwas kompliziert werden könnte, wäre wenn es in ein paar Jahren diverse Mischformen aus unterschiedlichsten Architekturen mit unterschiedlicher Anzahl und Art von Kernen gibt. Wer Sieht dann noch durch die Systemanforderungen einer Software?

Am Ende ist wichtig was an Leistung rauskommt und da sagt das Gerücht wohl kaum was aus.
 
  • Gefällt mir
Reaktionen: Tzk
Nobbi56 schrieb:
Hallo,

kannst du mir bitte mit seriöser Quelle belegen, welche Intel-CPU bei 5% Mehrleistung bis zum Vierfachen des Vorgängers verbraucht hat? Also z. B. statt 200 W dann 800 W?

Wäre nett von dir, ich lerne immer gerne dazu... ;)

Danke und Gruß
N.

Die aktuellen Intelprozessoren fressen locker 300-400 Watt im Anwendungs-Benchmark. Quelle? U.a. PCGH Print.
Sogar Hersteller stellen dir ungewollt dein Mainboard so ein, dass die Intel-Korsettvorgaben um 2-3fach so hoch liegen dürfen und auch tun. Also nix 125 Watt. Wunschdenken.
Mit viel Pech brennt dir da was durch. Also Vorsicht beim Rechnerkauf.
 
GHad schrieb:
Wenn dann mal Full Power benötigt wird, wäre es aber blöd, die kleinen Kerne mitlaufen zu lassen, da die ja weniger Leistung haben als die großen und denen nur das Power-Budget klauen.
Das ist ja Quatsch. Wenn das Problem gut parallelisierbar ist, dann sind mehr Kerne definitiv effizienter, als weniger höher taktende. Auch wenn sie etwas schwächer sind.
Bei Volllast werden definitiv die kleinen Kerne laufen.
Ist das Problem nicht gut parallelisierbar, dann klauen die kleinen Kerne ja auch kein TDP Budget.
 
  • Gefällt mir
Reaktionen: Tzk
floq0r schrieb:
Das würde ja bei Fortführung dieses Gedankens bedeuten, dass diese besagten 8 großen und 8 kleinen Kerne unterm Strich eine bessere Rechenleistung pro aufgenommener elektrischer Leistung ("Performance pro Watt") hätten als die großen 16 Kerne oder?
Das ist wohl neben der Platzersparnis der Plan.
1626201887700.png


Linmoum schrieb:
"Große" Kerne bei weniger Takt sind effizienter als "kleine" Kerne, die man hochprügelt. Ist jetzt keine Raktenwissenschaft, sondern allseits bekannt. Nicht nur bei CPUs.
Genau deshalb zeigt die Grafik ein anderes Bild und AMD plant für Zen 5 eine ähnliche Lösung?
https://www.hardwareluxx.de/index.p...ene-zu-amds-big-little-konzept-enthuellt.html

Weitere Spekulationen spare ich mir an dieser Stelle aber, Intel wird schon Gründe haben auf diese Lösung zu setzen und die geleakten Benchmarks klingen da plausibel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXGerryxX und v_ossi
karma2010 schrieb:
Macht doch intel selber.
Was macht Intel selber?
Für die BigLittle Architektur muss auch der Task-Manager im Betriebssystem ausreichend vorbereitet sein, damit er weiß welche Aufgaben er auf welche Kerne verteilen muss.
Das ist gar nicht mal so leicht. Die kleinen Kerne sind teilweise sogar stärker als die Großen. In der Integerleistung sind sie zum Beispiel besser.
Da ist es für den Scheduler gar nicht so leicht zu entscheiden wo man eine Anwendung am besten ausführt.

Nur durch einen vernünftigen Scheduler entfalten BigLittle Prozessoren wirklich ihre volle Leistung. Das hängt jetzt nicht mehr nur rein von der Hardware ab. Die Leistung der Prozessoren kann jetzt durchaus per Software auch noch nachträglich gesteigert werden, sowie wir das von Grafikkarten und Treiberupdates her kennen.

Aktuell scheint Windows 11 übrigens schon 6% mehr Performance zu liefern als Windows 10.
Das kann zum Release noch mehr werden und nach dem Release durchaus noch besser. Kommt darauf an, ob MS da noch am Scheduler optimiert und Bugs fixt die am Anfang darin sicherlich noch existieren werden.
 
  • Gefällt mir
Reaktionen: .fF
Ich kenne jetzt keinen, der sein Geld mit Benchmarks verdient. Die "real life" Leistung wäre hier interessanter, mit der Schwierigkeit, dass jede*r was Anderes drunter versteht. Ansonsten lese ich hier viel Gerüchte-Geblubber und wenig Handfestes. Da warte ich lieber mal den offiziellen CB-Test ab, wenn es soweit ist.
 
  • Gefällt mir
Reaktionen: Otsy
Ich befürchte eine hohe Varianz bei der Leistung mit einem 8+8 Design. Software, welche gut mit dem Design zurecht kommt, wird extrem gut abschneiden und im Gegenzug wird es Software geben, die damit überhaupt nicht zurecht kommt und richtig mieß abschneiden wird.

So ähnlich war es bis einschließlich Ryzen 3000 und das fand ich immer schon negativ. Ich habe lieber konstant gute Leistung, anstatt in App 1 besonders gut und in App 2 besonders schlecht zu laufen. Bei Ryzen war es ja immer die hohe Latenz, erst mit Ryzen 5000 hat man durchgängig die Führung übernommen.

Ich hoffe auf einen BANG wie beim Core2Duo, befürchte aber irgendwie eine Mischung zwischen Phenom und Bulldozer. Schon allgemein konkurrenzfähig, aber kann sich nirgends richtig absetzen und hat dafür zu große Negativpunkte...
 
ZeroStrat schrieb:
Intel bringt eine neue HEDT Generation, um an die HCC CPUs von AMD ranzukommen. Für die allermeisten ist eine 16 Core CPU auch nicht sinnvoll. Fürs Rendern usw. nimmt man die GPU heuzutage. Eigentlich ist nur noch Kompilieren eine wirkliche Domaine von CPUs (für "normale" Leute).
Hm wie kommst du denn da drauf das die menschen nur noch mit der gpu umwandeln. Das ist quatsch. Ich bin noch immer so von der qutlät der gpu umwandlung entäuscht das ich noch immer mit der cpu umwandle. Dies wird sich auch bei mir nicht mehr ändern. Also bitte nicht so verallgemeinern. Die ist also sehr wohl noch von bedeutung oder ist bei gpu h265 schon besser bei der bildqulität als bei cpu? Also bei h264 ist dies ja nicht so. Ich denke mal die meisten werden mit h265 umwandeln. Ich scheine da halt bei h264 geblieben zu sein weil dies mir ja vollkommen ausreicht. Bei hedt plattform meinst du mit sicherheit die 15 core tiles wo intel da geplant hat nicht wahr?
 
Also, ich find 5950X + 3090 schon unangenehm heiß in der Bude aber dann noch mehr Abwärme von der CPU...
 
Ich erinnere mich auch an die Reports der ersten Version Big+Little. Der Scheduler war damals nicht drauf eingestellt, die Performance entsprechend unterirdisch. Gut möglich, dass das mittlerweilen anders ist.

Die Performance, die die CPU hier haben soll, halte ich aber für unwahrscheinlich. Ich glaube auch, dass eher der 5900x das Ziel ist, das er wohl auch schlagen können wird.

Regards, Bigfoot29
 
andr_gin schrieb:
Du solltest bedenken, dass Cinebench R20 in der Performanceklasse nur ca. 30 Sekunden dauert d.h. hier kommt (sofern die Kühlung mitmacht) das erweiterte
Wenn ich Cinebench teste, mittle ich 3 Runs. Schon ab dem 2. Run greift PL2 zeitlich kaum noch und ich verwende eine sündhaft teure Wasserkühlung.
andr_gin schrieb:
Abgesehen davon wird AMD ja gegen Ende des jahres noch einmal nachlegen mit dem zusätzlichen L3 Cache, was noch einmal 10-15% bringen sollte.
Zumindest beim Rendern wird der 3D Cache nicht viel nützen. Das sieht man jetzt schon bei den APUs mit deutlich weniger L3 Cache.
 
noxon schrieb:
Da ist es für den Scheduler gar nicht so leicht zu entscheiden wo man eine Anwendung am besten ausführt.
Im Fall von Cinebench schon, da gibt es nämlich genau einen Thread pro logischem Kern.
 
@ZeroStrat
Ich wusste ja garnicht das man SIMD da komplett abschalten kann. Kann man das denn in jeder software so machen oder kann man das sogar in der amd software direkt so machen? Würde mich da halt mal interessieren. Das ist doch alles wie auch avx nicht wahr?
 
Zurück
Oben