News Raptor Lake vs. Alder Lake: Viele Benchmarks mit Muster eines „Core i9-13900“

Laphonso schrieb:
wiewowas? Das ging voll an mir vorbei. Ich dachte Zen4 3D erst Mitte 2023?
Lisa Su hat angeblich auf dem FAD22 gesagt, dass Zen 4 3D dieses Jahr kommt. Ein Manager von AMD hat das kürzlich nochmal öffentlich bestätigt. Das ganze ist gesetzt. Ist nur die Frage, wann die Modelle mit V-Cache kommen, schon am 15. September oder vielleicht erst zum Weihnachtsgeschäft?

Was mich am meisten interessiert, ob diesmal auch SKUs mit 2 CCDs V-Cache verpasst bekommen.
 
  • Gefällt mir
Reaktionen: Katzerino88, Smartbomb, Beg1 und eine weitere Person
Wubziz schrieb:
65W vs 125W.
3.8GHz vs 3.8GHz

Alderlake braucht bei 3,8GHz bedeutend weniger als 125W, genau wie ich die Angabe beim ES eher als Platzhalter sehen würde. Vergleiche anhand des ES sind eh gewagt.
 
  • Gefällt mir
Reaktionen: nazgul77 und Wubziz
DevPandi schrieb:
Okay … dann nehmen wir alles einfach kommentarlos und kritiklos hin, wir können es ja eh nicht ändern und es ist notwendig und über vieles hat man ja auch schon mal gesprochen.
Du hast mein Kommentar leider völlig fehlinterpretiert. Nicht das diskutieren an sich über die dann immer aktuellen Gegebenheiten an sich, ist das was ich nicht verstehe, auch nicht die Ablehnung oder Akzeptanz der Generationen. Sondern das Jammern und die Verwunderung gegebener Tatsachen die es über Jahre hinweg schon so gibt und sich nicht ändern lassen, den Fortschrittsverlauf der Technik.......mal ganz davon abgesehen, daß Du/wir hier in der Tat sowieso gar nichts an diesen Technikentwicklungen ändern können, aber darum ging es mir eben nicht (und ich werde jetzt auch nicht darauf rumreiten wenn es weiter rausgepickt werden sollte).
 
  • Gefällt mir
Reaktionen: Gast12345
Beg1 schrieb:
Und warum bringst du die Beispiele an, wenn sie dann doch nichts zu deiner Argumentation beitragen?
Diese Beispiele waren auf die Aussage bezogen, dass "die Leute" ja alle mehr Performance möchten.
Es sind eben nicht generell "die Leute", es gibt ein paar bei denen das so ist, dafür wurden Beispiele genannt, aber auch viele bei denen das nicht so ist, dafür wurden ebenso Beispiele genannt.
 
  • Gefällt mir
Reaktionen: DevPandi
DevPandi schrieb:
Nun ja, das die Kosten pro Wafer bei jedem neuen Fertigungsschritt steigen, ist bekannt. Wobei das nicht pauschal auch für das Produkt gelten muss. Früher war es ja so, dass neue Fertigungsschritte auch mal mit "alten" Produkten kamen und daher die Kosten pro Produkt teilweise drastisch sinken konnten.
Und das ist eben nicht mehr der Fall, wenn der Preis pro Transistor steigt. Der Preis pro Wafer kann ruhig steigen, aber es ist der Punkt überschritten, wo der Preis pro Transistor dabei sinkt.
Ich kann nun eben nicht mehr durch einen Shrink Einsparungen erzielen. Das ist ja auch ein Grund für die Chipkrise, weil sich für viele Produkte ein Shrink nicht mehr lohnt und die Fertigung auf den kosteneffizienten Prozessen mit begrenzter Kapazität festhängt. Richard Leadbetter hat hier z.B. die Konsequenzen für die Entwicklung neuer Konsolen aufgezeigt: Digital Foundry: Do We Actually Need PS5 Pro/ 'Xbox Series Next' Enhanced Consoles This Generation?
DevPandi schrieb:
Die Sprünge zwischen GP und GA sind auch noch recht groß, trotz einer neuen Fertigung. Man wird jetzt abwarten müssen, was NVIDIA, AMD und Intel bei ihren nächsten Grafikkarten abliefern wird. So wird der GH100 - Profibereich - vermutlich größer werden als der GA100 obwohl hier von N7 auf N5 gesprungen wird. Wie es mit AD102 aussehen wird, wird sich noch zeigen müssen und was NVIDIA da schlussendlich alles unterbringt.
Die Tabelle zeigt doch bereits, dass die kleineren Consumer-Dies von Turing auf Ampere wesentlich kleiner wurden. Dieser Trend wird sich fortsetzen. Die großen Consumer-Dies werden zukünftig in ganz neuen Preisregionen oberhalb der vorherigen Produkte etabliert. Im HPC Bereich sind auch weiterhin ganz andere Produkte mit riesigen Dies möglich, weil damit Geld verdient wird. Der preisbewusste Konsument bekommt aber zukünftig immer kleinere Chips, die immer höher getaktet werden müssen, um eine Leistungssteigerung zu bieten.
Ich finde es nicht so dramatisch, dass die Top-Produkte, mit relativ geringen Stückzahlen, eine so hohe Leistungsaufnahme haben. Es ist vielmehr ein Problem, dass die Produkte für die breite Masse nicht mehr so schnell effizienter werden wie in der Vergangenheit und man sich Effizienz zukünftig leisten können muss.
 
  • Gefällt mir
Reaktionen: Colindo und Gast12345
Nolag schrieb:
Und das ist eben nicht mehr der Fall, wenn der Preis pro Transistor steigt. Der Preis pro Wafer kann ruhig steigen, aber es ist der Punkt überschritten, wo der Preis pro Transistor dabei sinkt.

Das stimmt so nur für die Markteinführung neuer nodes.
Die kosten für die early adopter, welche die fabs finanzieren steigen enorm, nach 3-4 Jahren ist man bei den Preis pro Transistorkosten durchaus unter dem vorgänger node, zumal es ja durchaus spezialnodes für Preissensitive Anwendungen gibt.
 
Tronado schrieb:
Vor allem soll er mit 65W angegeben sein sein, das lässt es in ganz anderem Licht erscheinen.
Das ist in diesem Fall irrelevant. Der 12900K wurde im direkten Vergleich im maximalen Takt auf "Gleichstand" gedrosselt,d.h. für die Leistung ist die IPC und/oder Kernzahl maßgebend, je nach Benchmark. Der 12900K hat demnach auch nicht sein volles Energie-Limit ausgeschöpft.
 
Taxxor schrieb:
Diese Beispiele waren auf die Aussage bezogen, dass "die Leute" ja alle mehr Performance möchten.
Es sind eben nicht generell "die Leute", es gibt ein paar bei denen das so ist, dafür wurden Beispiele genannt, aber auch viele bei denen das nicht so ist, dafür wurden ebenso Beispiele genannt.

Wozu etwas Offensichtliches ausschweifend erklären? CPU/GPU-Hersteller bieten ja nicht umsonst alles von DualCore bis zum Threadripper an und der Kunde kauft nach seinen Bedürfnissen.

Wenn jemand verallgemeinert kann man natürlich stundenlang detailgenau Statistiken und Beispiele liefern, aber was bringt das für die Diskussion?

Im Endeffekt stellt @DevPandi seine Meinung in den Raum und wartet auf Antworten, bei der Nachfrage, warum er gegen steigenden Energieverbrauch (auch bei gesteigerter Leistung) ist, bleibt er allerdings stumm, stattdessen versucht er gegenteilige Meinungen zu invalidieren.

Sollte ein Forum so funktionieren? Dann habe ich jahrelang falsch diskutiert....
Ergänzung ()

Zer0Strat schrieb:
Was mich am meisten interessiert, ob diesmal auch SKUs mit 2 CCDs V-Cache verpasst bekommen.

Ich denke die Aussagen zu den ersten V-Cache Modellen sind noch nicht überholt (ab ca. 22min 43 sek):

Aber eventuell hat AMD auch bereits eine Lösung gefunden und überrascht uns, wobei auch die Produktionskapazitäten eher noch für ein oder zwei Produkte mit V-Cache sprechen würden, auf das ganze Lineup verteilt wären das denke ich zu geringe Stückzahlen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gast12345
mattberlin schrieb:
Da gibt es doch gerade diese schöne Entwicklung, dass man Wärme speichern kann und daraus dann Strom macht.
Wärme speichern ist physikalisch nicht möglich. Man kann den Wärmeverlust in kleinen Dosen etwas verzögern mehr geht aber nicht. Aus Wärme Energie erzeugen dagegen funktioniert schon seit der Dampfmaschiene heute sinds dann Dampf getriebene Turbienen/Generatoren. Selbst ein AKW macht ja auch nix anderes.
 
LamaMitHut schrieb:
Ich mich auch, Zen 4 3D soll ja noch dieses Jahr kommen. Wird ein Fest für Gamer.

Einfach auf UHD spielen, dann ist die CPU nebensächlich.
Da reicht meist sogar ein alter Intel 7700 (4 Kerner mit HT?), kenne nicht mehr auswendig welchen Intel da PCGH in der Auflistung hatte.
Als ich kurz einen 5800X statt meinem 2700X drin hatte bei UHD (mit RX6800) waren genau NULL fps mehr^^
Lasse den 2700X drin, bringt nix (hatte PCGH auch getestet)
 
UHD 60Hz oder UHD 120Hz ? Weil auch in Letzterem schafft man mit angepassten Grafikeinstellungen
und DLSS/FSR 100FPS+ und daran werden ältere CPU's scheitern. Bis 60FPS sollten aber noch drin sein.
 
mastermc51 schrieb:
Als ich kurz einen 5800X statt meinem 2700X drin hatte bei UHD (mit RX6800) waren genau NULL fps mehr^^
Wie gemessen? Ein Spiel gecheckt mit dem Afterburner Overlay? Der 2700X ist eher schwachbrüstig in Gaming Workloads, sehr schwachbrüstig. Es gibt unzählige Gegenbeispiele zu deiner Behauptung.
 
  • Gefällt mir
Reaktionen: bensen
Jetzt tretet mal langsamer, Leute. Es ist ein frühes Sample. Ich kann mir nicht vorstellen, dass die finale CPU tatsächlich eine geringere IPC haben wird, es ist ja praktisch nur ein Refresh, das wäre sehr merkwürdig.
Falls es tatsächlich so kommen würde, wäre das natürlich ein ziemliches Armutszeugnis und würde je nach Ausmaß Erinnerungen an AMDs düstere Bulldozerzeit wieder hochkommen lassen, aber wie gesagt, unwahrscheinlich.
Vermutlich muss einfach softwareseitig noch ein bisschen was passieren und dann läuft das.
 
  • Gefällt mir
Reaktionen: Gast12345
Wubziz schrieb:
Nehmen wir die SC Benchmarks raus sind wir bei ca. 27% mehr vs. 12900K.
Das entspricht ziemlich exakt dem, was bei einer Verdopplung der E-Cores zu erwarten wäre. Beim 12900K steigt im ComputerBase-Test die Performance im unlimitierten Betrieb von nur P auf P+E um 30%. Bei doppelt so vielen E-Cores wären also +60% anzunehmen. Und 1,6/1,3 sind +23%. Demgegenüber heben sich die Ergebnisse in dieser Meldung nur um +3% ab. Das heißt also eher, dass so gut wie gar kein brauchbares Plus beobachtbar ist, welches über den puren Zuwachs an E-Kernen hinaus geht.

Das kann nun gut am ES-Status liegen, oder auch nicht. Jedenfalls sieht man in dem Vergleich so gut wie gar nichts Verwertbares.
Ergänzung ()

Zer0Strat schrieb:
Wie gemessen? Ein Spiel gecheckt mit dem Afterburner Overlay? Der 2700X ist eher schwachbrüstig in Gaming Workloads, sehr schwachbrüstig.
Hey, 4K und irgendwas schön im Limit... Wenn man sich die richtige Situation raus sucht, wird man immer fündig...

Screenshot 2022-06-25 at 20-48-58 AMD Ryzen 5950X 5900X 5800X & 5600X im Test Benchmarks in Ga...png


Wusste gar nicht, dass ich sogar was finden würde, wo der 2700X vor dem 5800X liegt. LOL.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb und Rockstar85
DevPandi schrieb:
Du siehst es nicht, weil du dich des gleichen rhetorischen Giftschrankes bedienst, aber zugutehalten muss ich dir an der Stelle, dass du es wenigstens mit Niveau machst.
Jeder der anderer Meinung ist, bedient sich am rhetorischen Giftschrank?
Als ob die ganze Welt nun High End Hardware kauft. Wie viel Strom dauerhaft verbraten wird, hängt auch deutlich vom Nutzungsverhalten ab.
Grafikkarten mit rund 300 Watt Strombedarf gibt es nun schon seit fast 15 Jahren und rein zum Surfen werden heute meist mobile devices mit sehr niedrigem Strombedarf genutzt - auch zu Hause.

Dem maximalen Strombedarf sind hinsichtlich der Kühlung Grenzen gesetzt und wirklich steigen tut er auch nicht, mal von absoluten High End Produkten die ein Nischendasein fristen abgesehen.
 
Zuletzt bearbeitet:
DevPandi schrieb:
Du siehst es nicht, weil du dich des gleichen rhetorischen Giftschrankes bedienst, aber zugutehalten muss ich dir an der Stelle, dass du es wenigstens mit Niveau machst. [...]
Du verstehst eine ganze Menge von Rhetorik, allerdings habe ich mich sehr bemüht meinen Text, ohne daraus eine Bachelor-Arbeit zu machen, so aufzubauen, dass am Ende klar wird warum meiner Meinung nach Vergleiche und Verweise, an dieser Stelle angebracht sind. Dass manch einem Forennutzer die Sprachfertigkeit fehlt, Dinge perfekt und fehlerfrei zu Argumentieren, sollte als jahrelange/r Nutzer/in klar sein (ÖNPV-Beispiel). Dennoch kann man immerhin versuchen zu verstehen, was gemeint ist, was je nach Nutzer mehr oder weniger schwer ist :P

Du pflückst meine Argumentation Stück für Stück auseinander, stoppst dann aber genau an der Stelle wo es interessant wird und ich versuche den Kreis zu schließen.

Mit deinem rhetorischen Verständnis und deiner Sprachgewandtheit hast du sicherlich verstanden, dass es mir um die Relationen und die allgemeine Relevanz, vor allem in Kombination mit Forderungen nach Regulierung, geht. Was du den "rhetorischen Giftschrank" nennst, ist in meinem Fall der rote Faden, für meine gesamte Argumentation. Wie stellt man Dinge in Relation, wenn nicht mit Vergleichen? Wie argumentiere ich für Relevanz, wenn nicht mit Verweisen auf Zahlen?

Es ist valide die absolute Korrektheit meiner Beispiele zu hinterfragen, allerdings erwarte ich, dass zumindest jemand wie du versteht, was mein Punkt ist, ohne meinem Forenkommentar aufzubürden, die Recherche und Qualität eines wissenschaftlichen Forschungsberichts zu haben.

Es Bedarf keinerlei Expertenwissen um schlussendlich zu verstehen, dass dein "Problem" mit der Entwicklung des Energiebedarfs von PC-Hardware, in Relation gesetzt ein Non-Faktor ist.

Ich wiederhole mich: Deine Logik trifft nur auf das Consumer-High-End zu, welches einen winzigen Teil des Gesamtmarktes ausmacht. Für den Rest steigt die Effizienz jede Generation und man bekommt wie in den guten alten 90ern, wenn auch nicht im selben Ausmaß, mehr Leistung bei weniger Verbrauch.

Ich persönlich verteidige sogar die Existenz eines Intel i9 12900K, da ich verstehe, was "Frame pacing" bedeutet. Gerade in Online-Shootern, kann eine solch "maßlose" CPU zu spürbaren Verbesserungen führen. Der AMD Ryzen 7 5800X3D zeigt zwar, dass das auch ohne übermäßige Leistungsaufnahme möglich ist, warum jener allerdings momentan eine Besonderheit darstellt, kann man gerne hier auf ComputerBase recherchieren.

Schlussendlich bleiben dann z.B. ein i9 12900KS, oder eine GeForce 3090 (ti). Das höchste High-End. Eine Anzahl an Produkten, die sich an einer Hand abzählen lässt. Produkte mit einem winzigen Markt, gerichtet an eine besondere Zielgruppe.

Ich wiederhole mich erneut, diesmal ohne Vergleiche, nur mit Fragen: Wo ist hier die Relation und die Relevanz? Was rechtfertigt hier auch nur ansatzweise eine Regulierung? Was soll dann überhaupt reguliert werden? Der Maximalverbrauch, auch wenn das Endprodukt effizienter arbeitet?

Also sollen wir lieber länger warten, dabei mehr Strom verbrauchen, weil unser Netzteil für mehr Maximalleistung ausgelegt sein muss?

Da du diese Punkte in deiner Vorherigen Antwort auch bereits ignoriert hast, muss ich davon ausgehen, dass du da tatsächlich etwas auf dem Schlauch stehst und womöglich tatsächlich nicht verstehst, was "Effizienz" bedeutet.

Das wäre allerdings tragisch, bei all deiner rhetorischen Kenntnis, welche du so freigiebig zur Schau stellst.
DevPandi schrieb:
Ich werde dir als auch den anderen an dieser Stelle aber weiterhin den Weg schuldig bleiben, warum ich die aktuelle Entwicklung falsch finde, weil ich damit ein viel zu weites Fass öffne und das Thema dann oft sehr emotional bis hin zu verbohrt geführt wird und man daher schnell mit gewissen Schubladen und Unterstellungen argumentiert und ich darauf keine Lust habe.
Eventuell fehlt mir ja nur das, um überhaupt zu verstehen, was dein Punkt ist. Bis auf - "ich finde die Entwicklung schlecht", kommt trotz deiner riesigen Texte einfach nichts 'rum, was Substanz hat.

Und tun wir Mal nicht so, als wäre die Diskussion nicht längst emotional und verbohrt. Nur komme ich nicht aus meinem Loch, solange ich nicht den blassesten Schimmer habe, worauf deine Logik überhaupt aufbaut.
Die Meisten, die von Verbrauchsobergrenzen sprechen, argumentieren mit Stromkosten und Temperaturen im Sommer, oder erzählen 'was von Umweltschutz. Am Ende läuft es stetig darauf hinaus, dass nicht verstanden wird was "Effizienz" bei PC-Hardware bedeutet und man sich mit solchen Obergrenzen selbst ins Bein schießt und mit seinen gut gemeinten Forderungen, nur mehr Schaden anrichtet.

Da macht es fast mehr Sinn zu fantasieren, dass keiner an Effizienz forscht, weil "Die" uns dummen Kunden doch nur ans Geld wollen und wir Ahnungslosen alles kaufen, was uns vorgelegt wird, die wir besessen sind von unserem endlosen Konsum.

Dass Hardware heutzutage mit Fokus auf Datacenter produziert wird, wissen scheinbar auch noch nicht alle. Worauf Datacenter-Kunden wertlegen muss ich glaube ich nicht erneut erwähnen. Tipp: Das Wort beginnt mit einem "E".
 
  • Gefällt mir
Reaktionen: GBi, Innocience, Katzerino88 und eine weitere Person
m3rch3r schrieb:
Eventuell fehlt mir ja nur das, um überhaupt zu verstehen, was dein Punkt ist. Bis auf - "ich finde die Entwicklung schlecht", kommt trotz deiner riesigen Texte einfach nichts 'rum, was Substanz hat.

Und tun wir Mal nicht so, als wäre die Diskussion nicht längst emotional und verbohrt. Nur komme ich nicht aus meinem Loch, solange ich nicht den blassesten Schimmer habe, worauf deine Logik überhaupt aufbaut.

Das ist ja auch seine Taktik, alles invalidieren aber gleichzeitig keinerlei "Angriffsfläche" bieten, sagt er ja auch ganz offen.

In so einem Fall sollte man sich die Diskussion wohl einfach sparen, auch wenn ich offen für seine Argumente wäre, eventuell ist es mal etwas Neues, was man noch nicht 1000x gelesen hat, wie z.B.:
  • schlecht fürs Klima/Umwelt
  • Konsumwahnsinn, man braucht nicht immer etwas Neues
  • Gaming ist sinnlos und Stromverschwendung
etc.

Er führt ja auch direkt an, dass man seine individuellen Umstände nicht kennen würde, sprich selbst wenn er Argumente bringt, kannst du damit rechnen, dass seine Plot Armor undurchdringbar ist, weil er eine PV-Anlage aus recycletem Schrott gebastelt hat und um seinen Laptop zu laden fährt er mit dem umgebauten Klapprad zur Arbeit, sein Essen besorgt er nur aus Müllcontainern uvm....
Katzerino88 schrieb:
Jeder der anderer Meinung ist, bedient sich am rhetorischen Giftschrank?

Macht er selbst halt leider auch, denn er will keine Diskussion. Er gibt dir nur eine Zeile Bait und bleibt jegliche Begründung schuldig und stürzt sich dann auf deine Argumente.

Ich wünschte mir PCs würden mindestens 2kW verbrauchen, aber ich sag dir nicht warum, also versuche meinen Wunsch zu entkräften, aber wehe du weichst vom Thema ab.
 
  • Gefällt mir
Reaktionen: GBi
Der CPUZ Vergleich auf dem Screenshot gibt an, dass die Kernspannung beim Raptor Engineer Sample 1.146 Volt beträgt und beim Alder i9-12900K 1.003 Volt. Weshalb ist das so? Werden wir beim Raptor grundsätzlich von einer höheren Kernspannung ausgehen müssen oder wird der Wert tiefer liegen bei Markteinführung?
 
Zuletzt bearbeitet:
Blau&Gruen schrieb:
Weshalb ist das so?
Kann auch einfach zwischen zwei Update Zyklen liegen. Telemetrie Readings sind nicht wirklich real-time. Würde ich nicht überbewerten. Außerdem reden wir hier über ein ES. Das kann sonst was sein.
 
  • Gefällt mir
Reaktionen: Blau&Gruen
Also der Kauf eines Alderlake 13900 k/s ist ja wohl nur für eine gewisse Klientel interessant und für Benchmark
Fetischisten. Schon ein 13700 ist Teilweise ähnlich wie beim 12700 das Optimum. Im Normalbetrieb ist der auch
schon ausreichend schnell. Da braucht man nicht die 280 W aus ihm herausprügeln. Der Zwang das Ganze auch
noch mit Wasser zu kühlen, hält mich eh schon vom Kauf ab.
Mal sehen wie AMD das beim Ryzen 4000 handhabt. Der 5800x 3D wurde ja schon taktseitig eingebremst, so
das er trotz V-Cache weniger aus dem NT zieht ,als das Original ohne V-Cache. Das ist glaube ich , der richtige
Weg.
Allerdings wird man sehen müssen ,wie das beim 7800-7950x mit V-Cache aussieht. Wenn ich sehe ,das AMD auch den TR mit 3d V-Cache anbieten will, wird es wirklich interessant. Aber mit der Mainboard Politik hin zum
Pro dürfte das auch wiederum uninteressant werden
 
Zurück
Oben