News AMD Ryzen 7 7700X im Cinebench: Single-Core-Score soll um bis zu 28 Prozent höher ausfallen

Nolag schrieb:
Für den 13600K könnte das hierzulande einen Preis von etwa 355€ + Mehrwertsteuer ergeben.

Ja, Intel hat es so angekündigt und dafür hat man dann nicht einmal 8 P-Cores, die beim Gaming eben wesentlich wichtiger sein können.
Smartin schrieb:
Der 13600K ist ein 6-Kerner, der um die 250-300 Eur kosten dürfte.

Der 12600K (6+4) kostet aktuell bereits 315€, ein 13600K (6+8) wird sicherlich nicht weniger kosten und muss sich dann eben mit dem 8-Kerner 7700X, welcher angeblich 299USD kosten soll, messen.

AMD bedient das echte "Einstiegssegment" ja schon länger nicht mehr, daher dürfte das Duell Zen4 vs RPL so aussehen:
7600X vs 13500 (kein zusätzlicher Cache, 6+4 Kerne - sieht nach Alder Lake 12600 + 100MHz aus)
7700X vs 13600K
7900X vs 13700K
7950X vs 13900K

13100/13200/13300/13400 sind default wins für Intel.

Aktuell tippe ich darauf, dass der 7800X nur als 3D-Variante erscheint und etwas mehr kostet als der 5800X3D zum Marktstart.

Bin jedenfalls auf die Reviews gespannt, vor allem der Stromverbrauch interessiert mich sehr.
 
Beg1 schrieb:
7600X vs 13500 (kein zusätzlicher Cache, 6+4 Kerne - sieht nach Alder Lake 12600 + 100MHz aus)
1661609219990.png


EDIT:
1661609317309.png
 
Smartin schrieb:
Es geht um die Mainkerne.

Gibt‘s die im Fluß oder warum heißen die so?

Smartin schrieb:
Nö. Intel hat. Und zwar fertig wenn die Reserven aus den fetten Jahren nicht langen. Dazu wollen sie umsichtig eingesetzt werden.

So wie vor wenigen Jahren fast AMD. Die haben den Endspurt auch nur durch Verticken von Zen1 an die Chinesen gerade so geschafft.

Ich hoffe, Gelsinger kriegt das Krisenmanagement hin. Bei VMWare war er ja in den fetten Jahren. Immerhin hat er Optane schon abgespeckt. Fehlt noch ARC und ein Laden, der sich Koduris nächsten Totalschaden leisten kann. M$ hat bereits Poettering am Hals. Vielleicht eher Google oder Meta, da ist das Thema ML ganz groß.

Ein AMD-Monopol braucht abseits des Ladens auf jeden Fall kein Mensch. Frau Su halte ich für so knallhart, daß man sich die fetten Intel-Jahre vielleicht noch zurückwünschen wird.

Smartin schrieb:

Gewollt hat das wohl gerade bei Intel mit Sicherheit niemand. Die Hassfraktion der AMD-Fanbois in Foren und antisozialen Medien schon eher. Die wird sich IMNSHO noch umgucken.

Schon damals beim Hammer hat AMD die Preise gnadenlos über Intel-Niveau erhöht. Das wird dieses Mal nur schlimmer. Die neuen Boardpreise sind erst der Anfang.
 
Zuletzt bearbeitet:
@VelleX
Ah okay, dann meinte ich den 13400 ;)
Bei Intels Prozessorvielfalt komme ich manchmal durcheinander.
 
Grundgütiger schrieb:
Und was soll das bewirken? Alle Hersteller überbieten sich doch mit mehr Effizienz in allen Bereichen mit jeder neuen Generation. Egal ob CPU, GPU, Speicher, Controller usw.

Oder wirst du einfach nur gern bevormundet?

Falsch, die Stromaufnahme insgesamt steigt. Bei gleicher elektrischer Stromaufnahme sind sie zwar effizienter, aber das ist eben nicht die treibende Entwicklungskraft, sondern Leistung.

Was es bringen soll? Sie Dir andere elektrische Geräte an bei denen es klare Vorgaben gibt (Staubsauger, Kühlschränke etc.) und entsprechende Anreize effizienter zu werden und tatsächlich den insgesamten Stromhungern zu reduzieren, selbst abseits von eleltkrischen Geräten (Autos, Flugzeuge etc.). Ohne "Anreize" des Gesetztgebers passiert leider wenig bzw. weniger? Das bedeutet halt nicht, dass es deshalb keine 4090 geben darf....
 
Dr.Pawel schrieb:
Falsch, die Stromaufnahme insgesamt steigt.

Das interessiert zuhause doch nur noch alte Silent-Enthusiasten wie mich. Die sind seit dem Durchbruch der SSDs grundsätzlich bis ins letzte Detail bedient und beginnen jetzt wegzusterben.

Dr.Pawel schrieb:
Bei gleicher elektrischer Stromaufnahme sind sie zwar effizienter,

Race to Idle ist das neue Zauberwort. Je schneller der Job erledigt ist, kann die Kiste ganz aus. In letzter Konsequenz inkl. Bildschirm. Das spart Gesamtverbrauch.

Dr.Pawel schrieb:
aber das ist eben nicht die treibende Entwicklungskraft, sondern Leistung.

Das war in meiner erlebten Zeit und auch schon davor IMNSHO noch nie anders. Was ist plötzlich daran schlecht?

Problem sind doch „nur“ Konsumanwendungen, die nicht mit der Mehrleistung skalieren. Nieder mit den Gamern! Die brauchen für das Game auf der neuen Kiste auch nicht kürzer.

Einfach verbieten! Solange die Grünen noch am Drücker sind, geht das. Aber die zetteln ja lieber wieder einen Krieg an. Diesmal nicht gegen die Serben sondern gleich gegen die Russen. Business as usual.
 
Also wenn es mal anderst wäre wie ordentliche Leistung nach oben und wenn mal ideln ganz wenig Strom nach unten.
Wenn das so wäre, dann wäre ich echt happy. Klar verbraucht limitiert 120 Watt ein 5950x. Aber im idle immer noch mit rund 37 Watt zu viel. Da muss ich mir noch was einfallen lassen weil ist ja dennoch noch zu Strom hungrig. Möchte ja den Laptop in der Hinsicht Paroli bieten. Nur mit Spannung alleine schaffe ich das leider nicht.
 
Letztendlich fängt inzwischen die Physik an, dem Wettrennen um das letzte Stück Performance die Grenzen aufzuzeigen. Grafikkarten mit mehr als 450W Verlustleistung sind schwer zu kühlen. Das gilt auch für CPUs mit mehr als 300W. Beliebig weit kann Intel das gar nicht treiben.

Für die neue Generation weise ich noch darauf hin, dass wir zwar von Intel schon viel zum Verbrauch gehört haben, aber bei AMD immer noch die Angaben zu den höheren TDP-Stufen die einzige Information sind. Wie hoch der Verbrauch des 7950X tatsächlich ist, das wurde bisher nicht geleakt.
 
  • Gefällt mir
Reaktionen: Arno Niemer und Aduasen
Arno Niemer schrieb:
Race to Idle ist das neue Zauberwort.
Daher bin ich auch eher auf das neue 6nm-IOD gespannt, und inwiefern eventuell dadurch der Idle-und noch wichtiger Schwachlast-Verbrauch insbesondere bei den Dual-CCD-Prozessoren sinkt. Für den Normalnutzer ist das viel relevanter.
 
  • Gefällt mir
Reaktionen: Arno Niemer
latiose88 schrieb:
5950x. Aber im idle immer noch mit rund 37 Watt zu viel.

Dafür sollte das Transcoding einer typischen Serienfolge nach 3min. 130W durch sein. Mein 3900X braucht dafür noch 4min. lang 140W. Nur die reinen CPUs.

Danach kann die Kiste ganz aus. Das spart richtig.

latiose88 schrieb:
Möchte ja den Laptop in der Hinsicht Paroli bieten. Nur mit Spannung alleine schaffe ich das leider nicht.

Der hat neben Akkuverschleiß auch noch Ladeverluste. Noch besser die Notebook-Komponenten im Mini-PC oder AiO ohne Akku. So macht das Apple endlich mal wieder. Wird hoffentlich zum Vorbild.
 
Zuletzt bearbeitet:
@Nixdorf doch die Taktraten des 7950x sind auch schon längst draußen wie all core takt bei 4,5 GHz. Und damit zu dem 5950x der ja eigentlich 3,5 GHz all core takt hat und nur dank turbo boost auf 3,8 GHz läuft. Also satte 1 GHz mehr takt pro core. Das nenne ich mal ne Steigerung und dann 4,8 GHz villeicht auch noch.
 
latiose88 schrieb:
@Nixdorf doch die Taktraten des 7950x sind auch schon längst draußen
Ich glaube du sprichst den falschen an. Ich habe zu Taktraten aktuell nichts geschrieben.
Ergänzung ()

Arno Niemer schrieb:
Und angeblich immer iGPU. Auch bei vielen Kernen.
Die iGPU ist im IOD, also ist sie natürlich auch bei allen SKUs dabei.
Ergänzung ()

latiose88 schrieb:
Aber im idle immer noch mit rund 37 Watt zu viel. Da muss ich mir noch was einfallen lassen weil ist ja dennoch noch zu Strom hungrig.
Hast du mal Ausbalanciert und Energiesparmodus verglichen? Was liefert letzterer bei ruhendem Desktop?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Arno Niemer
Na weil du geschrieben hattest das sonst noch nix bekannt ist. Oder sind das nur Vermutungen und Gerüchte von anderen und nicht offizieller Seite?
 
latiose88 schrieb:
das sonst noch nix bekannt ist.
Zum tatsächlichen Verbrauch. Ich habe bisher keine Screenshots mit PPT drin gesehen, nur die Angabe zur höheren TDP von 170W und damit logisch möglichen 230W PPT. Ob die auch erreicht werden, das wurde bisher nicht berichtet.

Das steht im Gegensatz zu Raptor Lake, wo es Screenshots mit 345W Package Power in HWiNFO gibt, bei dann 40616 Punkten in CB R23. Den 13900K limitiert man ja selbst bei 250W deutlich.
 
Zuletzt bearbeitet:
Na meinte den takt, das der stromverbrauch der reale und maximale in mehreren Anwendung steht echt noch nirgends wo drinnen das ist mir schon klar, meinte das der all core takt ja schon bekannt ist weil du schiebst das sonst noch nix an Details bekannt sind. Mehr habe ich ja auch nicht gemeint gehabt. Nur auf die eine Aussage bezogen gehabt.
 
Och Mann, warum muss das heute Nacht um 1 sein?

Wenn die Leaks von WccfTech stimmen, wäre der Launch ein ziemlicher Fail. Zu teuer, CPUs am 15ten, Boards aber erst am 27ten (?!?) und dann B650 direkt am 10.10. Teure CPUs ohne Board und wenn die teuren Boards kommen, kann man auch noch 2 Wochen auf die günstigeren warten? Wäre schon extrem seltsam und marketingtechnisch fragwürdig.
 
Zurück
Oben