News Core i9-13900KS?: Intel nennt 6 GHz für Core Gen13 alias Raptor Lake

Syrato schrieb:
Es wird, auch hier im Forum, Leute geben die genau EINE Anwendung oder EIN Spiel finden, wo es wichtig ist.
Und genauso gibt es schon jetzt wieder Leute in diesem Forum, die anderen vorschreiben wollen welcher Use-Case legit ist und was man für sich persönlich als Argument nutzen darf oder nicht. In Zukunft also erst bei Syrato nach Genehmigung und Freigabe des persönlichen Use-Case anfragen! Denn er weiß immer noch am Besten wer seine CPU wie verwenden darf.
 
@Laphonso aber das Eine geht Hand in Hand mit dem Anderen. Niemand, ausser Intel, weiss wie die 6 GHz zustande gekommen sind, wie viel Strom es frisst, Dauer uvm..

@Martinipi immer schön alles so hinbiegen, wie man es braucht.

Es wird immer ein Spiel oder eine Anwendung geben, ob von vor 20 Jahren oder aktuell, Singel-Core benötigt. Ist 2022 nicht mehr so verbreitet.

Die 6 GHz sind, wenn in unabhängigen Tests bestätigt, beachtlich! Aber den Preis dafür sollte man nicht ausser Acht lassen!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu und Laphonso
owned139 schrieb:
Also ist deine Kritik, dass es die gleiche Arch ist und wir nicht jedes Jahr eine komplett neue bekommen, ja?
Es ist seit Monaten klar, dass RPL = ADL mit ein paar Optimierungen ist.
Ergänzung: Das ist sogar schon seit letztem Jahr klar. Es war schon immer bekannt, dass Raptor Lake ein Refresh wird. So wie man es auch nach gerade mal 1 Jahr erwarten kann.
 
  • Gefällt mir
Reaktionen: Rockstar85
Geilo, kann ich mir nach gefühlt 20 Jahren, endlich nen 6Ghz Prozessor kaufen? Da freue ich mich schon ;). Damals als die Ghz zahlen Jahr für Jahr schnell stiegen, gabs mal eine Ansage bei Intel, das bald 6Ghz möglich sind. Und all die, die wegen Verbrauch jammern, überlegt mal, was ihr Täglich Außerhalb eures PC s an Strom verbratet, da fällt der PC nicht auf (Kochen, Wasserkocher, Kaffeemaschine, Waschen, Bügeln, Heizung, Licht, Duschen, alle Smartphones jeden Tag laden, große TV s die stunden jeden Tag laufen + 1000 Sachen, wo ihr auf Arbeit Strom verbraucht und Tausend andere Sachen im täglichen Leben. In Urlaub Fliegen/Fahren usw. verbraucht auch unnötig Ressourcen ;). Wenn man jedes Gerät, was man im Leben nutzt, einzeln im Stromverbrauch berechnet, sieht es immer schlimm aus ;) .) Jeder der wegen so nem Stromverbrauch jammert, hetzt, ist einfach nur ein Heuchler, weil kaufen tun es die meisten dann trotzdem ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Vitec und Sappen
TechFA schrieb:
Intel Israel, Intel's Technologie-Standort und Ideen-Schmiede schlechthin, fällt also außer höherem Takt auch nix mehr ein. Mann, mann, mann. Der ganze Laden ist sowas von auf falschen Fährten! -.-
Muss auch nicht- In früheren Zeiten haben diverse Generationen darauf beruht, "einfach nur" die Taktfrequenz zu steigern. Jedoch reden wir damals von anderen Dimensionen.
Nicht vergessen... Taktfrequenz und IPC- Steigerungen mutliplizieren sich. So kann dann doch insgesamt ein spürbares Plus erreicht werden in welchen z.B. eine Verarbeitungspipeline an einem Thread hängt.
Das ist der ganze Sinn hinter den granularen Taktmechanismen von Intel und AMD. Jeglicher Fortschritt diesbezüglich ist zu begrüßen. Die Peak- Leistung eines Kerns wird abgerufen, wenn die anderen Kerne durch einen "Stall" eines Kerns sowieso unterversorgt sind. So kann man auch ohne großen Energieaufwand alle Rechenpipelines besser gefüllt halten.
Ist halt nicht für jeden bzw. jedes Szenario was....
Rendern bzw. massiv paralleles Computing profitiert davon null.
 
  • Gefällt mir
Reaktionen: Unnu und Colindo
Hat schon jemand einen Kommentar zur Abwärme gemacht?

Also...hust....Beim Lesen dieser News wird mir ja ganz warm ums Herz:

und mit dem Ding im PC, dann die GANZE WOHNUNG 1!!elf

badum tsss

P.S.: Den dürft ihr auch kopieren und in sämtliche GPU News die von jetzt an und Zukunft kommen, einfügen.
 
Benni1990 schrieb:
Ich: "Shut up and take my Money" wenn der 13900k/4090 released wird
Dan hoffe ich, nur um dich zu ärgern, dass AMD die bessere Hardware bereitstellt. 🙃

Ne im Ernst, wenn für dich das die richtige Anschaffung ist, gönn sie dir.
Vermutlich werden sich die Top Komponenten nicht viel nehmen!

Ich bin auf Test von 8-P-Kerne vs 16 Kerne, in Spielen gespannt!
 
  • Gefällt mir
Reaktionen: Unnu
Syrato schrieb:
@Martinipi immer schön alles so hinbiegen, wie man es braucht.

Es wird immer ein Spiel oder eine Anwendung geben, ob von vor 20 Jahren oder aktuell, Singel-Core benötigt. Ist 2022 nicht mehr so verbreitet.
Jaja, und mit der CPU darf man diese Spiele dann nicht mehr spielen oder sich über die Leistung freuen die sie erreicht. Syrato darf dann entscheiden wer was spielen darf.

Im Gegenzug muss aber jeder das Argument Blender oder Mathirgendwas oder auch synthetischer Benchmark xyz akzeptieren, weil das ist natürlich in jedem Use-Case inbegriffen.
 
@Martinipi es wäre toll, wenn du sachlich bleibst. Scheint aber nicht deine Stärke zu sein.
 
Syrato schrieb:
Dan hoffe ich, nur um dich zu ärgern, dass AMD die bessere Hardware bereitstellt. 🙃

Ne im Ernst, wenn für dich das die richtige Anschaffung ist, gönn sie dir.
Vermutlich werden sich die Top Komponenten nicht viel nehmen!

Ich bin auf Test von 8-P-Kerne vs 16 Kerne, in Spielen gespannt!
Es ist wie jedes Jahr das selbe Katz und Maus spiel AMD denkt sie haben das Rad neu Erfunden und zum schluß steht intel wieder paar prozent vorne und bei den GPU´s ist AMD leider immer 1 Generation hinten dran ob es nun RT ist oder DLSS
 
Benni1990 schrieb:
Es ist wie jedes Jahr das selbe Katz und Maus spiel AMD denkt sie haben das Rad neu Erfunden und zum schluß steht intel wieder paar prozent vorne und bei den GPU´s ist AMD leider immer 1 Generation hinten dran ob es nun RT ist oder DLSS
Wenn du das so siehst, lies mal die 5800X3D Tests und schau dir die 6900XT an. Intel ist nicht vor AMD eher anders rum! Ach und so schlimm steht AMD vs Nvidia auch nicht da.
 
  • Gefällt mir
Reaktionen: Snoop7676
Warum sollte man sich diese CPU holen?
 
heroesgaming schrieb:
Das Ding ist eben: Alder Lakes Verbrauch bei gegebenem Takt ist bekannt. Man geht deshalb und angesichts bestimmter News (350W-Modus) davon aus, dass RPL bei der Leistungsaufnahme gut aufdrehen wird,
Davon kann man ja gern für sich persönlich ausgehen, aber momentan ist das halt Spekulation. Objektiv gesehen ist das nichts Anderes, als das, was Zero sich vor wenigen Monaten in AMD Threads geleistet hat. Er wurde für die Streitereien dort gebannt. Die Leistungsaufnahme von Raptor Lake ist zum momentanen Zeitpunkt Spekulation, genauso wie Zeros Aussage, ZEN4 sei wegen Raptor Lake DOA, Spekulation ist/war. Fakt ist, dass hier einige, die ihn wegen dieser Spekulationen über ZEN4 munter zur Schnecke gemacht haben, bei Intel Threads sämtliche spekulativen Kommentare zur Leistungsaufnahme liken.

So, genug off topic.
 
  • Gefällt mir
Reaktionen: W4RO_DE und owned139
Benni1990 schrieb:
Es ist wie jedes Jahr das selbe Katz und Maus spiel AMD denkt sie haben das Rad neu Erfunden und zum schluß steht intel wieder paar prozent vorne und bei den GPU´s ist AMD leider immer 1 Generation hinten dran ob es nun RT ist oder DLSS
Ähm ... naja. Bis Zen 2 hätte man das vielleicht noch so auslegen können, wenn man sehr missgünstig unterwegs war. Zu Zen 3 hatte Intel aber erstmal monatelang kein wirkliches Konkurrenzprodukt, Rocket Lake hat sich dann als Rohrkrepierer präsentiert. Ja, Alder Lake war dann wieder ein führender Prozessor, aber eben auch erst fast ein Jahr nach Zen 3.

Mit Zen 4 ist jetzt AMDs Fertigungsvorteil zurück und trifft auf eine bereits sehr weit entwickelte Architektur. Spätestens mit den X3D-Modellen ist ein Leistungsvorsprung Intels in Spielen dann nicht mehr realistisch, in anderen Szenarien wird man sich wohl ein Kopf-an-Kopf-Rennen leisten, bei dem AMD effizienter bleibt.

Gut, GPUs sind eine andere Geschichte, aber da hat man ja auch erst mit RDNA2 tatsächlich wieder aufgeschlossen, davor war man mehrere Generationen lang mehr oder minder irrelevant - was man auch am Marktanteil sieht, der noch nicht wieder richtig wachsen konnte. Die GCN-Ära hat da eindeutig zu lange angedauert.

Philste schrieb:
Davon kann man ja gern für sich persönlich ausgehen, aber momentan ist das halt Spekulation. Objektiv gesehen ist das nichts Anderes, als das, was Zero sich vor wenigen Monaten in AMD Threads geleistet hat. Er wurde für die Streitereien dort gebannt. Die Leistungsaufnahme von Raptor Lake ist zum momentanen Zeitpunkt Spekulation, genauso wie Zeros Aussage, ZEN4 sei wegen Raptor Lake DOA, Spekulation ist/war. Fakt, ist das hier einige, die ihn wegen dieser Spekulationen über ZEN4 munter zur Schnecke gemacht haben, bei Intel Threads sämtliche spekulativen Kommentare zur Leistungsaufnahme liken.
Das stimmt. Aber zum Spekulieren existieren Forenthreads wieder dieser ja unter anderem, ansonsten dürfte man erst unter dem tatsächlichen Test einen eröffnen ^_^
Und wie ich im zitierten Beitrag angeführt hatte, gibt es schon die eine oder andere Basis für diese Vermutungen.

Und gebannt wird man hier im Wesentlichen dann, wenn man polemisch auftritt und dann einfach nicht von der Sache lassen will. Ich bin hier vor einiger Zeit einem Nutzer gefolgt, der das in jedem Smartphone-Thread getan hat. Solange man seine Worte zivil wählt, setzt es auch keinen Ban, unabhängig vom Inhalt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu und iron_monkey
heroesgaming schrieb:
Ähm ... naja. Bis Zen 2 hätte man das vielleicht noch so auslegen können, wenn man sehr missgünstig unterwegs war. Zu Zen 3 hatte Intel aber erstmal monatelang kein wirklich Konkurrenzprodukt, Rocket Lake hat sich dann als Rohrkrepierer präsentiert. Ja, Alder Lake war dann wieder ein führender Prozessor, aber eben auch erst fast ein Jahr nach Zen 3.
Da muss ich dir zustimmen Intel hat sich zulange an 14NM+++++ festgehalten mit ihren 4Kernen 8 Threads nur dank AMD haben wir jetzt 16kerne im Desktop bereich aber Intel macht eben immer nur genauso viel wie sie müssen um in Spielen die Krone zu holen und nicht mehr aber so ist das eben als Branchen Primus
 
heroesgaming schrieb:
Zen 4 mag auch den Takt anheben. Aber immerhin geht man dabei auch einen Fullnode-Schritt weiter.

Und trotzdem geht man von 105-->170W bzw. 142-->230W.

Wo soll AMD da besser sein als Intel?

Im normalen Betrieb werden beide ähnlich genügsam sein.

PS: Wie @Philste und wohl einigen Anderen nervt mich die mangelnde Objektivität (in schier unglaublicher Masse und Auswüchsen) unter echt jedem Artikel zu Intel/AMD-CPUs nur noch.
 
  • Gefällt mir
Reaktionen: .Sentinel. und owned139
Zurück
Oben