News Intel Raptor Lake Refresh: Core i9-14900K soll mit 6 GHz protzen, Core i3 und i5 ohne Änderung

MalWiederIch schrieb:
Der 7950X3D ist aber auch unter den 7000X3D die einzige vernünftige Wahl.
Der 7800X3D hat zu wenig Rohleistung für den Preis (=i5-13500)
Das setzt voraus, dass Käufer irgendwas mit dieser Rohleistung anfangen können.

Ich habe außer Spielen so gut wie nichts, was die CPU stemmen können muss.
Dafür wäre ein 7950X3D, der hier 2-3% schneller als der 7800X3D ist, total unvernünftig und auch ein 13500, der vom 7800X3D in dieser Disziplin mit >40% geschlagen wird, wäre keine gute Wahl.
 
  • Gefällt mir
Reaktionen: NerdmitHerz, Dai6oro, ThirdLife und 3 andere
Der 7800X3D ist eine emotionale Kaufentscheidung. Und wie wir an @MalWiederIch sehen, gibt es neben emotionalen Kaufentscheidungen auch emotionale Falschaussagen.
Der 7800X3D hat das Prädikat Gamer CPU mit einer unschlagbaren geringen Leistungsaufnahme.
Der 13700K ist eine klasse CPU sowohl in Games, als auch in Anwendungen, mit einer deutlich höheren Leistungsaufnahme.

Ist doch schön, wenn jeder für sich ein Produkt finden kann, welches einem Freude bereitet.
Bei @MalWiederIch habe ich aber das Gefühl, dass diese Person mit dieser hier gezeigten Performance ziemlich im unteren Bereich mit hoher Leistungsaufnahme zu kämpfen hat. :D
 
  • Gefällt mir
Reaktionen: Enyo79 und Anon-525334
MalWiederIch schrieb:
Schrieb er mit einer 6800 XT :p
Wenn dir an Effizienz in einem fürs Klima gesehen recht irrelevanten Bereich (Desktop) etwas liegt dank solltest du deine Entscheidung nochmals überdenken
Du verstehst meine Aussage nicht. Mache mir da aber auch keine Hoffnung
 
  • Gefällt mir
Reaktionen: Alesis
Der Turbotakt steigt, der Basistakt sinkt, wenn das so weiter geht hat die übernächste Generation 2 Ghz Basistakt und 8Ghz Turbo um den Verbrauch nicht explodieren zu lassen.
 
Alesis schrieb:
dann trotzdem eben dieser 7800X3D 3% vor dem 13900K liegt und 11% vor dem 13700K.
DAS liegt einzig und allein am Testverfahren von Computerbase, was auch ein hervorragendes Beispiel dafür ist, wie man Testergebnisse manipulieren kann.

Bei den normales Test gibt es zwei Tabellen:
die eine nennt man "Spiele in 720p (ganzer Parcours, weniger CPUs)", die andere heißt "Spiele in 720p (reduzierter Parcours, alle CPUs)"

Beim "ganzen Parcours" liegt der 7800X3D 3% vor dem 13900K (der 13700K ist nicht aufgeführt, liegt aber um die 2% dahinter) und 26% vor dem 5800X3D.
Beim "reduzierten Parcours" beträgt der Abstand des 7800X3D zum 13900K 7%, zum 13700K 11%, zum 5800X3D beträgt der Abstand 23%.

In der "Prozessorrangliste" ist aber lediglich die zweite Tabelle aufgeführt, also die mit dem reduzierten Parcours ;-)

https://www.computerbase.de/2023-04...spiele_in_720p_reduzierter_parcours_alle_cpus
https://www.computerbase.de/artikel/prozessoren/rangliste.89909/
 
  • Gefällt mir
Reaktionen: MalWiederIch
aLanaMiau schrieb:
Mein 13900k läuft leider selbst mit mit Werkstakt relativ instabil und crashst öfter mal.... vielleicht wird dann ein 14900k gekauft.
Muss nicht zwingend an der CPU liegen. Ich hatte sowas auch und es lag am Speicher, der das XMP-Profil doch nicht so gut abkonnte, wie der Hersteller gedacht hat. Speichertests liefen witzigerweise immer fehlerfrei durch, aber im Alltag dann immer mal Crashes, besonders beim Gaming. Auf Stock gestellt und nun ist ruhe. Wenn ich mal ganz viel Zeit habe, taste ich mich vielleicht mal von Hand ran, aber zur Zeit ist der Performanceverlust beim Gaming nicht so dramatisch, dass ich sofort handeln müsste.
 
  • Gefällt mir
Reaktionen: MalWiederIch
Pizza! schrieb:
Jetzt übertreib nicht so, das ist ja schon fast Fanboymäßig trollen.
Die großen Intel CPUs haben mind. 7 Watt, eher 10 und mehr wegen schnellem RAM.
Die 4090 liegt allein bei mind. 20 Watt, viele Modelle eher Richtung 30 Watt
Nix von 100 Watt Unterschied.

Stimmt eben nicht. Mein 13900KS hat Stand heute und jetzt 3W idle gehabt in HWInfo64, alles Stock, nix UV oder sonstiges. XMP 3.0 geladen mit 6000MT/s bei CL30. Ne größere Intel CPU ist mir nicht bekannt ;-)

Meine Asus TUF 4090 hat Stand heute 9W idle gehabt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch und Ben_computer_Ba
Tuetensuppe schrieb:
DAS liegt einzig und allein am Testverfahren von Computerbase, was auch ein hervorragendes Beispiel dafür ist, wie man Testergebnisse manipulieren kann.
Manipulieren ist hier einfach das falsche Wort. Natürlich beeinflusst die Auswahl der Tests das Ergebnis, weil nicht jede Anwendung/Spiel gleich skaliert. Das ist soweit normal, weshalb man sich immer mehrere Tests durchlesen sollte. "Manipuliert" würde bedeuten, dass CB bewusst die Ergebnisse der Tests hinbiegt - das ist nicht der Fall.

Man kann CB an der Stelle natürlich vorwerfen, dass die Testauswahl nicht repräsentativ ist, keine Frage. Dann muss man aber auch definieren wer repräsentiert werden soll ;)

DefconDev schrieb:
Generell stimme ich mit dir überein aber mir fallen noch ganz andere Generationen ein die noch langweiliger waren, nämlich die 3. 4. 5. 6. und 7. . xD
Hm, also ich fand die 5. Gen sehr interessant wegen des L4 Cache. Aber sonst hast du Recht, die anderen Gens bis zur 8 waren irgendwie über.
 
@rafiibs
Wenn du schon Werte schreibst die weit unter jedem User oder Testwerte liegen, sollte auch der Beweis dazu.
Das wäre ja nicht mal die Hälfte von den eh schon niedrigen CB Werten mit 7 und 20 Watt.

Mein System idlet recht gut und die gesamte CPU geht da kaum unter 11-12 Watt dank RAM OC, trotz sämtlicher Stromsparfunktionen.
Die 4090 ist auch komplett im idle und taktet runter und macht trotzdem über 25 Watt. 4k 120 Hz

Ich bin gespannt auf Tests der 14000er, vor allem ob es eine Erhöhung beim RAM von 5600 auf 6400 gibt.
 
  • Gefällt mir
Reaktionen: 0ssi
Ich wechsle frühestens zum nächsten neuen Intel Sockel und entsprechenden CPÙ´s, dann hoffentlich mit neuer Fertigungstechnik und im best case gut optimierter Architektur.
Oder Zen 4++ was auch immer.
Tzk schrieb:
Hm, also ich fand die 5. Gen sehr interessant wegen des L4 Cache. Aber sonst hast du Recht, die anderen Gens bis zur 8 waren irgendwie über.
War damals das, was heute der X3D von amd ist nur vom Aufbau halt etwas anders.
Weniger takt mehr Cache. Effizienz und schnell, aber eben genau wie der X3D auch ca 80€-100€ teurer damals gegenüber dem 4xxx Modellen. Von daher hat man für das bezahlt was man bekommen hat.
Warte da eher auf eine APU mit X3D. Die dürfte dann zwar teuer werden, aber der Cache sollte einiges an Bandbreite gutmachen. Hat eben auch bei Broadwell schon prima geklappt in Games und gezeigt wo die Reise hingehen könnte.
Wobei, wenn wir uns dann mal preislich leistbar bei DDR5 7000+ einpendeln bei 100GB/sec+, kommen wir schon in die Berreiche einer GTX 1650 mit 128GB/sec und die hat über 5 Tflops. Da ist eventuell ein extra Cache gar nicht mehr nötig bzw. wäre nur unnötig teuer.
 
Zuletzt bearbeitet:
Es ist klar, dass nicht ein gigantischer Entwicklungsschritt auf den nächsten folgen kann. Und natürlich waren sowohl bei AMD als auch Intel in den letzten Jahren, bei AMD insb. ab dem Ryzen 3xxx und Intel ab dem 11xxx tolle Leistungssprünge zu erkennen. Aber was Intel mit dieser Tiptop-Schritt CPU erreichen will, kann ich nicht nachvollziehen. Damit macht man sich der erzielten Erfolge doch eher wieder kaputt, weil wir wieder im einstelligen Leistungszuwachsbereich angekommen sind und damit das Image von Intel Schaden nimmt. Einzige Ausnahme, man hat die Produktion deutlich optimieren und günstiger machen können, was günstigere Preise bzw. ggf. (deutlich) höhere Effizienz ermöglicht. Beides kann ich mir aber nicht vorstellen.
Klar wahrscheinlich kann man so die kleine Lücke zu den AMD 3D CPU schließen, aber ob das Kosten und Aufwand wert ist? Ich vermute eher nicht.
 
Smartin schrieb:
... Aber was Intel mit dieser Tiptop-Schritt CPU erreichen will, kann ich nicht nachvollziehen ...
Ich denke mal, es geht nur darum überhaupt etwas auf den Markt zu "schmeißen", weil es eben immer jedes Jahr etwas neues gibt, evtl. um auch noch Restverkäufe machen zu können.
 
  • Gefällt mir
Reaktionen: LamaMitHut und Smartin
Smartin schrieb:
Aber was Intel mit dieser Tiptop-Schritt CPU erreichen will, kann ich nicht nachvollziehen.

Die Computerhersteller haben sich an eine Generation pro Jahr gewoehnt, da muss Intel liefern. Und wenn sie keinen konkurrenzfaehigen Meteor Lake liefern koennen, dann eben einen Raptor Lake Refresh; so wie z.B. auch Kaby Lake, weil sie 2016 Cannon Lake nicht liefern konnten.

ob das Kosten und Aufwand wert ist?

Das muss sich Intel ueberlegen, und offenbar ist ihre Antwort "ja". Ich vermute auch, dass der Aufwand nicht so gross ist. Hier und da ein paar Stellschrauben gedreht, vielleicht ein neues Maskenset (wobei das alte vielleicht ohnehin schon abgenutzt war), ein bisschen Marketing, und schon ist der Refresh fertig. Es wuerde mich uebrigens nicht wundern, wenn die Taktfortschritte durch Effizienzfortschritte (durch bessere Fertigung) zustandekommen.
 
  • Gefällt mir
Reaktionen: Smartin
DJMadMax schrieb:
Wenn der 14600K entgegen aller Erwartungen ein Effizienzwunder wird, dann wäre für einige dennoch ein Wechsel von einem i5 oder gar i7 der 12. oder 13. Generation durchaus denkbar.

Ich weiß, ich glaube zu sehr an das Gute im Menschen/Weltkonzern :D

Effizienz in welchem Einsatzgebiet?

Habe hier einen 13600kf / z690 mit OC/UV und "nur" einen Peerless Assasin 40eur Kühler und in Games immer unter 65°/100w..eher noch weniger^^

Klar wenn man Cinebench zockt wäre mehr Effizienz nice :D
 
mae schrieb:
... Es wuerde mich uebrigens nicht wundern, wenn die Taktfortschritte durch Effizienzfortschritte (durch bessere Fertigung) zustandekommen.
Das kann gut sein, ich denke allerdings auch, dass diese "Fortschritte" auch von vornherin so eingeplant sind, um eben auch noch eine zweite oder dritte Variante davon auf den Markt bringen zu können + Optimierungen.
 
Smartin schrieb:
Aber was Intel mit dieser Tiptop-Schritt CPU erreichen will, kann ich nicht nachvollziehen.
Ganz einfache Geschichte, die Kunden wollen "neue" Produkte sehen. Leistungsbalken oder wirkliche Vergleiche sind in den meisten Fällen absolut zweitrangig, man muss schlichtweg mal außerhalb der CB Blase denken.

Was hat sich denn so wesentliches in den letzten Jahren bei den Smartphones geändert oder bei den Smart-TVs? Was ändert sich denn so relevantes bei Autos? Was gibt es neues bei Audio? Hin und wieder gibt es tatsächlich Änderungen die einen echten Unterschied ausmachen und trotzdem gibt es jedes Jahr aktualisierte Produkte.

Wenn du alleine nach Fortschritten gehen würdest, bräuchte man allenfalls alle fünf Jahre neue Produkte, aber wir kaufen nun mal meist Dinge die wir nicht brauchen und da ist "neu" ein valides Verkaufsargument, der dahinter stehende technischer Fortschritt ein anderes.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaMitHut, Volker und Smartin
Caramelito schrieb:
Habe hier einen 13600kf / z690 mit OC/UV und "nur" einen Peerless Assasin 40eur Kühler und in Games immer unter 65°/100w..eher noch weniger^^
Und ich wette der bringt halt nicht die Extremwerte mit denen man sich dann gegen AMD vergleicht. Und das passt halt nicht. Man kann nicht als Begründung für "bessere Gaming CPU" mit einem 13900KS Kotzgrenze OC + 8000er Memory kommen und dann aber wenns um Effizienz geht plötzlich sagen "ich betreib den mit 80W max und UV".

Entweder oder. Die Topwerte sind halt nicht drin mit maximaler Effizienz - AMD liefert halt momentan so ziemlich beides.

Caramelito schrieb:
Klar wenn man Cinebench zockt wäre mehr Effizienz nice :D
Sobald Intel darin vorne liegt wird das aber auf einmal immer ein super wichtiges Game. ;)
 
  • Gefällt mir
Reaktionen: NerdmitHerz, LamaMitHut, Enyo79 und 2 andere
aluis schrieb:
Ich würde Wetten abschließen, dass die 6Ghz im Cinebench nicht länger als 2 Sekunden angezeigt werden :schluck:
Wäre das überhaupt möglich? Das ist doch nur der maximal mögliche Takt, im Cinebench wird bei Last auf allen Kernen doch deutlich niedriger getaktet?
 
  • Gefällt mir
Reaktionen: aluis
Zurück
Oben