Test Intel Raptor Lake im Test: Core i9-13900K, i7-13700K & i5-13600K jagen Ryzen 7000

Sittich01 schrieb:
So Fakt ist doch das mittlerweile jeglicher Zugewinn an Leistung zum größten Teil nur noch über Watt geht ob CPU oder GK.
Richtige Leistungssteigerung in meinen Augen ist Performance zu haben ohne das ich nenn Kraftwerk brauche.
In der Heutigen Zeit ist das was gerade auf den Markt kommt,in meinen Augen nur noch schlecht Performt.
Richtige Leistung und Performance passen hier nirgends mehr.

Jap, kann man nur beschränkt unter technischen Fortschritt verbuchen.

Technischer Fortschritt bedeutet, mehr Leistung bei gleicher Leistungsaufnahme und gleichem Preis.

Ich setze also x ressourcen ein und bekomme am End mehr raus als vorher. Fortschritt.

Das funktioniert aktuell eben nicht mehr. Kosten und/oder Leistungsaufnahme steigen, um im gleichem Maße die Performance zu steigern.

Da aber die Leistungszuwächse bei Rechenleistung bisher exponentiell verliefen kann das auf dauer nicht funktionieren. Man kann nicht exponentiell die Kosten oder die Leistungsaufnahme steigern. Das muss gleich bleiben, sonst gibts keinen technischen Fortschritt. Zumindest nicht auf Dauer.
 
MojoMC schrieb:
LTT ist aufgefallen, dass der 5800X3D vergleichsweise schlecht abschneidet, wenn mit einer 4090 getestet wird. Bei einer 3090 Ti mischt er wieder weiter vorne mit.
Hab das Video noch nicht gesehen. Ist das aber nicht die Definition von GPU Limit?
 
  • Gefällt mir
Reaktionen: DJMadMax
mrcoconut schrieb:
Mit dem Kauf des 5800X3D im April habe ich aus meiner Sicht alles richtig gemacht ✌️.

VG 🙂
Brauchtest du Bestätigung für deinen Kauf?
Oder hätte ein anderes Ergebnis etwas an der Leistung des X3D geändert?

Ich bin derweil gespannt wie der X3D in kommenden Jahren mit neuen grafik-engines performen wird mit seinem 1-1.4Ghz fehlenden Takt
 
  • Gefällt mir
Reaktionen: hanjef, tritratrullala, gesperrter_User und 2 andere
Wäre ich Gamer, ich würde zum 5800X3D greifen. Von der Leistung, zusammen mit Leistungsaufnahme und Preis ist er das rundere Paket.
Allerdings, "Hochleistungsgamer", die sind oft wie Hobbyläufer, die nur mit den neuesten Hightech Schuhen richtig laufen können. Bilden es sich wenigstens ein.
 
  • Gefällt mir
Reaktionen: MrChlorophil, Dama und Sittich01
Sittich01 schrieb:
So Fakt ist doch das mittlerweile jeglicher Zugewinn an Leistung zum größten Teil nur noch über Watt geht ob CPU oder GK.
Fakt ist, AMD oder Intel will den längsten Balken haben. Daher wird bei den CPUs und GPUs voll draufgehalten.
Trotzdem bringt ja die neue Generation doch mehr Leistung. Sieh mal hier der Chart von Roman beim 13900k nach optimierten Settings. Er nennt das "13900K UV/OC" :freak:

1666290176614.png


Da braucht der 13900K UV/OC für 9% weniger FPS nur die Hälte an Leistung gegenüber dem frei laufenden 13900K. Damit bügelt dieser mal locker den 5800X 3D und auch den 7950X. Das kommt ja irgendwo her! ;)
 
  • Gefällt mir
Reaktionen: GT200b, gesperrter_User, Bulletchief und eine weitere Person
W0dan schrieb:
Technischer Fortschritt bedeutet, mehr Leistung bei gleicher Leistungsaufnahme und gleichem Preis.

Ich setze also x ressourcen ein und bekomme am End mehr raus als vorher. Fortschritt.
Dass die Hersteller den Fortschritt bei der Effizienz mit unnötig hohen Powerlimits wieder aushebeln, muss man als Kunde ja nicht mit machen und bekommt dann für den gleichen Verbrauch trotzdem entsprechend Mehrleistung und damit eine bessere Effizienz.

Die 4090 war das beste jüngste Beispiel dafür.
Auf 350W limitiert ~70% Mehrleistung zur 3090Ti bei $100 höherer MSRP ist schon deutlicher Fortschritt.
 
Ich lehn mich mal aus dem Fenster raus und schreibe der 7800X3D wird dann die Gamingkrone aufhaben.
 
Da hat AMD schon Not nach 3D Cache, da hat Intel heftig vorgelegt.
Der Preiskampf ist eröffnet :)
 
scuba2k3 schrieb:
Brauchtest du Bestätigung für deinen Kauf?
Oder hätte ein anderes Ergebnis etwas an der Leistung des X3D geändert?

Ich bin derweil gespannt wie der X3D in kommenden Jahren mit neuen grafik-engines performen wird mit seinem 1-1.4Ghz fehlenden Takt
Hoffentlich takten künftige X3D nicht so niederig im vergleich wie 5800X vs. 5800X3D
 
Philste schrieb:
Ich war ja schon beim Hardware Unboxed Video nicht begeistert aufgrund des journalistisch fragwürdigen Thumbnails

Da war nicht nur das Thumbnail fragwürdig.
Die haben die Hälfte der Games in Medium - High getestet und dann auch noch in 1080p und 1440p.

Ich meine die haben Cyberpunkt auf Medium in 1440p getestet. Wem soll das irgendwas bringen?

Ich weiß schon warum ich für CPU Tests hier her komme.
Gefühlt haben die Youtuber da draußen von tuten und blasen keine Ahnung......
 
  • Gefällt mir
Reaktionen: Pisaro, whynot? und Hutzeliger
@motorazrv3

So sieht’s aus, die neuen Intel lassen sich extrem effizient betreiben. Da sieht AMD kein Land mehr. Wird hier ja auch im Test kritisiert das Intel ab Werk alle Schleusen öffnet.
Wäre vll gar nicht nötig.

Allgemein schon peinlich wie sich hier die AMD Fanboys wieder aufführen, Kommentare haben die gleich „Qualität“ wie unterm 4090 Review.

Nervt hier langsam.

Einfach mal was gutes anerkennen.
Das können die Roten überhaupt nicht, das bleibt ihnen immer im Hals stecken.

Danke CB für eure tolle Leistung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GT200b, bart0rn und gesperrter_User
motorazrv3 schrieb:
Fakt ist, AMD oder Intel will den längsten Balken haben. Daher wird bei den CPUs und GPUs voll draufgehalten.
Trotzdem bringt ja die neue Generation doch mehr Leistung. Sieh mal hier der Chart von Roman beim 13900k nach optimierten Settings. Er nennt das "13900K UV/OC" :freak:
Der hat aber in dem Chart keine Mehrleistung gegenüber dem 12900K , sondern einfach nur 37W weniger Verbrauch für die gleiche Leistung^^
Und bei 4% Differenz zum 5800X3D würde ich auch nicht von "bügeln" sprechen
 
W0dan schrieb:
Technischer Fortschritt bedeutet, mehr Leistung bei gleicher Leistungsaufnahme und gleichem Preis.

Ich setze also x ressourcen ein und bekomme am End mehr raus als vorher. Fortschritt.

Das funktioniert aktuell eben nicht mehr. Kosten und/oder Leistungsaufnahme steigen, um im gleichem Maße die Performance zu steigern.
Das ist das, was ich vorhin meinte - die Testergebnisse führen teilweise zwangsläufig zu falschen Schlüssen. Vergleich mal 12900K und 13700K mit gleicher Kern/Threadanzahl.

Vernünftig aufgezeigt hätte man easy sehen können, dass Raptor Lake deutlich effizienter ist im Vergleich zu Alder Lake. Eine Tabelle irgendwo zwischen pappen ist schlicht der falsche Ansatz gewesen.

Das die Hersteller aktuell ein "alles was geht" fahren, was früher nur die OC'ler privat gemacht haben, ist natürlich wenig hilfreich. Im Grunde genommen dreht es sich komplett. Wo man früher mit "Hand anlegen" und absurd hohe zusätzliche Leistungsaufnahme paar FPS mehr rausgpresst und ansonsten nen halbwegs effizienten Chip bekommen hatte, muss man heute manuell einbremsen.

Hier haben Konsumenten und ("Fach"-) Presse hart versagt, weil man den Switch zu lange nahezu kommentarlos honoriert hat.
 
Zuletzt bearbeitet:
chaopanda schrieb:
Ich muss da leider wiedersprechen.[...]
Ich verstehe, dass dir da etwas fehlt und dass mehr möglich gewesen wäre in den Tests. Wie du bestimmt auch schon mal gesehen hast liefert CB aber auch gerne nach in solchen Tests (v.a. wenn der Wunsch danach zahlreich erscheint). Ich denke in der bisher zu Verfügung stehenden Zeit ist das einer der rundesten Tests im Web, die ich mir bisher angesehen habe.

Nach einem sehr flachen LTT Video hänge ich gerade an der8auer, der seinen Fokus vor allem auf Effizienz gerichtet hat mit einem kleinen Ausblick auf manuelle Optimierung. Den 13900K kann man scheinbar noch mal deutlich effizienter einstellen, als das bisher bei CB gemacht wurde. Auf der anderen Seite müsste der8auer fairerweise dann auch den 7950X für einen besseren Vergleich optimieren, wofür es ja auch wieder viele Möglichkeiten gibt (Curve Optimizer etc.).

Ich hoffe es werden noch einige follow ups kommen, die dann tiefer in die Materie gehen. :)
 
Taxxor schrieb:
auch nicht von "bügeln" sprechen
Das nutzen von "bügeln" war vielleicht überspitzt, trotzdem bei weniger Watt mehr FPS.
 
OZZHI schrieb:
Ist das aber nicht die Definition von GPU Limit?
Ja, bei den anderen CPUs schon.
Aber wenn es beim 5800X3D nach dem Wechsel von 3090 Ti auf 4090 keine Verbesserung gibt, müsste der ja vorher als einziger im CPU-Limit gehangen haben - und so luschig dürfte er ja nicht sein.
 
  • Gefällt mir
Reaktionen: OZZHI
War die letzten Jahre klar im AMD Lager und hab noch einen 3700x.
Wollte eigentlich mit ZEN4 auf die neue Plattform, aber ganz ehrlich?
SO nicht! Bin sehr überrascht von den Intel CPUs! Die schlagen AMD klar und sind dabei im Grunde günstiger.
Hat AMD das nicht kommen sehen? War wohl kein kluger Schachzug den 3D Cache hinten anzustellen.
Jetzt rennen erst mal die Käufer zu Intel rüber, bis AMD eventuell dann in den nächsten Monaten die 3D Cache Teile veröffentlicht. Ich werde definitiv noch bis Neujahr warten, ob die Teile dann wirklich kommen. Bis dahin können noch die RX Grafikkarten kommen und dann werd ich im Frühjahr zuschlagen, wenn alles da ist u nd sich eingependelt hat.
 
Postman schrieb:
Ich könnte kotzen.
Ich habe mich leider hier von manchen AMD Fanboys anstecken lassen.

Mangels ATX 3.0 Netzteil liegt mein AMD 7900X mit einer RTX 4090 noch herum, aber ich lese mittlerweile nur Negatives von AMD in diversen Berichten.

Wäre AMD nicht früher rausgekommen bzw. hätte ich von dem Ärger vorher gewusst, hätte ich gewartet und eher bei INTEL zugeschlagen.

Scheiß auf den Stromverbrauch, welcher sich auch bei AMD verschlechtert hat.
  • 4 RAM-Riegel - bei INTEL kein Problem (man empfiehlt ausdrücklich bei AMD nur 2 Stück wie zu INTEL Anfangszeiten)
  • Eine neue NVIDIA RTX Karte - bei INTEL kein Problem (bei AMD kein Bild beim Start, Beta Biose werden verteilt)
  • Eine neue Windows Version - bei INTEL kein Problem (bei AMD Performance Verluste mit 22H2 wie damals auch schon mit 21H2)
Intel einbauen und los gehts und nicht auf irgendwelche halbgaren AGESA Bios Versionen und Chipsatztreiber warten. Wird das AMD-Mainboard mit neuen Biosversionen nicht mehr supportet, schaut man dumm aus der Wäsche.
Ja, wie war.
Und stell dir Mal vor Du musst Serveranschaffungen für Millionen Euro alle 5 Jahre verantworten und hast Amt zur Auswahl.
 
highwind01 schrieb:
Für LGA1700 kommen in den nächsten Monaten mehrere neue Chipsätze, unzähle neue Mainboards und über ein dutzend neue CPUs :rolleyes:

Vielleicht sollte man sich erstmal über die Bedeutung solcher Begrifflichkeiten wie "EOL" informieren, bevor man darauf basierende Behauptungen in die Welt hinaus posaunt...
https://de.wikipedia.org/wiki/End_of_life

Was soll da noch kommen? Z690/Z790 ist doch schon das Ende.

Was bringen neue Boards mit gleichem Sockel und vor allem Chipsatz?

13th Gen ist Endstation für LGA 1700 oder hast du da andere Infos?

Meteor Lake braucht sowohl einen neuen Sockel, als auch neue Chipsätze.
 
  • Gefällt mir
Reaktionen: khadgar, leon2000, Celinna und 5 andere
Zurück
Oben