Test Intel Core i5-13500 im Test: Der i5 mit 14 Kernen im Clinch mit Ryzen 7000

gedi schrieb:
Du kannst zwar erzählen was du willst, aber die IQ bleibt lediglich nur Schrott.
Ergänzung ()

BTW. Gibt es hier jemanden, welcher sich mit nativer Fotografie auskennt-ein Profi aus "erster" Stunde?!

Um zum absoluten Ende zu kommen: HDR 10 mit SRGB kann nur eine Radeon!

?
Es gibt keine MILC die mehr als H.265 4:2:2 10bt schießt. Das ist sogar der maximale Codec in Sonys professionellen Videokameras der FX serie, oder Panasonics EVA Reihe.

Das ist absolut keine schlechte Qualität. Damit wird quasi alles gefilmt was an Content so produziert wird. Bis hin zu ganzen Netflixserien/ Filmen.

Klar ist das für den Consumer egal. Delivered wird eh nur in 4:2:0. Aber H.265 4:2:2 unterstützung ist Fundamental für jeden der Videos bearbeitet.
 
  • Gefällt mir
Reaktionen: eastcoast_pete
Danke für den Test. Wie immer, tolle Arbeit an Cbase...
Mein 1300 wird bei Gelegenheit nach Lust und Laune ersetzt.
Lg
 
0ssi schrieb:
Mit einer RTX4000 braucht Niemand mehr als einen 13400F oder 5700X denn Dank Frame Generation
lautet das Ziel nicht mehr mein PC muss 120FPS schaffen sondern 60FPS reichen wieder völlig aus. :)

Dein PC zeigt das perfekte Missmatch. Deine CPU langweilt sich während du in 4K auf deinem 144Hz
bei 60FPS im GPU Limit hängst. Mit einer günstigeren CPU und einer RTX4000 hättest du 120FPS. ;)

Danke für diese wirklich sinnbefreite Info - Denn FG ist für mich nichts als laggy.
In NFS Unbound für mich zB unspielbar - Da lieber FSR/DLSS auf Balanced und gut ist.
Mag in Witcher 3 und Flight Sim. gut funktionieren. Und in den restlichen 10-15 Games. Sind aber weit nicht alle Spiele. Oder spielst du nun nur noch FG-Titel?

Zu meiner CPU - Danke, dass du dir anmaßt über andere System zu urteilen, ohne zuerst zu hinterfragen.
Da war eine 4090 drinnen - Die ist weg bzw. steht hier noch neben dem Rechner.
Der 13700k ist zB auch schon weg - Instant Signatur changen damit du happy bist? :-)
Die RX aus der Sig. ist auch nimmer aktuell.

Bin einfach an nem Punkt angelangt was Systeme angeht, dass es quasi egal ist, was man verbaut, solange das gespielte Spiel Spaß bereitet.

Der 13700k z.B., der war nicht unnötig, ich habe ihn günstiger gekauft, als du für einen 13600f bezahlen würdest. Daher nimmt man den mit. Brauchen tut man den nicht. Würde ich neu bauen = 13600k(f).

Die RX 6950 reicht in 4k mit FSR locker aus - Btw. in NFS Unbound war man mim 13700k + 6000er DDR5 auch im CPU Limit (siehe Igors Lab Test) - Einfach bescheiden programmiert und ca. 110-120fps ist dort der Sweetspot.

Aktuell werkelt ein GANZ günstiger i7 12700 mit ner 6900 XTXH im Rechner. Die XTXH ist sogar stark UV -> in Spielen springt man zw. 190 und 220w rum.
Überlegung ist auch diesen Rechner zu verkaufen und dann mal sehen, was kommt.

Also, bitte, einfach über den Tellerrand gucken und nicht seine eigenen 2-3 Games mit FG hochpreisen und im Forum verlautbaren, man bräuchte >nur< einen 5700x der dann in Spielen wie WoW usw. sogar limitiert.
Den bei mir hat der 5800x schon nervig limitiert, wohingegen ein 12700(k) 60+FPS liefert.
 
  • Gefällt mir
Reaktionen: Sun-Berg und Stuffz
Komme mit dem i7-10700 Gaming System und 3060TI auf 17,8W IDLE Verbrauch Gesamtsystem @stock Settings, warum ist der IDLE Vebrauch in der Übersicht so hoch? 5600X 50W? Das schafft auch ein 5950X.
 
gedi schrieb:
Frame Generation aka DLSS3 oder FSR3 sind Frames, welche hinzugedichtet wurden und im Bypass nie dem Original entsprechen!
Aber was nützen dir 60 original Frames wenn die Bewegung am Ende nicht flüssig ist !?

gedi schrieb:
Dazu noch Latenzen von über 40ms-crab!
Mit 60FPS hat man immer ca. 40ms Input Lag. Das ist eine technische Gegebenheit !
Nur weil Frame Generation 60FPS dazurechnet kann der Input Lag doch nicht sinken.
Mit FG kann man endlich RT bis zum Anschlag aufdrehen. GPU und CPU Limit adé. :p

Caramelito schrieb:
Die XTXH ist sogar stark UV -> in Spielen springt man zw. 190 und 220w rum.
Ok und die schafft in 4K mit FSR dann 60FPS ? Wozu dann einen teuren 144Hz Monitor gekauft !?
Eine 4070Ti mit DLSS und FG ergibt mehr Sinn. Ich denke alle zukünftigen Spiele werden es nutzen.
Das ist definitiv die Zukunft weil natives Rendern viel zu viel Energie verbraucht. Ich bin begeistert !
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: The_Wizzard
DevPandi schrieb:
Ich arbeite aktuell an einem Core i3 8300K - 2 Kerne
Glaube ich dir sofort, dass das noch recht snappy ist, aber ist auch ein echter Vierkerner!
 
@Volker et al., vielen Dank für den super Artikel! Mir ist eine klitzekleine Kleinigkeit aufgefallen:

Der Core i5-13500 setzt immer auf „Raptor Lake“ mit einem Die im C0-Stepping (der 6+8-Kern-Alder-Lake-Die), während der echte neue Raptor-Lake-Die mit 8+16 Kernen das C0-Stepping trägt.

"Der hier ist C0 stepping, der andere ist ein C0 stepping" vielleicht was krumm dran? Also wenn die Steppings gleich sind, ist die Angabe derer eher verwirrend, ist ja klar das es Alder-Lake ggü. Raptor-Lake ist. :)
 
  • Gefällt mir
Reaktionen: TomH22
Alle CPU mal auf 65 W begrenzen und mal sehen wer am effizientesten ist. Diese verrückten Watt Angaben von Intel....

Wenn man bedenkt wieviel Energie durch Computer verbraten wird, wäre das ein guter Anfang.

Danke für den Test.
 
  • Gefällt mir
Reaktionen: JohannesKraut und oicfar
Caramelito schrieb:
13700f ist wieso genau eine Mogelpackung?

Der 5800x3d ist genial - Aber lohnt sich nur wenn man bereits eine AM4 Plattform hat.

Neu = 13600k/13700f für Gaming bzw. 7600/7700 (x) und später wenn notwendig ein X3D Upgrade draufpflanzen.
sorry my bad. mir fällt jetzt erst auf, das der 13700f und 13900f die einzigen beiden sind, die tatsachlich vollen cache und architektur zu haben scheinen. war sehr drauf eingeschossen, das intel scheinbar alle f beschnitten hat.
am4 zwingt mich nicht auf ddr5 zu wechseln. am5 schon. sind 150€ extra für den gleichen ram nochmal nur als ddr 5. plan wäre dann so oder so: am4 board kaufen, x3d kaufen, ram rüber gpu rüber, 5-6 jahre damit fahren, dann alles komplett neu. dann gibts eh nur noch ddr5
 
  • Gefällt mir
Reaktionen: cosmo45 und Caramelito
Tunaraxx schrieb:
Office und Windows 11 zwischen beiden CPUs einen Unterschied merkst, lieferst dazu aber keine entsprechende Beweise die deine nonsense Behauptung Untermauern
Ich merke den Unterschied in Excel deutlich, das reicht mir. Aber hier Deine "Beweise":
https://www.techpowerup.com/review/intel-core-i5-13600k/11.html

Tunaraxx schrieb:
Okay Uwe.
...wir sind hier nicht beim Stammtisch wo Uschi erzählt
Sorry Kevin, wenn ich Deinen Unsinn lese, habe ich daran Zweifel.
 
0ssi schrieb:
Ok und die schafft in 4K mit FSR dann 60FPS ? Wozu dann einen teuren 144Hz Monitor gekauft !?
Eine 4070Ti mit DLSS und FG ergibt mehr Sinn. Ich denke alle zukünftigen Spiele werden es nutzen.
Das ist definitiv die Zukunft weil natives Rendern viel zu viel Energie verbraucht. Ich bin begeistert !
100+ je nach Game - Wo ist das Problem?

In Unbound FSR Balanced, maxed out details = 100+. Perfekt mit dem Monitor.
God of War ebenso zB

Die 4070 ti wird früher oder später eben reinkacken, keine Sorge.
Dafür gibt man keine 900eur aus. Wäre ne Top Karte um MAX. 700eur.

Die XTXH schön um 650 mitgenommen (etwas her sogar..), den Monitor um satte 550eur.
Du musst mir glauben, wenn ich sage, dass ich günstiger dran bin als du :)

PS: Denkst du echt, 144hz bringen nur etwas wenn man 144fps packt? Nach so vielen Jahren hast du immer noch kA oder wie?

mit 80 FPS bei nem 144hz Monitor fühlt sich ein Game schon DEUTLICH flüssiger an als die von dir genannten 60fps bei nem 60hz Monitor ;)

Komm mal von deinem rumlaggenden FG-Pferd runter. Ist ja nicht auszuhalten. Gibt genug Reviews etc. die auch meine Ansicht bestätigen. Du tust hier so als könnte man ohne FG nicht mehr spielen.
AMD Bringt dann auch FSR3 - Wird wahrscheinlich nochmal schlimmer.
 
Der i5-13500 sieht schon ganz nett aus, jetzt braucht es eigentlich nur noch so heftige Preisabschlaege/Angebote wie bei Microcenter in den USA, die die Intel Raptor Lake K-Prozessoren massiv im Preis gesenkt haben:

Untitled.jpg


Gibt es bald auch aehnlich gute Intel CPU-Preise/-Schnaeppchen in Europa/Deutschland? Wenn ich nicht schon einen i7 12700 haette, koennte ich wahrlich bei dem i7 13700K Angebot schwach werden.
 
@Chismon also der 13900k steht bei 570sFr./620€, den 13700K für 390sFr./440€.

Sind die Preise im Microcenter Shop nicht ohne MWST.?
 
Zuletzt bearbeitet:
phanter schrieb:
AMD/ Nvidia - GPUs / CPUs haben keine nativen decoder für H.265 mit 4:2:2 Farbabtastung. Was das native Videoformat nahezu aller Prosumer Videokameras unabhängig der Marke ist.
Bei AMD gibt es leider keine so gute Übersichtsseite aber bei Nvidia liest sich das so, dass ab dem 3050er soger H.265 Decoding mit
4:4:4 Abtastung unterstützt wird. Mit der IGPU professionell, d.h., genauso umfangreich Videobearbeitung auslagern wie mit diskreten Karten wird aber ohnehin so sportlich, dass das nicht wirklich eine Alternative ist. Und im Amateurbereich ist das nett, aber wirklich nicht notwendig.
derin schrieb:
"Games mit einem Bedarf an hoher Single Thread Leistung"
Meinst du etwa...Hochleistungskerne?
Ergänzung ()

till69 schrieb:
Den Unterschied 13600K/5800X3D spürt man schon nur mit Win11/Office/Browser
Den merkst du nicht mal zwischen 1600x und 9 5700 oder 4790k bei dem Anwendungsfall...alle 3 tatsächlich
dafür benutzt.
Ergänzung ()

DevPandi schrieb:
aber etwas verallgemeinerung darf auch mal sein.
Tja, so provoziert man natürlich auch berechtigte Einwände :P
Ergänzung ()

Chismon schrieb:
Gibt es bald auch aehnlich gute Intel CPU-Preise/-Schnaeppchen in Europa/Deutschland?
Preisvergleich Geizhals Deutschland.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: thuering und Rockstar85
daivdon schrieb:
Bei AMD gibt es leider keine so gute Übersichtsseite aber bei Nvidia liest sich das so, dass ab dem 3050er soger H.265 Decoding mit
4:4:4 Abtastung unterstützt wird. Mit der IGPU professionell, d.h., genauso umfangreich Videobearbeitung auslagern wie mit diskreten Karten wird aber ohnehin so sportlich, dass das nicht wirklich eine Alternative ist. Und im Amateurbereich ist das nett, aber wirklich nicht notwendig.
Wärst du mal dem Link gefolgt aus meinem ersten Post:
https://www.pugetsystems.com/labs/a...-is-supported-in-davinci-resolve-studio-2122/

Oder hättest die Nvidia Seite im Detail gelesen. Ja 4:4:4 wird unterstützt genauso wie 4:2:0, aber eben kein 4:2:2 das ist ja gerade das ärgerliche. NVDEC fasst 4:2:2 gar nicht erst an. Und Kameras die H.265 4:4:4 Filmen gibt es nicht.


Auch verstehst du mich falsch. Die iGPU ersetzt auf keinen Fall die GPU fürs Effektrendering. Du brauchst weiterhin eine Nvidia/AMD GPU in deinem System. Nur sind Video-Editoren halt schlau und lasten sowohl die decoding Einheiten in iGPU und GPU aus wenn vorhanden. Und bei 4:2:2 fallen sie halt auf die iGPU zurück.

Das ist auch kein neues Phänomen und seit Jahren in der Videowelt bekannt. War auch einer der großen sellingpoints der M1 macbooks gegenüber den 10th Gen Intel macbooks die noch keine 4:2:2 decoder hatten.

Und viel Spaß H.265 10bit 4:2:2 über reine CPU power zu decodieren. Da erstickt dir deine CPU dran.


Bei zumindest davinci resolve gibt es theoretisch die Möglichkeit dass du auf eine AMD/Xeon CPU ohne decoder setzt + Nvidia GPU + Arc GPU die dann nur zum decoding benutzt wird. Das hat aber aktuell noch Treiberprobleme, wird nicht in Premiere unterstützt und ist preislich überhaupt nicht sinnvoll in dem Segment
 
Tunaraxx schrieb:
Wann und wo habe ich behauptet das ein Betriebssystem immer gleichschnell ist völlig unabhängig welcher Prozessor verbaut ist ?
Gleich schnell sind sie nicht - habe ich zum Beispiel auch nicht geschrieben. ;) Man merkt nur eben im Alltag in den meisten Szenarien keinen relevanten Unterschied.
daivdon schrieb:
Tja, so provoziert man natürlich auch berechtigte Einwände
Na ja, im Endeffekt habe ich mit einer spezifizierten Verallgemeinerung auf eine Verallgemeinerung reagiert. ;) Es wird ja hier im Forum von einigen Spezialisten immer so getan, als könnte man mit Prozessoren der "Vorgänger" und "Vorvorgänger"-Generation überhaupt nicht mehr arbeiten, weil sie "weniger" 1T- und nT-Leistung haben und dass man ja nur Produktiv auf den neusten Prozessoren der Spitzenklasse arbeiten kann oder dass hier die 20 % in 1T- und nT-Leistung den 5800X3D fürs "arbeiten" disqualifizieren.

Das ist einfach lächerlich und entspricht in den vielen Alltags-Anwendungsfällen nicht der Realität und man kann nicht nur spielen mit dem Prozessor, sondern auch arbeiten. Er hat eine Spezialisierung, aber so zu tun, dass er für alles andere als Spiele ungeeignet ist, ist ja schon eine Verallgemeinerung, die so nicht sein muss.
 
  • Gefällt mir
Reaktionen: Smartbomb und cosmo45
Ein Test mit DDR4 wäre auch schön gewesen, bei dieser Preisklasse wird man vielleicht eher zum günstigeren Paket greifen.
 
  • Gefällt mir
Reaktionen: flappes und Caramelito
Die Idee der e Kerne und p Kerne finde ich immer noch nicht einleuchtend. Entweder ich will Leistung für Berechnungen oder Spiele oder ich will einen Preisleistungs-CPU für Büroanwendungen. Deswegen war die letzte CPU, die ich vor 5 Monaten verbaut habe, ein Intel i3-12100 für 130 Euro inkl. MwST. ohne e Kerne.
 
Mr.Seymour Buds schrieb:
Die Idee der e Kerne und p Kerne finde ich immer noch nicht einleuchtend. Entweder ich will Leistung für Berechnungen oder Spiele oder ich will einen Preisleistungs-CPU für Büroanwendungen.
da läuft dann noch windows im hintergrund mit. was nützt es dir wenn der drucker- und die anderen 100 nicht so wichtige dienste im hintergrund beim spielen auf hochtouren mitlaufen? wenn das auf den schwachen kernen liegt, kann man die sachen die schnell laufen sollen, auf die schnellen kerne legen. weil sie dafür freigelassen werden.
Ergänzung ()

die e kerne sind als wenn oma und opa beim zimmerausräumen mithelfen. :-) können zwar nur die leichten sachen tragen. trotzdem geht es schneller, wenn sie mithelfen, ausser sie stehen nur im weg rum.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb
Zurück
Oben