Test Intel Core i5-13500 im Test: Der i5 mit 14 Kernen im Clinch mit Ryzen 7000

Jetzt hab ich mit den RLs wie hier getestet keine eigene Erfahrungen, aber der Satz im Artikel ( "Der Speicher wurde in Anwendungen allerdings mit DDR5-4800 statt DDR5-5600 CL32-32-32-61 betrieben, weil die kleinen Core i5 auf Alder-Lake-Basis in der 13. Generation nur diesen Speichertakt offiziell unterstützen.") bringt dann doch eine Frage: Was passiert denn, wenn man den Speicher doch mit DDR5-5600 usw betreibt? Geht das nicht, System stürzt ab, bootet nicht, oder..? Und wenn's läuft, macht das einen Unterschied in der Leistung?
Denn gerade bei Intel gibt's und gab es ja schon ziemliche Unterschiede zwischen dem, was "offiziell unterstützt" war oder ist, und was problemlos lief oder läuft.
 
  • Gefällt mir
Reaktionen: MGFirewater
till69 schrieb:
Den Unterschied 13600K/5800X3D spürt man schon nur mit Win11/Office/Browser
Ach, tut man das? Ich arbeite aktuell an einem Core i3 8300K - 2 Kerne - im Firefox und merke an diesem Rechner keinen großen Unterschied zu dem Hauptarbeitsplatz - Ryzen 6800H - oder zu Hause mit einem 5800X3D. Alle Systeme haben eine SSDs, starten entsprechend schnell. Alle 3 System reagieren entsprechend Zeitnah und fühlen sich flott an.

Alle 3 Systeme kommen mit modernen Webseiten bei starkem JavaScript-Einsatz zu recht, verarbeiten Word-Dokumente mit bis zu 100 Seiten relativ ähnlich schnell und schaffen eine vollständige statistische und damit dynamische Excel-Datei mit Berechnungen zu über 2500 statistischen Kennwerten und ca. 10 einzelnen Blätter sammt Grafiken (davon 2000 über Formeln ermittel).

till69 schrieb:
Vielleicht einfach mal ausprobieren bevor man solche Thesen aufstellt.
Da ich 3 Systemen wirklich unterschiedlichster Leistungsklasse habe, an denen ich arbeiten muss, kann ich an dieser Stelle sehr wohl eine Einschätzung abgeben.

Es mag ja sein, dass DU dir einbildest, dass du einen Unterschied in der alltäglichen Benutzung zwischen 13600K und 5800X3D spürst, an der Stelle müsste man sich dann aber eher die Frage stellen, wie vernünftig du dein System konfigurierst und in welchen Szenarien du agierst, die sich entsprechend auswirken könnten.

Und bevor der Vorwurf kommt, ich müsse ja nur "x-Tabs" offen haben oder oder oder: Ich habe in der Regel 1 Remote-Verbindung zum Datenbankserver offen, eine Fachanwendung zur Kommunikation mit der Datenbank, Outlook, VisualStudio Code mit 5 - 6 Dateien (Grundstock) und den Browser mit 5 Tabs. (Für alles andere habe ich Lesezeichen). Auf allen 3 Systemen startet Office, Excel und Co in einer annehmbaren Geschwindigkeit und ändere ich etwas an einer Office, Excel oder PowerPoint, Photoshop usw. Datei, dann erfolgen die Änderungen in der Regel ohne Verzögerung, so dass der eigentlich limitierende Faktor nicht der 8300, der 5800X3D oder der 6800H ist, sondern der limitierende Faktor sitzt damit eindeutig vor dem PC. Ich kann nicht soviele eingaben machen, wie alle 3 Systeme aktuell verarbeiten können.

Zudem ging es hier NICHT um den 13600K gegen einen 5800X3D, sondern um den 13500 gegen einen 5800X3D. Dass ich natürlich auch Szenarien erschaffen kann - auch mit meinen Anwendungen - bei dem der 8300, der 6800H als auch der 5800X3D aussteigen und nicht mehr entsprechend reagieren und ein 13500 mit seinen 20 % mehr 1T und nT dann bedienbar bleibt, dass weiß ich selbst. Nur reden wir dann hier von Chrome/Firefox, die einige hunderte Tabs sofort öffnen und Worddateien und Co - auch im Browser - die dann jenseits der üblichen Datenmengen liegen, die die meisten hier wirklich je sehen dürfen.

Natürlich gibt es auch Nutzungsszenarien, in denen ich einen massive Unterschied zwischen den 3 Systemenen spüre und das jeweilige System dann eine Zähigkeit gewinnt - will ich ja nicht verchweigen - das trifft aber in der Regel erst genau dann ein - vorzugsweise im Browser oder Office - wenn ich Office-Dokument offen habe, die 100 Seiten übersteigen und entsprechend mit Grafiken und Co zu geballert werden. Ab diesem Szenario merke ich dann schon ob ich an der Gurke im öffentlichen Bereich sitze oder an dem Laptop im Büro oder zu Hause. Genauso hier im Forum - wenn man denn mal richtig lange Beiträge schreibt - und diese entsprechend aufwendig gestaltet, gerade mit Tabellen. Nur wann kommt das mal vor? Und wir reden hier dann von richtig aufwendigen Beiträge in denen auch zig Tabs nebenbei offen sind und ein Schreibprogramm mit entsprechender Datenverbindung zu einer aufwendigen Rechtschreibprüfung.
 
  • Gefällt mir
Reaktionen: Sunjy Kamikaze, Smartbomb, Seby007 und 8 andere
JohannesKraut schrieb:
wenn man den 13500 mit offener PL1 laufen lässt, kann man dann nicht direkt den 13600k vom stromverbrauch nehmen?
Der 13500 läuft mit 4,5Ghz, der 13600K mit 5,1Ghz. Aber diese 4,5Ghz kann er beim Spielen nichtmal halten und fällt z.T. unter 4Ghz.
Wenn du ihn offen läßt, läuft er immer mit 4,5G, der 13600K mit 5,1. Dazu kommen die älteren Alderlakekerne im 13500.
Auch offen ist der Unterschied schon nicht klein, würd ich sagen.
 
Zuletzt bearbeitet von einem Moderator:
eastcoast_pete schrieb:
Was passiert denn, wenn man den Speicher doch mit DDR5-5600 usw betreibt? Geht das nicht, System stürzt ab, bootet nicht, oder..? Und wenn's läuft, macht das einen Unterschied in der Leistung?
Es "sollte" problemlos auch mit schnelleren Speicher laufen und liegt dann beim Gaming näher an dem 13600K.
1675706042892.png

https://www.hardwareluxx.de/index.p...3500-und-core-i3-13100f-im-test.html?start=15

Es wäre toll wenn die Redaktion den 13500 ebenfalls noch durch einen RAM-OC Benchmark durchjagen würde, wie man es schon mit den größeren CPUs getan hatte.
 
  • Gefällt mir
Reaktionen: proGamer346 und eastcoast_pete
Rickmer schrieb:
2. bezweifel ich, dass du deine These 'spürt man schon nur mit Win11/Office/Browser' im Blindtest tatsächlich beweisen könntest
Wenn er einer der Power-Tab-User ist, die 250 - 1000 Tabs offen haben im Firefox, kann es sogar gut sein, dass er den Unterschied zwischen den Prozessoren merkt. Es kommt auh ein Stückweit auf das eigene Szenario an.

Ich hätte natürlich jetzt auch schreiben können, dass die meisten Menschen in klassischen Szenarien den Unterschied nicht merken würden, wäre akkurater gewesen, aber etwas verallgemeinerung darf auch mal sein. :)
 
Ein echter E-Core bringt in den Multi-Core-Tests mehr Leistung als ein SMT-„Kern“, so kann der vermeintlich kleinere Prozessor hier mitunter aufschließen

Ich denke ihr meint ein E-cluster. (4 E cores) sind besser als ein P core mit SMT
 
Nette CPU, gibt aber Besseres. Weder Fisch noch Fleisch mit dem jetzigen Preisschild und einfach eine Resteverwertung.
 
till69 schrieb:
Den Unterschied 13600K/5800X3D spürt man schon nur mit Win11/Office/Browser
Öffnet sich dein Browser nun 0,3 Sekunden schneller ?

Bootet dein System nun in 21 Sekunden hoch statt 22 Sekunden?

Finde sowas ja immer witzig wenn man solche Dinge behauptet und einfach mal in den Raum wirft. Kenn ich sonst nur vom Stammtisch wo Uschi vom neuen Rasenmäher erzählt.
 
  • Gefällt mir
Reaktionen: Sunjy Kamikaze, Smartbomb, Seby007 und 4 andere
Tiara G. schrieb:
Auch offen ist der Unterschied schon nicht klein, würd ich sagen.
ich meinte vom stromverbrauch her. 13500 pl1 offen liegt doch vom stromverbrauch nicht mehr so weit vom 13600k weg. dafür das der 13600k auch noch um einiges besser ist.
 
Caramelito schrieb:
Neu = 13600k/13700f für Gaming bzw. 7600/7700 (x) und später wenn notwendig ein X3D Upgrade draufpflanzen.
Mit einer RTX4000 braucht Niemand mehr als einen 13400F oder 5700X denn Dank Frame Generation
lautet das Ziel nicht mehr mein PC muss 120FPS schaffen sondern 60FPS reichen wieder völlig aus. :)

Dein PC zeigt das perfekte Missmatch. Deine CPU langweilt sich während du in 4K auf deinem 144Hz
bei 60FPS im GPU Limit hängst. Mit einer günstigeren CPU und einer RTX4000 hättest du 120FPS. ;)
 
Tunaraxx schrieb:
Öffnet sich dein Browser nun 0,3 Sekunden schneller ?

Bootet dein System nun in 21 Sekunden hoch statt 22 Sekunden?
Ich habe kein Problem damit, wenn in Deiner (theoretischen) Welt ein Betriebssystem immer gleich schnell ist, völlig unabhängig von der CPU.
 
phanter schrieb:
Gerade außerhalb von gaming wird der 13500 doch erst so richtig stark.

AMD/ Nvidia - GPUs / CPUs haben keine nativen decoder für H.265 mit 4:2:2 Farbabtastung. Was das native Videoformat nahezu aller Prosumer Videokameras unabhängig der Marke ist.

-Das heißt für Videoschnitt ist ein moderner Intel Pflicht!
-Cache bringt eh nichts für Photo/ Video Editing
-14 Threads dagegen schon

Klar sind die teureren Intels noch besser. Aber ein 13500 wird für die meisten mehr als ausreichen

Mit Chroma-Sampling? Weißt du überhaupt wovon du redest?
 
E-Cores nee, nur volle Power ist gewollt, diesen E gedöns kannste in´s Handy stopfen.

BTW macht Intel das nur weil sie es nicht anders können mit ihre 14 und 10nm.

mfg
 
  • Gefällt mir
Reaktionen: Smartbomb und Drakrochma
0ssi schrieb:
Mit einer RTX4000 braucht Niemand mehr als einen 13400F oder 5700X denn Dank Frame Generation
lautet das Ziel nicht mehr mein PC muss 120FPS schaffen sondern 60FPS reichen wieder völlig aus. :)

Dein PC zeigt das perfekte Missmatch. Deine CPU langweilt sich während du in 4K auf deinem 144Hz
bei 60FPS im GPU Limit hängst. Mit einer günstigeren CPU und einer RTX4000 hättest du 120FPS. ;)

Selten etwas dümmeres gelesen. Frame Generation aka DLSS3 oder FSR3 sind Frames, welche hinzugedichtet wurden und im Bypass nie dem Original entsprechen! Dazu noch Latenzen von über 40ms-crab!
 
  • Gefällt mir
Reaktionen: Smartbomb und Anon-525334
Ich bin zu alt für diesen Sch..s. Bei "14 kerne" denke ich glatt an Athlon Tripple-Core. Was es nur damals nicht für Aufregung gab, als man nicht mehr die Auswahl zwischen 2x und 4x Kernen hatte, was für Probleme heraufbeschworen wurden, und bei mancher Dreckssoftware auch wirklich an Problemen gab, man, man, man, ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: C4rp3di3m
gedi schrieb:
Mit Chroma-Sampling? Weißt du überhaupt wovon du redest?
Yes Farbunterabtastung. Guckst du decoding Fähigkeiten:

https://www.pugetsystems.com/labs/a...-is-supported-in-davinci-resolve-studio-2122/

Das findest du auch so in den jeweiligen Herstellerdocs zu deren Decodingeinheiten.

Blöd nur das H.265 4:2:2 quasi der default für hochqualitative Aufnahmen bei Sony, Fuji, Canon, Panasonic etc... ist

Bei Sony hast du wenigstens noch die Wahl zwischen H.265 10bit 4:2:2 und H.265 10bit 4:2:0. Kannst also ein bisschen Qualitätsverlust beim aufnehmen hinnehmen um das bearbeiten zu vereinfachen.

Bei Canon ist die alternative zu H.265 10bit 4:2:2 direkt H.264 8bit 4:2:0. Damit will keiner arbeiten.

Intel CPUs oder ne intel co-GPU sind also Pflicht
 
  • Gefällt mir
Reaktionen: ss5
Du kannst zwar erzählen was du willst, aber die IQ bleibt lediglich nur Schrott.
Ergänzung ()

BTW. Gibt es hier jemanden, welcher sich mit nativer Fotografie auskennt-ein Profi aus "erster" Stunde?!

Um zum absoluten Ende zu kommen: HDR 10 mit SRGB kann nur eine Radeon!
 
Zuletzt bearbeitet:
till69 schrieb:
Ich habe kein Problem damit, wenn in Deiner (theoretischen) Welt ein Betriebssystem immer gleich schnell ist, völlig unabhängig von der CPU.
Okay Uwe.

Wann und wo habe ich behauptet das ein Betriebssystem immer gleichschnell ist völlig unabhängig welcher Prozessor verbaut ist ? Du vergleichst hier einen 5800X3D mit einen 13600k, wirfst eine völlige nonsense Behauptung in den Raum das du bei Office und Windows 11 zwischen beiden CPUs einen Unterschied merkst, lieferst dazu aber keine entsprechende Beweise die deine nonsense Behauptung Untermauern und wunderst dich dann wenn du Gegenwind bekommst.

Ja Kollege, wir sind hier nicht beim Stammtisch wo Uschi erzählt das gestern ein Spionageluftballon in ihren Garten abgestürzt ist.
 
  • Gefällt mir
Reaktionen: Smartbomb, thuering, eXe777 und 3 andere
Sunlight911 schrieb:
Ich denke ihr meint ein E-cluster. (4 E cores) sind besser als ein P core mit SMT
Das ist schon korrekt geschrieben.

Ein E-Core bringt mehr als der zusätzliche SMT-Thread eines P Cores.
Also wenn man 2 Threads nutzen kann, ist 1P+1E besser als 1P+SMT.

Deine Aussage dürfte aber für MT Anwendungen ebenfalls korrekt sein.
 
Zurück
Oben