News Intel Core i9-13900K (ES): Raptor Lake mit 5,5 GHz und DDR5-6600 im Geekbench 5

Cronos83 schrieb:
Warum reduzieren das so viele Leute immer nur auf Stromkosten?

Da gibt es noch mehr Aspekte, die mir persönlich sogar wichtiger sind:

- Abwärme die den Raum aufheizt
- Lautstärke der Kühlung, die mit mehr Abwärme tendenziell zu nimmt

Gilt ebenso für GPUs.

Das wir so oft völlig ignoriert und hat für mich persönlich viel mehr Gewicht als die Stromkosten.
Aber Stromkosten lassen sich halt einfacher als unwichtig abstempeln... Lautstärke und Raumaufheizung kann man schlechter als unwichtig abstempeln.... vielleicht wird es bei der Argumentation deswegen gerne unter den Tisch fallen gelassen.
Das ist natürlich bei jedem unterschiedlich. Ich kenne einige den die Lautstärke des PC überhaupt nicht stört, ich persönlich empfinde das aber auch als eher störend und habe den PC deshalb rund 5 Meter neben meinen Schreibtisch stehen und somit ist die Lautstärke auch eher unwichtig. Mein Haus ist vollständig mit Frischluft Klimaanlagen ausgestattet, die halten das Haus so kühl wie ich es will, da ist mir die Wärme des PCs relativ, notfalls arbeitet die Klimaanlage ein ticken mehr. Das ist aber natürlich absoluter Luxus den ich genießen darf und nicht ganz auf die Allgemeinheit übertragbar. Die High end CPUs die solch ein Abwärme produzieren richten sich jedoch sowieso tendenziell an die eher "wohlhabenden" Personen, die sich dann auch eine Klimaanlage leisten können bzw. Wahrscheinlich schon eine haben werden, ist ja nicht mehr so selten bei gaming räumen.
 
Ben_computer_Ba schrieb:
@gustlegga
Intel Alderlake muss man mit den AMD CPUs von 2020 vergleichen, da diese noch keine neuere Generation rausgebracht haben. Dabei ist Intel nun einmal leistungsstärker und bietet den neueren Standard. Darf ich nicht sagen das Intel zukunftssicherer ist aufgrund PCI 5 und DDR 5 Support?
Einzig der derzeitige DDR5 Support ist ein technisches Feature, welches Intel AMD voraus hat. Obwohl der im Vergleich zum DDR4 keine Bäume ausreisst, dabei aber wesentlich teurer ist.
Und Alderlake muss man AUCH mit Ryzen 5xxx vergleichen, ist die Plattform AM4 doch schon über 4 Jahre alt und wird immer noch so bedient, dass Alderlake keinen wirklichen Vorsprung hat.
Daher ist der 5800x3d wohl ein neuer Standard für Gamer, dem Intel nichts entgegen setzen kann.
Da ist Intel nun nicht leistungsstärker, sondern einfach nur ineffizient, also genau das Gegenteil von dem, was die Welt zurzeit braucht: Effizienz wo es nur geht, Nahrung, Technik, Verbraucher.
Und somit hat AMD mehr dazu beigetragen, ein so alte Plattform immer noch vergleichbar zu supporten.
Neue Standards werden nämlich genau dort gesetzt, wo sie gebraucht werden.
 
Zuletzt bearbeitet:
SonyFriend schrieb:
Einzig der derzeitige DDR5 Support ist ein technisches Feature, welches Intel AMD voraus hat. Obwohl der im Vergleich zum DDR4 keine Bäume ausreisst, dabei aber wesentlich teurer ist.
Und Alderlake muss man AUCH mit Ryzen 5xxx vergleichen, ist die Plattform AM4 doch schon über 4 Jahre alt und wird immer noch so bedient, dass Alderlake keinen wirklichen Vorsprung hat.
Daher ist der 5800x3d wohl ein neuer Standard für Gamer, dem Intel nichts entgegen setzen kann.
Da ist Intel nun nicht leistungsstärker, sondern einfach nur ineffizient, also genau das Gegenteil von dem, was die Welt zurzeit braucht: Effizienz wo es nur geht, Nahrung, Technik, Verbraucher.
Und somit hat AMD mehr dazu beigetragen, ein so alte Plattform immer noch vergleichbar zu supporten.
Neue Standards werden nämlich genau dort gesetzt, wo sie gebraucht werden.
Der i9 12900k ist den ryzen 7 5800x3D in spielen immernoch minimal überlegen und kann im Gegensatz zum AMD Prozessor auch mit multi task Aufgaben gut umgehen bzw. Diese bewältigen, das kann der AMD zwar auch nur eben viel schlechter. Ja preislich liegt der i9 über dem ryzen 7 5800x3D, aber selbst der i7 12700k ist insgesamt deutlich besser als der ryzen. Schön das die Plattform 4 Jahre alt ist, und jetzt? Sie ist eben schlechter als die von Intel und da tut es nichts zur Sache wie alt die Plattform ist und daran kannst auch du nichts rütteln. Schau dir Fakten an, dann siehst du das AMD momentan hinterher hingt, genauso wie Intel es tat vor der zwölften Generation. Wer momentan AMD kauft, tut das weil er Stammkunde/Fanboy ist und nicht weil sie das bessere Preis-Leistungsverhältnis bieten, aber auch das ist natürlich vollkommen ok.
 
SonyFriend schrieb:
Und somit hat AMD mehr dazu beigetragen, ...
Naja, 8 Kerne sind der Flaschenhals von Morgen und den Leuten dafür 500€ abzuknöpfen ist frech.
Ein 12600KF ist fast genauso schnell, hat 10 Kerne, verbraucht weniger Strom und kostet nur 300€.
Ein 12700KF für 400€ mit 12 Kernen ist besser und vor allem zukunftssicherer also rote Brille runter.

Klar kann man sich als AMD Fanboy auch am 12900K und dessen Stromverbrauch in 720p aufgeilen
aber wenn der Stromverbrauch wirklich wichtig ist dann müsste man einen 12900KS kaufen (12900K
mit besserer Güte) ihn mit 5,0 statt 5,2Ghz betreiben und schauen wie weit er zu undervolten geht ;)
 
  • Gefällt mir
Reaktionen: Ben_computer_Ba
Bin schon auf den nächsten Schlagabtausch gespannt. Werde aber wahrscheinlich erst bei Zen 5 aufrüsten, da mir mein 5800x mit Sicherheit noch eine Weile ausreichen wird. Die Gaming Performance wird sich wahrscheinlich in Zukunft nur noch durch den Cache steigern lassen.
 
  • Gefällt mir
Reaktionen: LatinoRamon und Onkel Föhn
Vitali.Metzger schrieb:
... da mir mein 5800x mit Sicherheit noch eine Weile ausreichen wird.
9700K, 9900K, 10700K, 11700K, 11900K, 10850K, 10900K, 5700X & 5800X Besitzer brauchen eigentlich
nie wieder aufrüsten denn selbst mit RTX4000/RX7000 wird man ab 1440p noch im GPU Limit hängen
und die sinnvollste Aufrüstung wäre dann erst einmal 2160p weil das die beste Basis für DLSS/FSR ist.
 
  • Gefällt mir
Reaktionen: Anon-525334
Den Verbrauch stört die Intel Fanboys numnmal gar nicht, warum auch?
Teuer und ineffezient ist Intel, und wird es wohl auch so bleiben, das ist meine Meinung.
Ich respektiere eure gegenteilige Meinung, steht jedem frei.
Nur ein AMD Fanboy bin ich nicht, finde das ganze Konzept dort aber besser, sehe euch in der Intel Ecke in die Enge getrieben.
MMn ist es gut, das nur eine Minderheit auf 12900k/13900k steht und ihn einsetzt, denn so eine Ineffizient wird zum Glück nicht die Masse erreichen.
 
  • Gefällt mir
Reaktionen: Anon-525334
SonyFriend schrieb:
Den Verbrauch stört die Intel Fanboys numnmal gar nicht, warum auch?
Weil er beim Zocken im GPU Limit keine Rolle spielt. Da braucht selbst ein übertakteter 10900K
(also 10 große Kerne in 14nm) keine 50 Watt während die Grafikkarte fast 400 Watt zieht. :daumen:

1755.jpg
 
mcsteph schrieb:
Bei fast dreifachen Verbrauch. (...)
Das ist aber als erstes Argument auch eher schlecht. Viel wichtiger, für mich und die Meisten denk ich, ist der Preisunterschied.
 
SonyFriend schrieb:
Diese Einstellung kotzt mich an. Strom ist nicht nur einfach da, sondern der Hunger danach ist kontraproduktiv.

Sag mal bitte den Zeitindex wo du einen Unterschied beim CPU Stromverbrauch siehst !? :confused_alt:
 
  • Gefällt mir
Reaktionen: Ben_computer_Ba
Sorry, ich schaue keine solchen yt Videos, der cb test reicht mir völlig - ebenso hwluxx.
 
SonyFriend schrieb:
der cb test reicht mir völlig - ebenso hwluxx.
+
SonyFriend schrieb:
Diese Einstellung kotzt mich an.
:lol:

Es gibt nichts Besseres als MSI AB mit RTSS Overlay weil man dort CPU Auslastung und Stromverbrauch sieht.
Zudem ist das wenigstens 1080p statt 720p. Ich glaube der Mainstream verblödet durch diese 720p Tests. :evillol:
 
Benni1990 schrieb:
Intel wird sicher hier und da noch etwas Verfeinert haben beim Fertigungsschritt und es gibt doch schon Leaks und beweiss Videos bzw Bilder wo Single 6ghz und Allcore 5,8ghz möglich sind

Seit 6 Generationen gibt es Leaks von Samples bei Intel die angeblich easy 6 Ghz Takt fahren.

Und was ist das Ergebnis? Seit 6 Generationen gibt es diese CPU immer noch nicht.
 
6Ghz würde ich auch abhaken. 13900K mit 5,5Ghz All Core wäre schon ausreichend.
12900K hat 4,9Ghz und 12900KS hat 5,2Ghz. Luft für 13900KS muss ja auch bleiben.
 
mcsteph schrieb:
Bei fast dreifachen Verbrauch. Sieht man ganz deutlich im Test bei Computerbase.


https://www.computerbase.de/2022-04...3/#abschnitt_die_leistungsaufnahme_in_spielen
Ernsthaft? Im Test wird in 720p gespielt, das macht wirklich absolut keiner mehr, vorallem keiner mit einem i9 12900k. Test der komplett an der Realität vorbei geht, aber damit Versuchen amd Fanboys die CPUs irgendwie gut zu reden. Jetzt sag mir Mal bitte wo du den fast dreifachen Verbrauch siehst? Ich sehe indem Test noch nicht einmal ein doppelt so hohen Verbrauch?
SonyFriend schrieb:
Sorry, ich schaue keine solchen yt Videos, der cb test reicht mir völlig - ebenso hwluxx.
Sag doch gleich dir gehen die Argumente aus...
 
  • Gefällt mir
Reaktionen: Nagilum99
Wie schon gesagt, ich hab mit euch keine Probleme und meine Meinung. Argumente für AMD und gegen Intel lese ich genug, da muss ich gar nicht argumentieren.
Übrigens habe ich 2 System zuhause, je eines von hüben und drüben.
 
0ssi schrieb:
9700K, 9900K, 10700K, 11700K, 11900K, 10850K, 10900K, 5700X & 5800X Besitzer brauchen eigentlich
nie wieder aufrüsten denn selbst mit RTX4000/RX7000 wird man ab 1440p noch im GPU Limit hängen
und die sinnvollste Aufrüstung wäre dann erst einmal 2160p weil das die beste Basis für DLSS/FSR ist.
Danke, dass ich als 12400 und 3600 Besitzer zur Unterschicht gehöre ^^
Wobei in 1440P haste ja nicht unrecht und eig isses eh nur der Basteldrang.
0ssi schrieb:
Es gibt nichts Besseres als MSI AB mit RTSS Overlay weil man dort CPU Auslastung und Stromverbrauch sieht.
Zudem ist das wenigstens 1080p statt 720p. Ich glaube der Mainstream verblödet durch diese 720p Tests. :evillol:
Lesen und bitte beherzigen..
Danke <3
https://www.pcgameshardware.de/CPU-CPU-154106/News/Prozessor-Benchmarks-Aufloesung-1295967/
Ach und die Wichtigkeit eines CPU Tests im CPU Limit bitte anerkennen, sonst teste ich in Zukunft auch nur noch alle Spiele mit 60Fps FHD.. ^^
 
Zurück
Oben