News i9-14900K vs. 7950X3D: Offizielles Lineup, inoffizielle Spiele-Benchmarks

scryed schrieb:
Aja ein aussreisser mit 200 Watt plus dabei in deinem bild/Clip.... Applaus bei dem aussreisser magst auch die zugehörigen fps zeigen? Und auslastung des Spieles bei der CPU... Uswl Alles andere hält sich in Grenzen

Aber da wild spekuliert wird was wäre wenn bei demm 200watt plus das System nicht ins CPU Limit läuft und damit die gpu noch mehr Strom zieht weil die mehr rendern kann
Hier die Quelle:

Ach ja und der Stromverbrauch soll also inordnung gehen oder wie?
Jedi Survivor: +70w
the last of Us: +196w
Resident Evil: +49w
A Plague Tale: +72w
Cyberpunk: +103w
Hitman III: +118w
Tomb Raider: +138w

Das sind im Schnitt: +107w für im Durchschnitt weniger Gaming Leistung. Das kann man schlecht schön reden, wenn man eine neue CPU zum spielen sucht.
 
  • Gefällt mir
Reaktionen: ComputerBase101, berkeley, GERmaximus und 17 andere
Bei den erwarteten Specs dürfte der L2 Cache beim 14600K nicht stimmen, der hat mit 20MB weniger als der 14600 ohne K 24MB.
Ansonsten kann man wohl gerade am unteren Ende mit dem größeren L2 Cache doch einen Performancesprung erwarten.
 
  • Gefällt mir
Reaktionen: M11E
Ich glaube aktuell macht man mit keinem Hersteller etwas falsch. Kommt nur auf den eigenen Geldbeutel an oder was man wirklich brauch. Ich denke 95-99% der Spieler sind eh voll im GPU Limit
 
  • Gefällt mir
Reaktionen: feris, Lacki1982, KempA und 11 andere
Crifty schrieb:
für 2-3% mehr Power ist bis 200w mehr Strom zu verbraten, einfach Schwachsinn at it´s best.
Ich habe mir viele Vergleiche zum Verbrauch angesehen. 200 W sind Ausreißer, aber im Durchschnitt kann man gut 100 W Mehrverbrauch beim Spielen sehen.

Was mich zur Zeit stört ist, dass AMD's letzte Generation leider unter Idle und Teillast schlechter abschneidet. Das mögen nur 20 W sein, aber wenn man bedenkt, dass das oft 100 % mehr sind als bei Intel, fällt es trotzdem auf.

Ich frage mich, ob das an den Treibern oder der CPU Struktur liegt?

Zusätzlich läuft mein System zur Zeit 99 % auf Idle oder Teillast. Deshalb, und weil ich eigentlich aufrüsten möchte, habe ich mich damit beschäftigt. Die GPU-Preise halten mich jedoch noch immer zurück.

@Topic was man von Intel's Performancevergleichen halten kann, sollte heutzutage jedem klar sein. Die haben jahrzehntelang geschummelt (um nicht "gelogen" zu sagen).
Ergänzung ()

Stanzlinger schrieb:
ne, gratis Strom vom Dach
Nur, wenn man die Investition ignoriert...
 
  • Gefällt mir
Reaktionen: Rock Lee und Viper816
Gibt es eigentlich CPU Benchmarks in realistischen Auflösungen, zB von FHD bis 4K wie hoch ist hier zb der Unterschied (bei einer 4070/80/90) zwischen diversen CPUs von Mid bis High End?
 
  • Gefällt mir
Reaktionen: ComputerBase101, Wowka_24, mastermc51 und 2 andere
Fred_VIE schrieb:
Zusätzlich läuft mein System zur Zeit 99 % auf Idle oder Teillast.

Ich kenne deinen speziellen Fall oder Grund nicht, es ist also nichts persönliches und ich will wirklich keinen Streit anfangen.
Allgemein hab ich im privaten Umfeld aber wenig Verständis dafür die Kiste unnötig laufen zu lassen.
Einfach aus machen wenn man es nicht braucht, dann ist es auch egal ob AMD im idle mehr verbraucht. Wenn irgend ein Dienst laufen muss -> raspi oder eine andere sparsame plattform, kein x86 high end Monster.
Mein Auto lass ich auch nicht im Standgas vor der Tür laufen damit ich jederzeit losfahren kann. Einfach weil's geht. (Ist ja auch aus gutem Grund verboten). Würde aus finanziellen Gründen wohl keiner machen. Strom scheint aber in de einfach noch viel viel zu billig wenn wir immernoch so damit umgehen.
 
  • Gefällt mir
Reaktionen: chaser767, mastermc51, 7oNine und 7 andere
@MichaG

Die L2-Cache-Angabe bei Alder Lake CPUs (i5) kann nicht identisch zu den Rapter Lake CPUs sein. Die Tabelle muss entsprechend korrigiert werden.

Warum der i5 14600K angeblich weniger L2-Cache hat, als der 14600 musst du auch mal erklären.
 
  • Gefällt mir
Reaktionen: MichaG
fab.erg schrieb:
Hoffen auf Neuigkeiten von AMD, denn da ist es ein wenig ruhig ...
Gefühlt ist das Innvoationstempo dort auch viel geringer geworden - gerade in der kurzen Zeit, in der Intel die 11. bis 14. Gen rausgehauen hat.
ZEN 5 wird wohl noch eine Weile auf sich warten lassen und den ersten Gerüchten nach sind die Fortschritte genau so wenig beeindruckend wie von Zen 3 auf 4.
 
darth_mickrig schrieb:
Ansonsten kann man wohl gerade am unteren Ende mit dem größeren L2 Cache doch einen Performancesprung erwarten.
Wenn es Alder Lake CPUs sind, so wie in der Tabelle angegeben, können die L2-Caches am unteren Ende nicht größer sein...
 
@Convert Ach Mist. Zu meiner Verteidigung: Die Tabelle wurde aus älteren Meldungen hier kopiert. Ich kann es auf die Schnelle gar nicht nachvollziehen. Aber ich schaue asap. (blöd ist auch, dass das alles noch inoffiziell ist^^)
 
Was meint ihr wie viel Watt wird der 14900K in Cyberpunk benötigen?

1696959582541.png
 
Stanzlinger schrieb:
schon lange durch Gewinn abbezahlt
Du spielst immer bei Sonnenschein, schön für Dich.
Oder willst Du uns jetzt noch erzählen, dass selbst der Batterie-Speicher bereits amortisiert sei?
 
  • Gefällt mir
Reaktionen: feris
Ohne TDP-Korsett ~ 20 Watt mehr als sein direkter Vorgänger.

Der 14900K wird in Sachen Leistung und Verbrauch exakt da landen, wo vorher der 13900KS lag.

Da wird es wenig Überraschungen geben.
 
  • Gefällt mir
Reaktionen: Wowka_24, mastermc51, baizer und eine weitere Person
Es war noch nie so langweilig, bin trotzdem gespannt wie Intel das verkaufen will. :p
 
  • Gefällt mir
Reaktionen: mastermc51, 4lter5ack, dualcore_nooby und eine weitere Person
Komplett uninteressante CPUs, speziell der 14900k... wird wieder die altbekannte Intel Brechstange sein, 3% schneller als der AMD, bei 100W+ Verbrauch. Danke, aber nein Danke. Die AMDs mit x3d bleiben für Spiele aktuell und mit der kommenden Intel refresh Gen immer noch die erste Wahl.
 
  • Gefällt mir
Reaktionen: ComputerBase101
flappes schrieb:
Und ich weiß ja nicht in welchen gigantischen Hallen ihr so spielt, aber ich merke es schon ganz deutlich, wenn mein System 50 Watt mehr Abwärme rausballert.
50-60qm Wohnzimmer ca. ?

Ich merke hier nichtmal 500W mehr Abwärme. Allerdings sind die Wände/Boden im Sommer auch mit Kaltwasser gekühlt.
 
  • Gefällt mir
Reaktionen: Ben_computer_Ba
Zurück
Oben