Zwischen 13700K und 14700K war genau das der Fall:Diablo87 schrieb:Es geht um Leistung bei 125w gegenüber der alten Gen auf 253w
https://www.computerbase.de/2023-10...i5-14600k-test/2/#abschnitt_multicoreleistung
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Zwischen 13700K und 14700K war genau das der Fall:Diablo87 schrieb:Es geht um Leistung bei 125w gegenüber der alten Gen auf 253w
Bei welchem Scenario wo der Amd besser ist haste das denn gemessenAyo34 schrieb:Wenn die AMD CPU z.B. 70 Watt gebraucht hat, dann lag der 14900 bei 140 Watt
slowmichael schrieb:Ein Kumpel fährt btw Forza mit dem 5800xd3 und ich mit dem 13600k... rat mal wer von uns davon den kleineren Kühler drauf hat bzw welche CPU besser gekühlt werden muß im Rennspiel.
Wenigstens einer, der sich auskennt hier. Danke @eloy !eloy schrieb:Oxidation der Intel-Prozessoren.
Das hängt am Gesamtverbrauch an der Steckdose. Also neben der CPU an der Effizienz von GPU, Mainboard und vor allem: NetzteilAyo34 schrieb:wärmer im Raum wird es trotzdem mit dem 13600k
Das ist eine immerhin 35% bessere Effizienz und kein Pappenstil.slowmichael schrieb:Bei welchem Scenario wo der Amd besser ist haste das denn gemessen
@E1M1:Hangar hat doch eine Seite zurück gezeigt das es z.b. eher 66 zu 89 Watt sind im Flugsimulator und das dabei 56 zu 58 Lowfps bei rauskommen und da glaubst du noch das der neue Intel da doch bestimmt die schlechteren Lowfps hat im Simulator oder in Forza...
Interessanterweise gibts noch keine Spiele-Benchmark-Leaks. Die geringeren Frequenzen könnten hier tatsächlich zu nocn enttäuschenderen Ergebnissen führen. Aber mal seriöse Tests abwarten. Ich bin gespannt. Tendiere aktuell auch eher zu Arrow Lake.RogueSix schrieb:Bei den CPUs wissen wir ja dank inzwischen Tonnen an Leaks, wo die Reise hingeht.
Der Performancezuwachs ist im Grunde enttäuschend dafür, dass wir hier so einen großen Sprung machen.
till69 schrieb:Das hängt am Gesamtverbrauch an der Steckdose. Also neben der CPU an der Effizienz von GPU, Mainboard und vor allem: Netzteil
pas06 schrieb:@RogueSix kann man so ja nicht sagen, Intels 10nm war auf dem Niveau von TSMCs oder Samsungs 7nm. Daher ja auch die Umbenennung zu Intel 7. Von daher ist es unfair zu sagen es sei ein so großer Sprung (10 auf 3)
Nein, wenn ein X3D die GPU besser auslastet, kann die 20W mehr brauchen.Ayo34 schrieb:das hängt einfach nur am Verbrauch der CPU
pas06 schrieb:@RogueSix kann man so ja nicht sagen, Intels 10nm war auf dem Niveau von TSMCs oder Samsungs 7nm. Daher ja auch die Umbenennung zu Intel 7. Von daher ist es unfair zu sagen es sei ein so großer Sprung (10 auf 3)
till69 schrieb:Nein, wenn ein X3D die GPU besser auslastet, kann die 20W mehr brauchen.
Also vergleicht man an der Steckdose, und nicht irgendwelche Software-Werte.
Das war nicht ichAyo34 schrieb:Du hast das geschrieben
till69 schrieb:Nein, wenn ein X3D die GPU besser auslastet, kann die 20W mehr brauchen.
Also vergleicht man an der Steckdose, und nicht irgendwelche Software-Werte.
Gibts schon, nennt sich Threadripper.dualcore_nooby schrieb:Ich hoffe darauf, dass ein toller 285K AMD dazu zwingt, einen 24 Kern Ryzen 9970X rauszubringen.