Maxminator
Lt. Commander
- Registriert
- Juni 2015
- Beiträge
- 1.922
wird mein System von einem Upgrade auf 13600k bei Z690 Mainboard profitieren?
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Generell ist das ja der Fall. Das "Problem" ist in erster Linie immer das maximale Power Target/Limit, das den Produkten mit auf den Weg gegeben wird. Nur, weil die CPU 250 Watt oder die GPU 450 Watt ziehen darf, heißt es ja noch lange nicht, dass sie das auch permanent tut. ComputerBase hat doch sowohl für alle (auch hier) CPUs in der Vergangenheit sowie auch für Grafikkarten (siehe Test der RTX 4090) eindrucksvoll gezeigt, wie effizient und vor Allem wie leistungsstark das jeweilige Produkt bei festem (herabgesenktem) Powerlimit gegenüber zu seinem jeweiligen Vorgänger agiert.MehlstaubtheCat schrieb:Ich würde es sehr begrüßen wenn das Watt/Performance das wichtigste ist/wäre was ein Unternehmen anstreben sollte!
"mMn" - also "m"einer, bzw. deiner Meinung nach - das ist aber ne komische Meinung, die du da hast. Wir sind hier zwar nicht beim Amateurfußball - es gibt also kein Ligasystem für PC-Hardware - aber dennoch gibt es glücklicherweise massenhaft Tests und Berichte, besonders hier auf ComputerBase. Man mag es kaum glauben Dem 5600X wird generell attestiert, dass es sich um eine sehr gute CPU handelt, vor Allem zum Preis von unter 200 Euro. Wobei der 5600 non-X hier die deutlich sinnvollere Wahl darstellen würde. Wenn man jedoch große Workloads auf der CPU hat oder mit möglichst hohen Framezahlen spielen will, dann ist der 5600X ganz schnell weg vom Fenster.Moselbär schrieb:Und das Geilste ist der 5600x.
Mit 65 Watt TDP spielt der in der Oberliga mit mMn.
Komischer Fakt, den sich manche da immer wieder selbst herandichten... wo doch alles schwarz auf weiß, selbst in DIESEM TEST HIER, UNTER DEM WIR KOMMENTIEREN, niedergeschrieben steht... ich verstehe es einfach nicht.Sittich01 schrieb:So Fakt ist doch das mittlerweile jeglicher Zugewinn an Leistung zum größten Teil nur noch über Watt geht ob CPU oder GK.
This! Das sollten sich Mitleser/Mitschreiber wie @Sittich01 bitte in Rollenformat ausdrucken, die Letter so groß wie ein Kühlschrank und dann einmal rund um's Haus bekleben, damit es auch der letzte versteht. Gut auf den Punkt gebracht @Wlkir100 - danke dafür Das mit demi "Das nannte man früher OC" merke ich mir, das ist eine wirklich zutreffende und einfach zu verstehende Erklärung.Wlkir100 schrieb:Sowohl Intel als auch AMD haben bei Watt/Performance sehr zugelegt. Man kann das "Cap" immer manuell setzten.
Sämtliche Analysen haben die Effizienz FPS pro Watt , oder "App-Leistung" pro Watt bestätigt.
Es ist einfach, dass jetzt sowohl Intel als nun auch AMD (Zugzwang technisch) dem User einen "unlimited" mode freigibt. Das nannte man früher "OC" , das gibt es jetzt zu jedem Upperclass Prozessor kostenlos oben drauf ohne Garantie-Verlust.
Ich bin gerade etwas schockiert, das Video muss ich mir anschauen. Eigentlich habe ich Steve als sehr gewissenhaften und transparenten Redakteur und auch nicht zwingend als AMD-Fanboy in Erinnerung. Die von dir gezeigten Screenshots und die erwähnte Headline sind jedoch äußerst fragwürdig.Philste schrieb:13900K braucht 20% mehr, braucht 10% länger. Da kommt GN dann auf den doppelten Verbrauch in Wh, schlechter als ein 12900K. Der Titel des Kapitels heißt "insanely inefficient CPU". Da ist man auch nicht müde zu erwähnen wie ineffizient der ist. Wenn die Daten doch nur stimmen würden...
EoL bedeutet in dem Fall halt das es die letzte CPU Generation ist die man kaufen kann.highwind01 schrieb:Für LGA1700 kommen in den nächsten Monaten mehrere neue Chipsätze,
oulay schrieb:Schon schade dass man sich hier durch 13 Seiten Brand loyality-Kommentare wühlen muss und nur ab und zu einen konstruktiven Beitrag findet.
Ups, der Konter ging wohl daneben.Wurstfach schrieb:Ach so?
Also so gesehen ist dann auch der Pentium III ein Testsieger.
Cool, deiner Definition nach ist jedes Produkt, das JETZT auf den Markt kommt, bereits EOL, denn es wird schließlich irgendwann in der Zukunft abgelöst durch ein Nachfolgeprodukt.Tomsenq schrieb:EoL bedeutet in dem Fall halt das es die letzte CPU Generation ist die man kaufen kann.
Wenn Intel davon abkommen würde alle 2 Jahre einen neuen Sockel einzuführen wäre das was anderes.
Postman schrieb:Scheiß auf den Stromverbrauch, welcher sich auch bei AMD verschlechtert hat.
- 4 RAM-Riegel - bei INTEL kein Problem (man empfiehlt ausdrücklich bei AMD nur 2 Stück wie zu INTEL Anfangszeiten)
Postman schrieb:
- Eine neue NVIDIA RTX Karte - bei INTEL kein Problem (bei AMD kein Bild beim Start, Beta Biose werden verteilt)
Da hast Du sowas von recht, "leider". Ich nehme mit tasächlich meine Speicherstände vor von AC Valhalla, Shadow of the Tomb Raider und Watch Dogs Legion sowie Spiderman, und ich spiele Control und Cyberpunk nochmal durch und die Grafikblender A Plague Tale Requiem und das kommende Batman Game.Fighter1993 schrieb:Das Problem ist, welche Spiele willste spielen?
Es gibt doch dieses Jahr nichts gescheites mehr.
Das istz in Ordnung.K4mpftro11 schrieb:Ja sie sind da etwas schneller, verbrauchen aber dafür auch mehr Strom, daher ist das für mich ein Patt.
DJMadMax schrieb:@E1M1:Hangar
Hab in meinem vorherigen Post noch die beiden Links zu den AMD und Intel-Wunschlisten eingefügt. Sorry, das hatte gefehlt und hat dann so überhaupt keinen Sinn ergeben ^^
Werfe denen doch mal Betrug vor statt hier im Forum zu schreien.Philste schrieb:Wenn die Daten doch nur stimmen würden...
Dir ist hoffentlich bewusst, dass das alles Zeit kostet. Wir hocken hier seit Wochen von früh bis spät, mehr ging dann einfach nicht mehr. Wir haben extrem viel geliefert, wie ich finde. Klar, irgendwas ist immer noch nicht gemacht; aber das macht einen extrem umfangreichen Test doch nicht wertloser als einen seichten, der „alles hat“.chaopanda schrieb:In den Gaming-Benchmarks findet sich dann gerade mal "nur noch" der 13900K @88W. Schade ob des verschenkten Potentials das ganze wirklich vollumfänglich zu beleuchten.
Das geht nicht anders, die Fabriken von TSMC sind noch nicht fertig, bzw. der Produktionsbeginn fängt demnächst an. Sie würden sicher früher wollen, aber was nicht steht, kann nicht produzieren.Malustra schrieb:Hat AMD das nicht kommen sehen? War wohl kein kluger Schachzug den 3D Cache hinten anzustellen.
Ja Postman ist der FUD Master.akuji13 schrieb:Hatte ich weder mit der 3090 noch der 4090 mit meinem B550.
Und da ist das bios drauf womit es ausgeliefert wurde, die AMD Treiber sind ebenfalls über 2 Jahre alt.