4to cka3al
Lieutenant
- Registriert
- Apr. 2011
- Beiträge
- 576
Einfach nicht gut in der heutigen Zeit (Verbrauch und Mehrperformance).
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
highwind01 schrieb:Als ob das "Gesamtpaket" bei Zen 3 in dieser Hinsicht auch nur ansatzweise "fertiger" wirkt(e)...
micha` schrieb:Ich persönlich würde wahrscheinlich dennoch zum 5600x raten (allein wegen der Möglichkeit irgendwann den 5900x reinzukloppen), aber das machen in der Realität am Ende eh nicht viele. Da wird nach ein paar Jahren einfach komplett aufgerüstet - und das lohnt sich meist auch deutlich mehr.
Das sind Excel Werte die man in das CMS klatscht und am Ende wird halt nicht auf Ganzzahlen gerundet, sondern mit Kommastelle, sprich Zehntel gearbeitet, ist ja auch genauer oder nicht?FormatC schrieb:Bei der PCGH gewinnt der 11900K mit sagenhaften 0.1%, wenn allein die Toleranzgrenze bei den Spielen immer über 1% liegt?
Gibt es in deinem Test wesentlich! schlimmer.FormatC schrieb:Wenn man sich z.B. die Werte bei PCGH mal genauer anschaut und es bei Watchdogs in 720p zwischen den 8 relevanten CPUs nur 9 FPS Differenz gibt, also maximal um die 10%, dann ist da was oberfaul.
Man kann davon ausgehen, dass es Unterschiede gibt. Aber das ist halt eine zusätzliche Last, mit der die CPUs umgehen müssen. CPUs sollte ja bei einem Test gefordert werden. Wenn der AMD-Treiber in DirectX 11 limitiert, dann gewinnt halt die CPU mit der höheren Singlecore Leistung, auch wenn die nur 4 Kerne hat so als Beispiel.Ned Flanders schrieb:Woher nehmen wir eigentlich das Wissen, dass der vom Nvidia Treiber verursachte und in 720p tests relevante Treiberoverhead den ganzen CPU Architekturen im Testfeld gleich gut, sprich linear schmeckt?
Wenn man sich HUB anschaut, scheinen die aktuellen Generationen sich da nichts zu nehmen.Ned Flanders schrieb:Woher nehmen wir eigentlich das Wissen, dass der vom Nvidia Treiber verursachte und in 720p tests relevante Treiberoverhead den ganzen CPU Architekturen im Testfeld gleich gut, sprich linear schmeckt?
Eventuell gibts da ja erhebliche Unterschiede
Smartin schrieb:Laber mich nicht so blöd von der Seite an. 1. kennen wir uns? 2. kennst Du mich? offensichtlich beides nicht. Ich darf wohl meine Meinung genauso äußern wie Du und andere hier auch oder nicht?
Weil diese Forum mittlerweile fast nur noch aus Pro AMD und Anti Intel besteht und selbst neutrale Einschätzungen als Kritik wahrgenommen werden und in eine Ecke gestellt werden.Pisaro schrieb:Warum sind deine Postings dann so oft pro Intel und anti AMD?
Was soll der Schwachsinn?ZeroStrat schrieb:Man kann davon ausgehen, dass es Unterschiede gibt. Aber das ist halt eine zusätzliche Last, mit der die CPUs umgehen müssen. CPUs sollte ja bei einem Test gefordert werden. Wenn der AMD-Treiber in DirectX 11 limitiert, dann gewinnt halt die CPU mit der höheren Singlecore Leistung, auch wenn die nur 4 Kerne hat so als Beispiel.
Gut, man sollte ja auch nicht einen 2600 mit einer RTX 3070 kombinieren. Das wäre ziemlich ungeschickt...DonL_ schrieb:Allerdings ist es schon fast eine Frechheit, das man mit einem R5 2600 und einer 5700XT in einigen spielen in 1080p High Quality 10-40% mehr FPS hat, als mit einer 3070.
Ist halt die Frage, ob das was an den relativen Verhältnissen ändert. Höhere Absolutwerte klingt erstmal gut, aber wenn der Treiberoverhead hauptsächlich auf die CPU wirkt, wird sich nichts bis kaum was ändern. Aber ich bin neugierig geworden, ich schaue mir das auch mal an demnächst. Ich nehme natürlich nur Spiele mit starkem Impact durch den Nvidiatreiber. Den R7 1700 kann ich auch noch "quälen".DonL_ schrieb:Der Nvidia Treiber limitiert genauso in DX12 bis 48% schrieb Dave gerade im PCGH Forum.
Die halten nur an der 3090 im Moment noch fest, weil die Hälfte ihres Spieleparcours aus DX11 Titeln besteht.
Wenn sich das ändert, ändert sich nach Daves Aussage wohl auch die Grafikkarte, weil die Radeon bei DX12 die besseren und genaueren Ergebnisse für alle CPUs erzielt.
Das ist auch das einzige was halbwegs Sinn ergibt.deineMudda schrieb:Bei Hardware Unboxed geht es darum, dass NVIDIA einige Dinge durch Software (Treiber) erledigt, die AMD in Hardware erledigt. Dadurch kommt es mit langsamen CPUs zu einer schlechteren Leistung mit NVIDIA GPUs.
Schon mal von Leuten gehört, die aus finanziellen Gründen in Etappen aufrüsten?ZeroStrat schrieb:Gut, man sollte ja auch nicht einen 2600 mit einer RTX 3070 kombinieren. Das wäre ziemlich ungeschickt...
ZeroStrat schrieb:Gut, man sollte ja auch nicht einen 2600 mit einer RTX 3070 kombinieren. Das wäre ziemlich ungeschickt...
Naja neben der Leistungsfrage gibt es ja auch immer noch andere Punkte wie z.B. den Punkt struktureller Änderungen (Bugfixen, MeltDown, Spectre, etc.). Obendrein denke ich, dass man AMD nicht einfach kampflos für 6Monate + den Markt überlassen möchte. Wenn man gleichziehen kann, zieht man gleich.4to cka3al schrieb:Wieso presst Intel diese CPUs in den Markt, wenn die 12. Generation um die Ecke ist demnächst.
Preiserhöhung bei 25% weniger Cores. Die haben den Schuss nicht gehört bei Intel.
Das habe ich so nicht geschrieben und das kommt einer harten Verleumdung gleich. Ich habe darauf verzichtet, offentsichtlich völlig invalide Ergebnisse vorzeitig zu veröffentlichen. Als dann die BIOS Updates kamen, habe ich ebenfalls Werte auf Twitter gepostet.aldaric schrieb:Und wer in seinem Review reinschreibt, dass er schädliche und ungültige Ergebnisse rausnimmt, um dem Hersteller nicht zu schaden, kann seine Neutralität auch gleich in die Tonne treten.
Was uns wieder zu dieser Frage führt.DonL_ schrieb:Das ist der offizielle Intel Spec, genauso wie früher die 2666 MHZ oder 2933 MHZ, wie du dann deine Riegel betreibst ist doch dir überlassen. Allerdings scheint der neue IMC nicht mehr so gut zu sein wie der "Alte" der ja bis 4266 MHZ meistens mitgemacht hat. Jetzt ist für Gear 1 halt bei 3733MHZ eher schluss.