OldZocKerGuy
Lt. Commander
- Registriert
- Dez. 2019
- BeitrÀge
- 1.120
Sieht fesch aus.. đ
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfĂŒgbar.
Logisch.eRacoon schrieb:Mit Games wirst du in keinerlei TDP Limits laufen da hier die Leistungsaufnahme weiterhin bei 60-100W bleiben wird wie auch schon bei der Gen9.
Ein Game was Gestern nur 80W aus einem 9900k gezogen hat, wird nicht heute plötzlich 200W brauchen.
Jep einmal durchblasen oder wie ich es gerne mache mit unauffĂ€lligen Methoden die Sache mit der Leistung und Temperatur umgehenZwirbelkatz schrieb:Dann ist der RuĂpartikelfilter voll? Danke fĂŒr den Hinweis.
HÀtte ich mir denken können.
Das ist vielleicht jetzt der Fall, sieht aber mit der nĂ€chsten und ĂŒbernĂ€chsten Grafikkarten-Generation ganz anders aus. Die meisten Gamer tauschen die Grafikkarte wesentlich hĂ€ufiger als den Unterbau mit Mainboard , CPU und RAM.Supermax2004 schrieb:Also ich sag mal so, Intel lohnt sich wirklich nur im Spielbereich, und wenn man 1440p oder gar 4k nutzt ist der Unterschied absolut nicht mehr spĂŒrbar vorhanden.
Die Assoziation muss aber lang her sein. Ich verbinde eher damit, dass Intel-Fanboys bei jedem Release von einer neuen Ryzen Gen auf die Schublade von Intel verwiesen. Nach dem Motto Intel packt bald den Hammer raus und zerstört AMDs Rebellen Aufstand.User6990 schrieb:Oder halt auch nicht, mit der Schublade hat man schlieĂlich immer Gamechanger assoziiert.
yummycandy schrieb:@Esenel
haben Boards mit 2 DIMM Sockeln eigentlich noch den Latenzvorteil? Da fÀllt mir das Black von EVGA ein.
ZeroStrat schrieb:Siehe die Spannungen, was @ZeroZerp gepostet hat. Die CPU war stÀndig kurz vor der Kernschmelze, wenn das zutrifft. Ich bin raus hier. Das ist einfach nicht das, was ich mir unter einem richtigen CPU Tests vorstelle.
BlackhandTV schrieb:mein 8086k lÀuft ja auch auf 5,1GHz allcore, kannste mir ruhig glauben, einfach mal selber nachmessen!
80W ist doch nen Witz, mein StrommessgerĂ€t lĂŒgt doch nicht, und die Software komischer auch noch am lĂŒgen, niemals!
Jeder weiĂ das ein 8086k/8700 ĂŒbertaktet Strom zieht wie nen Weltmeister!
Hier zeigt der Vergleich zum 2,5 Jahre alten Core i7-8700K mit fast Àhnlicher Leistung einen Vorteil von fast zehn Grad Celsius. Und das, obwohl der 8700K weniger verbraucht. Die 14-nm-Fertigung ist demnach noch einmal verbessert worden und Intel hat das Binning optimiert.
AMD bessere Wahl bek Preis Leistung sagen leider alle, PCGH hat sich mit dem Artikel fĂŒr mich komplett ins Aus geschossen. Man muss nun den ganzen Test anzweifeln leider.DavidG schrieb:Danke sehr, das erklĂ€rt zumindest die Unterschiede. Damit dĂŒrfte der Intel i9 10900K immer noch eine sehr gute CPU sein, die fĂŒr die meisten User, nĂ€mlcih alle, die auf die Leistungsaufnahme achten und nicht die ganze Zeit die CPU unter Volllast betreiben sowie alle, die ab und an mal spielen, die erste Wahl sein, aber AMD wird nicht vollstĂ€ndig deklassiert.
Ja, ich kenne nur kaum jemanden mit solchen Displays. Und ich rede hier von ganz normalen 0815-Gamern.Shoryuken94 schrieb:In Zeiten von 144FPS bei Mittelklasse Displays durchaus relevant.
Taxxor schrieb:Weiter unten siehst du beim OC Abschnitt auch das Zitat
Also 100W verbraucht er Stock, jetzt bleibt die Frage, wie Gamestar das ermittelt hat, aber Igor kommt dort auch auf 95W.
ja, messt es doch selber nach wenn Ihr nen Intel mit 5,1GHz allcore oder mehr habt ! Ihr könnt es mir glauben!Kasjopaja schrieb:Mist du an der Steckdose?
KlaraElfer schrieb:Als ob du in deinem Anwendungsszenario zu Hause Dauerlast hÀttest.
Ist doch völlig legitim die TrĂ€gheit auszunutzen und am Anfang voll zu boosten. Ist in Notebooks nicht anders, ich halte das fĂŒr eine Eigenschaft des Produkts, mit all seinen Nachteilen.
Die CPU ist als Renderschubse jedenfalls nichts, da holt man den 3900x, der dazu noch etwas sparsamer ist und bisschen flotter. Bei Gaming wirds schon interessanter, da lacht mich der 10600K an.
Ein kurzer Blick ĂŒber die Messwerte reicht schon um zu sagen, dass etwas nicht stimmt, da hat er leider völlig recht. Letztes mal war der 9900K zu langsam, was ihr selbst nicht bemerkt habt (obwohl 7% Abweichung) und erst durch meinen Hinweis nachetestet wurde.
Mehrere Spiele hÀngen in irgendwelchen Limits, nur nicht die der CPU/RAM, das ist nicht so dolle.^^
Und die Effizienz misst man garantiert nicht mit Prime 95. Verstehe ehrlichgesagt nicht, wieso das ĂŒberhaupt Bestandteil des Tests ist.
Wenn dann mĂŒsste man hier die Leistungswerte angeben. Dort ist ein 10900K, jedenfalls >50% schneller als ein 3900x oder 3950x. Dass der 10900K in allen Anwendungen >200 Watt zieht, halte ich fĂŒr ein GerĂŒcht, mein 10900K kommt laut DHL am Samstag, dann kann man sich ein eigenes Bild machen.
wuschipuschi schrieb:AMD bessere Wahl bek Preis Leistung sagen leider alle, PCGH hat sich mit dem Artikel fĂŒr mich komplett ins Aus geschossen. Man muss nun den ganzen Test anzweifeln leider.