PrinceVinc
Lt. Commander
- Registriert
- Okt. 2014
- Beiträge
- 1.227
Oh wow 4-5% für nur 4 weniger Kerne aber wahrscheinlich höheren preis xD
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Ist mir doch Latte was die verwenden. Willst du Zuhause deine Videos codieren und nutzt dazu die GPU wird das Ergebnis immer schlechter aussehen, als wenn du einen guten Softwareencoder verwendest.Buggi85 schrieb:Die die Ahnung haben nutzen die GPU oder glaubst du GeForce Now und Google Stadia enkodieren per CPU? Die die Ahnung haben wissen wie sie effektiv und effizient qualitativen Output generieren. Sie schafften auch ein Red Dead Redemption 2 oder Spiderman auf PS4 zu bringen. Die anderen scheitern bei dem Versuch ala CP2077 und kompensieren mit mehr Leistung wie der PS5.
Buggi85 schrieb:Nö, nur wenn auch die Preise deutlich fallen. Konkurrenzkampf mit immer weiter steigender Preise macht keinen Spaß, egal wie man sich von der Leistung überbietet.
Abe123 schrieb:Niedriger Verbrauch, das glaube ich ehrlich gesagt kaum. Warum wird das mit keiner Silbe in irgendeiner Folie erwähnt
Gandalf2210 schrieb:Woooooow.
290 statt 270 FPS. Bei nur 250 Watt. Ich bin beeindruckt. Nicht
Da ich keine Lust hab das Thema zum x-ten male zu vertiefen, lasse ich dich in dem Glauben und spare mir kostbare Zeit.Loopman schrieb:Ist mir doch Latte was die verwenden. Willst du Zuhause deine Videos codieren und nutzt dazu die GPU wird das Ergebnis immer schlechter aussehen, als wenn du einen guten Softwareencoder verwendest.
Auf den ersten Blick mag es kein großer Unterschied sein, aber wenn man mal etwas genauer hinschaut, dann fällt einem das sofort auf.
Du glaubst auch an den Weihnachtsmannscryed schrieb:---Vollzitat entfernt---
bitte Zitierhinweise beachten
Wobei es in deinem Beispiel sogar abgerundet 11 % wären =) in der realität wären es bei dem extrem bsp von 360 fps bei 5 % nur 18 Fps mehr =) unterschied. Und jetzt mal ehrlich geasgt wenn jucken 5% entscheident ist doch Preis und Kerne letzendlich wenn man sich nicht alle Jahr ein PC kaufen bzw. neue CPU kaufen möchte =)Deadbones schrieb:vor allem in fullHD... was interessieren mich da 5%, da wird kein "unspielbares" spiel auf einmal mega flüssig. nee, man kann sich nur bei rainbow six siege auf 400 statt 360fps freuen xd
Ich würde zum 5600X tendieren, wenn dieser wieder nahe 320€ liegt. Dazu ein Board welches mit den großen klar kommt und mit ein wenig Glück kannst du in 3-4 Jahren einen 5900 oder 5950 günstig gebraucht schießen, wenn es denn für deinen Bedarf überhaupt notwendig ist.Mr.Smith84 schrieb:@Rockstar85 @ChilliSchotte Aber welche CPU ist den nun die bessere Wahl?
Witzig, ich meine ich hatte irgendwo mal Stalin als Quelle gelesen. Danke für die Aufklärung.mathiasla schrieb:An dem Zitat ist zwar was dran aber das ist nicht von Churchill, der Satz wird unter anderem Göbels zugeschrieben.
Es steht doch direkt geschrieben, dass der Grund die zwei fehlenden Kerne sein könnten.ZeroStrat schrieb:
Wirkt wie eine wirtschaftliche Entscheidung. Intel versucht sich ja schon ein Weilchen daran die Strukturgröße zu verringern, die aktuelle ist gewohnte Spielwiese für sie - da nun AMD spontan in Punkto Kerne einen auszuwischen ist wohl nicht so wirtschaftlich wie dieses Thema auf die nächste Struktur zu schieben - Gerade weil sich Desktop CPU's immer noch sehr gut mit "Gaming-König" und "Singlecore-Performance" bewerben lassen.Sly123 schrieb:Ich verstehe nicht wieso Intel hier wieder so eine Verzweiflungstat anstellt...
Ich habe mal Handbrake mit AMDs VCE ausprobiert und komme auf die gleiche Bildqualität bei doppelter Dateigröße. Sprichst du also von einem Qualitätsunterschied bei gleicher Dateigröße, oder soll GPU-Encoding immer schlechter sein, was die Bildqualität angeht? Ich frage deswegen, weil ich mich damit wenig auskenne und es kaum Tests dazu gibt.Loopman schrieb:Auf den ersten Blick mag es kein großer Unterschied sein, aber wenn man mal etwas genauer hinschaut, dann fällt einem das sofort auf.
Theoretisch möglich, warum nicht. Praktisch gesehen, ist der Performancesprung von 8 auf 10 Kerne ziemlich überschaubar in den meisten Fällen. Das hieße ja, dass Rocket Lake eher sogar auf Comet Lake Niveau performen müsste, damit die fehlenden 2 Kerne am Ende zu einem leichten Rückstand führen. Das halte ich für sehr unwahrscheinlich, daher gehe ich davon aus, dass es eher an unfertigen Test-BIOSen liegt.Sly123 schrieb:Es steht doch direkt geschrieben, dass der Grund die zwei fehlenden Kerne sein könnten.
Macht auf jeden Fall sinn sobald ein Spiel mal von 1-2 Kernen mehr profitiert.
Naja, es wird nur das Topmodel in manchen Szenarien langsamer. In vielen anderen schneller. Alle weiteren Modelle werden deutlich schneller.Sly123 schrieb:Ich verstehe nicht wieso Intel hier wieder so eine Verzweiflungstat anstellt...
Rückschritt auf 8 Kerne und höherer TDP (), obwohl man bei genug Spielen eindeutig
sieht, dass die Anforderung nach mehr Kernen steigt...
Für Anwendungen ist das sowieso fatal.
Und von was träumst du Nachts?foo_1337 schrieb:Wenn Intel jetzt einen guten Preis macht UND dann auch noch liefern kann...
Colindo schrieb:Ich habe mal Handbrake mit AMDs VCE ausprobiert und komme auf die gleiche Bildqualität bei doppelter Dateigröße. Sprichst du also von einem Qualitätsunterschied bei gleicher Dateigröße, oder soll GPU-Encoding immer schlechter sein, was die Bildqualität angeht?
Buggi85 schrieb:Da ich keine Lust hab das Thema zum x-ten male zu vertiefen, lasse ich dich in dem Glauben und spare mir kostbare Zeit.