News Intel Rocket Lake-S: Core i9-11900K schlägt Ryzen 9 5900X in Spielen

Oh wow 4-5% für nur 4 weniger Kerne aber wahrscheinlich höheren preis xD
 
Buggi85 schrieb:
Die die Ahnung haben nutzen die GPU oder glaubst du GeForce Now und Google Stadia enkodieren per CPU? Die die Ahnung haben wissen wie sie effektiv und effizient qualitativen Output generieren. Sie schafften auch ein Red Dead Redemption 2 oder Spiderman auf PS4 zu bringen. Die anderen scheitern bei dem Versuch ala CP2077 und kompensieren mit mehr Leistung wie der PS5.
Ist mir doch Latte was die verwenden. Willst du Zuhause deine Videos codieren und nutzt dazu die GPU wird das Ergebnis immer schlechter aussehen, als wenn du einen guten Softwareencoder verwendest.
Auf den ersten Blick mag es kein großer Unterschied sein, aber wenn man mal etwas genauer hinschaut, dann fällt einem das sofort auf.
Und ich codiere meine Videos ja nicht, damit ich mich mit minderer Qualität begnüge, ich will das bestmögliche Bild und das bekomme ich z.Zt. nur per Software. Fakt!
 
  • Gefällt mir
Reaktionen: Fuchiii, Kalsarikännit und C4rp3di3m
Buggi85 schrieb:
Nö, nur wenn auch die Preise deutlich fallen. Konkurrenzkampf mit immer weiter steigender Preise macht keinen Spaß, egal wie man sich von der Leistung überbietet.

du kriegst die leistung einer 2080 TI für 500€ wenns nach nvidia geht
dass die preise steigen hat nix mit konkurrenzkampf zu tun, sondern weil die dinger alle ausverkauft sind und die händler die preise hochtreiben... angebot und nachfrage, schon mal davon gehört? dazu noch corona....

wenn der markt gesättigt ist, dann werden auch die preise fallen. aber wie gesagt, wenns nach nvidia geht 500€ für 2080TI. deutlicher können preise nicht fallen von einer auf die nächste generation
 
Abe123 schrieb:
Niedriger Verbrauch, das glaube ich ehrlich gesagt kaum. Warum wird das mit keiner Silbe in irgendeiner Folie erwähnt

Weil es eben stimmt , meine Güte warum muss man als Fan immer stur sein

Sei es normales arbeiten , spielen oder Desktop idlen erreicht keine CPU ihr maximales an Watt , kein AMD kein Intel ,

Erst wenn man in entsprechende Benchmarks kommt oder die vereinzelten speziellen Programme nimmt was vielleicht 0,5% aller erhältlicher Software entspricht wird die jeweilige Watt Grenze geknackt

Die neue Intel CPU wird doch ehr als spiele CPU aktuell vermarktet und jeder der sich bei spielen Mal angeschaut hat was die CPU treibt sollte gesehen haben das die Last da springt und blinkt , und Kernhopping kommt

Und das ist auch irgendwo gut , wenn wenige Kerne hochtakten nutzen die gestigene IPC und sind vielleicht zu 50% unter Last ...und schon Hopt die Last zum nächsten Kern , weniger Energie Verbrauch und kühler

Und das trifft auf AMD sowie intel zu
Gandalf2210 schrieb:
Woooooow.
290 statt 270 FPS. Bei nur 250 Watt. Ich bin beeindruckt. Nicht


So mal eine ernste Frage an euch alle was soll das? Bitte klärt mich doch mal auf ist das einfach Hass oder was?

Ich halte jeden der hier schreibt für soweit intiligent das ihr das wisst was eine CPU bei Spielen verbraucht aber denn noch wird die sau mit den max Watt bei Spielen durch das Dorf getrieben

So ein Blödsinn was hier manche von sich geben
 
  • Gefällt mir
Reaktionen: DeadMan666, Buggi85 und Sotek
Eine minimale Mehrleistung in spielen sowie ein deutlich höherer Verbrauch bei deutlich weniger Leitung in Anwendungen.
Und ja, es ist auch Hass. Andere Emotionen sind mir bei Intel nicht zu entlocken. Dicht gefolgt von Nvidia
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Anon-525334
Loopman schrieb:
Ist mir doch Latte was die verwenden. Willst du Zuhause deine Videos codieren und nutzt dazu die GPU wird das Ergebnis immer schlechter aussehen, als wenn du einen guten Softwareencoder verwendest.
Auf den ersten Blick mag es kein großer Unterschied sein, aber wenn man mal etwas genauer hinschaut, dann fällt einem das sofort auf.
Da ich keine Lust hab das Thema zum x-ten male zu vertiefen, lasse ich dich in dem Glauben und spare mir kostbare Zeit. :evillol:
 
Ist schön zu sehen das Intel was macht, mal schaun was die Benches sagen. Da ich allerdings schon RAM und MB für mein AMD System gekauft habe, wirds wohl trdm ein AMD CPU. Wenn doch der 5900X mal verfügbar wäre. Hoffen wir das AMD da auf Intel gewartet hat und nun die eigenen CPUs, die noch nicht zum UVP verfügbar sind, nun verfügbar macht. Allgemein könnte Intel in der aktuellen Lage ja profitieren von deren Verfügbarkeit.
 
ich weis gar nicht was hier alle mit PCI Express 4.0 haben. Die meisten von euch kommen eh nicht ans limit mit ihrer mittelklasse hardware, da machts mehr ausb esseren ram zu nehmen und bisschen oc zu machen aber wayne :D
 
Deadbones schrieb:
vor allem in fullHD... was interessieren mich da 5%, da wird kein "unspielbares" spiel auf einmal mega flüssig. nee, man kann sich nur bei rainbow six siege auf 400 statt 360fps freuen xd
Wobei es in deinem Beispiel sogar abgerundet 11 % wären =) in der realität wären es bei dem extrem bsp von 360 fps bei 5 % nur 18 Fps mehr =) unterschied. Und jetzt mal ehrlich geasgt wenn jucken 5% entscheident ist doch Preis und Kerne letzendlich wenn man sich nicht alle Jahr ein PC kaufen bzw. neue CPU kaufen möchte =)
 
Mr.Smith84 schrieb:
@Rockstar85 @ChilliSchotte Aber welche CPU ist den nun die bessere Wahl?
Ich würde zum 5600X tendieren, wenn dieser wieder nahe 320€ liegt. Dazu ein Board welches mit den großen klar kommt und mit ein wenig Glück kannst du in 3-4 Jahren einen 5900 oder 5950 günstig gebraucht schießen, wenn es denn für deinen Bedarf überhaupt notwendig ist.

mathiasla schrieb:
An dem Zitat ist zwar was dran aber das ist nicht von Churchill, der Satz wird unter anderem Göbels zugeschrieben.
Witzig, ich meine ich hatte irgendwo mal Stalin als Quelle gelesen. Danke für die Aufklärung.
 
Zuletzt bearbeitet:
Ich verstehe nicht wieso Intel hier wieder so eine Verzweiflungstat anstellt...
Rückschritt auf 8 Kerne und höherer TDP (:rolleyes:), obwohl man bei genug Spielen eindeutig
sieht, dass die Anforderung nach mehr Kernen steigt...
Für Anwendungen ist das sowieso fatal.

Das einzige Positive könnte(!) sein, dass Ryzen 5000 wieder zur UVP verfügbar sein wird.

ZeroStrat schrieb:
Wenn's hier nach geht, ist Rocket Lake sogar langsamer. :D

Ist bestimmt wieder ein PCIe Issue...
Es steht doch direkt geschrieben, dass der Grund die zwei fehlenden Kerne sein könnten.
Macht auf jeden Fall sinn sobald ein Spiel mal von 1-2 Kernen mehr profitiert.
 
Zuletzt bearbeitet:
Sly123 schrieb:
Ich verstehe nicht wieso Intel hier wieder so eine Verzweiflungstat anstellt...
Wirkt wie eine wirtschaftliche Entscheidung. Intel versucht sich ja schon ein Weilchen daran die Strukturgröße zu verringern, die aktuelle ist gewohnte Spielwiese für sie - da nun AMD spontan in Punkto Kerne einen auszuwischen ist wohl nicht so wirtschaftlich wie dieses Thema auf die nächste Struktur zu schieben - Gerade weil sich Desktop CPU's immer noch sehr gut mit "Gaming-König" und "Singlecore-Performance" bewerben lassen.

Zudem ist es sicherlich auch eine Frage der Ehre, AMD nicht zu lange das Feld zu überlassen.
Es wirkt so ein wenig wie eine Brechstangentaktik, bin mir aber sicher dass in deren Schubladen schon deutlich "sinnvolleres" liegt.
 
  • Gefällt mir
Reaktionen: Sly123
Loopman schrieb:
Auf den ersten Blick mag es kein großer Unterschied sein, aber wenn man mal etwas genauer hinschaut, dann fällt einem das sofort auf.
Ich habe mal Handbrake mit AMDs VCE ausprobiert und komme auf die gleiche Bildqualität bei doppelter Dateigröße. Sprichst du also von einem Qualitätsunterschied bei gleicher Dateigröße, oder soll GPU-Encoding immer schlechter sein, was die Bildqualität angeht? Ich frage deswegen, weil ich mich damit wenig auskenne und es kaum Tests dazu gibt.

Wenn es die Dateigröße ist, dann ist mir die 20fache Geschwindigkeit die doppelte Größe Wert. Das war beim Transcodieren nämlich ein echter Augenöffner.
 
Sly123 schrieb:
Es steht doch direkt geschrieben, dass der Grund die zwei fehlenden Kerne sein könnten.
Macht auf jeden Fall sinn sobald ein Spiel mal von 1-2 Kernen mehr profitiert.
Theoretisch möglich, warum nicht. Praktisch gesehen, ist der Performancesprung von 8 auf 10 Kerne ziemlich überschaubar in den meisten Fällen. Das hieße ja, dass Rocket Lake eher sogar auf Comet Lake Niveau performen müsste, damit die fehlenden 2 Kerne am Ende zu einem leichten Rückstand führen. Das halte ich für sehr unwahrscheinlich, daher gehe ich davon aus, dass es eher an unfertigen Test-BIOSen liegt.
 
  • Gefällt mir
Reaktionen: Sly123
Sly123 schrieb:
Ich verstehe nicht wieso Intel hier wieder so eine Verzweiflungstat anstellt...
Rückschritt auf 8 Kerne und höherer TDP (:rolleyes:), obwohl man bei genug Spielen eindeutig
sieht, dass die Anforderung nach mehr Kernen steigt...
Für Anwendungen ist das sowieso fatal.
Naja, es wird nur das Topmodel in manchen Szenarien langsamer. In vielen anderen schneller. Alle weiteren Modelle werden deutlich schneller.
Somit wird Intel also konkurrenzfähiger. Was sollten sie denn deiner Meinung nach tun? Gar nichts? Klingt nicht erfolgsversprechend.

Und von welcher höheren TDP sprichst du?
 
  • Gefällt mir
Reaktionen: Sotek und Sly123
foo_1337 schrieb:
Wenn Intel jetzt einen guten Preis macht UND dann auch noch liefern kann...
Und von was träumst du Nachts?
 
Colindo schrieb:
Ich habe mal Handbrake mit AMDs VCE ausprobiert und komme auf die gleiche Bildqualität bei doppelter Dateigröße. Sprichst du also von einem Qualitätsunterschied bei gleicher Dateigröße, oder soll GPU-Encoding immer schlechter sein, was die Bildqualität angeht?

Natürlich bei gleicher Dateigröße. Es gibt einige Encoding-Features, die man bei einem Softwareencoder nutzen kann, die können die Grafikkarten gar nicht.

Aber klar, wenn du dem Video per GPU die doppelte Bitrate genehmigst, dann stimmt dort natürlich auch wieder die Qualität, aber ich codiere ja Videos, um sie möglichst klein und platzsparend zu lagern - allerdings bei bestmöglicher Qualität.

Ist aber per Software nicht nur erheblich langsamer, auch die richtigen Settings finden kann schon mal recht viel Zeit in Anspruch nehmen. Entweder verlässt man sich darauf, was anderen in irgendwelchen Foren empfehlen (was aber auch nicht immer bei allen Videos ideal sein muss), oder man nimmt sich immer kleine Happen und codiert die zum testen so lange mit unterschiedlichen Settings, bis man irgendwann das beste Ergebnis rausbekommt.

Buggi85 schrieb:
Da ich keine Lust hab das Thema zum x-ten male zu vertiefen, lasse ich dich in dem Glauben und spare mir kostbare Zeit.

Danke, denn wenn man keine Ahnung von einer Sache hat, sollte man sich am besten raushalten. :daumen:
 
  • Gefällt mir
Reaktionen: Colindo
Zurück
Oben