News Intel Rocket Lake-S: Core i9-11900K schlägt Ryzen 9 5900X in Spielen

Wenn die Zahlen direkt vom Hersteller kommen, bin ich immer skeptisch, nachdem was ich aber so gesehen habe ist der Unterschied nicht so gewaltig zur jetzigen Ryzen-Generation. 5%-10% mehr hören sich erst einmal rabiat an, aber bei Software kann man nie von Plattform-Agnostizismus ausgehen. Die Engines sind oft unterschiedlich aufgebaut, der eine optimiert mit embedded engineers Richtung AMD, der andere Richtung Intel, ein anderer wiederum Richtung Nvidia. Es scheint aber jetzt so zu sein, dass sich Intel im Aufholkampf zu AMD befindet. Das hätte man vor Jahren nicht gedacht, als Intel im Dämmerschlaf 2-5%-Upgrades lieferte zu Premium-Preisen und AMD versuchte aufzuholen. Am Ende wird’s dann wie bei Grafikkarten werden: Die Features entscheiden, nicht mehr so sehr die Leistungsunterschiede. Konkurrenz ist gut für den Verbraucher, aber dieser sollte nicht mehr erwarten, dass es zu einem K.-o.-Schlag des einen Wettbewerbers gegen den anderen kommen wird.
 
  • Gefällt mir
Reaktionen: ZeroStrat
Buggi85 schrieb:
Es geht hier NICHT um das on-the-fly codieren von Twitch, Youtube, Stadia, etc., sondern um das encoden lokal vorhandener Videodateien. BluRays usw.
Da kommt es nicht darauf an, alles in Echtzeit zu codieren. Da kann ein Film selbst auf einem High-End System gut und gerne mal 24 Stunden dauern, wenn man alle Register zieht um das maximale aus dem Encoder herauszuholen.
Und wenn ich einen Softwareencoder entsprechend konfiguriere, ist das Ergebnis klar besser als das, was eine GPU in nur einem Bruchteil generiert - oder die Bitrate muss entsprechend hoch gewählt werden, was die fertige Datei dann erheblich größer werden lässt.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße und ZeroStrat
Die CPU ist tot, wenn es um Videoverarbeitung geht, nur haben viele die Todesanzeige noch nicht gelesen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Zwiebelsoße, Schildkröte09 und Buggi85
Buggi85 schrieb:

Das heisst also, diese Diskussion hast du schon vor einiger Zeit bereits mit anderen Leuten geführt - und immer noch nix gelernt ;)

ZeroStrat schrieb:
Die CPU ist tot, wenn es um Videoverarbeitung geht, nur haben viele die Todesanzeige noch nicht gelesen.

Nur komisch, dass selbst die großen Streamer eigentlich alle noch CPUs zum codieren ihrer Streams verwenden.
Und die Leute die teils semi-professionell Videos codieren (keine Streams, sondern lokal vorhandene Dateien), nutzen eigentlich auch alle nur die CPU.
Geh doch mal in entsprechende Foren. Und damit meine ich nicht Computerbase, sondern Video-Foren, Doom9 und Co. - die werden dir alle zur CPU raten, wenn es auf die Qualität ankommen soll.

Leute die nur mal schnell was codieren möchten, wo es nicht auf jedes Quentchen Qualität ankommt, ja denen rät man dann zur GPU, weil es einfach schneller geht und auch nicht so viel Einarbeitungszeit von Nöten ist.

Aber ich weiss gar nicht was ihr euch so aufregt. Nutzt doch eure GPUs für euren Mist und lasst die wirklich Interessierten das benutzen was sie wollen. Alles nur eine Frage von Anspruch und Verständnis.
 
  • Gefällt mir
Reaktionen: bad_sign und peter.hahn
Loopman schrieb:
Leute die nur mal schnell was codieren möchten, wo es nicht auf jedes Quentchen Qualität ankommt, ja denen rät man dann zur GPU, weil es einfach schneller geht und auch nicht so viel Einarbeitungszeit von Nöten ist.
Da Lustige ist ja, dass die GPU gar nicht soooo viel schneller ist, wenn man's richtig macht. Was dann noch bleibt, sind winzige Qualitätsunterschiede in kontrastreichen Übergängen, die man mit der Lupe suchen muss.

Rendern auf der CPU legt dir aber alles lahm und Streamen auf derselbigen kostest beim Zocken nur Qualität der Frametimes.
 
  • Gefällt mir
Reaktionen: Colindo
ZeroStrat schrieb:
Rendern auf der CPU legt dir aber alles lahm und Streamen auf derselbigen kostest beim Zocken nur Qualität der Frametimes.
nö, 1. muss nicht am selben Rechner sein, 2. könnte man auch genügend Kerne haben und rein dafür einen Teil abstellen.
 
  • Gefällt mir
Reaktionen: iron-man
Loopman schrieb:
Das heisst also, diese Diskussion hast du schon vor einiger Zeit bereits mit anderen Leuten geführt - und immer noch nix gelernt ;)
In den 90er Jahren kam mit der Voodoo 1 ein reiner 3d Beschleuniger auf den Markt. Eine Karte die man zur vorhanden 2d Karte dazu stecken musste. Sinn und Zweck war es mit einer Hardwarelösung die 3d Grafikberechnungen und das Rendern von der CPU zu lösen und wie der Name sagt zu beschleunigen. Wäre es dir lieber wenn heute immer noch die CPU die Frames zum zocken liefern würde? Wär wohl zumindest günstiger als in dicke GPUs zu investieren. 😂

Es ist gut dedizierte Hardware zu haben. Nicht umsonst gibt's auch separate Soundkarten, Audio Interfaces und UAD DSP Karten etc.
 
peter.hahn schrieb:
nö, 1. muss nicht am selben Rechner sein, 2. könnte man auch genügend Kerne haben und rein dafür einen Teil abstellen.
Genau, so mache ich es. Der 16 Kerner hat selbst beim Zocken und Streamen bei mir genug Reserven....
Zocken, Streamen und zusätzlich mit noch mehr Bitrate aufnehmen auf die SSD ist problemlos möglich. Also Zocken + 2x das Bild encoden parallel.

Handbrake nutze ich für lokale Videodateien. Gerade bei Echtfilm (also keine Computergrafik) mit schwierigem Material (Grobkorn etc.) zeigt sich die Macht eines Softwareencoders gegenüber der GPU.
Ergänzung ()

Buggi85 schrieb:
In den 90er Jahren kam mit der Voodoo 1 ein reiner 3d Beschleuniger auf den Markt. Eine Karte die man zur vorhanden 2d Karte dazu stecken musste. Sinn und Zweck war es mit einer Hardwarelösung die 3d Grafikberechnungen und das Rendern von der CPU zu lösen und wie der Name sagt zu beschleunigen. Wäre es dir lieber wenn heute immer noch die CPU die Frames zum zocken liefern würde?
Keine Ahnung was das jetzt mit dem Thema zu tun hat. Wirklich komplett am Thema vorbei, sorry.
 
  • Gefällt mir
Reaktionen: peter.hahn
Bei meinen letzten Tests (glaube Juli 2020) war es noch so
1080TI und RX550, beides ungenügend in Quali und deutlich größer auf der Platte vs CPU
Dafür halt ~10x so schnell.
Jeweils h265 und lokale Videos.
 
  • Gefällt mir
Reaktionen: Loopman
Entschleuniger2 schrieb:
Ach Gottchen Leute, Single Core echt? Wo ist das noch relevant heute? Für Games braucht es inzwischen 8 Kerne aufwärts (Modern Warfare, Cyberpunk). Single Core ist der letzte Strohhalm für Intel, um die letzten verblendeten einzufangen. Und was sollen die Dinger mit dem Takt bei der altbackenen Technik verbrauchen? Und was muss da für eine Kühlung drauf? Bei der Intel-Deifinition von TDP?
Kollege von mir meinte erst "Eig brauch ich nur nen 2 Kerner" :D
Usecase? War Thunder und Poplige entwicklersoftware für Steuerungen

gustlegga schrieb:
Dass sich der Daddler in solchen Foren aber gern für den Nabel der Welt hält ist ja bekannt. :p

Das nicht, aber ohne Gaming wär die IT branche nie so groß geworden wie sie ist, und viele hier im Forum hätten einfach nen anderes Hobby. Aquarium, Eisenbahn, Drachen steigen lassen oder i-ein Extremsport. Ohne unser Geld, ohne unsere Anforderungen, Engagement und Investitionen in die Produkte wär der IT sektor noch auf dem Entwicklungsstand von vor Jahrzehnten. AMD hat auch versucht mit Bulldozer und Vega den gamern den Stinkefinger zu zeigen (Tolle Performance bei Workload damals aber eben beschissen beim Zocken) weil man gedacht hat dass man damit mehr Kohle macht wenn man eben nur die "Profis" bedient. Da is Intel mit weniger kernen aber mehr IPC besser gefahren, weil man am schluss auch nen größeres Publikum bedient hat.

Gut AMD macht jetzt halt beides, also der Königsweg. IPC+Kerne, war aber lang, steinig und hätte auch schief gehen können.
 
Ja, Software ist immer besser als Hardware.
Hardware ist dafür effizient und schnell, perfekt für live streaming.
Es kommt da ja auch nicht auf das letzte Qualitätsstüffchen an, das will ich dann wenn ich Filme oder Serien konsumiere.
 
  • Gefällt mir
Reaktionen: Loopman
Loopman schrieb:
Keine Ahnung was das jetzt mit dem Thema zu tun hat. Wirklich komplett am Thema vorbei, sorry.
Ganz einfach, dass Prinzip ist immer das selbe. Die Schwächen der CPUs durch Hardware zu umgehen. Deshalb gibt's Hardware Encoder/Decoder, RT Kerne, Grafikkarten und AI Einheiten. Du bist lediglich zu stur um dich soweit damit zu befassen brauchbare Ergebnisse zu erzielen und vor allem die Vorteile zu erkennen. In den 90ern hättest du dich gegen 3d Beschleuniger stur gestellt und würdest heute feiern das Crysis 1 auf einem 64 Kern Threadripper mit 30 FPS in Software läuft. Wer braucht schon RT Kerne auf GPUs, wenn irgendwann mal 128 Kern CPUs im Mainstream ein Viertel der Leistung erreichen.
Du willst einfach das deine CPU einen plausiblen Sinn ergibt für deinen Workflow, der aber so gar nicht mehr uptodate ist. Würdest du sagen, du hast Spaß an der Freude und Technik, könntest du dir das Rumgetrickse mit sturen Argumenten sparen.
Wir werden nie darüber diskutieren können oder Vergleiche anstellen, weswegen ich da jetzt auch raus bin mit dir.
 
  • Gefällt mir
Reaktionen: Coeckchen und ZeroStrat
Buggi85 schrieb:
Ganz einfach, dass Prinzip ist immer das selbe. Die Schwächen der CPUs durch Hardware zu umgehen.

In den Alten titeln gabs auch teils die Option von "Software" Rendering statt "Hardware".Z.b. im F22 Air Dominance Fighter. Wusste damals den Unterschied noch nich war so 10 Jahre alt aber durch Probieren der settings hat mans auf Mamas Pentium 2 doch noch i-wie zum laufen bekommen. Wobei ich mich heut frag was für ne Grafikkarte verbaut war, weil es lief Flüssig :D (Wobei ich das auch von Zelda aufm N64 behauptet hab xP, nach heutigen maßstäben eher njiet)
 
  • Gefällt mir
Reaktionen: Buggi85
Coeckchen schrieb:
In den Alten titeln gabs auch teils die Option von "Software" Rendering statt "Hardware".Z.b. im F22 Air Dominance Fighter. Wusste damals den Unterschied noch nich war so 10 Jahre alt aber durch Probieren der settings hat mans auf Mamas Pentium 2 doch noch i-wie zum laufen bekommen. Wobei ich mich heut frag was für ne Grafikkarte verbaut war, weil es lief Flüssig :D (Wobei ich das auch von Zelda aufm N64 behauptet hab xP, nach heutigen maßstäben eher njiet)
Ja genau, in alten Spielen konnte man die Optionen noch antreffen. Der Klassiker ist halt Tomb Raider 1 von 1995/96, was zum Release nur in Software lief und später einen Patch für GLIDE und glaube DirectX erhielt. Ich mag das Beispiel anhand der 3d Beschleuniger, weil sie eine krasse Revolution darstellen und der Vorreiter für den 3d Part aller aktuellen GPUs sind. Würden wir heute noch in Software rendern... unvorstellbar.
 
Zurück
Oben