Test Intel Core Ultra 200S im Test: Core Ultra 9 285K, 7 265K & 5 245K enttäuschen effizient

Wenn man die Konkurrenz im Multi deklassieren würde, okay. Aber wie weit liegt man denn vor dem aktuellen 16 Kerner von AMD? Muss man sich dann nicht gleich dem Preis/Leistungs Duell mit der letzten Generation stellen?

Wenn man auf täglicher Basis damit ARBEITET, dann ist das doch Pillepalle. Dann kalkuliert man anders und greift zum Threadripper

Auch am Multicore gemessen ist Arrow Lake eine herbe Enttäuschung. Herzlichen Glückwunsch, man liegt mit 8 Kernen mehr und auf einer neuen Fertigung mit nigelnagelneuen Kernen ca. 10-15% über dem 7950X.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ArrakisSand und ThirdLife
Der 9950X3D wird den 285K auch in multi-core Anwendungen deklassieren
und wird ihm so seiner einzigen Daseinsberechtigung berauben.
 
  • Gefällt mir
Reaktionen: ThirdLife
Werden wir ja dann sehen. Ich denke mit guter Wasserkühlung und strammem OC könnten hier die 50k Punkte fallen im CB R23. Das wäre schon ne Ansage. Klar, erkauft mit ca. 300W, aber dennoch - leider geil.

Ich bin schon gespannt und lege mal ein bisschen zurück für dat Dingen.
 
jap aber wie sieht es aus wenn man nur mit Luftkühlung daher kommt,wird man dabei abstriche haben oder Probleme bekommen? Also mit dem Takt wird man mit nur Luftkühlung nicht so weit hoch takten können,da sind halt Grenzen gesetzt.
 
Der 285K stellt zweifelsfrei einen Fortschritt verglichen mit den
in die Jahre gekommenen Raptoren dar.
Aber objektiv betrachtet ist es doch nur ein kleiner Fortschritt den sie
vornehmlich TSMCs sehr fortschrittlichem 3nm Prozess zu verdanken haben.
Ich meine in Cinebench verbraucht er jetzt zwar respektable 20% weniger und damit nur noch 258W
und in den zwei von mir aufgeführten Spielen nur noch 150 anstatt 210W.
Dies ist sicherlich lobenswert, aber für 650€ erwarte ich mir da schon etwas mehr.
Der 9950X 3D wird voraussichtlich die unangefochtene Performance-Krone auch in Anwendungen,
bei nur einem Bruchteil (+/- 150 W) abgreifen können und dafür sicherlich keine 260 W benötigen.
Dies gerade wenn man bedenkt das AMD noch im etwas älteren 4nm Prozess fertigen lässt, lässt tief Blicken und als Bonus bekommt man noch fast 40% an Gaming-Performance, möglicherweise sogar noch das einte oder andere % mehr beim 9950X 3D geschenkt.
Ach ja Zen 6 von dem ich mir nochmals deutlich mehr erwarte als von Zen 5 wird voraussichtlich auch AM5
unterstützen dies ist gleich nochmals ein Bonus den man im Vergleich zu Arrow Lake nicht unterschätzen sollte.

1731144159059.png

1731143974995.png
1731144016404.png
 
Zuletzt bearbeitet:
Für die, die es interessiert. Intel bereitet Fixes vor, die die Stock- Leistung wohl auf das Niveau eines 14900K anheben sollen.

https://videocardz.com/newz/intel-c...ed-promises-performance-fix-by-early-december

ArrakisSand schrieb:
Ich meine in Cinebench verbrauchen sie jetzt zwar respektable 20% weniger und damit nur noch 258W
und in den zwei von mir aufgeführten Spielen nur noch 150 anstatt 210W.
Man kann auch das andere Extrem zeigen und Spiele verlinken, wo sie weniger als ein 7800X3D verbrauchen, sogar aus diesem Test zu entnehmen, man muss also gar nicht woanders schauen.
Hier kannst du sogar entnehmen, dass 9800X3D und 285K in Spielen gleich viel Strom ziehen.
ArrakisSand schrieb:
Dies ist sicherlich lobenswert, aber für 650€ erwarte ich mir da schon etwas mehr.
Der 9950X 3D wird voraussichtlich die unangefochtene Performance-Krone auch in Anwendungen,
bei nur einem Bruchteil (+/- 150 W) abgreifen und dafür keine 260 W benötigen.
Du nimmst den Maximalverbrauch der CPU, der Durchschnittsverbrauch ist aufgrund des neuen Designs nicht höher als bei AMD.
Bulldozer.jpg


ArrakisSand schrieb:
Dies gerade wenn man bedenkt das AMD noch in 4nm fertigen lässt lässt tief Blicken.
Nicht wirklich, da der Fertigungsvorteil von "4nm" kommend minimal ist.
Spätestens wenn Intels 18A so einschlägt wie von Intel kommuniziert, wird es wieder ein ungleiches Rennen geben.
ArrakisSand schrieb:
Der 9950X3D wird den 285K auch in multi-core Anwendungen deklassieren
Sowie der 9800X3D den 9700X bei 20Watt höherem Powerlimit um ganze 4% "deklassiert" hat.
Screenshot 2024-11-09 105446.jpg

Dass dir solches Zeug zu verbreiten nicht selber zu blöd wird.

LamaMitHut schrieb:
Auch am Multicore gemessen ist Arrow Lake eine herbe Enttäuschung. Herzlichen Glückwunsch, man liegt mit 8 Kernen mehr und auf einer neuen Fertigung mit nigelnagelneuen Kernen ca. 10-15% über dem 7950X.
Ja, wo liegt der 9950X? Der liegt doch auch genau dort. ;)
Und "8Kerne mehr" ist keine vollumfängliche Betrachtung. Zum einen sind es 1/3 so große E Kerne die niedriger takten, zum anderen verzichtet die CPU auf HT und hat eine wesentlich stärkere IGP verbaut.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667
@Quidproquo77
Ich habe übrigens kein bewusstes Extrem gezeigt, sondern den Ersten Benchmark der mir gerade über den Weg gelaufen ist. Ich habe nicht wie es anscheinend bei dir der Fall ist nach einem Extrembeispiel gesucht.

Auf die Werte von TechPowerUP würde ich mich im übrigen sowieso nicht zu sehr fixieren, die bilden doch wie du bereits sagtest auch nur das obere Ende der Fahnenstange ab und weichen doch sehr von der Norm ab und es ist mir auch schon in der Vergangenheit oft bei denen aufgefallen, dass sie sehr Intel-biased zu sein scheinen.

Bei der Behebung der Multi-Faktor-Probleme kann man Intel sicherlich nur Glück wünschen und wenn
am Ende eine Verbesserung von 2-3% im Schnitt rausschauen sollte, wäre ich zwar bereits positiv überrascht, aber man würde dies natürlich immer gerne mitnehmen.
Momentan ist Intel so am Boden, dass jedes % zwar zählt, aber am Ende den Braten auch nicht fett machen wird.
 
ArrakisSand schrieb:
Ich habe übrigens kein bewusstes Extrem gezeigt, sondern den Ersten Benchmark der mir gerade über den Weg gelaufen ist.
Der erste Benchmark der mir über den Weg läuft ist Computerbase und da liegt der Verbrauch im Schnitt bei 83 Watt in Spielen und nicht bei 150W. Von daher nicht glaubwürdig.
ArrakisSand schrieb:
Ich habe nicht wie es anscheinend bei dir der Fall ist nach einem Extrembeispiel gesucht.
Der Durchschnitts-Verbrauch aus 47 Applikationen ist ein Extrembeispiel? :cheerlead:
ArrakisSand schrieb:
Auf die Werte von TechPowerUP würde ich mich im übrigen sowieso nicht zu sehr fixieren, die bilden doch wie du bereits sagtest auch nur das obere Ende der Fahnenstange ab und weichen doch sehr von der Norm ab und es ist mir auch schon in der Vergangenheit oft bei denen aufgefallen, dass sie sehr Intel-biased zu sein scheinen.
Ja, von deiner Norm vielleicht. Kann auch Igors Lab oder Toms Hardware verlinken.

Screenshot 2024-11-09 120458.jpg

Der Maximalverbrauch ist bei Intel höher, nicht der Verbrauch in Anwendungen oder Spielen per se.
Bei Computerbase zieht der 285K übrigens 30 Watt weniger in Spielen, als der 9950X, aber man muss wie bei Spielen mehr messen um ein Ergebnis zu erhalten.
ArrakisSand schrieb:
Bei der Behebung der Multi-Faktor-Probleme kann man Intel sicherlich nur Glück wünschen und wenn
am Ende eine Verbesserung von 2-3% im Schnitt rausschauen sollte
ArrakisSand schrieb:
Aber im allgemeinen kann gesagt werden, dass der 9700x unter Linux auch in Games im Vergleich zu Windows enorm an Performance hinzugewinnen kann und der 7700X relativ dazu bei weitem nicht so gut abschneidet.
Bei AMD hast du das ganz anders gesehen und AMD intern hat sich nichts zwischen den Generationen getan. Bei Intel ist das Potenzial mit falschen Threadzuweisungen natürlich viel höher, aber dort ignorierst du es und redest von 2-3%, während bei AMD von "enorm" und "bei weitem" die Rede ist, obwohl es da keinen Anlass zu gab. Hardware Unboxed hat wahnsinnige 1% rausgemessen, über 40 Games.

Also spar dir den Quark.
 

Anhänge

  • Screenshot 2024-11-09 105446.jpg
    Screenshot 2024-11-09 105446.jpg
    10,7 KB · Aufrufe: 36
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667
man sollte also weder bei AMD noch bei Intel zu hohe Erwartungen haben.Nur bei denen der wo die letzen % an Mehrleistung aus jeder CPU heraus holen bzw Quetschen will,da spielt es durchaus eine Rolle,welche CPU man dann nimmt.
 
Quidproquo77 schrieb:
Für die, die es interessiert. Intel bereitet Fixes vor, die die Stock- Leistung wohl auf das Niveau eines 14900K anheben sollen.
https://videocardz.com/newz/intel-c...ed-promises-performance-fix-by-early-december
Spannend. Frag mich was die Fixes im Detail beheben werden und wo die Problematik lag das nicht zum Launch bereitstellen zu können.

So oder so spielt das in der Kaufbetrachtung keine Rolle. Ich kann ja nur tatsächlich gelieferte Leistung JETZT bewerten und nicht "versprochene Leistung" evtl. später. Elon verspricht auch viel, seine Autos sollte man aber nur kaufen wen man mit dem JETZT gelieferten zufrieden wäre.

Quidproquo77 schrieb:
Man kann auch das andere Extrem zeigen und Spiele verlinken, wo sie weniger als ein 7800X3D verbrauchen, sogar aus diesem Test zu entnehmen, man muss also gar nicht woanders schauen.
Hier kannst du sogar entnehmen, dass 9800X3D und 285K in Spielen gleich viel Strom ziehen.

Du nimmst den Maximalverbrauch der CPU, der Durchschnittsverbrauch ist aufgrund des neuen Designs nicht höher als bei AMD.
Super, ist wie als wenn Porsche sagt "unser neuer 911er mit Hightech Design ist NICHT LANGSAMER als ein 2.0TDI Golf bei VW". :daumen:

Quidproquo77 schrieb:
Nicht wirklich, da der Fertigungsvorteil von "4nm" kommend minimal ist.
Haben wir schon darüber geredet, das stimmt faktisch schlicht nicht. Da kann ich dich auch fragen warum du solche Unwahrheiten verbreitest ? 15-20% höhere Taktraten / Energieeinsparungen sind zwar nicht die Welt aber auch nicht "minimal" und eine 60% höhere Logikdichte (was viel frappanter ist) ebenfalls nicht.

Dass Intel das nicht nutzt/nutzen kann heisst nicht im Umkehrschluss, dass AMD das auch nicht tun wird.

Quidproquo77 schrieb:
Spätestens wenn Intels 18A so einschlägt wie von Intel kommuniziert, wird es wieder ein ungleiches Rennen geben.
Dann wäre da immer noch TSMCs N2 Node und auf PowerVia haben die BSPD als Antwort. Ich sehe hier ein Kopf-an-Kopf Rennen. Intel gebe ich auch keinen Kredit mehr was hehre Ziele angeht - erstmal wird geliefert. Und das möglichst mal zwei Gens am Stück auf einem Board, danke.

Quidproquo77 schrieb:
Ja, wo liegt der 9950X? Der liegt doch auch genau dort. ;)
Und "8Kerne mehr" ist keine vollumfängliche Betrachtung. Zum einen sind es 1/3 so große E Kerne die niedriger takten, zum anderen verzichtet die CPU auf HT
Da gehe ich völlig mit. Mehr Kerne ja, verzichtet dafür auf HT. Ist schon relativ ausgeglichen, allerdings sind mehr Kerne ggü. HT eigentlich immer zu bevorzugen und schneller, somit sehe ich dennoch einen Vorteil für Intel im Grundsatz. Ist halt so, dass man zwar acht Kerne mehr bietet diese aber wohl gerade mal das wettmachen was das fehlende HT bei den P-Cores kostet.

Quidproquo77 schrieb:
und hat eine wesentlich stärkere IGP verbaut.
Die im Cinebench aber sicher mal so gar nicht gefragt ist und somit spielt das auch keine Rolle bei derlei Benchmarks.
 
Quidproquo77 schrieb:
Ja, wo liegt der 9950X? Der liegt doch auch genau dort. ;)
Und "8Kerne mehr" ist keine vollumfängliche Betrachtung. Zum einen sind es 1/3 so große E Kerne die niedriger takten, zum anderen verzichtet die CPU auf HT und hat eine wesentlich stärkere IGP verbaut.
Siehste, und der 9950x ist in dem Punkt (Multicore) auch eine Enttäuschung - da gibt es nicht viel drum rum zu reden. Warum sollte es Arrow Lake dann nicht sein?

Die zusätzlichen E - cores bedeuten halt trotzdem "doppelten" Aufwand, die npu und igpu sind für die Mehrheit kein Kaufargument.
 
ThirdLife schrieb:
So oder so spielt das in der Kaufbetrachtung keine Rolle. Ich kann ja nur tatsächlich gelieferte Leistung JETZT bewerten und nicht "versprochene Leistung" evtl. später.
In der Kaufbetrachtung wohl schon, in der Bewertung eher weniger, schließlich kann ich nichts bewerten was nicht da ist.
ThirdLife schrieb:
Super, ist wie als wenn Porsche sagt "unser neuer 911er mit Hightech Design ist NICHT LANGSAMER als ein 2.0TDI Golf bei VW". :daumen:
Nein, ist es nicht. Den Kontext bitte beachten. Strombedarf ist nicht mit Performance gleichzusetzen. Du solltest den Beitrag auf den ich antworte schon auch lesen.
ThirdLife schrieb:
Haben wir schon darüber geredet, das stimmt faktisch schlicht nicht.
Intel hat seit langer Zeit relativ kurzfristig auf TSMC gesetzt, vor nicht mal einem Jahr war Arrow Lake wohl noch auf 20A geplant. Sicherlich bringt 3nm hinsichtlich der Effizienz und Performance kleine und bei Density große Sprünge, aber die sind was Performance und Effizienz betrifft nicht die Welt, auch weil Intel auch eine hohe Taktregression verkraften muss. Das sind fast 10% weniger Taktrate.
ThirdLife schrieb:
Intel gebe ich auch keinen Kredit mehr was hehre Ziele angeht - erstmal wird geliefert. Und das möglichst mal zwei Gens am Stück auf einem Board, danke.
Ja, ich würde keine Aussage für bare Münze nehmen.
ThirdLife schrieb:
Da gehe ich völlig mit. Mehr Kerne ja, verzichtet dafür auf HT. Ist schon relativ ausgeglichen, allerdings sind mehr Kerne ggü. HT eigentlich immer zu bevorzugen und schneller, somit sehe ich dennoch einen Vorteil für Intel im Grundsatz.
AMD arbeitet halt schon seit Jahren mit TSMC zusammen, für Intel war es voerst eher ein Ausflug.
ThirdLife schrieb:
Die im Cinebench aber sicher mal so gar nicht gefragt ist und somit spielt das auch keine Rolle bei derlei Benchmarks.
Die in den Reviews aber keine Beachtung bekam. Gemeint war damit, man bewertet die CPU in den Kommentaren nicht sonderlich fair. Ich finde sie in der Gesamtheit sogar durchaus etwas besser als den 9950X.

Bringt aber nicht so viel, weil die Plattformkosten noch zu hoch sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667
Quidproquo77 schrieb:
In der Kaufbetrachtung wohl schon, in der Bewertung eher weniger, schließlich kann ich nichts bewerten was nicht da ist.
Ja, daher schneidet Intel halt auch schlecht ab. Kann ja keine nicht vorhandene Performance als "möglicherweise könnte das mal gut werden" bewerten. Denke da würde ich eigentlich mit den meisten Magazinen aktuell konform gehen.

Quidproquo77 schrieb:
Nein, ist es nicht. Den Kontext bitte beachten. Strombedarf ist nicht mit Performance gleichzusetzen. Du solltest den Beitrag auf den ich antworte schon auch lesen.
Ich hab den Beitrag schon gelesen. Es ist nur kein Achievement was Intel hier abliefert wenn andere das schon seit Jahren liefern. Wenn du in der Firma der Letzte bist der irgendwas kapiert kannst dich auch schlecht dafür groß feiern lassen und die Mords-Anerkennung erwarten.

Quidproquo77 schrieb:
Intel hat seit langer Zeit relativ kurzfristig auf TSMC gesetzt, vor nicht mal einem Jahr war Arrow Lake wohl noch auf 20A geplant. Sicherlich bringt 3nm hinsichtlich der Effizienz und Performance kleine und bei Density große Sprünge, aber die sind was Performance und Effizienz betrifft nicht die Welt, auch weil Intel auch eine hohe Taktregression verkraften muss. Das sind fast 10% weniger Taktrate.
Das ist aber Intels Problem, nicht das des Kunden oder Testers. Intel hätte auch weniger mit dem Silizium geizen können und die höhere Density für fettere IPC Gains nutzen können. Stattdessen wollte man lieber weniger Chipfläche - muss ja günstig sein. Jetzt stehen sie halt da wie die letzten Lappen. Kann man so machen - muss man aber nicht.

Und die 10% weniger Takt werden ja problemlos von der besseren Fertigung aufgefangen. Das hat schon Intel schön selbst verbockt durch vermutlich kurzfristiges Umschwenken auf TSMC um wenigstens IRGENDWAS neues bieten zu können.

Quidproquo77 schrieb:
AMD arbeitet halt schon seit Jahren mit TSMC zusammen, für Intel war es voerst eher ein Ausflug.
Generell bin ich da voll bei dir, jedoch nutzt Intel TSMC schon auch für andere Produkte. Halt nicht auf der Highend-Node. Generell denke ich gings hier mehr ums Geld und weniger um mangelndes Können.

Quidproquo77 schrieb:
Die in den Reviews aber keine Beachtung bekam. Gemeint war damit, man bewertet die CPU in den Kommentaren nicht sonderlich fair. Ich finde sie in der Gesamtheit sogar durchaus etwas besser als den 9950X.
Naja, die iGPU dürfte in einem 285K wohl auch nahezu gar nie benutzt werden. Wer so eine CPU kauft dürfte auch eine entsprechende dGPU dazu kaufen. Daher findet das natürlich wenig Beachtung, zu Recht wie ich meine. Wie du allerdings zum Schluss kommst das Produkt sei besser als der 9950X verstehe ich nicht. Wenn man jetzt auch noch die Plattform mit einbezieht hat man seitens Intel den besseren IMC aber dafür 4 PCIe Lanes weniger, dafür aber eben, die bessere iGPU.

Spielen beide absolut auf Augenhöhe miteinander Tennis. Und darum muss man halt auch festhalten, dass Intel so oder so unterhalb dessen abgeliefert hat was man auf Basis der N3-Node erwarten könnte. Mithalten reicht nicht wenns sonst immer hieß "sind nur hinterher weil AMD TSMC hat".

Quidproquo77 schrieb:
Bringt aber nicht so viel, weil die Plattformkosten noch zu hoch sind.
Hier vermisse ich mal eine fixe Aussage seitens Intel bezüglich der Zukunft von LGA1851. Kommt überhaupt noch was neues ? Wenn ja, nur ein kleiner Refresh oder was dickeres ? Ohne das würde ich aktuell ungern in die Plattform einkaufen abseits von vielleicht einem Home-NAS / Storage-System.
 
ThirdLife schrieb:
Ja, daher schneidet Intel halt auch schlecht ab. Kann ja keine nicht vorhandene Performance als "möglicherweise könnte das mal gut werden" bewerten.
Gut nicht, aber zumindest 10% könnten drin sein.
ThirdLife schrieb:
Wenn du in der Firma der Letzte bist der irgendwas kapiert kannst dich auch schlecht dafür groß feiern lassen und die Mords-Anerkennung erwarten.
Jetzt wiederhole ich mich. Halte dich an den Zusammenhang. Darum ging es nicht. Es ging bei seiner Aussage um den Strombedarf und die war holpriges Cherry Picking. Auf das was du da hinaus willst, verstehe ich nicht.

Ich habe von sowas nicht im entferntesten gesprochen.
ThirdLife schrieb:
Das ist aber Intels Problem,nicht das des Kunden oder Testers.
Ja, wieso wer behauptet es wäre anders?
Du solltest an deinem Textverständnis arbeiten...
ThirdLife schrieb:
Das hat schon Intel schön selbst verbockt durch vermutlich kurzfristiges Umschwenken auf TSMC um wenigstens IRGENDWAS neues bieten zu können.
Hab ich doch geschrieben, nur etwas sachlicher.
ThirdLife schrieb:
Naja, die iGPU dürfte in einem 285K wohl auch nahezu gar nie benutzt werden.
?! Na klar. Gibt doch X Systeme ohne dGPU. Der 285K ist quasi eine APU.

ThirdLife schrieb:
Wie du allerdings zum Schluss kommst das Produkt sei besser als der 9950X verstehe ich nicht.
Spieleverbrauch geringer, Praxisverbrauch Workstation geringer, stärkere IGP, Leistung gleich + Reserven, wegen falscher Threadzuweisung.
ThirdLife schrieb:
Wenn man jetzt auch noch die Plattform mit einbezieht hat man seitens Intel den besseren IMC aber dafür 4 PCIe Lanes weniger, dafür aber eben, die bessere iGPU.
Die Intel Plattform ist laut der Analyse von PCGH_Thorsten etwas stärker, da mehr M.2 mit PCIe 4.0 angebunden werden können. Er sieht die vorne, aber eher akademischer Natur.
 
Zuletzt bearbeitet:
ThirdLife schrieb:
Naja, die iGPU dürfte in einem 285K wohl auch nahezu gar nie benutzt werden. Wer so eine CPU kauft dürfte auch eine entsprechende dGPU dazu kaufen. Daher findet das natürlich wenig Beachtung, zu Recht wie ich meine. Wie du allerdings zum Schluss kommst das Produkt sei besser als der 9950X verstehe ich nicht. Wenn man jetzt auch noch die Plattform mit einbezieht hat man seitens Intel den besseren IMC aber dafür 4 PCIe Lanes weniger, dafür aber eben, die bessere iGPU.
Na sei dir bei dieser Aussage nicht so sicher.Es gibt auch welche die wenig Zocken und der Fokus auf reiner Anwendung liegt.Du wirst nicht glauben,aber es wird von mir noch mehr von der Sorte geben die genau auf die reine CPU Leistung achten,aber nicht so auf die GPU Leistung.
Und rate mal was da bei der CPU dann wichtig ist wenn es auf Anwendungsleistung geht.Ja klar auf die CPU.
Mir wird weil mein Pc zu lange dauert,sogar eine rtx 3050 6 gb GPU geschenkt. Für so olle Spiele reicht ja sogar eine gtx 750 aus.Das erreicht die Intel GPU locker. Für eine gtx 1650 wird selbst die Aktuelle Onbaord GPU nicht ganz reichen,dafür ist sie deutlich sparsamer unterwegs. Wie weit die wohl noch entfernt sein werden, vielleicht so 10-20 %.
Ne AMD Onbaord GPU dürfte gewiss schon etwas stärker sein. Es war ja nur ne Frage der Zeit wann die Leistung übertroffen wird.Ich zocke die alten Games in nur Full HD auf 144 fps begrenzt. Klar hat die GPU da noch ein wörtchen mit zu reden,aber nicht so viel.
Die Letzte Onbaord GPU wo ich verwendet hatte,war in dem i7 3770k und da liesen sich die FPS leider nicht begrenzen.Das hätte ich zu gerne gemacht. Es gab also eine kurze Zeit ohne eine Dedizierte GPU.
Damit wurde CS Source gezockt.Zwar nun nicht auf Maximale Details aber es lief.Die FPS waren stabil und ohne Ruckler. Das ist das wichtigste zum zocken. Wenn ich Maximale Details wollte bei dem Game,dann war die Onbaord GPU zu lahm gewesen.

Die Sprünge werden immer stärker.Es freut mich in Zukunft auf eine Dedzierte GPU verzichten zu können.Spätestens 2028 wird es weitere Massive Spünge nach unten geben. Es wird mir ne Freude sein ,mehr Leistung als ich selbst gehabt habe zu genießen. Allerdings die Bandbreite ist das einzige Problem in Zukunft bei solchen Onbaord GPUS.
Bei Tausenden von Gegnern selbst wenn das Game schon bald 20 Jahre alt ist,haut Ordentlich rein. Die Onbaord GPUS haben sowas wie 50 GB/S Bandbreite.Benötigt wird für das Game mindestens 80-90 GB an Banbreite.

Warum also so ein altes Game der Horror für ne Onbaord GPU ist, einfach mal 10 000 Gegner gleichzeitig auf dem Bildschirm(Gefühlt) und die GPU bricht zusammen.Weil sie an der Speicherbandbreite verhungert.
Das alter eines Games sagt über das Fordern einer GPU nix aus.
 
Wieso sieht man hier im Gegensatz zum Ryzen 9. X3d thread keine oder Erfahrungsberichte zu ihren tollen neuen Arrow Lake CPUS?
Schämt ihr euch etwa 🤣
 
dergraf1 schrieb:
Schämt ihr euch etwa 🤣
Weshalb sollte man das?

1 oder 2 gab es hier in dem Thema, die ihre Erfahrungen gepostet haben.
 
  • Gefällt mir
Reaktionen: LamaMitHut, catch 22 und dergraf1
@dergraf1
Gibt nicht so viele die Interesse haben.
13900k und 14900k Nutzer wollen die meisten nicht wechseln, lohnt sich nicht.
Auch viele andere Intel Fans bleiben bei ihren alten CPUs.
AMD Fans haben auch kein Grund zu wechseln.
Alle die primär zocken wollen, wechseln verstärkt zu den X3Ds.
 
dergraf1 schrieb:
Wieso sieht man hier im Gegensatz zum Ryzen 9. X3d thread keine oder Erfahrungsberichte zu ihren tollen neuen Arrow Lake CPUS?
Schämt ihr euch etwa 🤣
Ganz und gar nicht, läuft super. Massive Zeitersparnis beim rendern, davinci auch endlich ruckelfrei, Maya läuft eben wie Maya läuft, aber im Arnold wird alles weggerendert wie nichts und meine anderen 3D Programme auch butterweich. Achso, gezockt hab ich auch schon und bei 85 fps cap flüssig wie eh und je. Und die Plattform an sich, insbesondere auch die lane Aufteilung samt USB 4 und thunderbolt ist auch ganz nett.

Aber ich glaube sowas interessiert hier und in anderen Foren eher weniger Leute. Die hypen lieber ihre 500 fps in counter strike.
 
  • Gefällt mir
Reaktionen: Fylx
Zurück
Oben