Als Intel "Fanboy" vom 10850K zu AMD, ggf. 9800X3D!?

fanboy sein hat mehr Nachteile als Vorteile, man wird unflexibel.

anders ausgedrückt der 9800x3d wird das produkt für gamer. jetzt liegt es an dir wie sehr du "Fan" sein willst
 
  • Gefällt mir
Reaktionen: EL-SANTO
Baal Netbeck schrieb:
ich kann deinen Wunsch nach mehr Schwupdizität nachvollziehen. ;)
Am Wochenende Windows vom Gaming PC verbannt. Das ist teilweise schon krass, in wie weit sich Linux im Vergleich zum Bloatware Windows anfühlt, obwohl die Hardware mehr als schnell ist.
 
  • Gefällt mir
Reaktionen: Wynn3h und Baal Netbeck
thuering schrieb:
Wäre das nicht schön?
Da wäre sehr schön. :D Das war ja auch mein Plan. Also n 265 mit ordentlich USB Anschlüssen und 5Gigabit Lan etc... Aber ich fühle es nicht. Und mein Gefühl hat mir schon oft zu richtigen Entscheidungen geholfen. Aber da es ja eh der 9800X3D werden soll, hat Intel ja noch ein paar Tage zum nachbessern. :D Mal schauen.

@SavageSkull
Super Erklärung und in sich natürlich durchaus nachvollziehbar! Mein aktueller Monitor hat meine ich auch einen 5ms (IPS / 21zu9). Ich frage mich halt oft, wie können die Leute mit 60FPS zocken? Das ist ja schrecklich. Aber dann denke ich mir eben auch, so schlimm kann es nicht sein. Können ja nicht alle so "verstrahlt" sein und das nicht sehen. Also liegt es ggf. an anderen Dingen. Und da dachte ich ja, dass GSync (Wenig FPS fühlen sich flüssig an etc...) eben ggf. was bringen. Weil 4K zum arbeiten wäre schon ne feine Sache. Lasse ich halt nur wegen dem Gaming. Ach das Leben ist grausam :D
Ergänzung ()

Baal Netbeck schrieb:
Mir würden vermutlich 4K 240 als nächste Stufe reichen
Aber wie bezauberst du den denn mit den nötigen FPS? Alleine der den du jetzt hast. Da gibt es doch diverse Spiele, wo man nicht auf die 144FPS kommt. Oder immer Auflösung hoch und Details runter? Ich finde mehr Details oder auch Raytracing oft besser. Mag halt Effekte etc... und meine Augen sind eh nicht mehr die besten. Da ist ein wenig Unschärfe OK. :D
 
  • Gefällt mir
Reaktionen: thuering
SavageSkull schrieb:
Also kann, wenn du zum Beispiel immer 100FPS hinbekommst, aber auch ab und zu 150FPS es durchaus sinnvoll sein, die Frames auf 100FPS zu limitieren, damit man keine Sprünge zwischen 10ms Frames und 6,66ms Frames zu erhalten, sondern das stabil bei 10ms Frame für Frame klebt.
Grundsätzlich stimme ich deinem Beitrag zu, aber das die Variation alleine ein schlechtes Gefühl(Ruckeln) erzeugt, ist meiner Erfahrung nach nicht unbedingt der Fall.

Es gibt natürlich Situationen wo das so ist, aber solange die Frametimeschwankungen durch G-sync/Freesync synchron auf dem Schirm abgebildet werden, kommt es darauf an, ob die Simulationsschritte im Spiel dazu synchron sind.
Ist schwer zu beschreiben. ;)
Sagen wir das Auge verfolgt einen anderen Spieler über den Bildschirm.

Wenn der sich alle 10ms um 10mm weiter bewegt, ist das gut.
Wenn der sich alle 10ms weiter bewegt, aber wegen schwankenden Drawcall Bereichnungszeiten mal 8mm und mal 12mm, ist das nicht schön.
Da wäre es aus meiner Sicht besser wenn er sich mal 10mm in 10ms weiter bewegt und mal 6mm in 6ms....mehr Aktualisierungen insgesamt und trotzdem kann sich das Auge darauf einstellen, dass es den Spieler mit konstanter Bewegung verfolgen kann.
 
  • Gefällt mir
Reaktionen: EL-SANTO
  • Gefällt mir
Reaktionen: coxon, Geisterwolf und thuering
Chesterfield schrieb:
anders ausgedrückt der 9800x3d wird das produkt für gamer. jetzt liegt es an dir wie sehr du "Fan" sein willst
Ich hoffe du siehst die Ironie an der Aussage. Was der 9800X3D nachher auf die Straße bringt, weiß aktuell noch niemand. Das einzige was bestätigt ist, dass es etwas mehr Takt sein wird, was man sich womöglich durch eine höhere Leistungsaufnahme erkauft (Die besagte Brechstange hat 10 Jahre alte blaue Farbe).
AMD selbst spricht von "nur" 8% mehr Gaming Leistung und die haben in den letzten Aussagen, gerne etwas viel geflunkert. Zumindest die 9000er Basis hat beim Release keinesfalls besser überzeugt, als jetzt der Core Ultra 200. Auch klar ist, man wird mit Ryzen 7 nach 6! Jahren immer noch nur 8/16 Kerne bekommt, für einen stolzen Preis.
Ich bezweifel doch sehr stark, dass es die CPU werden wird.

@midwed Frag die Forensoftware, was die da gerade veranstaltet hat. Habs jetzt händisch geändert.
 
  • Gefällt mir
Reaktionen: EL-SANTO und Baal Netbeck
SavageSkull schrieb:
Ich bezweifel doch sehr stark, dass es die CPU werden wird.
Stimmt! So pauschal kann man das denke ich echt nicht sagen. Aber wenn die 15% im Multi noch dazu kommen. Ist, zumindest für meinen speziellen Fall, ein 9800X3D für 500€ sicher besser als ein 7800X3D für 450€. Zumal, behauptet wird, das die 8% mit weniger Leistungsaufnahme erreicht werden sollen. Wobei das alles natürlich Kaffeesatzleserei ist. Also mal entspannt schauen.

Aber erstmal an alle >> Vielen Dank für eure Meinungen! Immer wieder schön zu sehen, dass die Community bei CB so fix und freundlich ist. Zumindest meine Erfahrung hier. :daumen:
 
  • Gefällt mir
Reaktionen: Baal Netbeck
EL-SANTO schrieb:
Eher wegen AMD Treiber-DingDong.
Das war bei den CPUs nur dann ein wirkliches Problem, wenn es um CPUs mit mehreren CPU Chiplets ging....da hat Windows nicht verstanden, wie es Spiele auf einem Chiplett hält um die größere Kommunikationslatenz zwischen den Chipletts zu verhindern/minimieren und bei den X3D CPUs hatte nur eines der Chipletts auch den extra Cache und Windows hat nicht unbedingt darauf geachtet die Spiele auf das richtige Chiplett zu setzen.

Da brauchte es dann Windows Updates und den Chipsatztreiber von der AMD Seite selbst, da Microsoft nur die veralteten mitliefert.

Auch so mit einem 6 oder 8 Kerner der nur ein CPU Chiplet hat, würde ich empfehlen den Chipsatztreiber von der AMD Seite zu ziehen und zu installieren. Wobei ich da keine Leistungsunterscheide messen konnte.

Die AMD Treiber müssen sich aber nicht mehr verstecken... Von Zeit zu Zeit haben alle Hersteller noch Probleme, aber nicht mehr AMD im speziellen. ;)
EL-SANTO schrieb:
Ich will halt schon länger auf eine höhere Auflösung. Aber wegen genau diesem Fealing, lasse ich es immer.
Deshalb lasse ich es ja auch noch. ;)
Ich warte auf neue Grafikkarten im nächsten Jahr und dann sehe ich weiter....meine Radeon VII ist schon lange im Einsatz, da kann ich mal wieder tiefer in die Tasche greifen und mir was gönnen.
EL-SANTO schrieb:
Alleine der den du jetzt hast. Da gibt es doch diverse Spiele, wo man nicht auf die 144FPS kommt. Oder immer Auflösung hoch und Details runter?
Ja die gibt es. Ich habe aber einen großen "Pile of shame", mit Spielen die älter sind und daher auch in 1440p gut laufen.
Aber grundsätzlich passe ich die Grafikoptionen individuell nach unten an.
Es gibt vieles, das ich nichtmal im direkten Vergleich sehen kann oder das viel Leistung kostet ohne dass ich es vermissen würde.
Motion Blur, Tiefenschärfe, Chromatische Aberation....sowas schalte ich schon aus, da ich die Effekte nicht mag.
...und was nach dem anpassen der Optionen immer noch nicht gut läuft oder dann nicht mehr hübsch wäre, wird auf später verschoben.
EL-SANTO schrieb:
Ich finde mehr Details oder auch Raytracing oft besser. Mag halt Effekte etc..
Jeder wie er mag. Ich kann RT eh nur am Laptop einschalten und sehe da meist mehr Nachteile als Vorteile(ganz abgesehen von der Leistung.)
Raytracing hat dieses krisselige in den Schatten oder Reflexionen, das dann in Bewegung komisch aussieht und in Stillstand langsam besser wird. Ganz verwirrend für mich, wie man das als Fortschritt sehen kann.
Ich spiele doch kein Spiel und denke mir:"Oh, also eigentlich müsste dieser Schatten zu den Rändern hin sanfter übergehen und dieses Licht reagiert nicht korrekt auf dieses eine Objekt.
Sowas mag mit RT korrekter berechnet werden, aber was mir auffällt, ist wenn da was krisellig/verrauscht ist.

Was ich ganz fantastisch finde ist DLSS in 4K ...Auch hier gibt es ab und zu Bugs wo etwas flimmert, ghosting zeigt oder so....aber meist senkt es flimmern und hat vor allem eine Kantenglättung die die Bildschärfe beibehält.
In vielen aktuellen Spielen hat man ja zwangs TAA(unscharf) und FSR ist einfach noch nicht auf dem gleichen Level, auch wenn es teilweise auch gut ist.

Wenn AMD es schafft FSR mit KI auf das Level von DLSS zubringen, erwäge ich wieder eine AMD Grafikkarte(sofern AMD überhaupt etwas schnelles anbieten wird) ...sonst muss es wohl Nvidia werden...zu vermutlich Mondpreisen. :(
 
  • Gefällt mir
Reaktionen: EL-SANTO
EL-SANTO schrieb:
Der innere Kampf ist in vollem Gange. :D
Mein Gefühl hat mir gesagt 5800X3D, März 2023, 340€. Und Junge, das fühle ich jeden Tag. :D imho gibt es da nicht viel zu überlegen. :evillol:
 
  • Gefällt mir
Reaktionen: EL-SANTO
Baal Netbeck schrieb:
Auch so mit einem 6 oder 8 Kerner der nur ein CPU Chiplet hat, würde ich empfehlen den Chipsatztreiber von der AMD Seite zu ziehen und zu installieren. Wobei ich da keine Leistungsunterscheide messen konnte.
Ich danke dir für die ausführlichen Anregungen! Werde ich im Falle des Falles berücksichtigen!

Also wieder warten... Naja, dann luscher ich mal nach Monitoren und dem neuen GSync / MediaTek Zeug. Langweilig wirds einem beim Thema Hardware ja zum Glück nicht. ;)
Ergänzung ()

coxon schrieb:
imho gibt es da nicht viel zu überlegen.
Irgendwie ja.

Also wenn man die Benchmarks mal so anschaut, tut mir Intel schon etwas Leid. Und ich hatte ja den 265 ins Auge gefasst... Hoffe es ist OK, den Link hier zu posten:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
EL-SANTO schrieb:
Hoffe es ist OK, den Link hier zu posten:
Heretiker! Ketzer!
Jetzt werden die Fackeln und Mistgabeln geholt! ...


Ach, das war ja das andere Forum... 😝
 
  • Gefällt mir
Reaktionen: EL-SANTO
OK, damit ist der Drops gelutscht und morgen wird der 9800X3D bestellt. Schon schwer beeindruckend das Teil.

Kann mir wer nen Lüfter empfehlen? Aktuell habe ich einen Scythe Fuma 2 der, wie ich meine, recht günstig war. So 50-60 € wären n guter Kurs.

Danke. Sofern wer nen Tipp hat, für nen seit XX Jahren Intel-User.

Danke!
 
EL-SANTO schrieb:
Warumb nicht behalten? (außer der alte PC soll als ganzes weg)

Ansonsten sind Thermalright Phantom Spirit 120/140, Scythe Fuma 3 oder auch Arctic Freezer 36 leise, leistungsstarke und bezahlbare CPU-Kühler.
Ich persönlich mag Endorfy nicht, aber den Kram wird bestimmt auch noch jemand vorschlagen.
 
  • Gefällt mir
Reaktionen: EL-SANTO und KarlsruheArgus
EL-SANTO schrieb:
Kann mir wer nen Lüfter empfehlen? Aktuell habe ich einen Scythe Fuma 2 der, wie ich meine, recht günstig war.
Sofern der ein AM5 Kit kannst du behalten. Der 9800X3d lässt sich sehr einfach kühlen ist übergreifend zu lesen.
Kommt also nicht so sehr drauf an.
 
  • Gefällt mir
Reaktionen: EL-SANTO und KarlsruheArgus
thuering schrieb:
Warumb nicht behalten? (außer der alte PC soll als ganzes weg)
Genau deswegen :) Zwar nicht der ganze Rechner, aber CPU, RAM, Board und Kühler.

LencoX2 schrieb:
Kommt also nicht so sehr drauf an.
Jo, als alter Intel'er ist der CPU Lüfter eine wichtige Entscheidung gewesen :D

Hab jetzt den Thermalright Peerless Assassin 120 Black genommen. Der Arctic Freezer 36 war auch in meiner Auswahl aber leider nicht so verfügbar wie bzw. wo ich ihn gebracht hätte.
 
  • Gefällt mir
Reaktionen: thuering
EL-SANTO schrieb:
Kann mir wer nen Lüfter empfehlen?
Die aktuellen CPU-Kühlerempfehlungen sind recht simpel.

Arctic F36 in der jeweiligen Wunschausführung oder eben der Thermalright 140er.

Alle anderen Turmkühler haben keine Daseinsberechtigung mehr.

Der F36 konkurriert mit dem Noctua NH-D15 und der Thermalright 140 mit dem G2.
Quelle: F36
PCGH
Igorslab
Quelle: Thermalright 140
HWBusters
 
  • Gefällt mir
Reaktionen: EL-SANTO
OK, bin letzten Donnerstag offiziell übergelaufen zu AMD. :D Kiste läuft soweit. Noch Lüfter final einstellen und bissl Software konfigurieren etc... aber sonst, soweit alles fresh.

Gab zwei kleine Probleme.
1: Kompatibilitätsproblem mit meiner PCIe Netzwerkkarte, die sich wohl mit der internen nicht verstanden hat. Ich vermute weil genau gleicher Chip. Aber löse ich über 2,5er Switch.
2: Mir wurde und wird eine Microsoft Basic Display Adapter "Grafikkarte" im Gerätemanager angezeigt. Da gab es auch ein paar komische Verhaltensweisen bei der Grafikkarteninstallation. Hab dann noch mal alles neu aufgesetzt und das Ding direkt deaktiviert. Jetzt passt es soweit.

@SavageSkull @Baal Netbeck

Noch mal kurz zum Monitor. Ich habe es jetzt mal mit und ohne DLSS sowie Framegeneration getestet. Also ich muss zugeben, so extrem ist der Unterschied nicht. Gedroppte Frames so um die ca. 90 mit DLSS und Framegeneration fühlen sich, ich nenne es mal, verklebter / schmieriger an. Ohne DLSS und FG ist es aber "abgehackter" bzw. stockiger. Also ich bilde mir ein, so wie eben auch in Windows, ein Fenster mit der Maus bei 60 Hz bewegen vs Fenster mit 144Hz bewegen.

Naja. Ich glaube ich sollte mir einfach mal einen 1440p mit GSync besorgen und testen. Aber Monitore zurücksenden ist immer so aufwändig, also wenn er nix sein sollte. Schade, dass einem da keiner mal so richtig klare Aussagen geben kann. Aber so ist das wohl bei eher subjektiven Dingen.

Und die Frage nach der Interpolierung, also ob ich einen 34 Zoll 4K einfach auf 1080p stellen kann und ein scharfes Bild habe, konnte mir so richtig auch noch keiner beantworten.

Ich bin auch am überlegen von 21:9 weg zu gehen. Vielleicht lieber 16:9 auf 34 Zoll mit 1440p.

Ach ja, mein aktueller LG34UC79G-B hat ja auch "nur" 5 ms GtG. Vielleicht macht sich die 1 ms von alternativen Geräten ja auch positiv bemerkbar. Wobei ich das "springende" Fenster (60 zu 144Hz in Windows) eher nicht auf den Reaktionszeit schieben würde. Wohl einfach auf die höhere Refreshrate die es ja nun mal ist.
 
EL-SANTO schrieb:
wird eine Microsoft Basic Display Adapter "Grafikkarte" im Gerätemanager

Dir ist bewusst, dass ab ryzen 7000 es iGPU's gibt bei den CPUs. Treiber only installieren und schon funktioniert sie
 
  • Gefällt mir
Reaktionen: EL-SANTO
NerdmitHerz schrieb:
Dir ist bewusst, dass ab ryzen 7000 es iGPU's gibt bei den CPUs.
Ja klar, aber brauch ich halt nicht. :) Und bei der Nvidia Installation gabs dann Mucken. Ist mir halt bei Intel, da ghab ich auch immer mit interner GPU genommen, wegen wenn Graka mal im Arsch, weiter arbeiten.... Aber da ist mir das halt nie aufgefallen. Darum für mich ein "Problem". Hab auch versucht, das Ding im Bios zu deaktivieren aber nix gefunden.

Noch mal zum Monitor. Habe jetzt beschlossen einen 16:9 4K (144hz, Gsync Kompatibel) zu besorgen. Den teste ich dann mal. Ich habe ChatGPT mal meine Empfindungen beim zocken erklärt und er meinte, Gsync is was und der direkte Teiler fürs Zocken in weiter 1080p ist deutlich besser als 1440p auf 1080p runter zu skalieren. Was ja nachvollziehbar ist.
 
Zurück
Oben