Bottleneck? / Upgrade einzelner Komponenten nötig? / OC Probleme!

zu 1) höhere Auflösungen erfordern natürlich auch mehr Rechenpower, mögliche bottlenecks werden verstärkt..weiss nicht ob Dir das gefallen würde. Natürlich kannste die Auflösung notfalls auch runterdrehen...aber dann muss der TFT-Monitor interpolieren und das kann durchaus richtig bescheiden aussehen (Schärfe)- und man kauft ja auch keinen 4k-Monitor um ihn dann doch @fhd zu betreiben.
Kann ich jetzt nur aus meiner Sicht beurteilen.. ich mag zb. Autorennen und ich bestehe auf stabile ultraflüssige 60 fps (bei nem 120hz-Monitor würde ich dann also auch auf 120fps bestehen) jederzeit, sonst kriege ich Plaque. Deswegen justiere ich mir das mit fps-limit oder mit vsync so (abhängig vom Spiel, je nachdem, was die Grafikoptionen im Spiel hergeben und wobei weniger gefühltes input-lag entsteht, extra-software nutze ich dafür nicht ), dass ich sowohl cpu, als auch gpu-maessig noch reserven habe, also weder im cpu, noch im gpu limit bin, sondern stattdessen im gewünschten fps-limit ,also 60fps@fhd :-) Höhere Auflösung kommt für mich erst in Frage, wenn ich davon ausgehen kann, daß meine Hardware diese Auflösung auch jederzeit bei meinem Lieblingsspiel xyz mit 60fps und akzeptabler Grafikpracht bedienen kann. Bis dahin reicht mir fhd. 4k und dann hardwareabhängig notgedrungen vielleicht mit synchronen 30fps umherzutuckern ist für mich keine Option. Ich sehe und "spüre" das.
Anders bei Multiplayer-Shootern, die ich zur Zt. eher nicht spiele; da würde ich im Gegensatz dazu das input-lag höher bewerten. 60fps bei 60hz ist ja erstmal ok, aber wenn ich mir einbilde, dass 156fps spürbar agiler rüberkommen, dann pfeife ich halt auf tearing und fahr die hardware voll ins limit, fps ftw.. (an die Auflösung gehe ich wg. oben genannter Interpolationsgeschichte dann aber trotzdem nicht ran) Soweit klar?

zu 2) Die Frage musst Du Dir sebst beantworten. Wenn OC der CPU nötig sein sollte und das Leistungsdefizit, bzw bottleneck dadurch auch wirklich getilgt werden kann, um Dein Lieblingsspiel xyz mit Deinen Wunsch-fps betreiben zu können, dann definitiv ja.

zu3) Spätestens wenn die Festplatte mehr rattert als die CPU rechnet. Keine Sorge, das merkst Du mit absoluter Sicherheit, wenns wirklich soweit ist. Ist krass spürbar..selbst wenn die Auslagerungsdatei auf ssd liegt.. die Kiste geht regelrecht in die Knie.

zu4) hm, weiss nicht..Chipgüte? Oder weil der Hersteller eh schon fast alles rausgeholt hat, was machbar war?

zu5) Ja, Gehäuse ist wichtig, abslout. Da gibts deftige Unterschiede bzgl. Vibrationsarmut, Geräuschpegel, Kühlung. Aber ob Dein unbekanntes Gehäuse jetzt nicht so gut ist oder doch kann ich beim besten Willen nicht erraten. Da hilft ja fast nur ausprobieren und ein Vergleich unter identischen Bedingungen.
 
Zuletzt bearbeitet von einem Moderator:
Da wir nicht wissen welche spiele minokrates spielt, kann man auch nicht sagen ob eine 980Ti für 4K ausreichend ist. In älteren oder grafisch weniger anspruchsvollen Titeln kann die Karte durchaus ausreichen für 60 FPS. Meine Aussage -wenn er sich es leisten kann- bezog sich auch auf ein eventuelles Grafikkarten upgrade oder ein SLI. Also ich wurde meinen 4k Ips Panel nie mehr gegen einen Monitor mit geringerer Auflösung eintauschen. Und bin durchaus bereit, wobei ich sagen muss ,dass ich meinen PC nicht primär zum Spielen nutze, die Auflösung in spielen zu reduzieren wenn Sie nicht flüssig laufen. Das wollte ich nochmal zur Bildschirm Wahl gesagt haben.

Edit: leider war mir beim kauf meines Asus mx27u nicht bewusst, dass dieser adaptive sync unterstützt. Bei dem dem release von Vega werde ich mir diese Karten karten deshalb genau ansehen. Sage dies nur weil G-sync hier evtl. auch Rolle spielen könnte.
 
Zuletzt bearbeitet:
Oh, v45c0, ich wollte Deine Aussage dazu auch in keinster Weise kritisieren. Ich hatte Deinen Post noch nichtmal gelesen, als ich meinen geschrieben habe. (Brauche immer ein bischen länger weil ich die blöde Angewohnheit habe, alles noch 20-mal zu editieren.) Die Interpolationsfähigkeiten der Monitore sind unterschiedlich, kann ja durchaus sein, daß Deiner akzeptable oder sogar super Ergebnisse liefert. Mein low-budget 27 Zoll-ips (lg ips277l) und mein inzwischen in die Jahre gekommener Zweitmonitor (samsung 226bw) könnens jedenfalls beide nicht gescheit. Und wohin sollte ich auch runterinterpolieren von fhd bzw. 1680x1050..wenigstens das Seitenverhältnis sollte man ja dabei schonmal in Ruhe lassen :-)

G-sync oder freesync oder was-auch-immer-fürn-sync habe ich leider noch nicht live gesehen. Vielleicht waere das auch was für mich. Ich erinner mich noch an pre-tft-Zeiten. Da waren 60hz noch richtig mies, da haben mir die Augen getränt..da brauchte ich mind. 100hz (bei gaming also idealerweise auch 100fps) um klarzukommen. Da konnte ich nur Kopfschütteln ,wenn die Leute, am besten noch mit über 100fps, vor ihrem 60hz-Flackerröhren saßen und das, obwohl auch 100hz drin gewesen wären. Und haben es noch nichtmal gemerkt *g*
Wenn mir dann dank xyz-sync plötzlich "46hz" reichen, hätte ich auch nichts dagegen.
 
Zuletzt bearbeitet von einem Moderator:
Mac_Fly schrieb:
während bei der CPU mind. ein log. Kern schon am Limit ist.

Dazu muss nicht mal ein logischer Kern am Limit sein. Man braucht die CPU gar nicht anschauen.
Die Graka ist der Anzeiger. Praktisch immer.



Ist da ein logischer Kern am Limit? Nein.
Trotzdem gehen die FPS mit dem CPU-Takt mit. Sicheres Zeichen, oder nicht?
An der Graka hätte man es sofort gesehen, ohne das auch nur irgendwas an der CPU auf 100% steht.
 
Aeh, doch natürlich ist da ein core am Limit (ein weiteres edit: naja da haben wir es wieder.. nicht direkt der Core, aber letztendlich doch die CPU) bzw. der Datenfluß zum Core, was aber im Ergebnis aufs Gleiche rauskommt: die Graka kann nicht höher ausgelastet werden. Heißt ja nicht, daß der Core auf 100% stehen muss (habe ich btw auch nicht behauptet; ok unsauber formuliert).
Der CPU-Cache ist an den CPU-Takt gebunden und ich denke deswegen gehen die FPS in Deinem Bsp mit dem CPU-Takt mit. Deutlich schnellerer RAM würde hier wahrscheinlich auch schon was bewirken, aber ich denke eigentlich ist es der Cache. Kann ich aber nicht belegen, dazu muesste ich den Cache-Takt unabhängig vom Takt der Kerne steuern können, habe ich mir nur fürs eigene Verständnis so zurechtgesponnen, werde da auch gerne korrigiert, wenn das so nicht hinhaut.

Aber ich verstehe Deinen Einwand, ob meiner unsauberen Formulierung, weil die Leute immer meinen sie müssten 100% bei der cpu sehen und daß Du das ja schon seit Jahren immer wieder korrigierst ist mir nicht entgangen. Ich kenne dein Dossier von 2010 und habe es damals schon genossen.
 
Zuletzt bearbeitet von einem Moderator:
Also, ich schätze mal, dass, abgeshen davon ,dass wir nicht wissen welche Spiele gespielt werden, Minokartes bei seiner Auflösung auf jeden Fall im CPU-limit ist. Bei höheren Auflösungen wird seine AMD FX CPU sicher bessere Ergebnisse erzielen.
 
Naja..bessere Ergebnisse im Sinne von besserer GPU-Auslastung..joa... wenns aber ein Spiel, wo man bei höherer Auflösung auch mehr sieht, also größeren Kartenauschnitt, wie schreibe ichs...größeres Sichtfeld halt. Dann schon wieder eher nicht würde ich meinen.
 
Das hilft mir schon mal immens weiter. Danke, danke, danke! :)
Falls ich noch weitere Nachfragen haben sollte, würde ich sie erstmal hier in diesem Thread posten.
Abseits davon, halte ich mich zunächst an den Rat von v45c0.
Vielen Dank für eine äußerst positive erste Erfahrung mit CB!

Grüße

Minokrates
 
Nach ein/zwei Nächten Schlaf bin ich zu folgendem Schluss gekommen:

1. Ich bin auf der Suche nach einem guten 4k Monitor mit G-Sync
2. Mit dem neuen CPU-Kühler warte ich bis zum tatsächlichen Bottleneck, bis dahin soll sie doch schmoren
3. Selbiges beim RAM, das sollte aber bald der Fall sein
4. Wegen OC; habe wohl einfach Pech mit der Karte, aber da ich die für 350€ (gebraucht) bekommen habe will ich nicht meckern :D
5. Soweit scheinen Kühlungsprobleme eher mit dem CPU-Kühler selbst zu tun zu haben, mal abwarten (bzgl. Gehäuse)

Damit haben sich alle Fragen für diesen Thread geklärt, habe nun in einem anderen Thread nach Rat bzgl. des Monitors gefragt.

Danke Leute!

Grüße, Minokrates
 
Zurück
Oben