News AMD will Grafikleistung im CPU-Limit verbessern

zeedy schrieb:
Nein sind sie nicht. Ich habe bloß mal in einem PCGH Bericht gelesen, dass AMD GPUs bei einer schwächeren CPU mehr Leistung verlieren als Nvidia. Die neuen Benchmarks von CB, in denen man auch mit einem FX8 bencht, bestätigen das teilweise. Falls das doch nicht stimmt, nehme ich das gerne zurück. Ich habe im Gegensatz zu vielen auf CB keinerlei Interesse daran Lügen zu verbreiten ;)

Übrigens, ich finde es auch gut, dass man nicht monatlich einen neuen Treiber veröffentlicht. Für eine "bis zu 5%" höhere Leistung mache ich kein Treiberupdate, sondern generell 2-3 mal im Jahr. Vielleicht ist das ja einer der Gründe, warum ich noch nie irgendwelche Probleme mit AMD Treibern hatte :D

Also ich frage mich hier, welcher Hornochse betreibt eine HighEnd AMD GPU mit einer schwachen CPU ? Das hier das CPU-limit schneller erreicht wird ist völlig klar. Hier sollte die Gattung hornochse überlegen sich eine neue CPU bzw CPU/Mainboard zu kaufen.

Würde ich meine 980er an einen Intel Q6600 betreiben würde die auch die ganze Zeit am Limit sein.
 
Das sieht eher nach einem zugemüllten System aus, als nach einem Treiberfehler.
Wobei bei mir eine schiefgelaufene Installation des Omega-Treibers (ausgehend von 14.9) mitsamt Absturz damals auch das Win7 auf dem Notebook zerschossen hat und selbst AMDs eigene Uninstall-Utility da nicht mehr viel ausrichten konnte. War bisher aber auch ein Einzelfall.

Würde ich meine 980er an einen Intel Q6600 betreiben würde die auch die ganze Zeit am Limit sein.
Der Punkt ist nur, wenn man den Q6600 mit der 980 betreibt und in Spiel X noch spielbare Frameraten bekommt, dann ist das möglicherweise mit einer 290X nicht mehr der Fall. Nicht jeder hat nen 4.5 GHz-i7 im Rechner, geschweige denn das Geld dafür...

Tulol schrieb:
Jetzt rate mal wieso diese fähigkeit von DX12 so groß geschrieben wird.

Ja eben WEIL AMD eben durch Mantle überhaupt erst darauf aufmerksam gemacht hat.
Eine effizient implementierbare Schnittstelle zu haben ist eine Sache, diese dann aber auch effizient zu implementieren eine andere.
 
latexdoll schrieb:
Also ich frage mich hier, welcher Hornochse betreibt eine HighEnd AMD GPU mit einer schwachen CPU ? Das hier das CPU-limit schneller erreicht wird ist völlig klar. Hier sollte die Gattung hornochse überlegen sich eine neue CPU bzw CPU/Mainboard zu kaufen.

Würde ich meine 980er an einen Intel Q6600 betreiben würde die auch die ganze Zeit am Limit sein.
Achja? Dann schau dir mal dies an wie eine AM1-Plattform mit Kabini 25W TDP gegen einen Core i7 3960X abschneidet - auch beiden Systemen eine GTX750 Ti: http://www.pcper.com/files/imagecache/article_max_width/review/2014-04-18/results.png
results.png


Und dann nimmt man die neuen APIs Mantle/DX12, welche laut aktuellen Previews bis zu 170% Mehr Leistung auf APUs ermöglichen und die GPU besser auslasten:
http://www.anandtech.com/show/8968/star-swarm-directx-12-amd-apu-performance
DirectX 12 provides just the kick that the AMD APU setups need to overcome DirectX 11’s CPU submission bottleneck and push it on to the GPU. Consequently at Extreme quality we see a 64% performance increase for the Core i3, but a 170%+ performance increase for the AMD APUs.
Da werden plötzlich ganz andere Systemkonfiguration als spielbar in FullHD eingestuft. Der Systempreis dafür fällt jedenfalls deutlich.
 
latexdoll schrieb:
Würde ich meine 980er an einen Intel Q6600 betreiben würde die auch die ganze Zeit am Limit sein.

Nicht unbedingt denn du kannst hohe Auflösungen/AA-Modis betreiben oder Downsampling usw.

Klar sieht der Q6600 kein Licht mehr gegen neue Intels.

p.s. der Athlon 5350 ist fast so schnell wie der Q6600 und das bei 25W
Problem ist aber noch immer Singlethread-Leistung, aber insgesammt ne gute APU

 
Zuletzt bearbeitet:
Eben.
Ein CPU Limit ist ersteinmal überhaupt nichts schlimmes.
Das ist genauso "schlimm/gut" wie ein Grafikkartenlimit (aber da meckert keiner ;)).

WENN sich im CPU-Limit für den Spieler XY die Frameraten im spielbaren Bereich (definiert jeder anders) befinden, dann würde ich selbst 4x980 oder 4x 290X reinklatschen - spricht nichts(gut, außer man will mehr (CPU-)fps^^) dagegen. Die "nichtbenötigte" Leistung kann in mehr BQ gesteckt werden.

Mit meinem X4 640 würde ich (bis auf ein Spiel-> Watch Dogs, dort ist er zu lahm, sodass es selbst mir als fps-Unempfindlichen keinen Spaß mehr macht zu zocken + evtl. GTA IV mit Mods, aber hier ists an der Grenze und noch okay (auch wenn er dort limitiert (90%+- GPU Auslastung))) auch ne 290X reinstecken.
Einfach alles oberhalb des CPU-Limits in "Regler nach rechts"+ DS und Co stecken.

Wenn man wirklich "harte" Settings fährt, dann bringt dir eine(1x) top SingleGPU auch nur noch einstellige FPS... und dafür reicht nen "Pentium 4" :evillol:
 
Zuletzt bearbeitet:
Ein CPU Limit ist insofern schlecht, weil man die CPU Last nicht einfach mal eben reduzieren kann.

Wenn ein Spiel im GPU limit läuft und du möchtest mehr FPS, dann kann man einfach die Details reduzieren.
Wenn ein Spiel aber im CPU limit läuft, dann steigen die FPS nicht, wenn man die Grafikdetails reduziert.

OK, bei einigen Spielen gibts diverse Optionen, die auch die CPU last etwas reduzieren, aber das tut nichts zur Sache. In den meisten Fällen ist es die GPU last, die man reduzieren kann.
Deswegen versucht man immer, wenn möglich im GPU Limit zu bleiben bzw. erwartet es von den Spielen. Nur so kann man jederzeit die Performance beeinflussen und hat die Wahl, ob man mit 30, 60 oder 120 FPS spielen möchte.

Zudem ist bei einer zu langsamen CPU dann meist auch ein Wechsel von Mainboard und evtl. auch RAM erforderlich, was schnell sehr teuer ist. Bei der GPU bleibt es bei einer einzigen Komponente und man hat wie gesagt zusätzlich die einstellbaren Grafikdetails als alles entscheidende Variable.
 
Zuletzt bearbeitet von einem Moderator:
Der eigene Anspruch und dessen Vorlieben macht es schlecht.
Ohne absolute Zahlen ist es wiegesagt nicht schlecht und auch nicht gut.

Fiktiv: Ein CPU Limit bei 400fps in Crysis 4? WAAAAAAAAAAYNE...
Ein CPU Limit bei 10fps in Battlefield 5? -> totaler Müll!

Ich hatte ja differenziert.
Wenn dem Individuum die FPS langen, so ist das nichts schlimmes. Da einfach mehr BQ gefahren werden kann - bei (quasi) gleichbleibenden FPS.

Erst wenn die FPS für dich selbst schon zu wenig sind im CPU-Limit, dann ist das CPU-Limit etwas schlimmes.

Ein CPU Limit ist insofern schlecht, weil man die CPU Last nicht einfach mal eben reduzieren kann.
4x4 SSAA und runter geht die CPU Last, weil die GPU das in fordernden Titeln eh nicht packt :P
Ja, ich weiss schon worauf du hinaus willst(erklärst du ja danach^^) - dennoch ohne absolute Zahlen und die subjektive Bewertung jener die Aussage eben "unfertig/nicht wertbar" ;)

Jedoch mit der "Zukunftssicherheit/Aufrüstbarkeit", da stimme ich dir zu 100% zu. Da eine CPU meistens mehrere GPUs "überlebt". Also die "Schere" der Leistung immer weiter auseinander geht und somit das CPU-Limit immer bedeutender auftritt. Auch wenn neue Spiele mehr CPU-Leistung erfordern, so tritt das Limit immer früher auf.
 
Zuletzt bearbeitet:
BlauX schrieb:
Ist dir das nicht peinlich?
Man sieht es ja, in den GW Titeln, die Nachteile dritter bringen, da hier Black Boxes verwendet werden, wo selbst der Entwickler nicht weiß, was es tut, oder ähnliches, wo Proprietäres Zeugs stets bemüht wird....

Wenn du das ganze jetzt noch grammatikalisch so ausdrückst, dass ich verstehe was genau du meinst, kann ich dir auch sagen ob mir irgendwas peinlich ist oder nicht.
 
MountWalker schrieb:
Und wurden von jedem mit einer Unix-Workstation dafür ausgelacht...

Aber so viele waren das gar nicht, hehe.
Und danach hatte ich ein Board mit 2 CPU Sockeln und Windows NT...da hat dann keiner mehr gelacht.
jo...mit Spielen war da nicht viel...aber eine 95er Partition blieb drauf.

@T: prima daß AMD da eine Stelle ausschreibt...anscheinend arbeiten sie mit Hochdruck daran. :lol:
 
pipip schrieb:
Wer haz dich denn verspottet ? Oder übertreibst du immer gerne ?

Don´t feed the Troll...

ICH HIER, bin übrigens ein Super-Hornochse !!!
Hab ne R9 290X 8GB mit einer 7850 Kaveri APU am laufen.
Omg .. ich hab echt keine Ahnung.

Aber hier gibt´s doch einen ... der sich "iHabAhnung" nennt.

Vielleicht kann er mich mal aufklären.

Tatsache ist ...
seit dem Wechsel von der 7950 auf die R9, läuft FarCry 4 bedeutend besser.
Und nur darauf kommt es an ... wie es MIR selbst am besten gefällt.

Das die GPU und APU, in mehreren Richtungen nicht das Optimum darstellen, ist mir klar. Trotzdem funktioniert es und bringt sehr tolle Ergebnisse auf den Bildschirm.
 
scratch schrieb:
Mir würde es reichen, wenn sie mal den Stromverbrauch ihrer Karten in den Griff kriegen...

Hier so zu tun als wäre der Stromverbrauch nur bei AMD viel zu hoch, nur weil Nvidia bei der neuesten Generation jetzt tatsächlich nen größeren Vorsprung auf AMD hat was den Stromverbrauch angeht, ist eine sehr einseitig betrachtet.

Die ganzen Jahre vorher war der Unterschied bei weitem nicht so drastisch und zum Teil war es sogar umgekehrt.

Cunhell
 
Zurück
Oben