News GeForce GTX 970: Nvidia bestätigt Limitierungen am Speicher

71448.png



ich meine hier z.B. StarSwarm.

Nun haben Redaktionen ein "CPU-Limit" entdeckt bei DX11.
Und nun habe ich bei der selben Sytemkonfiguration 3x mal so viele Frames/s.
Die einzige Änderung ist die API von DX11 auf DX12.

Wie kann man nun sagen, dass die CPU im Limit war unter DX11, wenn sie unter DX12 dreimal so schnell ist? Du schreibst es selber, wenn man den einen Flaschenhals behebt zeigt sich wer limitiert - nicht die CPU in Spielen.
 
Hä? Habt ihr geschlafen oder ging das bei euch vorbei- , dass DX12 kommen MUSSTE um Mantle zu kontern, welches eben exakt dieses CPU Limit durch extreme Reduktion des CPU Overheads reduziert? Mickrigsoft hätte sonst doch nicht einen Finger gerührt .. (man man hoffentlich gemerkt .. DX11 = 2009!) Außerdem kommen Intel IGPUs so auch noch besser vom Fleck :D

Es geht hierbei nur um Marktanteile ... Man würde es nicht zulassen dass einer der Hersteller den anderen komplett aussticht. Mantle hatte immerhin auch das gefährliche Potential auf Linux portiert zu werden ... siehe Steambox etc.

mfg,
Max
 
Zuletzt bearbeitet:
@ Daedal

Weil die Leistungsanforderungen an die CPU unter DX11 andere sind als unter DX12. Die CPU limitiert doch nach wie vor unter DX11... Da ändert sich doch nichts daran, nur weil es DX12 geben wird.
Und wenn ich den Benchmark anschaue, dann weiß ich, dass ich unter Windows 7 eine verdammt schnelle CPU mit vielen Kernen brauche, während es in einem anderen Szenario (Win8 mit DX12) nicht mehr nötig ist. Ich verstehe ehrlich gesagt nicht, warum du ständig unterschiedliche Szenarien 1:1 miteinander vergleichst...
 
Nein die die Anzahl der Drawcalls ist zu niedrig unter DX11 dadurch wird die CPU eben nicht ausgelastet. Und die Small Batch Submission hat bei AMD eine 2-Core Optimierung die bei 4 Cores bremst siehe:
http://www.anandtech.com/show/8962/the-directx-12-performance-preview-amd-nvidia-star-swarm/4

Sieh dir doch die CPU-Last an unter DX11/DX12/Mantle bei einer GTX980. Hier lastet die DX11 API einfach die CPU falsch aus. Viel Overhead mit wenig Daten.
DX11
980_4_11_CPU.png


DX12
980_4_12_CPU.png


71451.png



Having effectively ruled out the need for 6 core CPUs for Star Swarm, let’s take a look at a breakdown across all of our cards for performance with 2 and 4 cores. What we find is that Star Swarm and DirectX 12 are so efficient that only our most powerful card, the GTX 980, finds itself CPU-bound with just 2 cores. For the AMD cards and other NVIDIA cards we can get GPU bound with the equivalent of an Intel Core i3 processor, showcasing just how effective DirectX 12’s improved batch submission process can be. In fact it’s so efficient that Oxide is running both batch submission and a complete AI simulation over just 2 cores
Der i3 und alle 4-Core AMDs bringen die GTX980 ins Limit mit DX12.
Ergänzung ()

Seppuku schrieb:
@ Daedal

Weil die Leistungsanforderungen an die CPU unter DX11 andere sind als unter DX12. Die CPU limitiert doch nach wie vor unter DX11... Da ändert sich doch nichts daran, nur weil es DX12 geben wird.
Wenn du durch den Tausch von DX11 zu DX12 das angebliche "CPU-Limit" aufhebst, dann hat die CPU auch unter DX11 nicht limitiert. Das selbe Argument würdest du ja auch nicht zählen lassen indem du sagst mit einer alten 2-CORE CPU limitiert die GPU und wenn du einen 4-Core einbaust ist das GPU-Limit weg. Ebenso behebt man kein CPU-Limit durch Verwendung anderer Software.

Es sind nicht nur 2 Komponenten im Spiel wenn Spiele als Software zum testen genutzt werden. Spiele können kein CPU-Limit herstellen wie Luxmark oder andere Software die AUSSCHlIEßLICH auf der CPU läuft. Auch spricht ja keiner davon dass eine CPU limitiert die kein AVX nutzt oder AES. Man darf gerne von unterschiedlicher Performance sprechen, doch ein CPU-Limit ist das nicht. Durch diese dauerhafte falsche Bezeichnung kaufen die Leute immer schnellere Hardware und die Spieleentwickler können weiter auf schlechten Code setzen der schnell fertig gestellt ist weil die Kritik an die CPU-Hersteller geht anstatt an die schlechten Programmierer.
 
Zuletzt bearbeitet:
@ Daedal

Ob falsch ausgelastet oder nicht spielt doch für das Endergebnis keine Rolle...
Sobald eine schnellere CPU bei gleicher Hardware zu mehr Leistung führt, hat die langsamere CPU limitiert...

Wenn du durch den Tausch von DX11 zu DX12 das angebliche "CPU-Limit" aufhebst, dann hat die CPU auch unter DX11 nicht limitiert. Das selbe Argument würdest du ja auch nicht zählen lassen indem du sagst mit einer alten 2-CORE CPU limitiert die GPU und wenn du einen 4-Core einbaust ist das GPU-Limit weg. Ebenso behebt man kein CPU-Limit durch Verwendung anderer Software.
Welche Komponente limitiert dann in deinen Augen (wenn nicht die CPU) unter DX11, wenn ich nur durch den Wechsel auf eine leistungsstärkere CPU eine höhere Leistung unter DX11 erreiche?
Warum sollte bei einer geringeren Leistung resultierend durch eine schwache CPU (--> CPU limitiert) ein Grafikkartenlimit vorliegen...?

Natürlich kann man Limitierungen von Komponenten durch Softwareanpassungen verringern/auflösen. Wie kommst du drauf, dass es nicht geht?
Eine eine niedrig getaktete 16kern Servercpu limitiert die Leistung in einer singlethreaded Software im Vergleich zu einem höhergetakteten Dualcore. Ändert man die Software auf eine perfekt skalierende multithread Unterstützung (bewusst übertrieben), limitiert der Dualcore die Leistung im Vergleich zur Servercpu. Wenn jetzt die von den beiden CPUs erbrachte Leistung die Leistungsfähigkeit einer anderen Koponente beeinflussen, verbessert/verschlechtert sich auch die Leistungsfähigkeit dieser (wird also mal stärker limitiert).

Ich verstehe nicht, warum du ständig irgendwelche verschiedenen Szenarien durcheinanderwürfelst (DX11 und DX12), welche getrennt voneinander betrachtet werden müssen. Wenn eine Software Leistungsoptimierungen erhält, ändert sich auch die Leistung der Komponenten in dieser Software.
Ich kann mich nur selbst zitieren:
Die Benchmarks zeigen die Leistungsfähigkeit der Hardware in den getesteten Softwareszenarien. Und diese werden auch interpretiert. Wer ein anderes Szenario hat, kann nur aus den Benchmarks mit einer gewissen Wahrscheinlichkeit etwas ableiten. Aber das ist doch hoffentlich nichts neues...

Wenn eine CPU auf Grund nicht vorhandener Befehlssätze eine geringere Leistung aufweist und dadurch in einem definierten Szenario die Leistung einer anderen Komponente einschränkt (welche bei einer CPU, die diese Befehlssätze beherrscht mehr Leistung erzielen würde), limitiert auch die CPU...
limitieren = begrenenzen. Wenn eine Komponente der begrenzende Faktor für andere in einem Szenario ist, dann limitiert sie auch und alles andere ist Wortklauberei...
 
Zuletzt bearbeitet:
Seppuku schrieb:
@ Daedal

Ob falsch ausgelastet oder nicht spielt doch für das Endergebnis keine Rolle...
Sobald eine schnellere CPU bei gleicher Hardware zu mehr Leistung führt, hat die langsamere CPU limitiert...
Nein weil sie schneller sein könnte. Wenn eine Software kein AES nutzt um Verschlüsselung zu beschleunigen sagst du auch nicht die CPU limitiert nur weil eine andere schneller ist. Du magst das für semantische Spielerei halten, doch es ist einfach völlig in die falsch Richtung bezeichnet. Und nur bei Spieletests werden solche Aussagen getätigt - und genau da auch noch zu unrecht. Offensichtlich ist es völlig unmöglich für die meisten ein Szenario zu verstehen wo es mehr als 2 Komponenten gib. Es werden immer nur Entweder die GPU oder die CPU als limitierend bezeichnent. Während die GPU auch die Zielhardware für den größten Teil des Codes ist ist die CPU lediglich ein Co-Prozessor der nie voll ausgelastet werden kann wenn der Code sauber implementiert ist.
 
Daedal schrieb:
Nein weil sie schneller sein könnte. Wenn eine Software kein AES nutzt um Verschlüsselung zu beschleunigen sagst du auch nicht die CPU limitiert nur weil eine andere schneller ist.
Wenn die Software kein AES nutzt und ich diese Software nutze, dann limitiert sehr wohl eine schwächere CPU die Leistung im Vergleich zu einer schnelleren... Verstehe ehrlich gesagt nicht, was es da noch zu diskutieren gibt.
Ob sie (theoretisch) in einem anderen Szenario schneller sein könnte, spielt für die Bewertung der Leistungsfähigkeit einer Komponente in diesem konkreten Szenario keine Rolle...
Und natürlich bewerte ich eine langsamere CPU beim Einsatz dieser Software schlechter als eine schnellere und bezeichne sie auch als langsamer in Software xy (auch wenn sie in Software xyz schneller sein sollte). Begrenzend ist immer die Komponente, welche die Leistung der anderen maßgeblich beeinflusst. Und bewertet wird immer die konkret vorliegende Software.
Und natürlich reduziert man die Bewertung auf die Komponenten, die der Nutzer konkret beeinflussen kann. Und das ist eben in erster Linie die Hardware (die Software wird eben in dem Zustand angeboten, in dem sie auch vom Nutzer genutzt wird).
 
Zuletzt bearbeitet:
Wenn du aber eine andere Software nutzen kannst die das selbe macht mit AES Beschleunigung dann hast du mehr erreicht als die CPU auszutauschen. Denn eine schnellere CPU bringt dir auch nichts mit der veralteten Software. Wegen dieser falschen Bezeichnung sind alle fixiert darauf, dass die nächste CPU-Generation diese angebliche "Limitierung" überwindet. Man sieht doch wie gering die Performancesprünge waren bei Spielen trotz enormer Mehrleistung bei reinen CPU Softwares.

Die Angebotene Software gehört unter die Lupe genommen und wir sehen ja, dass dies immer mehr passiert und Spieletest schlechte Software-Implementierungen immer stärker anprangern. Im Zuge der Mantle-Einführung sind diese falschen Betrachtungsweisen ja deutlich zu Tage getreten. Es wird Zeit das Kind beim Namen zu nennen und die CPU mal mit vernünftigen Codezeilen zu füttern bevor man hier über ein CPU-Limit spricht.
 
Deadal schrieb:
Es ist ein Software-Limit. CPU-Limit ist technisch falsch und wird immer und immer wieder falsch verwendet.

Wieso soll es ein Softwarelimit sein, wenn eine schnellere CPU mehr FPS bringt?
Es ist streng genommen weder das eine noch das andere und du fängts leider an zu trollen und diskutierst nicht, sondern verteidigst lediglich deinen Standpunkt.

Andere Software verändert immer die Leistungsfähigkeit der Hardware und nun?
Ob AES oder kein AES, eine Limitierung der CPU gibt es auch bei langsamer Software.
 
Zuletzt bearbeitet:
Daedal schrieb:
Wenn du aber eine andere Software nutzen kannst die das selbe macht mit AES Beschleunigung dann hast du mehr erreicht als die CPU auszutauschen.
Nur weil du es (aus welchen Gründen auch immer) es nicht auf die Reihe bekommst, konkrete Anwendungsfälle zu differenzieren, ist die Bezeichnung nicht falsch...
Ich schreibe mir hier die Finger wund und wiederhole mich mehrmals ("Die Benchmarks zeigen die Leistungsfähigkeit der Hardware in den getesteten Softwareszenarien") und du ignorierst es einfach... Wie deutlich markieren muss ich es denn, damit du den Punkt wahrnimmst?
Wir drehen uns nicht im Kreis, sondern du ignorierst einfach Aussagen. Auch die Software ist für die erzielte Leistung entscheidend (habe ich auch schon mehrmals geschrieben). Aber hier geht es um die Bewertung der Leistungsfähigkeit von Hardware in einer konkreten Software und das Aufzeigen von den Leistungsunterschieden der Hardware...
 
Seppuku schrieb:
Ich schreibe mir hier die Finger wund und wiederhole mich mehrmals ("Die Benchmarks zeigen die Leistungsfähigkeit der Hardware in den getesteten Softwareszenarien") und du ignorierst es einfach... Wie deutlich markieren muss ich es denn, damit du den Punkt wahrnimmst?

Wieso sollte ich das ignorieren wenn ich absolut der selben Meinung bin? Nur heisst das nicht dass Benchmarks mit Spielen ein CPU-Limit zeigen. Warum wird das dann so genannt?

Bei Benchmarks mit AES, um bei dem Beispiel zu bleiben, wird nie über ein CPU-Limit gesprochen. Da ist eben eine CPU schneller als die andere. Wer Verschlüsselung benötigt kauft entsprechend. Wer mehr FPS möchte kauft eine viermal so teure CPU und bekommt dennoch nicht mehr FPS. Kauft er sich ein Spiel das Mantle oder DX12 nutzt bekommt er diese. Spiele Tests sollten Kaufberatung für Spiele sein und nicht für CPUs. Und in Benchmarks zu CPU-Launches haben sie nichts zu suchen weil sie die CPU nicht auslasten können. Diese Auffassung dürfte doch verständlich sein und ist meine. Es war doch nun genug Offtopic denke ich.
 
Daedal schrieb:
Nur heisst das nicht dass Benchmarks mit Spielen ein CPU-Limit zeigen. Warum wird das dann so genannt?
Weil "Limitierung der Leistungsfähigkeit der Grafikkarte durch CPU xy" in Spiel abc zu lang ist. Dann wird eben die limitierende Komponente benannt (hier: CPU). Und in diesem Fall ist dann auch die CPU am Limit --> CPU-Limit.
Spiele Tests sollten Kaufberatung für Spiele sein und nicht für CPUs.
Und mich interessiert sehr wohl ob eine CPU in diesem konkreten Spiel ausreicht oder oder eben zu größeren Leistungsverlusten führt. wenn es dich nicht interessiert, dann überspringe doch den Teil.
Und in Benchmarks zu CPU-Launches haben sie nichts zu suchen weil sie die CPU nicht auslasten können
Zeigen aber, wie sich die CPU in dem konkreten Spiel schlägt. Finde ich (und andere) durchaus interessant. Und wenn es dich nicht interessiert, dann überspringe den Teil.
Warum sollte man zusätzliche Informationen weglassen, nur weil sie dich persönlich nicht interessieren?
 
Seppuku schrieb:
Weil "Limitierung der Leistungsfähigkeit der Grafikkarte durch CPU xy" in Spiel abc zu lang ist. Dann wird eben die limitierende Komponente benannt (hier: CPU).
Nur ist eben die limitierende Komponente nicht die CPU. Das sage ich doch die ganze Zeit. Es ist die API.
Schreib doch API-Limit.
 
Das habe ich doch schon oben erklärt...
Der Bezugspunkt bei einem Hardwaretest ist die Hardware in einem konkreten Softwareszenario. Und die Hardware wird auch bewertet. Dass eine Software optimiert werden kann, steht hier nicht zur Debatte und ist für die Fragestellung nach der Leistung der Hardware in der entsprechenden Software irrelevant. Die Software stellt die Rahmenbedingung dar, in der die CPU/Grafikkarte ihre Leistungsfähigkeit zeigen muss. --> Benchmark
CPU abc hat eine definierte Leistung in Software xy und diese wird bewertet. Ob die Leistung dadurch zustande kommt, weil die Software gut oder schlecht optimiert ist, spielt für die Kaufentscheidung bei der Nutzung der Software xy absolut keine Rolle. Es zählt nur das, was hinten rauskommt und welche Hardware nötig ist.
 
Wenn ich einfach deklariere dass alle die selben limitierenden Komponenten habe kann ich daraus nicht ein CPU-Limit ableiten nur weil sich das kürzer sagen lässt und in Balken toll darstellen lässt. Es ist kein CPU-Limit da der Austausch der limitierenden Komponente ja das Limit aufheben sollte. Tut es aber nicht wenn ich 6 statt 4 Kerne einbaue. Auch nicht wenn ich einen i7 zwischen 2,5 und 3,5 GHz takte. Die FPS bleiben gleich.
 
Du scheinst es immer noch nicht zu verstehen und hältst es nicht einmal nötig deine "Theorie" (eine 40%ige Taktsteigerung der CPU in einer Software/einem Spiel, bei der die Grafikkarte und auch keine andere Komponente am Limit laufen, führt zu keiner Leistungssteigerung der Gesamtleistung) zu belegen. Ich habe es dir versucht möglichst verständlich zu erklären. Wenn du permanent von mir geschriebene Punkte ignorierst, ist die Diskussion wirklich nicht mehr zielführend...
 
Am 19.03. erscheint Battlefield Hardline. Die Hardwareanforderungen sollen - nachvollziehbar - gegenüber Battlefield 4 noch einmal gestiegen sein, sodass ich auf die ersten Benchmarks warte und wie die GTX970 im Vergleich zu einer GTX980 und den R9 290(X) mit allesamt echten 4GB oder gar 8GB abschneiden wird.

Man muss kein Hexer sein um vorauszusagen, dass sich der Unterschied schon zur GTX980 unter hohen Auflösungen/Qualitätseinstellungen weiter vergrößern wird. Bei einem Multimonitor-Setup - wie ich selbst vor 1 Jahr eines mit 3840 x 1024 hatte (3 Monitore 19" mit 1280*1024) - mit hohen Qualitätseinstellungen wird die GTX970 bereits versagen und das Geld nicht wert sein das man dafür gezahlt hat. Hier werden die letzten 32bit Speicherbandbreite und 512MB VRAM spürbar fehlen und den zu erwartenden Einbruch von 20% oder mehr fps bei unruhigen Frametimes und einem dementsprechend unruhigen Bild - sehr störend bei einem FPS-Shooter und bei dann um die ~50 fps - zeigen.

Wer bei Battlefield 4 auf 3840 x ???? noch so gerade hinkam, wird mit Battlefield Hardline dann bereits die Qualitätseinstellungen absenken müssen.
 
"Wer bei Battlefield 4 auf 3840 x ???? noch so gerade hinkam, wird mit Battlefield Hardline dann bereits die Qualitätseinstellungen absenken müssen."

Die 12 Leute mit so einem Setup können sich ja einfach eine Titan X kaufen :)
 
Der 970er 3,5GB Shitstorm scheint ja nun vorbei zu sein. Was haben wir gelernt?

a) Fanboys muss man erst hinters Licht führen damit diese ihre Sturheit überdenken, klappt aber selbst dann nur in den wenigsten Fällen.

b) da ist mal wieder jemand mit dem einfachen Aussitzen oder Ignorieren einer unangenehmen Situation davongekommen.

c) Forenshitstorms haben keine Konsequenzen*. Etwas übertrieben ausgedrückt, ist die Kundschaft und die eigene Integrität weniger wert als ein paar Grafikkarten. Schade.


*Die Sammelklage in den Staaten steht zwar noch aus, aber Murphys Law wird auch hier wirken und selbst wenn nicht, hat das sowieso keine Auswirkungen auf EU-Kundschaft.





Das Fazit von alledem ist schlicht und ergreifend traurig:
Da es keine ernsten Konsequenzen zu geben scheint, spricht nichts dagegen, daß sich so etwas zugunsten eines Herstellers und zu ungunsten der Kunden nochmal passiert.
 
Zuletzt bearbeitet:
Zurück
Oben