News GeForce GTX 970: Nvidia bestätigt Limitierungen am Speicher

@ampre: Ich finds genauso dämlich wie du, aber es überrascht mich nicht wirklich. Schau doch was wir mit unserem Planeten machen oder wie auf die NSA Affäre reagiert wird oder welche Politiker gewählt werden.
Der Mensch ist einfach nur sehr selten bereit auf kurzfristige Vorteile/Bequemlichkeiten zu verzichten um langfristige (abstrakte) Nachteile/Gefahren abzuwenden. Ich will mich da übrigens auch gar nicht selbst ausnehmen.
 
vander schrieb:
Ein Redakteur ist primär nicht jemand mit überragenden Fachkentnissen in dem Bereich über den er schreibt, sondern jemand der weiß wie man schreibt. Andernfalls könnte er ja auch in der Technikabteilung/QS eines Herstellers arbeiten.
Das heißt also, dass er keine Ahnung hat von dem was er schreibt? Dann sollte er den Job wechseln oder Thilo Bayer gleich sein Heft einstampfen. Denn dort wird jeder Firlefanz genau erklärt obwohl die Redaktion nach deiner Aussage keine Ahnung davon hat. In diversen Tests im Netz (auch auf CB) werden Details ebenfalls genau geschildert. ALso wenn man keine Ahnung davon hat dann soll man das auch bitte weglassen oder auf die Seite des Herstellers verlinken wo man das nachlesen kann. Seriös ist anders.

Wieso schmälere ich die Leistung von Nai? Habe ich irgendetwas gegen ihn gesagt? Ich habe nur erwähnt, dass das eigentlich der Job der renommierten Redaktionen war.

Du tust so als ob die Tests einer Grafikkarte mit einem Test zum Release abgeschlossen wären. Das ist natürlich absoluter Humbug, denn neue Spiele werden ebenfalls mit denen getestet oder auch Dinge wie DSR. Dass es trotz weiterer Tests keiner Redaktion etwas aufgefallen ist, dass sie der Sache nachgegangen sind sagt auch wieder viel über diese Redaktionen aus. Oder es macht wie bereits gesagt keinen Unterschied ob 4GB oder 3,5GB. Kann man sich jetzt aussuchen.
Wir reden hier ja nicht von von geringerem L2 oder weniger ROPs die festgestellt werden sollten, sondern von der Speicherbelegung und von (Mikro-)Rucklern oder Hängern ab 3,5GB die bei der 980 nicht (so stark) auftreten. Dann wäre man vielleicht auch mal darauf gekommen, dass die Speicherbelegung meist bei max. 3,5GB ist während sie bei der 980 bis 4GB geht. Hat man einmal eine Unregelmäßigkeit oder ein Indiz dazu festgestellt so geht man dem ja normalerweise nach, sonst ist der Test für den Allerwertesten. Man selbst kann auch einen Fehler gemacht haben.
PCGH hat es ja zugegeben, dass ihnen angeblich Unregelmäßigkeiten aufgefallen sind. Nachgegangen sind sie diesen aber über 3 Monate lang nicht. Erst als andere (Nai) das aufgedeckt haben sind sie rangegangen.
 
Der Landvogt schrieb:
Oder es ist halt doch so, dass man in der Praxis nichts davon merkt. Kann man sich jetzt aussuchen.
Immer und immer wieder Beschwichtungen deses Problems zu hören, immer und immer wieder von dir.
Das ist doch langsam wirklich albern.

Der Thread hat ~5000 Posts, langsam ists doch mal gut mit den Nvidia Lobhudeleien.
Ergänzung ()

Daedal schrieb:
Low-Res Auflösungen in CPU-Tests? Schwachsinn und eindeutig widerlegt wenn eine neue API auf der selben Hardware über 100% Leistung raus holen kann.
Spiele in CPU-Tests? Schwachsinn. Kein Spiel kann eine CPU ans Limit bringen wenn die API vorher bremst oder der Code dafür gedacht ist GPUs bis an das Limit auszulasten.

Warum sollen die Tests Schwachsinn sein? DAs halte ich gerade für ziemlichen Unsinn.
Solange die CPU Low Res Tests immer mit der gleichen API Stattfinden und mit der gleichen GPU sind diese Werte sehr hilfreich, denn dann sehe ich was die CPU im CPU Limit leistet.
Dass Software hier das Limit verschieben kann, ist natürlich völlig klar. Software kann man immer bis zu einem gewissen grad effizienter programmieren, aber kann CPU´s auchweiterentwickeln und schneller machen.
Nur weil irgendwann ein Software Update kommt, sind die Werte ja nicht falsch. Dann dürfte ich auch keine Werte im GPU Limit publizieren, weil es könnte sich ja durch ein Softwqareupdate ändern....
 
SavageSkull schrieb:
Gibt es eigentlich mittlerweile von den Herstellern GPU BIOS Versionen bei denen die langsamen 512MB nicht anspricht und man dann damit per Software die Karte auf 3,5GB kastriert?

Nein, da dies nichts mit dem bios zu tun hat. Nv limitiert den speicher per treiber
 
smilefaker schrieb:
Immer und immer wieder Beschwichtungen deses Problems zu hören, immer und immer wieder von dir.
Das ist doch langsam wirklich albern.
Lesen bildet, auch bei dir. Aber bei deinem Feldzug habe ich nichts anderes erwartet. Willkommen auf meiner Ignoreliste.
 
Der Landvogt schrieb:
Dass es trotz weiterer Tests keiner Redaktion etwas aufgefallen ist, dass sie der Sache nachgegangen sind sagt auch wieder viel über diese Redaktionen aus. Oder es macht wie bereits gesagt keinen Unterschied ob 4GB oder 3,5GB. Kann man sich jetzt aussuchen.
Praxisrelevante Unterschiede wurden doch schon mehrmals in diesem Thread verlinkt...
Einen einzelnen Aspekt in einem sehr komplexen System zu übersehen, der noch dazu nicht immer auftritt, ist bei standardisierten (und nicht genau auf diesen Aspekt ausgelegten) Testverfahren doch nicht wirklich überraschend. Erst wenn dieser Aspekt häufiger auftritt oder sich die Anforderungen verschieben (hier neue Spiele), steigt die Wahrscheinlichkeit, dass dieser gefunden/untersucht wird.
Ein Test ist doch kein starres Gebilde, welches unabhängig von späteren Erkenntnissen und veränderten Anforderungen trotzdem noch eine Allgemeingültigkeit besitzt...
 
Zuletzt bearbeitet:
Der Landvogt schrieb:
Lesen bildet, auch bei dir. Aber bei deinem Feldzug habe ich nichts anderes erwartet. Willkommen auf meiner Ignoreliste.

Du behauptest man könne es sich aussuchen ob es ruckelt oder nicht und tust so als wäre es nicht festgestellt worden.
Und das Seiten nachdem dies alles schon widerlegt ist, einfach nur arm immernoch diesen Feldzug zu führen.
 
Zusammenfassung:

Grün tut so als wäre nichts und Rot stellt alles schlimmer da als es ist.
 
smilefaker schrieb:
Warum sollen die Tests Schwachsinn sein? DAs halte ich gerade für ziemlichen Unsinn.
Solange die CPU Low Res Tests immer mit der gleichen API Stattfinden und mit der gleichen GPU sind diese Werte sehr hilfreich, denn dann sehe ich was die CPU im CPU Limit leistet.

Nicht die Tests sind Schwachsinn. Schwachsinn ist ein CPU-Limit zu attestieren das durch Software verursacht wird. Der Blödsinn ist technisch so falsch wie er verbreitet ist im Sprachgebrauch in Foren. Wie kann man einer Hardware-Architektur ein Limit zusprechen, wenn die Software nicht in der Lage ist dieses zu erreichen? Wie kann für GPU geschriebene Software mit dem Ziel diese am Limit auszulasten die Grundlage für einen Test der CPU-Hardware und einer Beurteilung der solchen sein? Das ist und bleibt Schwachsinn wenn man meint die GPU aus dem Limit zu holen mit niedrigen Auflösungen und dann deklariert die CPU befinde sich nun im Limit, da ja die GPU viel mehr leisten könnte. Mit der nächsten Software-API ist dieses dann aber plötzlich verschwunden? Das ist doch absurd dem einen Sinn zu zusprechen.

Mit Luxmark kann ich ein CPU-Limit testen, mit Audio/Video Decodern etc. Aber doch nicht mit Spielen in niedriger Auflösung. Hier teste ich das Spiel und zwar nur die Spielesoftware und auf welcher Hardware sie vernünftig läuft, spricht wie gut hat der Entwickler die unterschiedlichen Architekturen integriert. Ein Spieletest der von "CPU-Limit" spricht ist nicht ernst zu nehmen. Da CPUs die Spiele nicht limitieren. wäre dies der Fall, gäbe es keine Performancesprünge durch eine neue API, die größer sind als die letzten 3 CPU-Generationen zusammengenommen. Hier ist ein Umdenken im Ansatz bei den Redaktionen gefragt - die Kritik muss an die Spielentwickler gehen wenn horrende Hardwareanforderungen gestellt werden - nicht an die CPU-Hersteller. Das Spiel limitiert die CPU-Leistung es herrscht ein API-/Software-/Mist-Code-Limit - dies herauszufinden ist Aufgabe der Redaktionen.
 
Zuletzt bearbeitet:
Crax schrieb:
Zusammenfassung:

Grün tut so als wäre nichts und Rot stellt alles schlimmer da als es ist.
Und dann gibt es noch die Fraktion der Käufer, denen das Label egal ist, solange ihnen nicht kackendreist ins Gesicht gelogen wird!
Ein Umstand den übrigens diverse Leute hier laufend vergessen.
 
Deadal schrieb:
Schwachsinn ist ein CPU-Limit zu attestieren das durch Software verursacht wird. Der Blödsinn ist technisch so falsch wie er verbreitet ist im Sprachgebrauch in Foren. Wie kann man einer Hardware-Architektur ein Limit zusprechen, wenn die Software nicht in der Lage ist dieses zu erreichen?

Keine Software der Welt erreicht dann ein CPU Limit.
Und die CPU limitiert eben, egal welche Software man hat, ob die nun gut oder schlecht ist, spielt doch keine Rolle.
Wie ich geschrieben hab, limitiert die Software immer die mögliche CPU Leistung.

Letztendlich ist das alles Interpretationssache. Gar nicht wert darüber zu diskutieren.
 
smilefaker schrieb:
Keine Software der Welt erreicht dann ein CPU Limit.
Natürlich. Software die für CPUs geschrieben ist und alle aktuelle Instruktionen der CPU nutzt bringt diese ans Limit. Siehe Luxmark.
Das machen Spiele garantiert nicht.

Spiele zeigen definitiv kein CPU-Limit, egal in welcher Resolution. Unter DX 11 haben die Drawcalls deutlich die Leistung limitiert. Ebenso die Batch-Submission. Damit muss man doch zwangsweise sämtliche Low-Resolution Tests für Invalide deklarieren, nachdem DX12 diese Nadelöhre öffnet und die selben CPUs plötzlich völlig anders im Ranking stehen - was allerdings nicht bedeutet, dass dieses Ranking plötzlich korrekt wäre. Es ist einfach nicht möglich mit einem Spiel Aussagen über ein CPU-Limit zu machen, da es GPU Code ist in erster Linie und auch darauf optimiert ist.
 
Daedal schrieb:
Es ist einfach nicht möglich mit einem Spiel Aussagen über ein CPU-Limit zu machen, da es GPU Code ist in erster Linie und auch darauf optimiert ist.

Wusste noch nicht dass so Sachen wie Multiplayer Code oder path finding auch von der GPU ausgeführt wird.
 
Daedal schrieb:
Nicht die Tests sind Schwachsinn. Schwachsinn ist ein CPU-Limit zu attestieren das durch Software verursacht wird. Der Blödsinn ist technisch so falsch wie er verbreitet ist im Sprachgebrauch in Foren. Wie kann man einer Hardware-Architektur ein Limit zusprechen, wenn die Software nicht in der Lage ist dieses zu erreichen?
Jeder (praxisnahe) Benchmark testet ein explizites (Software)Szenario und bewertet die Leistung der Hardware in genau diesem. Ob beim Zusammenspiel verschiedener Komponenten eine die Leistung der anderen in diesem Szenario limitiert, lässt sich ohne Probleme feststellen, indem man die eine Komponente entlastet ohne die Anforderung an die andere signifikant zu beschneiden.
Wenn du so argumentierst, dürfte man auch keine Grafikkartenleistung mehr bewerten, da diese auch sehr stark von der Software/Treiber/... abhängig ist.
Wenn ein Spiel mit CPU x 50% langsamer läuft als mit CPU y bei sonst gleichen Parametern. Warum sollte man dann bei CPU x nicht von einer Limitierung der anderen Komponenten sprechen?

Und mal ehrlich: die theoretische Leistung von CPU und Grafikprozessor interessiert doch die wenigsten. Es zählt die Leistung in verschiedenen Softwares. Und diese wird bewertet.
 
Natürlich kann man die Grafikkartenleistung bewerten. Nur kann man kein CPU-Limit damit herstellen. Das ist alles was ich schrieb...Spiele können kein CPU-Limit erzeugen, da sie für GPUs programmiert sind und der Code entsprechend aufgebaut ist.

Man darf die Leistung ja gerne bewerten, doch wenn es eine PCIe-Express Limit gibt, dann würde ich als Leser dies auch gerne erfahren und nicht dass die Redaktion beispielsweise schreibt es sei eine Limit des Motherboards. Die Limitierungen in niedrigen Auflösungen kommen durch die Software und nicht durch die CPU. Daher kann das kein CPU-Limit sein nur weil ich unterschiedliche Werte messen kann bei verschiedenen CPUs.

Wusste noch nicht dass so Sachen wie Multiplayer Code oder path finding auch von der GPU ausgeführt wird.
Und wie hoch ist der Anteil dieser Codestücke an dem gesamten Spielecode?
 
Zuletzt bearbeitet:
Die erzielte Leistung der Spiele ist aber abhängig von CPU und GPU (+ weitere Komponenten) (Spiele sind auch nicht für die GPU programmiert, sondern lassen den größten Teil des Rechenaufwands auf der GPU berechnen. Früher gab es keine 3D Beschleuniger und trotzdem Spiele). Und warum sollte man den Einfluss der verschiedenen Komponenten nicht testen bzw. testen können?
Welche Erklärung hast du dann für verschiedene Spieleleistungen bei unterschiedlichen CPUs? Die eine CPU ist in diesem Szenario Leistungsschwächer und kommt öfters an die maximale Leistungsfähigkeit (ans Limit).
 
Zuletzt bearbeitet:
Seppuku schrieb:
Jeder (praxisnahe) Benchmark testet ein explizites (Software)Szenario und bewertet die Leistung der Hardware in genau diesem. Ob beim Zusammenspiel verschiedener Komponenten eine die Leistung der anderen in diesem Szenario limitiert, lässt sich ohne Probleme feststellen, indem man die eine Komponente entlastet ohne die Anforderung an die andere signifikant zu beschneiden.
Alle vergessen, dass bei Low-Res die Software nicht deaktiviert ist und das Nadelöhre auch dann bestehen oder erst überhaupt entstehen, wenn niedrige Auflösungen eingestellt werden.

Man muss eben alle Komponenten beachten eines Systems und damit ist da eben kein CPU-Limit. Es ist ein Software-Limit. CPU-Limit ist technisch falsch und wird immer und immer wieder falsch verwendet.
Ergänzung ()

Schau dir doch jetzt Tests an. Unter DX11 wurde ein "CPU-Limit" entdeckt. Dann kommt DX12 und die selbe CPU mit der selben Software macht einen Performancesprung von 50%. Wie kann man da zuvor ein CPU-Limit festgestellt haben?

Nur weil ein Software-Layer geändert wird steigt die Performance einer zuvor im Limit arbeitenden CPU? Was soll das für ein Limit sein?
 
Wenn eine CPU in einem Anwendungsszenario limitiert, warum sollte das kein CPU-Limit sein. Wenn bei einem Zusammenspiel zweier Komponenten, die eine Komponente die volle Leistungsfähigkeit der anderen verhindert, spricht man sehr wohl von Limitierung.
Schau dir doch jetzt Tests an. Unter DX11 wurde ein "CPU-Limit" entdeckt. Dann kommt DX12 und die selbe CPU mit der selben Software macht einen Performancesprung von 50%. Wie kann man da zuvor ein CPU-Limit festgestellt haben?
Die CPU limitert doch nach wie vor unter DX11... Da hat sich doch nichts geändert. Dass in einem anderen Szenario (DX12) die Limitierung anders ausfallen kann, spielt doch für die Bewertung und Interpretation des ersten Falls keine Rolle...

Nochmals: die Benchmarks zeigen die Leistungsfähigkeit der Hardware in den getesteten Softwareszenarien. Und diese werden auch interpretiert. Wer ein anderes Szenario hat, kann nur aus den Benchmarks mit einer gewissen Wahrscheinlichkeit etwas ableiten. Aber das ist doch hoffentlich nichts neues...
 
Zuletzt bearbeitet:
Zurück
Oben