News GeForce GTX 970: Nvidia bestätigt Limitierungen am Speicher

bandit-gsf650 schrieb:

Oder hole dir für 40-50 Taler in der Bucht oder im Marktplatz irgendwas Richtung GTX470, 560, 560TI, Ati 5870, 6870 (nur Beispiele) und fertig. Du brauchst den Brecheimer nicht mehr :D und bist für den Fall gerüstet, falls da was länger dauert zwecks Tausch gegen eine neue Karte.

jigsaw44 schrieb:

Die GTX980 hat eh ein schlechtes PL-Verhältnis. Bleibt nur die Ati R9 290 (X). Die Tri-X- und Vapor-X-Modelle wurden ja von CB für gut befunden. Aber auch hier ist die Notkarte eine Option für die Wartezeit.
 
Was spricht gegen eine 270X als Übergang? Wieviel schlechter ist diese in % als eine 290(x)?
 
Banger schrieb:
Oder hole dir für 40-50 Taler in der Bucht oder im Marktplatz irgendwas Richtung GTX470, 560, 560TI, Ati 5870, 6870 (nur Beispiele) und fertig. Du brauchst den Brecheimer nicht mehr :D und bist für den Fall gerüstet, falls da was länger dauert zwecks Tausch gegen eine neue Karte.



Die GTX980 hat eh ein schlechtes PL-Verhältnis. Bleibt nur die Ati R9 290 (X). Die Tri-X- und Vapor-X-Modelle wurden ja von CB für gut befunden. Aber auch hier ist die Notkarte eine Option für die Wartezeit.


Hmm.. Aber die R9290X hat doch was die FPS angeht bei vielen Games das Nachsehen gegenüber der GTX970.. Oder ist zu erwarten, dass sie die GTX970 bei zukünftigen Spielen, die die vollen 4GB brauchen hinter sich lässt? Bin eigentlich soweit zufrieden mit der GTX970.. Bloß hatte ich sie mir mit der Intention gekauft, dass ich mindestens die nächsten 2 Jahre Ruhe hab und alles auf 1080p MAX zocken kann.. Abgesehen davon bin ich natürlich einfach angepisst, weil solche Aktionen nciht klargehen.. Ich hatte IMMER AMD-Karten, jetzt das erste Mal ne NVIDIA und dann kommt sone Geschichte raus.. Spricht nicht grade für die..
 
kisser schrieb:
Muss ichs jetzt noch zitieren damit du es begreifst? Ich beziehe mich auf den Anandtech Artikel. :rolleyes:
DU hast ihn wohl offenbar nicht gelesen!!

Dochdoch, gelesen haben wir ihn beide, nur verstanden habe ihn wohl nur ich von uns beiden (sorry für die Bissigkeit, hatte nen harten Tag).


kisser schrieb:
Doch, das sind sie, aber nicht gleicher Speicheroperation (lesen/schreiben) auf beiden Segmenten.
Es ist aber möglich, das 3,5GB Segment zu beschreiben und gleichzeitig aus dem 0,5GB Segment zu lesen und umgekehrt.

Dann sind wir uns ja einig: Aber keinen vollen Takt lesend und schreibend auf beide Bereiche gleichzeitig zusammen, so wie es erforderlich ist, um auf 224 GB/s (pro Sekunde!) zu kommen. Daedal hat es - wie fast alles in diesem Thread, OK DrToxic auch noch - erklärt. Dem gibt es nichts mehr hinzuzufügen.

Vielmehr ist es technisch unmöglich, auf 224 GB/s zu kommen. Ein Burst - ich als Laie sage, dass nicht einmal das technisch möglich ist, zumindest so wie uns Nvidia über TechReport und Anandtech bzw den zugrundeliegenden Interviews die Funktionsweise der 8 Speichercontroller (MC) erklärt hat - dauert zudem keine Sekunde, um auf die erforderlichen 224 GB zu kommen. Mag sein, dass in einem Takt eine entsprechende Datenmenge mit Tricks - einem burst aus einem lächerlich kleinen L2-Cache von 1,7x MB! - durchgeschoben werden kann, nicht aber eine ganze Sekunde lang. In einer Sekunde ist selbst der lahme Teil des VRAM von 512MB gleich mehrmals komplett durch den lahmen 8 MC gedrückt worden (freilich nicht ohne den MC 7 oder die MC 1-6 damit zu lähmen)!

So wie Anandtech die Funktionsweise - bisher von niemanden bestritten oder gar von Nvidia´s Anwälten angefochten - der MC erklärt hat - Daedal hat die maßgebliche Passage zitiert - können niemals alle physikalisch vorhandenen 256 Datenleitungen einen vollen Takt lang lesend und schreibend bedient werden (XOR bei den verschiedenen Lese- und Schreibzugriffen).

Die 224 GB/s sind damit Makulatur.


Dass Nvidia alle belogen hat, als sie Speicher und -anbindung (4GB, 256bit) der GTX970 von den Beschränkungen gegenüber einer GTX980 ausgenommen hat, wissen wir mittlerweile. Streitig ist im Wesentlich nur, ob Nvidia von Anfang an absichtlich falsche Angaben gemacht hat - das vermutet jeder Mensch mit einem gesunden Menschenverstand - oder die Falschangaben auch innerhalb von Nvidia erst später bekannt wurden.

Zu meiner Überzeugung ist es unmöglich, dass von 1000en von mit der GTX970 befassten Mitarbeitern, denen die tatsächlichen Spezifikationen von Anfang an bekannt gewesen sind, bis 4 Monate nach der "gewaltsamen" Aufdeckung der Mängel nichts aufgefallen ist. Zwingend einige 100 mit der Entwicklung befassten Mitarbeiter wussten exakt um die kastrierten Spezifikationen. Dass diese nichts vom Release und den ersten Reviews über "ihr Baby" mitbekommen hätten, ist eine abwegige Illusion.

Weiß es aus einer Organisation einer der zuständig ist, wissen es rechtlich alle, ein alter Rechtsgrundsatz (vereinfacht dargestellt).

Und dass Nvidia eine Aufklärungspflicht hat, wenn und sobald der Fehler bekannt ist, folgt bereits daraus, dass sonst noch eine Vielzahl weiterer GTX970 laufend mit den falschen Spezifikationen weiterverkauft worden wären, obwohl die Mängel mittlerweile ja bekannt geworden sind.

Nvidia kann es drehen und wenden wie sie wollen: das "Missverständnis" ist nach gesundem Menschenverstand abwegig, selbst wenn es jedoch vorhanden gewesen sein sollte ist es praktisch ausgeschlossen, dass Nvidia diesen Mangel nicht spätestens kurz nach dem Bekanntwerden der erste Probleme bemerkt und dennoch niemanden aufgeklärt hat. Bis zur ersten Stellungnahme ging es noch mehrere Wochen ! Und auch hier wurde erst auf massiven Druck der Online-Medien gehandelt.

Schauen wir uns doch Nai´s Messungen an, auch wenn er sie - vermutlich nach einem freundlichen Brief von Nvidias Rechtsabteilung - nicht für 100% verbindlich angibt:

GTX970-980 GB-s.jpg

Ist es ein Zufall, dass der VRAM der GTX970 im optimalen Bereich eine Datentransferrate von ~148GB/s hat, während die GTX980 - mit identisch schnellem Speicher! - ~178GB/s erreicht ? Sind das nicht zufällig sehr genau 7/8? Beweist das nicht eindrucksvoll, dass die Karte selbst auf den ersten 3,5GB nur mit 224bit läuft? Nur mit

7 MC á 32bit = 224bit

oder

6 MC á 32bit + 2 MC á 16bit (weil diese (MC 7+8) nie gleichzeitig lesen und schreiben können) = 224bit?


Interessant finde ich auch das "it´s not a bug, it´s a feature"-Gelabere vom CEO von Nvidia, unser aller "Ich verarsche Euch bei quasi jeder öffentlichen Äusserung die ich abgebe"-Huang: dort hebt er ausdrücklich darauf ab, dass die Alternative zu den 4GB eine Karte mit lediglich 3GB gewesen wäre.
Hat die Karte eigentlich nur 192bit? Wieso nicht 3,5GB mit 224bit, wie sie nachweislich auch benutzt werden? Kann sich darauf jemand einen Reim machen ? Sollte damit nur der "Vorteil" (1GB mehr statt nur 512MB mehr) künstlich vergrößert werden, um das Argument besser klingen zu lassen (wie war noch sein Name oben).

Nach meiner Meinung wäre die GTX970 mit 224bit bei 7 MC auch in der Lage, 7 Speicherbausteine á 512MB = 3,5GB voll anzusprechen. Oder habe ich was falsch verstanden?
 
Ich würde sagen, dass es mehr Sinn macht die Mehrleistung vom Ausgangspunkt (in dem Fall der R9 270X) zu nehmen. Im Normalfall rüstet man ja auf und nicht ab.

Stimmen tun allerdings beide Werte, da sich ja der Basiswert ändert.

Im Bezug auf die Frage von PrinceVinc war deine Aussage aber richtig. Nur hört sich 36% so wenig an, obwohl die Karte eigentlich 75% schneller ist als eine R9 270X :D
 
PrinceVinc schrieb:
Was spricht gegen eine 270X als Übergang? Wieviel schlechter ist diese [also die 270X] in % als eine 290(x)?

er nimmt also aus Ausgangspunkt die 270X
und somit müssten laut Diagramm die 36% stimmen
aber das ist nur ein Minimalwert, die 270X ist mindestens 36% langsamer
in manchen Fällen eben mehr, inbesondere wenn mehr VRAM gebraucht wird

die Custommodelle sind teils auch noch etwas übertaktet, also auch nochmal etwas mehr
 
RIPchen schrieb:
Dochdoch, gelesen haben wir ihn beide, nur verstanden habe ihn wohl nur ich von uns beiden (sorry für die Bissigkeit, hatte nen harten Tag).

Nö, du hast ihn nicht verstanden.;)

RIPchen schrieb:
Dann sind wir uns ja einig: Aber keinen vollen Takt lesend und schreibend auf beide Bereiche gleichzeitig zusammen, so wie es erforderlich ist, um auf 224 GB/s (pro Sekunde!) zu kommen.

Wenn ich in einem Takt 224Bit lese (aus dem 3,5GB Segment) und gleichzeitig 32Bit schreibe (in das 0,5GB Segment), dann übertrage ich insgesamt 256Bit. Also kommt man auf 224GB/s, wenn zu jeder Schreib/-Leseoperation auf eine Segment auch die jeweils umgekehrte Operation auf das andere Segment möglich ist.
Das dies in der Praxis oft nicht möglich ist, habe ich bereits oben erwähnt. Deshalb ist der Treiber ja (derzeit) bemüht, das obere 0,5GB-Segment nicht zu nutzen.

Ein Beispiel: Auf Texturen im Graka-RAM wird ja in der Regel nur lesend zugegriffen, auf den Framebuffer fast ausschließlich schreibend.
Die GTX 970 könnte also, während sie den Framebuffer beschreibt, zeitgleich ihre Recheneinheiten mit Texturdaten aus dem anderen Segement versorgen.
 
jigsaw44 schrieb:
Hmm.. Aber die R9290X hat doch was die FPS angeht bei vielen Games das Nachsehen gegenüber der GTX970.. Oder ist zu erwarten, dass sie die GTX970 bei zukünftigen Spielen, die die vollen 4GB brauchen hinter sich lässt?

Das wird ohne Glaskugel niemand genau sagen können. Aber im CB-Test von Evolve neulich lag z.B. die R9 290X zwischen 9% (FullHD) und 20% (1440p) vor der GTX970, und das obwohl Evolve ein nvidia gameworks-Titel ist und von CB direkt zum Releasedatum getestet wurde, zu welchem AMD noch keine optimierten Treiber am Start haben konnte (gameworks halt).

edit:
kisser schrieb:
Wenn ich in einem Takt 224Bit lese (aus dem 3,5GB Segment) und gleichzeitig 32Bit schreibe (in das 0,5GB Segment), dann übertrage ich insgesamt 256Bit.
Aber das heißt doch trotzdem nicht, dass ein 256bit-Interface vorhanden ist. Ich dachte bisher, dass die Definition eines xy-Bit Interfaces sich auf die unidirektionale Kommunikation bezieht.
Gerade deshalb kann man die Raten ja nicht addieren.
 
Zuletzt bearbeitet:
kisser schrieb:
Wenn ich in einem Takt 224Bit lese (aus dem 3,5GB Segment) und gleichzeitig 32Bit schreibe (in das 0,5GB Segment), dann übertrage ich insgesamt 256Bit.

Ich dachte, die 256bit ergeben sich nur aus der Summe der möglichen Lese- und Schreibvorgänge. Es ist DDR-VRAM, DoubleDataRam


DDR-SDRAM

...arbeiten Module mit DDR-SDRAM nahezu mit der doppelten Datenrate. Möglich wird das durch einen relativ simplen Trick: Sowohl bei der auf- als auch bei der absteigenden Flanke des Taktsignals wird ein Datenbit übertragen, anstatt wie bisher nur bei der aufsteigenden.


Der Gag dabei ist ja, dass während eines Taktes sowohl Lese- als auch Schreibvorgänge möglich sind. Fehlen also entweder Lese- oder Schreibvorgänge, komme ich nicht auf 256bit an Daten. Und die o.g. Messdaten belegen das eindrucksvoll. Die GTX970 kommt auf höchstens 7/8 des Speicherdurchsatzes, was anhand der technischen Beschreibungen dazu (vgl. oben) exakt zu einem 224bit-Interface passt.


Eigentlich würde eine seriöse Firma hier seit langem Aufklärungsarbeit leisten, OK eine seriöse Firma hätte die GTX970 nicht so auf den Markt gebracht. Soweit ich das beurteilen kann, sprechen aber nicht nur die Messungen, sondern auch die ganzen Reviews und Benchmarks zu den Leistungseinbrüchen der GTX970 ggü der GTX980 auch unterhalb von 3,5GB ein und dieselbe Sprache. Die 224 GB/s sind eine Mär, sie sind nicht einmal technisch messbar nachzuweisen.

Von daher mag Nvidia auch erklären was sie wollen: die Fakten sind eindeutig. Die Vernebelungstaktik hat meines Erachtens nur den Grund, dass nicht auch noch die 224 GB/s und die 256bit als vollständig falsch festgestellt werden, was wiederum in Klageverfahren nicht vorteilhaft für Nvidia wird.
 
DrToxic schrieb:
Aber das heißt doch trotzdem nicht, dass ein 256bit-Interface vorhanden ist. Ich dachte bisher, dass die Definition eines xy-Bit Interfaces sich auf die unidirektionale Kommunikation bezieht.

Ich weiß nicht, ob es dafür eine allgemeingültige Definition gibt. Tatsache ist doch, dass 256 Datenleitungen vorhanden sind (die unter gewissen Umständen auch gleichzeitig nutzbar sind), bislang aber noch nichts derartiges wie bei der 970 implementiert wurde.

Nehmen wir doch zum vergleich mal den ersten 3D-Beschleuniger für den Consumer-Markt, die 3Dfx Voodoo.

KL_Diamond_Monster3D_Voodoo_1.jpg


Die hat 2 Chips:
Eine TMU (auch TexelFx genannt), die mit 64Bit an 2MB angebunden ist.
Der "PixelFx", der den Framebuffer beschreibt und liest, ist ebenfalls mit 64Bit an 2MB angebunden.
(Sehr schön zu sehen bei obiger Diamond Karte)

Dei TMU greift (ausser wenn Texturen nachgeladen werden müssen) nur lesend auf ihre eigenen 2MB zu.
Der PixelFX schreibt und liest den Framebuffer (max 2MB groß, daher Beschränkung auf 640x480 Bildpunkte (VGA-Auflösung) in 16 Bit Farben ).

Keiner dieser 2 Chips kann auf die 2MB des jeweils anderen zugreifen, zu neudeutsch: das RAM ist nicht unified.

Wie würdest du denn RAM-Menge und RAM-Interface der Karte angeben?
 
Würde ich auch so machen.
 
2x2MB@64bit,

Solche Gedankenspiele bringen aber nicht viel, weil wir nicht 1997 haben. Mit bestimmten Angaben zu Speichergröße und Speicherinterface werden ja - basierend auf den Erfahrungen mit den Vorgängern oder anderen Karten aus der gleichen Generation - bestimmte Erwartungen bezüglich des Verhaltens verknüpft und bisher hieß XBit Speicherinterface eben, dass in einem Cycle XBit geschrieben oder gelesen werden können, genauso wie XGB Speicher eben seit jahren XGB gleich benutzbarer Speicher bedeutet. Insbesonder trifft das ja bei anderen Karten der Maxwellgeneration scheinbar auch immer noch zu. Nur im Zusammenhang mit der Gtx970 haben diese Angaben plötzlich eine völlig andere Bedeutung - das ist bewusste Kundentäuschung (es gibt auch sowas wie Lügen durch Verschweigen).

Übrigens wird z.B. in den ganzen Texten zum Thema Mangel auch immer wieder explizit darauf hingewiesen, was der Käufer erwarten kann. Daher ist irreführende Produktangaben, selbst wenn sie technisch gesehen nicht falsch sind, trotzdem nicht erlaubt.

Re
 
DrToxic schrieb:
Das wird ohne Glaskugel niemand genau sagen können. Aber im CB-Test von Evolve neulich lag z.B. die R9 290X zwischen 9% (FullHD) und 20% (1440p) vor der GTX970, und das obwohl Evolve ein nvidia gameworks-Titel ist und von CB direkt zum Releasedatum getestet wurde, zu welchem AMD noch keine optimierten Treiber am Start haben konnte (gameworks halt).

Hmm.. Schwere Entscheidung.. Wie sieht es denn mit der Unterstützung der 290X in Sachen Gameworks Effekte aus? Weiß das einer? Kommen da mit der Zeit immer Treiber, durch die die AMD-Karte auch mit den Gameworks Features vernünftig performt? Oder fällt die da auch mehrere Wochen nach Release eindeutig zurück? (Ich hab das mit Evolve schon gecheckt, aber meine jetzt eher in der Vergangenheit.. Far Cry 4, Assassins Unity) Ich mein.. Paar Sachen sind überflüssig.. Aber zB bei Far Cry 4 ist der Gameworks-Nebel (glaube HBAO+ war das) schon deutlich ansehnlicher als die normale Einstellung.. Und ist es mit irgendeinem Tool bei AMD möglich eine Art DSR zu nutzen? Ich spiele halt momentan (solang die 970 dazu noch in der Lage ist) das meiste auf 1440p auf nem 1080p Fernseher.. Da ich alles mit Controller spiele machts mir nix aus wenn ich nur 35FPS habe.. Wenn ich zB kein DSR nutzen könnte wäre meine Entscheidung klar.. Sieht einfach deutlich besser aus bei den meisten Games.. Und wie gesagt, solang die FPS über 30 sind passt das für mich dank Controller..

Andere Frage, sorry falls es hier nicht reinpasst: Haben die mit den letzten Far Cry 4 Updates irgendwas verändert, bezüglich der Performance? Ich hab auf 1,2facher Full-HD Auflösung.. Ich glaub 1183p oder so ist das, auf einmal nur noch ca. 30FPS.. Als ichs vor 1-2 Monaten das letzte mal gezockt hab hatte ich noch knappe 40.. Auch laut Benchmarks nach Release bringt es die 970 bei 1440p auf ca. 40FPS.. Ganz merkwürdig irgendwie..
 
kisser schrieb:
Ich weiß nicht, ob es dafür eine allgemeingültige Definition gibt.
Wurde von RIPchen weiter oben schon erwähnt: DDR-RAM. Bei DDR sollte das Interface die bidirektionale Rate beschreiben, bei SD halt unidirektional.

kisser schrieb:
Wie würdest du denn RAM-Menge und RAM-Interface der Karte angeben?
Vermutlich 2*(2MB@64bit, unidirektional)

jigsaw44 schrieb:
Hmm.. Schwere Entscheidung.. Wie sieht es denn mit der Unterstützung der 290X in Sachen Gameworks Effekte aus? Weiß das einer? Kommen da mit der Zeit immer Treiber, durch die die AMD-Karte auch mit den Gameworks Features vernünftig performt?
Ich denke, du verwechselst gameworks mit PhysX :)
Spezielle Effekte kommen durch nvidia PhysX, die Liste der Spiele, die das verwenden, ist aber relativ klein (66 Stück).

Gameworks sorgt dafür, dass Spiele direkt zu Release besser auf nvidia-Karten laufen, während AMD dann im Nachhinein erst den Treiber nachbessern kann. Passiert in der Regel innerhalb ein paar Wochen.
 
Schauen wir uns doch Nai´s Messungen an, auch wenn er sie - vermutlich nach einem freundlichen Brief von Nvidias Rechtsabteilung - nicht für 100% verbindlich angibt:

Interessant, was man so im internet über sich liest . . . wirklich interessant . . . .

Ein Beispiel: Auf Texturen im Graka-RAM wird ja in der Regel nur lesend zugegriffen, auf den Framebuffer fast ausschließlich schreibend.
Die GTX 970 könnte also, während sie den Framebuffer beschreibt, zeitgleich ihre Recheneinheiten mit Texturdaten aus dem anderen Segement versorgen.

Naajaaa. Problematisch ist, dass CG-Algorithmen die Frame-Buffer auch als Texturen verwenden. Dadurch wird die Vorgehensweise hinfällig.
 
Zurück
Oben