News GeForce GTX 970: Nvidia bestätigt Limitierungen am Speicher

Die Mobile Varianten der 970 sind ja nicht davon betroffen. Wenn es von der Architektur her rühren würde, dann auch dort.

Wenn es ein Architektur Problem wäre, hätte auch die 980er das Problem. Aber danach sieht es ja nicht aus, die paar Kollegen die das Behaupten, scheinen den Bench nicht richtig laufen lassen zu können. Und die Mobilen Varainten setzten sowieso auf einen anderen Chip, also nicht vergleichbar.

Das Problem rührt einzig und alleine aus der Bescheidung des 980er her. Wäre ja auch nicht schlimm, wenn man auf den VRAM Issue hingewiesen hätte. Dann würde keiner ein Fass auf machen hier.
 
Als obs keine anderen Probleme auf der Welt gibt. Wegen
1 oder 2% in einigen wenigen Extremsituationen, die man
zwar messen, aber nicht spüren kann, so einen Aufriss
(400 Kommentare) zu machen ist einfach ein Witz.

Das ist als ob in der Hunderter Packung Kekse nur 99 drin
sind. Kommt Männer, lasst uns Bahlsen niederbrennen... :rolleyes:
 
Beim VRAM von Grafikkarten frage ich mich auch immer folgendes:

Warum verbaut Nvidia grundsätzlich Speicher mit einer Anbindung die in den letzten Jahren immer unter dem von AMD lag?
Ist es für AMD nur Marketing zu sagen "512Bit-Anbindung" ist "besser da mehr" oder hat es auch einen realen Nutzen?
Ist das jeweils Architektur bedingt?
Spart hier NV ggf.?

Ich kenne mich mit der Thematik nicht aus, kann mich jemand aufklären?

Vielen Dank.

VG
 
Ich hätte definitiv die GTX 980 gekauft, hätte ich gewusst, dass 224GB/s bis 3,3GB bei der GTX 970 anstehen. Stattdessen haben Sie Geld an mir verloren und jetzt auch noch einen Kunden, der über 15 Jahren Nvidia Karten kauft !

Diesbzgl werde ich natürlich MF anschreiben, was dabei rauskommt, keine Ahnung, bin aber trotzdem schwer enttäuscht..
 
borizb schrieb:
Als obs keine anderen Probleme auf der Welt gibt. Wegen
1 oder 2% in einigen wenigen Extremsituationen, die man
zwar messen, aber nicht spüren kann, so einen Aufriss
(400 Kommentare) zu machen ist einfach ein Witz.

Diese Angaben kommen von dem Hersteller der den Leuten den fehlenden Ram und die falschen Specs zukommen lies.
Übrigens auch der Presse zukommen ließ.
Das ist bestimmt sehr glaubwürdig.

Ich würde keine Herstelleraussage ungeprüft übernehmen.
 
borizb schrieb:
Als obs keine anderen Probleme auf der Welt gibt. Wegen
1 oder 2% in einigen wenigen Extremsituationen, die man
zwar messen, aber nicht spüren kann, so einen Aufriss
(400 Kommentare) zu machen ist einfach ein Witz.

Das ist als ob in der Hunderter Packung Kekse nur 99 drin
sind. Kommt Männer, lasst uns Bahlsen niederbrennen... :rolleyes:

Wenn ich nicht sämtlichen Realitätssinn verloren habe sind das mindestens 320€ Unterschied von der Kekspackung zur Grafikkarte. Sonst Ganz nett der bildliche Darstellungsversuch. :schaf:

DAI spielst du also lieber mit Rucklern als flüssig mit weniger maxfps. I see :)

Natürlich geht hier die Welt nicht unter. Aber etwas verarscht darf man sich fühlen, also darf man auch mal seinem Ärger Ausdruck verleihen oder ist berechtigte Kritik heutzutage auch nicht mehr erwünscht?
 
Mp<the boss> schrieb:
Beim VRAM von Grafikkarten frage ich mich auch immer folgendes:

Warum verbaut Nvidia grundsätzlich Speicher mit einer Anbindung die in den letzten Jahren immer unter dem von AMD lag?
Ist es für AMD nur Marketing zu sagen "512Bit-Anbindung" ist "besser da mehr" oder hat es auch einen realen Nutzen?
Ist das jeweils Architektur bedingt?
Spart hier NV ggf.?
VG

Die Speicherinterface Anbindung ist erstmal irrelevant, was zählt ist nur die Bandbreite die aus V-ram Takt und Speicherinterfacebreite zusammenkommt.
Nvidia spart am Speicherinterface, taktet dafür den V-ram höher.
AMD spart daran nicht, taktet den V-ram dafür niedriger. Ist im Prinzip wurscht.

Die AMD 512bit Anbindung hat schon einen Nutzen, soviel ich weiß hat AMD ihren Controller nicht vergrößert und trotzdem ein 512bit Speicherinterface implementieren können, allerdings mit niedrigeren Taktraten.
Letztendlich bietet AMD etwas mehr Speicherbandbreite als Nvidias GK110.
 
Ich sehe es kommen. CB, demnächst werden Test oberhalb des 3,5GB Bereiches gemacht. Alles drunter wäre getürkt. :-)

*Ach und, wie soll man nun rausfinden, dass die Werte nur um den genannten Bereich abfallen und nicht doch mehr sind?
Muss da eine 290X herhalten?:evillol:
 
Zuletzt bearbeitet:
@smilefaker

Ah diese Skalierung zw. Takt x Anbindung war mir nicht bekannt. Vielen Dank dafür!
 
smilefaker schrieb:
Wo habe ich gesagt die Karte sei Mist? Die Karte ist auch mit 3,3 oder 3,5GB sehr nett.
Wenn das von anfang an so kommuniziert wird, okay.

Und ein Zerpflücken ist das nicht, wenn man feststellt das die Karte zu wenig V-ram besitzt und der letztere V-ram im Prinzip unbrauchbar ist.
Naja was heißt im prinzip, was will man mit 20GB/s noch reißen.

Mit dem "Die Karte ist Mist" habe ich die allgemeine Stimmung der Posts im Thread angesprochen um meinen Punkt zu verdeutlichen.

Die Feststellung dass die Karte zu wenig V-RAM ist falsch. Sie besitzt 4 GB wie es auch auf der Packung steht.
Der restliche V-RAM ist auch nicht im Prinzip unbrauchbar. Mit 20GB/sec kannst du locker so manche PhysX oder CUDA-Berechnung reißen.

Außerdem weise ich nochmal darauf hin, dass es zig Benchmarks zu der Karte gibt die verschiedene Auflösungen und verschiedene Effekte in verschiedenen Spielen behandeln und diese wiederum mit verschiedenen anderen Grafikkartenmodellen vergleichbar machen.

Daher bleibe ich auch weiterhin dabei, dass ich die Reaktion auf diese technische Einschränkung viel zu übertrieben ist. Du sagst ja selbst dass die Karte auch mit 3.5 GB noch ne tolle Karte wäre und das Problem lediglich darin besteht dass nVidia die Bandbreiteneinschränkung des letzten Stückchens Speicher nicht kommuniziert hat.
Und für diesen Umstand finde ich die teils sehr heftigen Reaktionen im Thread eben immer noch viel zu übertrieben.

Das solls auch von mir dazu gewesen sein.
 
Zitat von borizb Beitrag anzeigen

Als obs keine anderen Probleme auf der Welt gibt. Wegen
1 oder 2% in einigen wenigen Extremsituationen, die man
zwar messen, aber nicht spüren kann, so einen Aufriss
(400 Kommentare) zu machen ist einfach ein Witz.
smilefaker schrieb:
Diese Angaben kommen von dem Hersteller der den Leuten den fehlenden Ram und die falschen Specs zukommen lies.
Übrigens auch der Presse zukommen ließ.
Das ist bestimmt sehr glaubwürdig.

Ich würde keine Herstelleraussage ungeprüft übernehmen.
Abgesehen davon gibt es ja einige Diskussionen, dass die Karte zwar durchschnittlich nur geringfügige FPS Minderungen hat, aber die Framelatenz extrem unregelmäßig wird bzw. es zu starken Mikrorucklern führt, die die Games unspielbar machen. Paradebeispiel ist hier immer wieder Skyrim, das trotz 35-40 AvgFPS unspielbar ist, was nunmal eben nicht so sein sollte.

Die Frage ist also, was da dran ist, ob das auch auf andere Titel jedesmal so zutreffen wird und ob durch Treiberoptimierung dieses Verhalten weiter eingedämmt werden kann.
Macht also der langsame Teil des Grafikspeichers die Grafikkarte langsamer/Mikroruckleranfälliger, als sie komplett ohne diesen Teil wäre? <- das ist die Frage, denn wenn der langsame Teil tatsächlich nur mit ~20GB/s läuft, wäre das langsamer als die Texturen auf den Arbeitsspeicher auszulagern, der z.B. bei DDR3-1600 und DualChannel (<- hat fast jeder mindestens) bereits 25,6 GB/s bereitstellt (über 25% mehr Leistung!).
 
@DocWindows

Trotzdem entschuldigt das nicht das NVidia es von anfang an nicht so beschrieben hat.

mfg hollow
 
Schon verdammt Lustig wie einige solch ein vorgehen auch noch unterstützen oder als nicht schlimm abstempeln. Es gibt halt leute die wohl fast alles mit sich machen lassen. Allein vom Prinzip her ist so ein vorgehen moralisch fragwürdig und unter aller Kanone. Unabhängig davon ob die Grafikkarte dennoch eine gute ist. Aber nun gut, wenn dies alles nicht so schlimm ist dann macht Nvidia das gleiche das nächste mal vielleicht mit 1GB des gesamtspeichers, ist ja dann auch nicht schlimm, verbaut ist der Ram dann ja auch und funktionieren wird sie dann auch noch. Oder wo genau ist da nun die Grenze?

gruß
 
Beim nicht erfüllen von Hardwarespezifikationen hört der Spaß auf :D
 
könnte das hier ein Beitragsrekordthread werden? :D

ne, spaß beiseite

moralisch ist das absoluter Bullshit den nVidia abgeliefert hat
rechtlich gesehen ist das ein ziemlicher Streitpunkt
vorallem da schon vorher jemand erwähnt hat, dass für Betrug und der Gleichen eine Absicht von NV dahinter stehen muss -> und das ist der Knackpunkt womit alles steht und fällt

was ich aber komisch finde
bei der Veröffentlichung der Karten wurde ja alles veröffentlicht
man wusste, dass die 970 gegenüber der 980 beschnitten ist und was genau Phase ist
wieso konnte man dann nicht auf dieses Speicherbandbreitenproblem schon damals rückschließen?
 
Zuletzt bearbeitet:
Daher bleibe ich auch weiterhin dabei, dass ich die Reaktion auf diese technische Einschränkung viel zu übertrieben ist. Du sagst ja selbst dass die Karte auch mit 3.5 GB noch ne tolle Karte wäre und das Problem lediglich darin besteht dass nVidia die Bandbreiteneinschränkung des letzten Stückchens Speicher nicht kommuniziert hat.
Und für diesen Umstand finde ich die teils sehr heftigen Reaktionen im Thread eben immer noch viel zu übertrieben.

Bitte was? Was ist denn jetzt genau übertrieben an der Reaktion hier im Treat?
Sollen alle sagen: Ach so, nur 3,5 GB, eh Wurscht, ist ja immer noch eine Master Race Nvidia Karte??

Das Nvidia "vergisst" das seinen Käufern mitzuteilen ist völlig irrelevant für dich?
Das Nvidia bereits ab Launch einen Treiber anbietet, der das Problem "umschifft", dem Kunden die Info aber vorenthällt, nicht schlimm?

Ich behaupte: Das nicht Kommunizieren dieses (bekannten) Sachverhalts diente einzig und alleine dazu, mehr Karten zu verkaufen, weill sonst die Produkte der Konkurrenz auf einmal viel interesanter erschienen wären. Und das ist definitiv für mich Betrug am Kunden, ob rechtlich relevant weiß ich nicht. Aber für mich war das ein Vertrauensbruch, was bei der nächsten Kaufentscheidung (die 680er wirds nicht ewig machen...) sicherlich bemerkbar machen wird.

EDIT:
was ich aber komisch finde
bei der Veröffentlichung der Karten wurde ja alles veröffentlicht
man wusste, dass die 970 gegenüber der 980 beschnitten ist und was genau Phase ist
wieso konnte man dann nicht auf dieses Speicherbandbreitenproblem schon damals rüchschließen?

Na, weil sie das über den treiber relativ gut verschleiern konnten. Und bei den Standarttests Richtung 4K rennt das Ding halt in den GPU Limit, bevor sich der Speicher bemerkbar macht.
 
Zuletzt bearbeitet:
Seh schon, wird ein neuer Punkt in sämtlichen, kommenden Grafikkartentests...:evillol:

Vielleicht mal ein Anlass, über schlecht programmierte Spiele zu diskutieren...;)
 
Zuletzt bearbeitet:
Es ist interessant zu beobachten, wieviele Leute nicht bereit wären, ihre 970 zurückzugeben, selbst wenn sie es könnten.
Oder das Extrembeispiel, gleich noch zum noch größeren Modell des gleichen Herstellers zu greifen, damit Nvidia noch ein Incentive hat, es in Zukunft immer so zu machen.

Der Hang zum "es wird schon nicht so schlimm sein" oder "die Karte ist ja immer noch gut genug" ist vielleicht für den Moment ausreichend. Aber man sollte sich vielleicht auch vor Augen halten, dass man Nvidia dann auch (zu Recht) das Gefühl gibt, der Kunde frisst schon alles, was wir ihm hinwerden - also ein quasi-monopolistisches Verhalten an den Tag legen kann.

Die Hersteller sind nicht bereit, dem Kunden etwas zu schenken - also sollte es umgekehrt genauso sein. Für religionsgleiche Zugehörigkeitsgefühle sollte da (auch im eigenen Interesse) kein Platz sein.
 
Also mit Zurückgeben der Grafikkarte beim Händler siehts wahrscheinlich schlacht aus, wenn NV Offiziell keine Lösung anbiete. Sei denn NV hat die Seite mit der Bestätigung geändert. Folgendes steht auf http://www.nvidia.de/object/geforce-gtx-970-de.html#pdpContent=2

Technische Daten des Speichers
Speichergeschwindigkeit ( Gbps ) 7,0
Speichergröße 4 GB
Speicherschnittstelle 256-bit GDDR5
Max. Bandbreite 224 GB/s

Max. Bandbreite würde ich mit "bis zu" gleichsetzen. Die frage ist ob man den Image schaden der dadurch entsteht NV nicht zum Einlenken bringt.

Edit: Ja die GTX970 ist keine schlechte Karte! Wenn NV nicht einlenkt war das aber die letzte NV die in meinem Rechner landet. Dann gibts halt nur noch AMD. Es ist einfach eine Prinzip frage wenn ich eine Karte mit 4GB kaufe dann will ich auch das die 4GB gleich schnell sind und vom Treiber auch genutzt werden und nicht das der Treiber versucht möglichst nur 3,5 GB zu nutzen!
 
Zuletzt bearbeitet:
Lobos84 schrieb:
Es ist interessant zu beobachten, wieviele Leute nicht bereit wären, ihre 970 zurückzugeben, selbst wenn sie es könnten.
Oder das Extrembeispiel, gleich noch zum noch größeren Modell des gleichen Herstellers zu greifen, damit Nvidia noch ein Incentive hat, es in Zukunft immer so zu machen.

Der Hang zum "es wird schon nicht so schlimm sein" oder "die Karte ist ja immer noch gut genug" ist vielleicht für den Moment ausreichend. Aber man sollte sich vielleicht auch vor Augen halten, dass man Nvidia dann auch (zu Recht) das Gefühl gibt, der Kunde frisst schon alles, was wir ihm hinwerden - also ein quasi-monopolistisches Verhalten an den Tag legen kann.

Die Hersteller sind nicht bereit, dem Kunden etwas zu schenken - also sollte es umgekehrt genauso sein. Für religionsgleiche Zugehörigkeitsgefühle sollte da (auch im eigenen Interesse) kein Platz sein.

Leider hat Nvidia auch fast ein Monopol. Die meisten die schon jahrelang im Geschäft sind haben sich auf die eine oder andere Marke festgelegt und wissen um deren Vorlieben und es fällt ihnen schwer da auszubrechen. Sicher müsste man die Karten alle wieder zurückgeben, nur werden sich die wenigsten eine AMD-Karte holen und trotzdem wieder zu Nvidia gehen....

Ich bin eher mal gespannt was Nvidia machen wird um seine Kundschaft zu besänftigen.
 
Zuletzt bearbeitet:
Zurück
Oben