News Nvidia-CEO macht GTX-970-Limitierung zur neuen Funktion

BlackWidowmaker schrieb:
Hallo @ all,

also wirklich amüsant finde ich, wie sich hier 150 Vorredner über ein mickriges halbes GB VRAM aufregen, sich aber keiner davon als man noch meinte die Karte hätte 4GB VRAM verarscht vorgekommen ist, weil NVidia nur noch Speicherkrüppel verkauft, selbst das aktuelle Topmodell mit lächerlichen 4GB ausstattet.

Sicher gäbe es eine GTX 970 mit konsequenten 8GB VRAM, gäbe es schnell, sowohl auf CB wie auf andere vergleichbare Formate, etliche Tests mit unpassenden Spielen, die beweisen sollen, daß dies unter aktuellen Spielen maximal 1-2% mehr FPS bringt wenn überhaupt. Die ganze Schafherde Ahnungsloser und Low-End-Akzeptierer hätte dann Beifall geklatscht und ohne jegliches Mitdenken akzeptiert.

Nun ähnliche Tests gibt es ja auch für RAM, die zeigen sollen, daß 8GB RAM genug sind, bei CPUs ist ja auch nur noch GHz und Übertaktbarkeit von Belang - daß es so etwas wie L3-Cache gibt und seine Größe durchaus von Belang ist, interessiert doch auch keinen. Überhaupt die meisten denken doch bloß noch in GHz, FPS und TB. Der Gesamtzusammenhang - also das Computer-Erlebnis, wird ebenso unter den Teppich gekehrt, wie in der Schulmedizin der Mensch (als Gattung).

Tut mir leid, ich weiß nicht ob ich über so viel gespielte Empörung, die an Belanglosigkeit nicht zu übertreffen ist, lachen oder weinen soll.

Ihr regt euch über 0,5GB auf? Warum regt ihr euch dann nicht über wirklich ernsthafte Schweinereien von NVidia/AMD auf? Daß es z.B. OEM-Partnern untersagt wird Karten zu bauen die auch sinnvoll sind. Stattdessen kann der Käufer nicht mehr das kaufen was er gerne hätte, weil das womöglich heißen würde, daß man FPS-Neurotikern nicht mehr dazu veranlassen könnte ständig etwas neues zu kaufen. Das die Treiber beider Firmen, zumindest der Definition nach (unerwünschte Programmteile / unerwünschte Programmfunktionen) als Viren einzustufen sind. Ich will erst gar nicht davon anfangen, daß es weder von NVidia noch AMD reine INF-Treiber gibt, oder daß beide Treiber ungefragt das BS mit Dateien vollmüllen für Sprachen, deren Existenz den meisten FPS-Jüngern fremd ist.

Witzig auch noch wenn man glaubt, daß NVidia die meisten GPUs verkauft. Dabei ist Intel seit vielen Jahren der alleinige Marktführer, das wird in Zukunft sogar noch zunehmen. NVidia/AMD bedienen mit Gamerkarten lediglich einen Nischenmarkt. Einen der zudem ständig an Bedeutung verliert. Und egal was irgendwelche NVidia/AMD Jünger glauben, Intel baut die besten Grafikchips. OK, man kann damit weder Crysis noch BF zocken, aber die sind mehr oder minder kostenlos. Von so einem Preis/Leistungsverhältnis kann selbst AMD nur träumen. Auch in Punkto Verlustleistung / Kühlung sind sie absolut genugsam und unkritisch.

Aber am aller meisten rege ich mich auf, lache oder weine ich als Elektroniker, je nach Tageslaune, von dem eingeimpften Irrglauben vieler Gamer, daß irgendein elektronisches Bauteil 70, 80 oder gar 90 Grad Celcius erreichen darf und das OK ist. Nur weil euer GPU-Gott, egal ob Grün oder Rot, euch das gerade weismachen will. Und in den Bedienungsanleitungen jeglicher anderer Elektronikgeräte steht ein max. Temperaturbereich von 45 Grad, weil das wohl alles Pessimisten sind.

Oh mein Gott, und ausgerechnet ihr regt euch über ein halbes GB auf. Wenn ihr nur verstehen könntet wie lächerlich das ist.

Sehr weise gesprochen. Aber der wütende Mob holt lieber die Mistgabeln raus und will die Projektion des Bösen teeren und federn.

Das die ersten Darstellungen gefälscht waren, ist die eine Sache. Aber den Skandal, den jetzt alle heraufbeschwören zeigt doch, daß es den Leuten wirklich heute zu gut geht, weil sie sich über sowas reihenweise aufregen können.

Nvidia wird den Skandal getrost überstehen, egal was jetzt einige hier so von sich geben. Und mangels Alternativen werden die meisten Schreier hier doch wieder bei Nvidia landen.
 
Herdware schrieb:
Die GTX970 hat tatsächlich, trotz teilweise beschnittenem SI, ganze 256Bit an denen 4 GB hängen. Aber aus der teilweise deaktivierten Crossbar ergibt sich halt diese ungewöhnliche Segmentierung des Speichers, bei der letztlich 3,5GB mit 224Bit und 0,5GB mit 32Bit angebunden sind.
Sowas war bei Kepler und älter definitiv nicht möglich.

Die Frage ist warum man sowas nicht irgendwie kommunizieren kann. Ist es zu schwierig das zu formulieren damit der Käufer das nachvollziehen kann, hielt nVidia es für unnötig das zu erwähnen?

Die simplifizierte Erklärung dass man lieber 3,5GB fullspeed Speicher verbaut statt nur 3GB, aber aufgrund der Speicherbestückung auf 4GB kommt, wäre VOR dem offiziellen Verkauf der Karte doch OK gewesen. Auch die Art der Beschneidung um den Abstand zur 980 zu erreichen ist nachvollziehbar.

Dazzel schrieb:
Wenn die 0,5GB vom Treiber so genutzt werden, dass sie die Desktopdaten halten, ist das doch alles kein Problem mehr. Bei zwei Bildschirmen habe ich im Desktopbetrieb knapp 500MB verbraucht. Diese Daten werden auch im Spiel drin behalten.

Ich glaube die werden ziemlich komplett aus dem Grafikspeicher entladen. Ob sie im RAM vorgehalten werden oder ganz "vergessen" werden weiß ich aber nicht.
Ich würde die 500MB eher für spielbezogene Daten verwenden, wie z.B. Physik (falls möglich und sinnvoll)
 
Zuletzt bearbeitet:
was ich nicht verstehe, wenn der die Erfindung so genial findet, warum hat das Highend Modell 980 dann nicht auch dieses Feature?! ... :freak:
 
Hito schrieb:
dann gebe ich dir mal ein Schulbeispiel:
Wenn Du mal ganz scharf nachdenkst, kommst Du hoffentlich drauf, daß dieses Beispiel nicht zutreffend ist, und einfach nur beknackt ist. Setzen, 6.
 
mwi schrieb:
Ihr seid mehrheitlich Schüler und Studenten, oder?


Es sind scheinbar zumindest viele dabei, die unbelehrbar sind.
Vorallem die Leute die nVidia als "alternativlos" sehen.
Völlig in einer anderen Welt leben diese Leute.

Es gibt mMn nur ein Szenario, in dem es keine AMD Konkurrenz gibt .. und das ist ein ITX System.

Alles andere ...
Performance = Gleichstand
Treiber = Gleichstand
und jedem weiteren Feature, steht entweder ein Feature gegenüber oder es ist schlichtweg unnötig.

PhysX mag seine Vorteile haben, so richtig etabliert hat es sich aber nie.
3DVision nennt sich bei AMD HD3D
Dann gibt's Shadowplay Alternative über GameDVR
Gameworks mag für nVidia gut sein, .. für den Kunden aber nicht. Hier setz ich mal Mantle gegenüber ... Allerdings ist Mantle offener Standard, dahingegen Gameworks den Konkurrenten keinen Einblick gewährt.
Cuda = ATI Stream
Gsync (nicht offen) = FreeSync (offener Standard)

Also Alternativlos, ist wirklich eine grün verblendete Ansicht.
 
@Blackwidowmaker
Du scheinst ja Ahnung zu haben. Es gibt also keine elektronischen Teile, die mit über 45°C betrieben werden dürfen? :)
 
leupster schrieb:
was ich nicht verstehe, wenn der die Erfindung so genial findet, warum hat das Highend Modell 980 dann nicht auch dieses Feature?! ... :freak:
Ist doch ganz einfach, die Chips der 970 sind gleich der 980er, nur werden die Chips mit fehlerhaften L2-Caches für die 970 wiederverwendet. Und sobald eben über 1,75 MB adressiert, geht der Umweg über einen langsameren Zugriff auf die letzten 0.5 GB.
 
Super Herr Huang,

da hätte man natürlich selber drauf kommen können.
Der Kunde ist selbstverständlich der blöde, weil er auf seine voll angebundenen 4GB besteht,
statt mal glücklich zu sein, dass er mehr als 3GB hat. :D
Natürlich war die Kommunikation nicht perfekt, aber der Kunde ist trotzdem der Blöde.
 
terraconz schrieb:
Die "guten" Unternehmen lassen sich nur nicht erwischen bei sowas, beschäftige dich mal damit wie viel Abgaben standardmässig "hinterzogen" werden durch Scheinfirmen oder Behandlung von Umwelt/Mitarbeitern in anderen Ländern usw... Das sind nur Themen die eben Alltag sind deshalb interessiert es keine Sau mehr.

Ich denke es kommt auch darauf an in welcher Branche das Unternehmen arbeitet. Bei einem Mobilfunkbetreiber würde ich ehrlich gesagt immer vom Schlimmsten ausgehen. ;)
 
Nach lesen dieser Aussage bin ich einfach komplett sprachlos. Und noch zig mal mehr Happy zur 290 statt zur 970 gegriffen zu haben - nicht wegen der Leistung, da mag die 970 ja sogar die Nase vorne haben. Aber so einen Konzern wie Nvidia mit seinem offensichtlich geisteskranken CEO nicht unterstützt zu haben, ist schon ein gutes Gefühl :D
 
DocWindows schrieb:
Ich glaube die werden ziemlich komplett aus dem Grafikspeicher entladen. Ob sie im RAM vorgehalten werden oder ganz "vergessen" werden weiß ich aber nicht.
Ich würde die 500MB eher für spielbezogene Daten verwenden, wie z.B. Physik (falls möglich und sinnvoll)

Ich meine bei einem Test/Video gelesen/gesehen zu haben, dass pro Bildschirm immer an die 200MB im Grafikspeicher vorgehalten werden. Gerade bei zwei oder mehreren macht das ja Sinn, da diese ja auch während des spielens angezeigt werden müssen.
 
ankabo schrieb:
Hast du denn CB Test der 970 GTX nicht gelesen? Dann mach das doch mal. Weniger Leistung bei mehr Energieverbrauch = schlechte Effizienz. AMD hat aktuell nichts vergleichbares. Mehr Power durch mehr Strom kann jeder.
Ich mag es eben Fanboys auf die Rolle zu nehmen und AMD ist für mich seit Jahren tot, aber wie gesagt, für mich eben.
Sollen doch alle ihre Karten umtauschen, macht aber keiner. Also wie immer... Viel Gelaber und Aufregung für nichts.

Den habe ich sehr wohl gelesen. Nur deine Aussage, dass AMD nichts vergleichbares hat, ist einfach falsch. Eine R9 290x ist günstiger als eine 970GTX hat kein extremes Spulenfiepen und rennt dem NV Pendant in Auflösungen höher 1080p auf und davon.

Der etwas höhere Stromverbrauch amortisiert sich durch den günstigeren Preis Plus Never Settle ect....
 
Elfhelm schrieb:
Leider gibt es keine wirkliche Alternativen zu Nvidia Karten. Die überdimensionierten Dinger von AMD sind oft zu groß für normale Gehäuse.
Achso... Nächste Märchenstunde, nach Treiber-, Qualität, Wärme und Verbrauchs Märchen jetzt das "die Karten sind zu groß" Märchen.

Wenn die AMD Karten in ein "normales" Gehäuse nicht passen sind wohl die Gehäuse nicht dem (m)ATX Standard entsprechend und schlecht konzipiert.
Ergänzung ()

PHuV schrieb:
Und mangels Alternativen
Es wird nicht wahrer, nur weil man es ständig wiederholt...
Es stimmt lediglich wenn man sich an nvidia per G-Sync oder Surround 3D gebunden hat... Aber das ist nunmal das Problem wenn man sich an proprietäre Lösungen bindet und keine offenen Alternativen nutzen will.
 
Dazzel schrieb:
Ich meine bei einem Test/Video gelesen/gesehen zu haben, dass pro Bildschirm immer an die 200MB im Grafikspeicher vorgehalten werden.

Mag sein. Ich weiß es nicht mehr genau. Ich würde aber spontan behaupten wollen, dass das OS, bzw. der Grafiktreiber, schon so clever sein müsste zu ermitteln ob ich bei meinem 3D-Spiel noch Desktop-Daten im Grafikram brauche oder nicht. Also ob ich z.B. windowed spiele und dadurch der Desktop noch im Speicher bleiben muss oder nicht, oder ob ein zweiter Monitor noch Desktopsachen anzeigt.
Bei den Datenübertragungsraten von normalem RAM und Grafik-RAM dürfte ein hin- und herschieben von 500MB keine große Zeit beanspruchen. Selbst DDR3 im Single-Channelmodus schafft schon 6GB/sek. (PC2-6400).
 
Masterchief79 schrieb:
Haha, sie lernens auch nicht. Ich verstehe sogar, wie der gute CEO das meint, und kann das nachvollziehen - ganz im Ernst, wir hätten alle gesagt, kein schlechtes Feature, weil 3,5GB + 0,5GB Ram immer noch besser sind, als 3GB, oder?
Den Speichercontroller zu beschneiden ist nichts besonders und definitiv kein Feature, egal wie sehr Herr Huang diese Schummelei als "Feature" zu verkaufen versucht.

Nur sieben der acht Speichercontroller des Speicherinterfaces der GTX 970 sind vollständig. Mit sieben Speichercontrollern kann die GPU nur bis zu 3,5 GB VRAM adressieren und mit voller Geschwindigkeit ansprechen. Da der letzte Speichercontroller nur verkrüppelt aber nicht gänzlich beschnitten ist, kann er nochmals 500 MB VRAM adressieren, jedoch nicht mit voller Geschwindigkeit ansprechen.

Was der Mann erzählt ist Bullshit hoch drei. Nix 3 GB Speicher, nix Feature, nix besonderes.
 
Zuletzt bearbeitet:
NVIDIA ist sowas von meiner Liste gestrichen.
Jahrelang NVIDIA gekauft (580GTX im Moment), aber meine nächste GFX Karte wird definitiv von AMD kommen. Vielleicht ist die nicht so toll, kann kein CUDA, ein bisschen wärmer, aber dafür muss ich mir nicht so ein Schmarrn anhören.
Innerhalb von 3 Wochen gleich 2 Mal Kundenverar****e ist mir zuviel ("Speicherlimit" und "Treiber-OC bei Notebooks ist Bug").

Was sagt ihr?
 
Hätten sie solche Konstrukte wie früher wieder TurboCache genannt.....
Und für diejenigen die glaubten das hiermit auch fehlerhafte Speichercontroller ausgeblendet werden......bei den bisherigen schematischen Zeichnungen sind alle Speichercontroller vorhanden und belegt, der einzige Punkt der beschnitten wurde ist die Anbindung an den beschnittenen L2 Cache. Da dürfen sich jetzt 2 Controller einen Anbindung teilen.
Alles steht und fällt also mit der Kastration des L2 Cache.

Das ganze Statement ließt sich eher nach dem Motto "Wir kannten die Probleme schon vorher aber haben sie bewußt verschwiegen, seid also froh das was neues kommt und nicht wie bisher die Speichermenge kastriert wurde", womit natürlich auch die falsche Angaben zu den anderen Komponenten der GPU einen extra faden Beigeschmack bekommt.
https://www.computerbase.de/2015-01/geforce-gtx-970-vram-speicher-benchmarks/

Hätten sie mal besser wie bisher die Klappe gehalten und die Geschichte einfach ausgesessen.


@Genscher
War da nicht noch etwas mit G-Sync oder ist das wieder länger als 3 Wochen her?
Das mit "Treiber-OC bei Notebooks ist Bug" würde ich sogar als glaubwürdig ansehen.
 
Zuletzt bearbeitet von einem Moderator:
Genscher schrieb:
Das du vergessen hast die G-Sync Verarsche mit aufzuführen. Offensichtlich braucht es für G-Sync ebenso nur einen eDP Scaler im Monitor und wofür nun der FPGA wirklich ist, weiß man nicht. Vermutlich nur ein DRM Modul was verhindern soll das nicht-nvidia Karten es können...
 
Zurück
Oben