News Nvidia-CEO macht GTX-970-Limitierung zur neuen Funktion

Ähm, stimmt. Hab mich da von meinem Gedächtnis zu sehr täuschen lassen. Das ist zwar bei AMD so, aber bei NV tatsächlich eher selten... trotzdem ist es verführerisch sich ein SLI aus 2 solchen Karten zu bauen wenn sie mit gleichem Speicherinterface wie die Top-Modelle beworben werden.
 
@dexplus: Und? Technologieunternehmen werden doch täglich verklagt bzw. reichen selbst Klage ein. Was am Ende herauskommt, das wäre interessant - und wenn man sich vergleicht, wird oft nichts über das Resultat bekannt.

Ich gehöre zu jenen zufriedenen GTX 970 Besitzern, die sich an den Benchmarks orientiert und bekommen haben, was sie erwarten konnten. Das Geschwafel von wegen "Fan" und "grüne Brille" ist kein Ersatz für ordentliche Argumente für oder wider eine Sache.

In meinen Augen ist für viele Käufer die vorgebliche Entrüstung einfach ein guter Grund, einen Rabatt einzustreifen. Bei nVidia wird man hoffentlich künftig besser aufpassen, was man an Informationen herausgibt - aber man muss das Thema nicht endlos breittreten.
 
Zuletzt bearbeitet:
Ich frage mich wer sich hier mehr aufregt, die die eine 970er hatten oder diejenigen die sich eh keine neu Karte holen wollten:D. Sie ist eine gute Karte und wird es auch bei denen bleiben die sich nach dem Bekanntwerden der Thematik eine geholt haben, man wusste ja jetzt bescheid.
 
Ich hatte zumindest ernsthaft mit dem Gedanken gespielt mir eine zu holen (um unter anderem auch wieder 3DTV Play als Option zu haben). Aber mit den korrigierten Daten wird sie einfach gegenüber meiner 7970GHz völlig uninteressant.
 
Mit einer 7970GHz bist du einfach zu nah dran, ich grübel noch aber wenn es noch länger dauert stehn die 300er im Raum wobei sich die bezahlbaren Karten von AMD bis ins letzte Halbjahr ziehn können. Ich schaue mir gerne auf youtube vergleich Videos an z.b der hier https://www.youtube.com/watch?v=S5aPkZFnVYU
 
Das Problem bleibt die Bezeichnung der Karte, egal wie man es sieht: Wenn 4 Gb angegeben sind, erwartet man 4 Gb bei voller Leistung. Wenn ich einen Rechner mit 8 Gig Ram kaufe, erwarte ich 8 Gig und nicht 7.5 bei voller und 0.5 bei einem Bruchteil dessen.

Dass das im Ergebnis vielleicht vielen nicht auffällt: geschenkt. Aber hier geht es ganz objektiv um eine Fehlkommunikation. Es spielt auch keine Rolle was AMD oder sonst wer macht, hier geht es primär um eine ganz neue Art der Produktspezifikation. In Zukunft fragt man den freundlichen Fachverkäufer, ob sich die Bandbreite über den gesamten oder einen Teil des Speichers erstreckt, fertig :D

Das Problem dürfte mE. auch sein, dass es zu merklichen FPS-Einbrüchen kommt, durchbricht man die 3.5-Gb-Grenze. Hätte man die Karte von vornherein auf 3 Gb limitiert, hätte der Treiber auch keine Kapriolen machen müssen. Aber man wird sich schon etwas dabei gedacht haben, 4Gb auf die Verpackung drucken zu lassen. Man hätte auch: "plus 500Mb full speed memory and 500 Mb special reserved memory!" schreiben können, wollte man nicht.
Auch interessant finde ich, dass das Marketing etwas am Chef vorbeischmuggeln kann. Ich weiß ja nicht, wie Nvidia strukturiert ist, aber wie lief das ab? "Jungs, wir brauchen Werbung für unsere Karte, ist eben ne Fehlproduktion vom 80er, schaut mal dass ihr die bewerbt" - "kann die 4 Gig?" - "Jo" - "Ok, schreiben wir drauf". Und als dann jemand hinter rief "Hey, aber nur 3.5 davon sind voll angebunden!1" waren die PR-Leute schon dabei, die Drucker anzuwerfen...

Öhm...

Die ganzen anderen durchaus objektiven Aussagen, wonach die Karte ja nieeee hätte schneller oder gleichwertig sein können zu der 80er Variante oder dass andere Hersteller auch gerne "tricksen" oder dass man sich einfach besser informieren könne und, und, und: alles geschenkt. Aber ändert nichts an dem Kernproblem (Disclaimer: wer kein Problem hat: auch geschenkt :P ).

So, der mündige Kunde wird jetzt natürlich versuchen, die Karte abzustoßen, sofern dies möglich ist. Er wird nicht hier die Zeit damit vergeuden, zu meckern, zu weinen oder zu kreischen, er wird handeln, weil das Geld eine Signalwirkung im Markt hat und sonst nichts.
Die Erfahrung zeigt aber, dass einiges mehr geschehen muss, bevor sich dies alles signifikant auf den Markt ausübt. Klar hat der "einzelne" siiiiicherlich ein Produkt hier und da links liegen lassen, weil ein Hersteller wieder irgendwo eine Fabrik in die Luft gejagt hat, Subventionen kassiert und abgehauen ist, Produkte von Kindern hat herstellen lassen oder seine Einnahmen woanders versteuert, etc. pp.
Aber die breite Masse macht es einfach nicht.

Ganz objektiv: Ja, grober Schnitzer von Nvidia, aber Konsequenzen hat es nicht. Im "aktuellen" Kontext ist die Karte für viele Spieler völlig in Ordnung, schon deswegen überlegen es sich viele, ob sie ohne Karte mehrere Tage aufs Gamen verzichten oder sich in ein, zwei, drei Jahren nicht ohnehin eine neue Karte kaufen werden. Bis dahin ist Nvidia vermutlich aus dem Schneider und alles ist vergeben und vergessen.

Wenn die nicht gerade Karten mit C4 statt GPU verkaufen und / oder AMD keine Preis-Leistungs-Vebrauch-Alternative (die in einen normalen Rechner ohne extra breites Gehäuse passt) anbietet, wird sich da draußen nichts verändern. Allenfalls kommt eine neue Karte, der Preis fällt oder whatever. Dann wird wieder fleißig eingekauft und alles ist gut. Für Nvidia.

Umgekehrt ist es auch nicht besser: Wenn der Ruf irgendwie kaputt ist, kann man die beste Soft- oder Hardware anbieten, die Leute bleiben skeptisch und kaufen weiter bei der sie enttäuschenden Konkurrenz ein.

Meine Philosophie ist das alles nicht, aber ich bin, was den Markt anbelangt, ein Pessimist, vielleicht ein erfahrener Optimist. Es gibt ja auch Situationen, in denen wegen Nvidia'sche Handlungen am Markt die entsprechende Strafe folgt, aber das ist eher selten.

Alles traurig.

Leider. Oder vielleicht nur konsequent: Wenn wir alles, was irgendwie "dreckig" ist, meiden wollten, dürfte das Shopping heutzutage ein echtes moralisches Minenfeld sein.


Tan
 
Zuletzt bearbeitet:
1. Ist der Vergleich einer VRAM-Anbindung und L2 Cache mittels SI mit einer CPU-Architektur auf Instruktionsebene so hanebüchen, dass ich nicht weiss ob das zu "Schweine im Weltall" passt, geschweige denn in diesen Thread.

2. Gehörst du auch zu denjenigen die nach wie vor nicht verstehen, dass es nicht um die Menge des angebundenen Speichers geht. Auch wenn Nvidia immer wieder eisern behauptet "Es sind volle 4 GB", so muss man sich doch mal fragen wer jemals etwas anderes behauptet hat? Es sind weniger ROPs und weniger L2 Cache.

Was gibt es denn da für Gründe in irgendeiner Form das Bulldozer CMT-Konzept in den Ring zu werfen? Das zudem so ausführlich technisch dokumentiert ist wie alle Nvidia Produkte zusammen genommen.
 
Was machen Forentrolle? Sie lenken vom Thema ab indem Sie mit provokanten Aussagen Nebenkriegsschauplätze aufmachen.

Die beste Lösung dafür ist es, nicht auf die Trolle einzugehen und Sie zu wiederlegen (das führt zu nichts und macht nur den Thread unbrauchbar, was wiederum den Troll erfreut) sondern die Kommentare einfach entsprechend einzuordnen und inhaltlich zu ignorieren. Das ärgert Trolle am meisten :)

Nvidia ist mit dem CEO Blog Post dieses mal was Marketing angeht voll ins Fettnäpfchen getreten. Durch diesen lächerlichen Blog Post ist die ganze Sache nochmal richtig schön hochgekocht, nachdem sie schon gerade dabei war sich tot zu laufen...
 
heimomat schrieb:
Ich schaue mir gerne auf youtube vergleich Videos an z.b der hier https://www.youtube.com/watch?v=S5aPkZFnVYU

nett. Komisch nur dass die AMDs da stellenweise mehr zucken (bei den Frametimes) als die Konkurrenz. Über weite Strecken ist es bei allen sehr gut (länger als die meisten Benchmarksequenzen diverser Reviewseiten) und dann gibt wieder Peaks bei den Times. Allerdings bei 1080p auch deutlich unter 3,5GB Belegung.

Ich finde es etwas komisch dass im PCGH Test die Times der R9 290X gerade bei unter 3,5 GB schlechter waren:

http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/Specials/zu-wenig-VRAM-1149056/

Die Radeon, nach ihrer eher unruhigen Vorstellung in Full-HD, agiert hier über weite Strecken auf dem Niveau der (heruntergetakteten) GTX 980, bekommt aber zum Ende unseres Benchmarks hin Probleme mit der Speicherverwaltung.

Ich denke es besteht generell die Gefahr sich jetzt auf einen Bereich von 3,5-4GB zu versteifen, die eigentlichen spielbaren und für 95% der Games & Settings realistischen Auslastungen aber zu vernachlässigen. Ich hab nicht beide Karten da, ein Vergleich würde mich selbst interessieren.

Man müsste generell die Frametimes untersuchen. Über weite Strecken und langen Szenen.

Edit: Und ja, Nvidia soll dafür büßen! Ich kaufe dennoch absolut nüchtern meine nächste GPU, nachdem sie hoffentlich gut getestet wurde.
 
Zuletzt bearbeitet:
dexplus schrieb:
Anstatt lediglich 3,5 GB mit voller Geschwindigkeit ansprechen zu können kann man mit dieser Technik zusätzlich weitere 500 MB im Schneckentempo ansprechen!
genau!! endlich einer verstanden :D
Depp_vom_Dienst schrieb:
Der einzige der hier keine Ahnung hast, bist du. Es macht sehr wohl einen Unterschied ob nur 3,5GB VRAM nutzbar sind oder 4GB VRAM. Die Karte läuft damit noch schneller ins VRAM Limit und wird damit eher ausgebremst werden als eine R9 290(X) mit echten 4GB VRAM. Von den zusätzlichen Problemen der Mikroruckler durch den langsamen Speicherbereich ganz zu schweigen.

du kannst dich aber schon erinnern was du hier so alles gepostet hast? zur erinnerung:


Depp_vom_Dienst schrieb:
Keine Ahnung, aber hauptsache mal schreiben. Die GTX 660Ti hatte das gleiche Problem, damals wurde es aber ordentlich kommuniziert.

darauf kam meine antwort, das NV es damals kommuniziert hat und heute nicht.

trotzdem bringen beide karten ihre leistung. die GTX660Ti mit ihren 1024MB via 128bit und 1024MB via 64bit anbindung und die GTX970 mit ihren 3,5GB via 224bit und ihren 512MB via 32bit.
die GTX970 ist jetzt nicht mit einem schlag langsamer geworden, weil wir das problem jetzt erkannt haben. sie hatte schon bei erscheinen die gleiche leistung.
die GTX660Ti hatte damals übrigens nicht das gleiche problem. das war ein ganz anderer Aufbau der GPU. wenn du das hier mal richtig verfolgen würdest, würdest du auch festellen das es bereits mehrmals erklärt wurde.


wenn du ein problem mit dem verstehen von zusammenhängen hast, dann unterlasse das posten hier. der thread wird nur unübersichtlicher.

mal ganz abgesehen von dieser diskussion bin ich trotzdem der meinung das es eine sauerei von NV ist das eben nicht von anfang an gesagt zu haben. aber man sollte doch sachlich rangehen.
 
Zuletzt bearbeitet:
Daedal schrieb:
1. Ist der Vergleich einer VRAM-Anbindung und L2 Cache mittels SI mit einer CPU-Architektur auf Instruktionsebene so hanebüchen, dass ich nicht weiss ob das zu "Schweine im Weltall" passt, geschweige denn in diesen Thread.

2. Gehörst du auch zu denjenigen die nach wie vor nicht verstehen, dass es nicht um die Menge des angebundenen Speichers geht. Auch wenn Nvidia immer wieder eisern behauptet "Es sind volle 4 GB", so muss man sich doch mal fragen wer jemals etwas anderes behauptet hat? Es sind weniger ROPs und weniger L2 Cache.

Was gibt es denn da für Gründe in irgendeiner Form das Bulldozer CMT-Konzept in den Ring zu werfen? Das zudem so ausführlich technisch dokumentiert ist wie alle Nvidia Produkte zusammen genommen.

AngelDust 32 schrieb:

Und da sind die Nächsten, die die Aussage nicht verstehen:
1. Habe ich mehrfach darauf hingewiesen, dass ich das Marketing und nicht die Produkte vergleiche.
2. Habe ich das sehr wohl verstanden und auch selbst so gesagt, dass das eigentliche "Verbrechen" die Falschangaben neben dem Speicher sind und nicht die 4GB-Angabe des Speichers selbst. Steht ja auch so im letzten Post. Und alles, was ich ausdrücken wollte, war, dass man Nvidia auch nur dafür verurteilt und nicht alles andere, was einem gerade so noch einfällt mit oben drauf wirft. Wenn jetzt Autohersteller X 250 PS beworben hat und nur 200 liefert, dann ist es doch genauso sinnlos bei den sehr wohl verdienten Konsequenzen noch Bashing wegen der in ganzen Branche üblichen Verbrauchstests zu betreiben. Oder seht ihr das anders?

Jetzt ein Bisschen klarer, dass wir bezüglich Nvidia eigentlich genau das gleiche sagen, nur ich halt noch zum Thema meine Meinung hinzugefügt habe, dass da noch vieles mit reingebracht und angeprangert wird, was aber gar nichts mit dem eigentlichen Problem zu tun hat und gerade im Vergleich (der Tatsächlich irrelevant wäre, wenn man Nvidia nur für das anprangern würde, wo sie auch tatsächlich beschissen haben) einfach nicht mit dazugezählt werden kann? :)
 
Hopsekäse schrieb:
Und da sind die Nächsten, die die Aussage nicht verstehen:

Jetzt relativiert man nicht nur das Vorgehen von Nvidia

sondern versucht auch noch andere User zu diskreditieren
 
Daedal schrieb:
Es geht nicht um das verstehen - es geht um die Frage was das hier in diesem Thread für eine Relevanz hat was du zu irgendeinem beliebigen anderen Thema für eine Meinung hast. Nvidia? GTX970? Any? Lies mal die Überschrift.

Ich veröffentliche wirklich bald meine Poesie hier...hat halt Vogonische Qualität aber was solls?

Dann könntest du mir bitte am Anfang gleich erklären, was denn vogonisch ist. :D

Das Thema ist eben nicht beliebig anders und ich habe nicht einfach nur meine Meinung dazu in den Raum geworfen, sondern einen Vergleich durchgeführt. Das hat eben deshalb Relevanz, weil hier von Einigen in diesem und anderen Threads zum Thema Themen und Kritik an Nvidia mit in einen Topf geworfen, die einfach u.A. das Marketing betreffen und einige Vorwürfe gemacht wurden, die objektiv betrachtet einfach nicht dazu gehören. Diese habe ich lediglich mit meiner Erfahrung/Meinung und dem Vergleich zu relativieren versucht. Wenn solche Themen aufkommen, warum darf ich dann nicht anhand meiner begründeten Meinung/Erfahrung aufzeigen, warum die meiner Meinung nach nicht zum Thema gehören? Gegen Nvidia mitbashen wäre damit in Ordnung, egal wie abwegig, aber wenn man versucht abwegige Vorwürfe zu entkräften, dann ist das Off-Topic? Meiner Meinung nach nicht der Sinn der Sache.
Außerdem ist das Thema ein Marketing-Thema, da es nicht um die Karte geht, sondern darum, was der Hersteller dazu zum "Besten" gibt.

AngelDust 32 schrieb:
Jetzt relativiert man nicht nur das Vorgehen von Nvidia

sondern versucht auch noch andere User zu diskreditieren

Schön, dass du es so ausdrückst. Relativieren ist nämlich nicht negativ behaftet, sondern prinzipiell eine gute Sache.
Und dass ich ausdrücklich nicht das komplette Vorgehen relativiert habe, sondern nur die Punkte, die hier einige angesprochen haben, die aber nicht mehr wirklich zum Problem gehören und dann bei aller Wut auf Nvidia einfach relativiert werden müssen, scheinst du leider wirklich nicht mitbekommen/verstanden zu haben. Das ist in keiner Weise Diskreditierung, sondern einfach meine Schlussfolgerung aus deinen Aussagen. Das war auch in keiner Weise böse gemeint. Es nervt nur, wenn man sich hier Mühe gibt in einer sachlichen Diskussion dafür zu sorgen, dass Randthemen auch als solche gesehen und nicht einfach auf den Bash-Zug mit drauf geworfen werden, und dann permanent falsch verstanden wird. Vielleicht drücke ich mich ja auch undeutlich aus.
 
Zuletzt bearbeitet:
stockduck schrieb:
Die 4GB werden genützt?

Wann denn? Bei JEDEM spiel das ich gespielt habe- cap bei 3,5-3,6GB. Das ist ein witz!!! Bin noch nie darüber gekommen... komisch.

Probier mal Star Citizen in medium oder höchster Qualität. Da kommt ne 980er auf 100% GPU Leistung und ca 3,9 GB Video-Grafik Verbrauch.

Wer weiß, vielleicht limitieren die Treiber ja schon was ...
 
pukem0n schrieb:
rofl...

Apple: You are holding it wrong.
Nvidia: It's not a bug, it's a feature.

Apple hat es auch nicht geschadet. Die Fans sind eh nicht therapierbar und Lieschen Müller versteht nicht wo das Problem liegt, der CEO hat doch gesagt das alles gut ist :-P

Wobei beinharte nVidia Fanatiker jenseits von gut und böse sind. Im Zweifel holen die sowieso reflexartig uralte urban legends raus um ihre Marke verbal bis aufs Messer zu verteidigen.

Ich hatte immer abwechselnd nVidia und AMD Karten im Rechner stecken. Im Moment gehen mir die Kleriker aus der nVidia Ecke mehr auf den Sack als die 500mb RAM die auf der 970 nicht gescheit nutzbar sind.

Mit Marken ist es wie mit Rockbands, man sollte sie nicht anhand der Produkte bewerten, sondern anhand der Leute die das Zeug kaufen und in Foren die Meinung führen. Da der gemeine nVidia Fan sowieso alles kauft was grün ist und auch den letzten Mist in den siebten Himmel lobt ist nVidia im Moment einfach crap.
 
Hier sind die Frametimes von Total War: Attila. Hier ist der Link zum ganzen Test: http://www.pcgameshardware.de/Total-War-Attila-PC-259548/Specials/Test-Benchmarks-1151602/

GTX 980 @ 1080p:
yQ0smlE.png


290X @ 1080p:
pjzwgBq.png


GTX 970 @ 1080p:
phEKpDQ.png


Käufer einer GTX 970 können sich auf eine geilste Ruckelorgie gefasst machen. Nach Evolve ist Attila schon das zweite Spiel innerhalb von zwei Wochen dass mit einer GTX 970 heftigst ruckelt.

Eine sehr bemerkenswerte "Technik" was Nvidia da erfunden hat. :freak:
 
Denke im Moment würden einige auf sein haupt scheissen.
Egal brauch sowiso was besseres als die 970
Für mich als whqd 0815 zocker werden weder 3.5 noch 4gb reichen fürs ganze 2015
 
Zuletzt bearbeitet:
TanGen schrieb:
Dass das im Ergebnis vielleicht vielen nicht auffällt: geschenkt. Aber hier geht es ganz objektiv um eine Fehlkommunikation. Es spielt auch keine Rolle was AMD oder sonst wer macht, hier geht es primär um eine ganz neue Art der Produktspezifikation. In Zukunft fragt man den freundlichen Fachverkäufer, ob sich die Bandbreite über den gesamten oder einen Teil des Speichers erstreckt, fertig :D


Ganz einfach. Vor dem Kauf muss der Verkäufer eine Bedarfsanalyse sowie ein Beratungsprotokoll erstellen,
damit er vom Käufer für Falschangaben/-beratung nicht haftbar gemacht werden kann ;)

Das wäre doch mal ne Idee und nen geiler Papierkrieg.:D
 
Moin

Mich hat Nvidia nach mehr als 10 Jahren als Treuen Kunden verloren. Hab jetzt 60€ mehr bezahlt und besitze jetzt einen MSI 290XGaming mit 8Gig Vram.
Ich hoffe nur das sehr viele Kunden es genauso machen, damit Nvidia merkt das man so mit seinen Kunden nicht umspringen darf.
Und es sollte noch viel schlimmer für Nvidia kommen nach der letzten Aussage es ist eine neue Funktion.
Das ist beschämend und sollte von den Kunden nicht toleriert werden.
 
Zurück
Oben