News Falsche Spezifikationen: Nvidia entschädigt US-Käufer der GeForce GTX 970

@cd
Im Buddelkasten kann man viel machen und treiben ...
 
@CD
Es gibt einfach Leute, die haben nichts anderes zu tun als immer wieder mit dem dicken Knüppel auf NVidia einzuschlagen. Da wird das eigene Argument (ob falsch oder richtig) bis zum erbrechen verteidigt. Es ist einfach so und ich rege mich deswegen nicht mehr auf.
Fakt ist wohl, dass ich bis heute mit meiner GTX 970 voll zufrieden bin und nach über einem Jahr noch NIE ein Problem mit der Speicheranbindung hatte aber wen interessiert das schon.
 
@Oldmanhunting
Und warum hast du nichts zu tun das du solche Kommentare hier ablässt?
 
Ich habe auch am Sonntag richtig zu tun und kann Dir jetzt nur antworten, weil gerade ein Video rendert. Eigentlich mag ich aber mit Dir überhaupt nicht diskutieren. Manchmal denke ich, dass die Fische in meinem Aquarium besser argumentieren als Du das tust. In dem Sinne (mein Video ist fertig) und ich mache wieder etwas sinnvolles.
 
Zuletzt bearbeitet:
@ ampre

Ok, nun verstehe ich was du meint. Falls du mit "Emulation" den Overhead meinst, den NVIDIA dafür benötigt, um die Asynchronität in den Schlangen von Compute und Graphik, die es zwar in DX 12 gibt und die es auf der GPU nicht darstellen kann, auf der CPU dementsprechend zu sequenzailisieren, so nehme ich stark an dass dieser minimal ist. Je nachdem wie es NVIDIA genau implementiert, so muss der Treiber im Best Case nur ein paar zusätzliche Events, die "falsche" Abhängigkeiten modellieren, in die entsprechenden Schlangen einfügen. Diese Schlangen kann die GPU dann wiederum selbstständig abarbeiten. Afaik kann aber NVIDIAs Implementierung gemäß ein paar reverse Engineering Benchmarks das momentan nur etwas schlechter lösen, finde die Quelle gerade dazu nicht mehr. Wie dem auch sei, ich nehme stark an dass sich der zusätzliche CPU Overhead davon in Grenzen halten wird. Ich finde gerade leider auch kein Benchmark dazu, abgesehen von dem hier, was aber auch bei NVIDIA einen Renderpfad mit einer anderen Schlangenstruktur verwendet:
http://www.pcper.com/reviews/Graphi...ted-Ashes-Singularity-Benchmark/Results-Avera
Aber das Ziel von Async Compute ist ja nicht der geringere CPU Overhead (das ist eher ein kleinerer Nachteil bei NVIDIA), sondern dasjenige, dass eine GPU, ähnlich wie bei Hyperthreading auf der CPU, eine höhere Ausnutzung ihrer Ressourcen erzielen kann. Dementsprechend sind Aussagen der Art wie "NVIDIA kann kein Async Compute in Hardware, emuliert Async Compute auf der CPU und ist deshalb langsamer." irgendwo zwischen falsch bis sehr schlecht formuliert.

Zu meiner Ampel. Man bräuchte natürlich eine Unabhängige Zertifizierungsstelle die die Leistungsfähgikeit und Korrektheit der Features Bewertet und dann danach die Ampel erstellt. Für den Anfang könnte man es auch wie bei Full HD ready und Full HD halten. Maxwell ist Full HD ready AMD ist Full HD.

Nocheinmal: Wieso interessiert dich die Performance von einzelnen Features und nicht die Gesamtperformance?
 
Zuletzt bearbeitet:
oldmanhunting schrieb:
@CD
Es gibt einfach Leute, die haben nichts anderes zu tun als immer wieder mit dem dicken Knüppel auf NVidia einzuschlagen.
Und andere machen das bei AMD, so ist das halt in Foren, in denen viele Kinder unterwegs sind!

In 10 Jahren wird man wohl noch über die GTX 970 reden, obwohl innerhalb der EU eigentlich eh niemand die Karte behalten hätte müßen.
In Foren ist halt jeder ein Held, aber man ist nicht fähig wenn man mit der Karte unzufrieden ist sein Recht beim Händler einzufordern:\
Ergänzung ()

oldmanhunting schrieb:
@CD
Es gibt einfach Leute, die haben nichts anderes zu tun als immer wieder mit dem dicken Knüppel auf NVidia einzuschlagen.
Und andere machen das bei AMD, so ist das halt in Foren, in denen viele Kinder unterwegs sind!

In 10 Jahren wird man wohl noch über die GTX 970 reden, obwohl innerhalb der EU eigentlich eh niemand die Karte behalten hätte müßen.
In Foren ist halt jeder ein Held, aber man ist nicht fähig wenn man mit der Karte unzufrieden ist sein Recht beim Händler einzufordern:\
 
Ich verstehe das schon alles. Ich habe meine GTX 970 gekauft nachdem das mit den 3,5GB bekannt war und habe somit gewußt was ich da kaufe. Die Alternative war eine 390 von AMD aber über ein Jahr lang 100W mehr Verbrauch beim spielen wollte ich mir dann auch nicht antun. Dazu kommt noch, das ich Multimonitor mit verschiedenen Auflösungen habe, wo eine AMD nicht runter taktet. Welche Alternative hätte es denn sonst gegeben? Heute im nachhinein habe den den Kauf der GTX 970 nicht bereut und somit alles richtig gemacht.

Auf der anderen Seite gab es aber Käufer der GTX 970, die nichts von diesem Manko gewußt haben. Die konnten aber Ihre GPU zurück geben und etwas anderes kaufen.
Hat NVidia bereut diesen Fehler zu machen? Aber sicher doch, weil man hätte sich viel Ärger und Geld sparen können. Kann NVidia so einen Fehler einfach zugeben? In den USA sicher nicht, weil das wäre dort sehr teuer geworden wie man an VW sehen kann. Evtl. bin ich da etwas kulanter als einige Leute hier im Forum, was sicher auch an meinem Alter liegt. Jeder macht mal Fehler und wenn ich für jeden Fehler den ich in meinem Leben gemacht habe aufgehängt worden wäre, na dann gute Nacht.

NVidia hat davon gelernt und wird sich hüten den selben Fehler noch einmal zu machen. Wir Kunden haben gelernt die Produkte etwas kritischer zu sehen bevor wir auf kaufen klicken und nicht jeden Mist zu glauben, den uns die Hersteller erzählen. Das betrifft natürlich nicht nur NVidia sondern wie man jüngst sehen konnte auch AMD.
Das alles ist aber noch lange kein Grund für mich jetzt einen Feldzug zu starten und auf Jahre hinaus einen Hersteller an die Wand zu stellen. Leute die so etwas machen sind aus meiner Sicht armselig und haben die wichtigen Sachen in unserer Welt überhaupt noch nicht gesehen und verstanden.

Die gute Nachricht an alle dem ist: Es sind nur sehr wenige, die meinen sich hier profilieren zu müssen und somit besteht Hoffnung.
 
@Oldmanhunting
Nvidia hat Garnichts gelernt das ist schon der 3 Versuch in Folge wo sie Werbung machen mit etwas wo sie gar nicht so richtig unterstützen! Immer wieder nur ausreden vom Managment bla bla bla

Wie es besser geht zeigt AMD beim Problem mit der erhöhten Leistungsverbrauch! Die Sache ernst nehmen. Die Leute Informieren was man vorhat und schnell agieren. Prompt war das Problem in wenigen Tagen gelöst! So sollte es auch bei Nvidia laufen und nicht wir versprechen euch ein Wundertreiber oder "It's not a bug it's a feaute"

Wenn du so einen Mangel über die ergehen lassen willst. Bitte schön!
 
Zuletzt bearbeitet:
NVIDIA hat halt die für Maxwell versprochenen Treiberoptminierungen für Pascal aufgehoben.
Ist doch eh egal, DX12/Vulkan wird sich durchsetzen, wer glaubt Spiele bleiben in alle Ewigkeit bei DX12 ist ein Träumer!

Wenn Volta auch nur eine leichte Überarbeitung wird, dann hat NVIDIA bald ein großes Problem...
 
motul300 schrieb:
wenn die 970 wirklich nur 3,5gb ram hätte, wäre ja alles nicht sooo schlimm gewesen
da man ja nur ein achtel des speichers betrogen worden wäre
aber das deutlich größere problem sind die extrem langsam anbegunden 512mb
sobald diese benutzt werden wird es undpspielbar

Das Argument verstehe ich nicht so ganz.

Szenario 1: Die Karte hat 3.5 GB Speicher. Ein Spiel möchte gerne 3.6 GB an Daten in den Speicher laden. Geht aber nicht. In der Folge muss es gewisse Daten ständig erneut laden. Resultat: Permanente Nachladeruckler.

Szenario 2: Die Karte hat 3.5 GB schnellen und 0.5 GB langsamen Speicher. Ein Spiel möchte gerne 3.6 GB an Daten in den Speicher laden. Die 100 MB an Daten die im langsamen Speicher landen führen (je nach dem wie häufig sie gebraucht werden) zu Rucklern.

Beides äussert sich für den Kunden als "Spiel ruckelt, muss wohl etwas an den Settings runterdrehen".

Kleiner Unterschied: AFAIK hat es Nvidia so gemacht, dass Windows fürs GUI die langsamen 500 MB der 970 nutzt, wodurch dann tatsächlich die kompletten 3.5 GB an schnellem Speicher für Spiele zur Verfügung stehen. Bei einer Karte die insgesamt nur 3.5 GB hat wird immer noch ein kleiner Teil (ca. 100-200 MB) vom Windows GUI belegt, das im Hintergrund weiterläuft.

Und nur weil bei einer 4 GB Karte auch die vollen 4 GB belegt sind heisst das noch nicht automatisch, dass diese Daten auch noch alle benötigt werden. Solang man den Platz für nix neues braucht kann man die alten Daten ja drinstehen lassen. Überschrieben ist das Zeugs schnell...
 
Nai schrieb:
@ janeeisklar
Ich habe das Gefühl, dass wir unterschiedliche Definitionen von Konformheit besitzen, wo wir uns nicht einig werden. Wenn du Konformheit unbedingt definieren willst als "Treiber muss das innerlich unbedingt parallel machen" kann ich daran nichts ändern. Ich habe nur erklärt, wieso APIs wie Vulkan oder DX 12 dies nicht vorschreiben, man es in der Informatik im Allgemeinen nicht so sieht, und zudem wieso es sinnvoll ist dass NVIDIA GPUs auf diese Art und Weise dennoch DX 12 Programme ausführen können.
...
Nvidia kann es nicht, sie sollten einfach dazu stehen und nicht immer mehr Entwicklerstudios in Verlegenheit bringen.

Wenn Nvidia es aber mit Software "rein basteln" will nur um ein weiteres Feature abhacken zu können, dann sollten sie es bitte richtig machen und nicht die Entwickler für ihren desolaten Treiberhack verantwortlich machen.
Ich finde es einfach nur Unglaublich wie hier Nvidia "die Queue" gehalten wird, obwohl genau dies in nahezu allen DX12 und Vulkan Titeln bei Nvidia abgeschaltet/nicht genutzt wird. Aber bitte labert ihr nur weiter Nvidia kann, Nvidia macht, es wird noch ein Treiber kommen ....

Sorry aber für mich wirkt das hier nur noch lächerlich.
 
Zuletzt bearbeitet:
janeeisklar schrieb:
Nur unterschlägst du hier, dass DX12 darauf abzielt dem API Anwender mehr Kontrolle über die GPU zu geben und dazu gehört eben mit AC auch zu entscheiden was "grundsätzlich" Parallel ausgeführt wird.

Es spielt überhaupt keine Rolle, WIE etwas ausgeführt wird. Nur das Ergebnis der Ausführung muss korrekt sein.
Etwas anderes als das erwartete Ergebnis (=output) zu entsprechenden Eingabebefehlen (=input) wird durch eine API nicht spezifiziert.
 
kisser schrieb:
Es spielt überhaupt keine Rolle, WIE etwas ausgeführt wird. Nur das Ergebnis der Ausführung muss korrekt sein.
Etwas anderes als das erwartete Ergebnis (=output) zu entsprechenden Eingabebefehlen (=input) wird durch eine API nicht spezifiziert.

Stuss! Dies widerspricht total dem was Microsoft und Khronos über DX12 bzw Vulkan vermitteln, nämlich ein tieferes Verständnis über das von der API abgedeckte. (Was Nvidia aber mal wieder komplett ad absurdum führt.)

Aber bitte, jeder wie er mag.

Zudem deutet ja die nicht Nutzung von AC bei den momentanen DX12 Spielen und Doom eindeutig darauf hin, das ein komplett anderes Ergebnis, als das von Nvidia gelieferte, erwartet wurde.
 
Zuletzt bearbeitet:
CD schrieb:
Bei einer Karte die insgesamt nur 3.5 GB hat wird immer noch ein kleiner Teil (ca. 100-200 MB) vom Windows GUI belegt, das im Hintergrund weiterläuft.
Wird die GUI da nicht eh komplett rausgeworfen?
 
Morrich schrieb:
Und genau deshalb kann NVidia machen was sie wollen. Ist doch wurscht, welchen Mist die Abziehen, die Kunden kaufen weiterhin schön ihre Produkte.

Lieber einmal "Beschiss", als andauernd stromhungrige und Leistungsaufnahme-Lügner ala AMD/ATI !
 
Ich gehe mal davon aus, dass viele hier noch nie eine GTX970 besessen haben. Ich hatte insgesamt 4x970er...zuerst 2x970er von Palit im Ref.Design, bin dann auf 2x980er umgestiegen und dann wieder auf 2x970er SSC+ von EVGA.

Bis auf Doom hatte ich nie irgendwelche Probleme mit den Karten (FullHD). Im Gegenteil....in Overwatch mit SLI(skaliert perfekt!) hatte ich nochmals deutlich mehr FPS, als mit einer 1080.

Als damals die Speicherdiskussion aufkam wurde von allen Personen auf Nvidia eingeknüppelt.

Ich selbst muss sagen, dass ich die Taktik von Nvidia auch beschissen fand. Es hat aber nie etwas daran geändert, dass ich super zufrieden mit den Karten war. Sehr leise, effizient und sehr schnell! Vor allem in DX11 mit OC (was super einfach war mit den 970ern) gingen die Dinger richtig ab.

Ich habe sie nur verkauft, da ein massiver Wertverlust bei der Pascal-Vorstellung zu erwarten war. Ich konnte die Karten zu einem guten Preis wieder verkaufen und bin auf die 1080 umgestiegen mit der ich auch wieder sehr zufrieden bin.

Zum Thema 970 und 4K:

Ich habe damals als das Thema aufkam, sofort ein 4K Video mit einer 970 aufgenommen. FarCry4 war zu dem Zeitpunkt eines der anspruchsvollsten Spiele.

Viele (ohne die 970 überhaupt zu besitzen) meinten, dass die Karte > 3.5GB gar nicht benutzen kann. Das ist darüber hinaus zum Ruckeln kommt etc.

Das stimmt nicht!

Hier habe ich extra ein Video aufgenommen um zu zeigen, dass die Karte sehr wohl auch die 500MB OHNE Ruckeln addressieren kann.

https://www.youtube.com/watch?v=kARBf8nrxOk

Aber das wollte nie irgendeiner wahr haben. Das passt ja nicht ins Weltbild.

Es kommt dann zu Rucklern und Aussetzern, wenn der Speicher und die GPU selbst ausgelastet (überlastet) sind. Wunderbar zu sehen in Doom mit 4K Auflösung. Da kommt eine 970 auf Ultra Settings, noch auf vielleicht 10 FPS, da liegt eine 1080 bei 60+ FPS.

Aber die Karte ist auch dafür nicht ausgelegt.

Hier lohnt sich ein Umstieg auf eine RX480 auf jeden Fall. Diese liefert bei gleichen Settings in etwa 30FPS und ist damit quasi 3x so schnell wie eine 970.

Sonst hatte ich nie irgendwelche Probleme mit irgendwelchen Rucklern und ich hatte die 970er direkt am Tag des Release geordert.
 
Ich bin mir ehrlichgesagt gar nich sicher ob ich bei 30fps die microruckler von den fps rucklern unterscheidne könnte :D
Ich habe meine 970SLI von EVGA an einem Suroundsystem 3xFullHD sehr schnell gegen ein Crossfire aus 290X getauscht da ich fast immer an die 4GB VRAm auslastung kam bedingt durch die höhere Auflösung und auch wenn ich 60 fps+ hatte ständig microruklcer wargenommen habe. War zwar nich so wild wie viele bahuapten .. aber wenn ich soviel Geld für 2 GPUs hinlege dann will ich einfach auch anständige ware haben und nich so einen Schrott.

Mittlerweile ist das ja Treiberseitig von Nvidia behoben worden so wie man ließt. Und ist ja auch gut das du scheinbar keine Probleme hattest oder sie bemerkt hast. Ich dagegen hab mich schon selbst für zu blöd gehalten weil ich einfach keinen plan hatte woher diese komischen ruckler kommen sollten.
 
@ t3chn0:
Stimme dir da voll und ganz zu.
Hatte auch meist mit voller GPU-Auslastung zu kämpfen bevor ich ein Problem mit dem VRAM bekam.
Ich bin nach wie vor der Meinung, dass das P/L-Verhältnis der 970 sehr gut war und bin immer noch super zufrieden mit der Karte an sich.
Klar, stand heute würde ich nach >=6GB VRAM schauen aber vielleicht ist das in 2 Jahren wieder viel zu wenig. Für die aktuelle GPU power aber absolut ausreichend.
 
Zurück
Oben