Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
3DCenter berichtet über angeblichen VRAM Fehler der 970
Was mich etwas verwundert ist, warum machen so wenige 970er Besitzer ein Video mit Shadowplay von den Problemen? Ich würde dieses Ruckeln tatsächlich mal gerne sehen.
Nicht weil ich es nicht glaube, sondern weil ich wissen möchte ob alle davon betroffen sind und falls nicht, warum nicht? Bei mir ist es scheinbar nicht so.
Relevant, da NV dort es offen angegeben hatte. Darauf wollte Dai6oro hinaus.
Nvidia hat dem Kunden diese architekturelle Eigenschaft der GTX 970 nicht kommuniziert und nur hierin liegt das Problem - man hat ihm die Möglichkeit genommen, ebendiese Eigenschaft in seine Kaufentscheidung mit einzubeziehen.
Da mein letzter Post irgendwie untergegangen ist und bevor hier noch weitere 100 Mannschaften ihre Ergebnisse posten, noch einmal kurz für alle in Groß und Rot:
Mein Benchmark sagt nicht aus, was ihr glaubt, dass es aussagt. Es eignet sich *NICHT* um das Vorhandensein eines VRAM-Fehlers nachzuweisen.
Bisher ist bei meiner 970 Gaming alles in Ordnung. Bei Dragon Age Inquisition werden 3-3,5gb belastet und da gibts NULL Ruckler. Bei Evolve Beta waren es locker 3,5gb+ und da gabs auch keine Probleme. Mag ja sein, dass man ab 3,5gb Belastung nen Performanceverlust hat, schade wärs
Aber gemerkt habe ich nichts. Sofortige Ruckler, wie als wenn über 4gb bei ner 4gb Karte genutzt würden, sehe ich nicht.
Da mein letzter Post irgendwie untergegangen ist und bevor hier noch weitere 100 Mannschaften ihre Ergebnisse posten, noch einmal kurz für alle in Groß und Rot:
Mein Benchmark sagt nicht aus, was ihr glaubt, dass es aussagt. Es eignet sich *NICHT* um das Vorhandensein eines VRAM-Fehlers nachzuweisen.
In der News steht konkret eben genau das, dass sich Nais Bench nicht eignet, was aber völlig irreleveant ist, da Nvidia bereits bestätigt hat das eine Hardwarelimitierung vorliegt.
Jeder spricht hier von der der Reduzierung der bandbreite meine Vermutung ist das der Test nicht aussagekräftig ist(nicht böse gemeint Nai)
Ich meine das hast du selbst geschrieben auch.
Ich muss sagen das ist nicht nur bei den 4gb versionen so ,sondern auch bei den anderen Karten auch hatte. Hatte Gestern mal das vergnügen von der 750 bis hin zur 980 und ich muss sagen bei jeder gpu werden die bandbreite von letzten 0,5GB in den Keller gehen ,das liegt nicht nur an der 970 sondern wirklich auch am windows selbst sonst kann ich mir nicht erklären .Deswegen wärs intrassant wenn das im dos laufen würde
Sogar wenn man die Karten im oc betreibt sind die werten nicht mit gpu-z oder mit nv inspector idententisch da ist schon das problem (Am Anfang nicht gegeben beim Test).
Das wird schön hoch geschaukelt nach meiner meinung ,nicht nur nvidia ist betroffen sondern die Hersteller selbst wo das pcb umgebaut haben bekommen da rma ohne ende dann.
Ich würde erstmal abwarten ob wirklich ein hardware problem vorliegt oder nicht.Ich schätze auch das Nvidia heute sich dranhockt und den fehler behebt wie schon erwähnt durch nen bios update oder so löst.Da hab ich volles vertrauen in die
Und sorry Nai da hast du was ins rollen gebracht was auch nicht mehr rückgängig gemacht werden kann.
Aber sorry hier mit direkt rechtliche schritte usw so drohen find ich überflüssig weil nvidia leider keine deutsche firma ist sondern eine ausländische fällt das im internationalen gesetz rein oder hier mit verbraucherschutz zu drohen find ich überflüssig
Ich nutze für mein gaming rechner zwei asus gtx 780 dcii oc und ab februar 3 stück davon bin davon nicht betroffen
Nai sichert sich mit den Aussagen hier sicher nur ab (was auch gut so ist).
Der Code ist 120 Zeilen und besteht eigentlich aus mehreren schleifen (nein ich kann kein CUDA), warum sollten also für sehr viele GraKas keine widersprüchlichen Ergebnisse dokumentiert werden aber für die 970? Und warum sollte vor allem bei einer Schleife die ersten Ergebnisse anders sein wie die letzten?
Zudem hat NVidia bereits eine "Besonderheit" des Speichermanagements beschrieben.
Nai selber sagt ja das CUDA den gesamten Speicherraum adressieren kann und bei belegtem GPU RAM auf anderen Speicher ausweicht, was ja auch Sinn ergibt wenn man sich alle Benches anschaut.
Hallo, ich habe mal ein Video gedreht mit FarCry 4 und auch ein wenig dazu gesprochen. Ich konnte die 970er bis fast 4GB auslasten. Ich möchte mich für die schlechte Qualität zum Ende hin entschuldigen. Das liegt an einem Fehler bei Shadowplay.
Hihi. Du weißt glaub ich nicht wie MSAA funktioniert, sonst würdest du dich nicht so wundern. MSAA kostet kaum mehr Speicher da hier keine Auflösung von Texturen oder Frames erhöht wird. Wer Interesse an diesen Themen hat kann auf der Homepage von 3DC mal nach MSAA suchen. Bin am Smartphone sonst würde ich direkt verlinken.
Vielen Dank für das Video und vor allem dass du deine Stimme genutzt hast. Die meisten halten den Atem an
schreibe ich nächste Woche für euch mal ein Benchmark in CUDA wenn ich dafür Zeit habe.
Testen kann ich es allerdings nicht, da ich eine solche Karte nicht besitze.
Mir schwebte eher soetwas vor, was sich nacheinander Speicherblöcke auf der GPU alloziert bis kein Speicher mehr frei ist, und dann innerhalb von jedem dieser Blöcke die DRAM- und Cache-Bandbreite misst. Oder alternative Vorschläge ?
Der Vorteil an CUDA ist halt, dass es im Vergleich zu OpenCL(?) DirectX oder OpenGL kein automatisches Speichermanagement besitzt. Deshalb kann die GPU den CUDA-Speicher nicht in den CPU-DRAM auslagern. Dadurch könnte man ausschließen ob es am Swapping liegt, sondern zeigen, dass es wirklich etwas mit dem Caching oder der DRAM-Anbindung zu tun hätte.
Edit:
So habs eben mal aus "langweile" programmiert. Irgendjemand vorschläge wo ich heutzutäge möglichst einfach eine Exe hochladen kann ?
Fazit des Programmierens: Beobachte das selbe interessanterweise auch auf meiner Titan. Die letzten ~250 MB sind deutlich langsamer als der Rest. Sowohl die Cache-Bandbreite als auch die DRAM-Bandbreite
Hoffe Link ist erlaubt . . . . und hoffe die exe geht so . . . Für weitere Benchmarkwünsche bin ich auch gerne of
ALSO mal lesen bitte:KOMISCH IRGENWIE das er den Speiher BUG selber gefunden hat OBWOHL er keine Geforce 970 GTX besitzt und nur auf seiner Geforce Titan festgestellt hat.,..... so eine VERARSCHE !!!!!!!!!!!!!!!!!!!!!
Ergänzung ()
Speicher Bug hin oder her,.. is noch jammern auf hohen Niveau,.. und er Otto normal zocker wird da kaum was merken,.. (die 1-3% mehr oder weniger wenn alles rund läuft),,....
Speicher Bug hin oder her,.. is noch jammern auf hohen Niveau,.. und er Otto normal zocker wird da kaum was merken,.. (die 1-3% mehr oder weniger wenn alles rund läuft),,....
Tut mir leid, aber als es bei AMD Probleme gab bzgl der Filterqualität wurde ein riesen Fass aufgemacht. Mit deiner Argumentation "der Otto normal zocker wird da kaum was merken" hätte man das Thema auch erledigen können.
ALSO mal lesen bitte:KOMISCH IRGENWIE das er den Speiher BUG selber gefunden hat OBWOHL er keine Geforce 970 GTX besitzt und nur auf seiner Geforce Titan festgestellt hat.,..... so eine VERARSCHE !!!!!!!!!!!!!!!!!!!!!
Pass mal auf mein Lieber, du vergreifst dich hier *etwas* im Ton . . . . .
Wie bereits 1000 mal erwähnt:
1. Ich habe den Bug nicht selbst gefunden.
2. Ich habe ein Benchmark geschrieben, um den Bug zu messen, nachdem ich von dem Bug erfahren habe.
3. Ich habe das Benchmark online gestellt, da ich es mit meiner Titan nicht überprüfen konnte.
4. Das Benchmark hat nicht so wie erwartet funktioniert, da CUDA wider meinen Erwartungen seinen Speicher von dem DRAM der GPU in den DRAM der CPU auslagert. Das habe ich aber auch *sofort* nach der Veröffentlichung geschrieben.
edit: Kleine Anmerkung, ich würde vorher dem "Bench" den Nvidia DeviceQuery einbauen, damit man sieht, von welcher Karte die Daten kommen.
Es eignet sich für zwei Sachen sehr gut:
Es eignet sich sehr gut dafür, um das Swapping-Verhalten von CUDA zu Benchmarken.
Es eignet sich sehr gut dafür, um mich durch seinen zwielichtigen Ruhm in den Wahnsinn zu treiben
Und wegen einem so ähnlichen Benchmark in OpenGL/OpenCL:
Das wird nicht *so* einfach wie in CUDA sein. Eventuell überlege ich mir heute Nacht, wie ich es so ähnlich wie in CUDA implementieren könnte. Auch programmiere ich vielleicht auch noch das Cache-Benchmark wie angekündigt.
Was nvidia jetzt daraus macht.Ihr jammert mir soviel auch wenn ich neu bin.(Ich wollte ja nicht hier jemanden persönlich angreifen mit "Ihr jammert mir soviel")
VLLT liegt das Problem ganz einfach am Treiber wo dann beim nächsten mal das behoben wird wieder.
Ich habe noch einen Hinweis: In den den Beispielen, die im SDK mit ausgeliefert werden, ist auch ein Bandbreitentest enthalten. Da solltest Du einmal hineinschauen, wenn Du es denn noch nicht bereits getan hast.