3DCenter berichtet über angeblichen VRAM Fehler der 970

Status
Für weitere Antworten geschlossen.
Nai schrieb:
Die kaputten Laufzeiten kommen bei dir daher, dass ich nur CUDA-Code für Titan und aufwärts in der Exe beigelgt habe.



Bei Fermi zeigt es auch zu hoch an. Was sagst du eigentlich zum unterschiedlichen VRAM Verhalten auf den letzten 500 MB? Die letzten 4 chunks sind arg langsam, gerade mal auf DDR3 Niveau.


58warao5.png
 
Ja das ist klar. Ich meine woran liegt das, lässt sich das genauer auslesen mit CUDA?
 
Sicher ist gar nichts. Da nVidia auch mit die schlechtesten Dokus erstellt die frei zugänglich sind kann man da auch nichts eingrenzen.
Ich habe zwar die Möglichkeit an detaillierte Unterlagen zu kommen, aber es ist mir den Aufwand nicht wert und außerdem bin ich kein Programmierer um das dann gezielt herauszufinden ;)
 
Da 1 MiByte ja 1024Kilobyte sein müssten kann man ja 3840x1,024 rechnen. Dann kommt man effektiv auf 3932MB. Bin mir aber nicht 100% sicher obs so richtig ist.
 
Nai, du bist berühmt! =D.... dein Benchmark wurde bei Linus gezeigt....!
 

Anhänge

  • Nai_Linus.JPG
    Nai_Linus.JPG
    264,2 KB · Aufrufe: 838
SethDiabolos schrieb:
Da 1 MiByte ja 1024Kilobyte sein müssten kann man ja 3840x1,024 rechnen. Dann kommt man effektiv auf 3932MB. Bin mir aber nicht 100% sicher obs so richtig ist.


Fehlt dann nicht ein Chunk bei der Berechnung? Müsste doch dann bis Chunk 30 gehen um die vollen 4096MB auszunutzen oder?


t3chn0 schrieb:
Nai, du bist berühmt! =D.... dein Benchmark wurde bei Linus gezeigt....!


Auch noch mit meinem GTX 970 Resultat. Ja mittlerweile sind englische Foren auf das Nai Programm aufmerksam geworden.
 
AW: 3DCenter berichtet über angeblichen VRAM Fehler der 970
Nai, du bist berühmt! =D.... dein Benchmark wurde bei Linus gezeigt....!

Und das obwohl ich das Benchmark extrem einfach gestaltet und ohne viel Aufwand in 30 Minuten geschrieben habe. Unter anderem deshalb stehe ich ihn relativ kritisch gegenüber (siehe vorherige Posts). Bedauerlicherweise übernehmen viele Leute das Benchmark unreflektiert und ohne Erläuterungen. :(
Ich glaube die Geister die ich rief werde ich nicht mehr los. . .
Wie gut, dass ein Account ist, den eh niemand kennt :)

Sind 3840 Mibyte 4000MB oder wie funktioniert die Rechnung?
Der Speicherplatz deiner GPU ist auch in MiByte angegeben, sogar wenn man meist nur MByte liest.


Bei Fermi zeigt es auch zu hoch an. Was sagst du eigentlich zum unterschiedlichen VRAM Verhalten auf den letzten 500 MB? Die letzten 4 chunks sind arg langsam, gerade mal auf DDR3 Niveau.

Diese "kaputten Laufzeiten" war auf die angezeigte Speicherbandbreite von 234234234324234 Gigabyte/s bei Fermis bezogen. Die sind bei dem Benchmark mit nem Fermi entstanden, weil ich vergessen habe die Benchmarkprogramme für die Karten der Fermi-Generation beizulgen. Das habe ich in neueren Versionen gefixt.

Und was ich dazu denke, habe ich schon einmal geschrieben. Eventuell schreibe ich es nachher etwas ausführlicher (bin gerade zu müde um mich zu konzentrieren und gehe deshalb jetzt schlafen), wenn ich ausgeschlafen bin (das sollte in 12 Stunden heute Abend sein).


Fehlt dann nicht ein Chunk bei der Berechnung? Müsste doch dann bis Chunk 30 gehen um die vollen 4096MB auszunutzen oder?

Das Benchmark alloziert so viel Speicher bis die CUDA-Fehlermeldung kommt, dass die Allokation wegen zu wenig Speicher fehlgeschlagen ist. Daher kommt der Unterschied zu stande. Ich könnte das noch einmal verbessern, indem ich dem Benchmark einprogrammiere, dass es dann für den letzten Chunk weniger Speicherplatz allozieren sollte. Das war mir dann aber zu viel Aufwand für so ne "Kleinigkeit"
 
Telefone sind schon was feines. Hat sich das ja gelohnt gestern Nacht. Kein bock mehr auf diese deutsche Presse hier.
 
Ich glaube die Geister die ich rief werde ich nicht mehr los. . .
Holt schon mal das trockene Holz & "verbrennt IHN" ....Duck & weg u. sorry für das Witzle ...:lol::freaky::)
 
Kann denn mal keiner Watch Dogs auf Ultra HD mit Ultradetails anschalten und schauen wie hoch die Speicherlast ist? Mit meiner GTX 980 bin ich über 3,9 GB. Etwas Platz muss ja immer dasein wegen Datenauslagerung nehm ich mal an.
 
Lies nochmal. Darum gehts nicht. Es geht um die Bandbreite die bei der 970 über 3,5Gb zusammen kracht, und NICHT darum, dass die 4GB nicht belegt werden können.
 
Das wurde von Nvidia sicher mit Absicht gemacht sonst wäre die 980er noch unattraktiver!
Denn Treiber versucht bei 970er Karten die Spiele immer unter die 3,5GB zu drücken.
Bei mir bricht ab 3.3GB die Framerate ein.
 
Zuletzt bearbeitet:
Ich habe bei mir folgendes Resultat, was deutlich schlechter ausfällt als bei anderen:

Nai's Benchmark
Allocating Memory . . .
Chunk Size = 128 MiByte
Drücken Sie eine beliebige Taste . . .
Allocated 30 Chunks
Allocated 3840 MiByte
Benchmarking DRAM
Drücken Sie eine beliebige Taste . . .
DRAM-Bandwidth of Chunk no. 0 (0 MiByte to 128 MiByte): 154 GByte/s
DRAM-Bandwidth of Chunk no. 1 (128 MiByte to 256 MiByte): 154 GByte/s
DRAM-Bandwidth of Chunk no. 2 (256 MiByte to 384 MiByte): 154 GByte/s
DRAM-Bandwidth of Chunk no. 3 (384 MiByte to 512 MiByte): 154 GByte/s
DRAM-Bandwidth of Chunk no. 4 (512 MiByte to 640 MiByte): 148 GByte/s
DRAM-Bandwidth of Chunk no. 5 (640 MiByte to 768 MiByte): 154 GByte/s
DRAM-Bandwidth of Chunk no. 6 (768 MiByte to 896 MiByte): 148 GByte/s
DRAM-Bandwidth of Chunk no. 7 (896 MiByte to 1024 MiByte): 154 GByte/s
DRAM-Bandwidth of Chunk no. 8 (1024 MiByte to 1152 MiByte): 148 GByte/s
DRAM-Bandwidth of Chunk no. 9 (1152 MiByte to 1280 MiByte): 154 GByte/s
DRAM-Bandwidth of Chunk no. 10 (1280 MiByte to 1408 MiByte): 154 GByte/s
DRAM-Bandwidth of Chunk no. 11 (1408 MiByte to 1536 MiByte): 150 GByte/s
DRAM-Bandwidth of Chunk no. 12 (1536 MiByte to 1664 MiByte): 154 GByte/s
DRAM-Bandwidth of Chunk no. 13 (1664 MiByte to 1792 MiByte): 149 GByte/s
DRAM-Bandwidth of Chunk no. 14 (1792 MiByte to 1920 MiByte): 154 GByte/s
DRAM-Bandwidth of Chunk no. 15 (1920 MiByte to 2048 MiByte): 148 GByte/s
DRAM-Bandwidth of Chunk no. 16 (2048 MiByte to 2176 MiByte): 154 GByte/s
DRAM-Bandwidth of Chunk no. 17 (2176 MiByte to 2304 MiByte): 148 GByte/s
DRAM-Bandwidth of Chunk no. 18 (2304 MiByte to 2432 MiByte): 154 GByte/s
DRAM-Bandwidth of Chunk no. 19 (2432 MiByte to 2560 MiByte): 148 GByte/s
DRAM-Bandwidth of Chunk no. 20 (2560 MiByte to 2688 MiByte): 22 GByte/s
DRAM-Bandwidth of Chunk no. 21 (2688 MiByte to 2816 MiByte): 22 GByte/s
DRAM-Bandwidth of Chunk no. 22 (2816 MiByte to 2944 MiByte): 148 GByte/s
DRAM-Bandwidth of Chunk no. 23 (2944 MiByte to 3072 MiByte): 27 GByte/s
DRAM-Bandwidth of Chunk no. 24 (3072 MiByte to 3200 MiByte): 27 GByte/s
DRAM-Bandwidth of Chunk no. 25 (3200 MiByte to 3328 MiByte): 46 GByte/s
DRAM-Bandwidth of Chunk no. 26 (3328 MiByte to 3456 MiByte): 154 GByte/s
DRAM-Bandwidth of Chunk no. 27 (3456 MiByte to 3584 MiByte): 29 GByte/s
DRAM-Bandwidth of Chunk no. 28 (3584 MiByte to 3712 MiByte): 16 GByte/s
DRAM-Bandwidth of Chunk no. 29 (3712 MiByte to 3840 MiByte): 29 GByte/s
Drücken Sie eine beliebige Taste . . .
Benchmarking L2-Cache
Drücken Sie eine beliebige Taste . . .
L2-Cache-Bandwidth of Chunk no. 0 (0 MiByte to 128 MiByte): 360 GByte/s
L2-Cache-Bandwidth of Chunk no. 1 (128 MiByte to 256 MiByte): 371 GByte/s
L2-Cache-Bandwidth of Chunk no. 2 (256 MiByte to 384 MiByte): 360 GByte/s
L2-Cache-Bandwidth of Chunk no. 3 (384 MiByte to 512 MiByte): 360 GByte/s
L2-Cache-Bandwidth of Chunk no. 4 (512 MiByte to 640 MiByte): 371 GByte/s
L2-Cache-Bandwidth of Chunk no. 5 (640 MiByte to 768 MiByte): 360 GByte/s
L2-Cache-Bandwidth of Chunk no. 6 (768 MiByte to 896 MiByte): 360 GByte/s
L2-Cache-Bandwidth of Chunk no. 7 (896 MiByte to 1024 MiByte): 371 GByte/s
L2-Cache-Bandwidth of Chunk no. 8 (1024 MiByte to 1152 MiByte): 360 GByte/s
L2-Cache-Bandwidth of Chunk no. 9 (1152 MiByte to 1280 MiByte): 360 GByte/s
L2-Cache-Bandwidth of Chunk no. 10 (1280 MiByte to 1408 MiByte): 371 GByte/s
L2-Cache-Bandwidth of Chunk no. 11 (1408 MiByte to 1536 MiByte): 371 GByte/s
L2-Cache-Bandwidth of Chunk no. 12 (1536 MiByte to 1664 MiByte): 359 GByte/s
L2-Cache-Bandwidth of Chunk no. 13 (1664 MiByte to 1792 MiByte): 363 GByte/s
L2-Cache-Bandwidth of Chunk no. 14 (1792 MiByte to 1920 MiByte): 371 GByte/s
L2-Cache-Bandwidth of Chunk no. 15 (1920 MiByte to 2048 MiByte): 359 GByte/s
L2-Cache-Bandwidth of Chunk no. 16 (2048 MiByte to 2176 MiByte): 360 GByte/s
L2-Cache-Bandwidth of Chunk no. 17 (2176 MiByte to 2304 MiByte): 370 GByte/s
L2-Cache-Bandwidth of Chunk no. 18 (2304 MiByte to 2432 MiByte): 399 GByte/s
L2-Cache-Bandwidth of Chunk no. 19 (2432 MiByte to 2560 MiByte): 402 GByte/s
L2-Cache-Bandwidth of Chunk no. 20 (2560 MiByte to 2688 MiByte): 66 GByte/s
L2-Cache-Bandwidth of Chunk no. 21 (2688 MiByte to 2816 MiByte): 66 GByte/s
L2-Cache-Bandwidth of Chunk no. 22 (2816 MiByte to 2944 MiByte): 399 GByte/s
L2-Cache-Bandwidth of Chunk no. 23 (2944 MiByte to 3072 MiByte): 80 GByte/s
L2-Cache-Bandwidth of Chunk no. 24 (3072 MiByte to 3200 MiByte): 81 GByte/s
L2-Cache-Bandwidth of Chunk no. 25 (3200 MiByte to 3328 MiByte): 135 GByte/s
L2-Cache-Bandwidth of Chunk no. 26 (3328 MiByte to 3456 MiByte): 428 GByte/s
L2-Cache-Bandwidth of Chunk no. 27 (3456 MiByte to 3584 MiByte): 31 GByte/s
L2-Cache-Bandwidth of Chunk no. 28 (3584 MiByte to 3712 MiByte): 16 GByte/s
L2-Cache-Bandwidth of Chunk no. 29 (3712 MiByte to 3840 MiByte): 427 GByte/s
Drücken Sie eine beliebige Taste . . .

Man beachte, dass ich selbst zwischen 2,5GByte und 2,8GByte drastische einbußen habe.

Habe eine Gigabyte Gaming G1 GTX970
 
Oh, das ist sehr interessant und auch sehr ungewöhnlich.

Könntest du mal den Rest deines Systems nennen? Auch OS und Treiber Version etc.
 
Nai schrieb:
Und das obwohl ich das Benchmark extrem einfach gestaltet und ohne viel Aufwand in 30 Minuten geschrieben habe. Unter anderem deshalb stehe ich ihn relativ kritisch gegenüber (siehe vorherige Posts). Bedauerlicherweise übernehmen viele Leute das Benchmark unreflektiert und ohne Erläuterungen. :(
Ich glaube die Geister die ich rief werde ich nicht mehr los. . .
Wie gut, dass ein Account ist, den eh niemand kennt :)


Im Guru3d Forum hat jemand deinen Code für gut empfunden und ihn leicht modifiziert. Sieht also gut aus. Die meisten kapieren nur nicht, dass man für Benchmarks ohne WDDM Einfluss mit seiner iGPU hoch booten muss.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben