Test Asus GeForce GTX 1060 3 GB im Test: 3.072 MB VRAM reichen nicht immer aus

melaw schrieb:
Du vertritts also die Meinung, dass jedes aktuell erhältliche Spiel in FullHD mit alles auf max gedreht
auf einer Grafikkarte mit 3 oder 4GB vollkommen flüssig und ruckelfrei läuft?

Nö, du etwa?
Nice Try btw.
 
Blueeye_x schrieb:
Naja, ich denke schon dass 3 GB Vram in Full HD ausreichen. Die Spiele welche in Full HD mit 3 GB Vram ruckeln, sind dann einfach besch... programmiert !

Schwachsinn, das liegt ganz einfach daran, dass in vielen Spielen auf FHD schon 4K Texturen verwendet werden. Den Unterschied kann man auch am Beispiel von Rainbow Six Siege sehen, wo der Vram Verbrauch mit dem offiziellen 4K Texturenpack von ~3,5 auf ~4,1 GB steigt auf Ultra. Trotz FHD ist der Unterschied an den Texturen merkbar und einfach schöner. Leute wie du verweigern einfach die Realität und behaupten das sei schlechte Programmierarbeit. Die Texturen werden einfach in vielen Spielen so groß, dass man nicht mehr um 4GB+ herum kommt.
 
Chillaholic schrieb:
Leute wie du verweigern einfach die Realität und behaupten das sei schlechte Programmierarbeit.
Woher weißt du wann ein Spiel gut oder schlecht Programmiert ist? Bist du Experte? Unterschiedliche Engines und Optimierungen haben unterschiedlichen Einfluss auf die Hardware, sollten wir uns doch einig sein, oder?
 
naja ne besser Office Karte mehr nicht .....von der Leistung besser als meine GTX680 aber die GTX 1060 mit nur 3GB schlechter als meine 4GB VRAM wobei meine GTX680 mit 4GB auch schon ein VRAM Krüppel ist ^^
 
Blueeye_x schrieb:
Naja, ich denke schon dass 3 GB Vram in Full HD ausreichen. Die Spiele welche in Full HD mit 3 GB Vram ruckeln, sind dann einfach besch... programmiert !

Und was macht man dagegen? Hardware!

..oder man ruckelt vor sich hin und hat dann 200+ Euro für Ruckeln ausgegeben. Das hätte auch eine IGPU geschafft...

Um das mal übertrieben auszudrücken.

Und eine Konsole =/= PC. Schon die API ist eine andere.
 
Versuchen wir es mal so, bis jetzt hat sich JazzLash unzugänglich genüber Argumenten gezeigt, also transferieren wird das auf eine andere Situation.
Wir nehmen 2 Autos, die auch noch autonom fahren. Das eine fährt konstant 100 km/h, das andere im Durchschnitt 3 % schneller also 103 km/h. GEIL! Das andere ist so viel schneller!. Damit Wenn ich 100 km fahre bin ich 1,75 min eher da, als der Spacken, der das langsamere Auto fährt. Das schnelle Auto hat nur eine doofe Angelegenheit, es fährt eigentlich 115, bremst dann aber stark auf auf 90 ab, also so, dass der Gurtstraffer zum Zuge kommt, und beschleunigt dann wieder auf 115 um wieder abzubremsen. Ich glaube, damit hat man keine so angenehme Fahrt, auch wenn sie 1,75 min schneller da ist, da man diese Zeit erst mal zum Kotzen braucht.
Dieses komische Verhalten zeigt das schnellere Autos momentan nur auf der Landstraße von Paderborn nach Bielefeld, die fährt man ja nicht so oft, aber es werden in Zukunft immer mehr Straßen werden, und irgendwann ist es auch bei der Autobahn Hambur-Berlin so.
Es ist zwar etwas aus der Luft gegriffen, das Autos so bescheuert fahren sollen, und vor allem das nur auf bestimmten Straßen zu tun, aber ich hoffe, dass damit gezeigt wird, dass Durchschnittswerte nichts aussagen.

Wenn es dir um mangelnde Prognosen geht: Dann schau doch in die Vergangenheit. Vergleich mal die GTX680 (2GB) gegen die HD7970 (3GB). Die waren zum Zeitpunkt des erscheinens ungefähr gleich schnell. Wenn man sie in aktuellen Spielen vergleicht, die mehr VRAM brauchen, als die Spiele damals, dass die 680 ziemlich abkacken wird, während man bei der 7970 den Qualitätsregler nicht so weit runterstellen muss.
 
AlessandroVolta schrieb:
Ach hier mal entsprechende realen Bandbreitenwerte im Vergleich:
b3d-bandwidth.png


Bei einem theoretischen Vorsprung von ca. 12% für die RX480 (256 GByte/s vs. 224 GByte/s bei der GTX980) ist praktisch die GTX980 dank ihrer Kompression ca. 10% schneller. Obwohl die GTX980 das auf dem Papier schlechtere Kompressionsverfahren hat, ist es dennoch praktisch deutlich besser als was AMD in Polaris verbaut.

Täusch ich mich, oder blendest du den Teil mit den "Random Textures" einfach aus? Dort ist die RX480 vor der GTX980. Hast du mal einen Link zu der Tabelle bzw. zu dem Artikel mit der Tabelle?
 
AlessandroVolta schrieb:
wobei ich nachgewiesen habe, dass Polaris trotz nominal besserem Kompressionsverfahren auf dem Papier effektiv deutlich langsamer als die Maxwell-Architektur ist.

Du hast garnichts, das haben die Redakteure und Tester.

Und schau dir bitte dein gepostetes Diagramm mal genauer an, was glaubst du wohl liegt öfter im VRAM: schwarze Texturen oder zufällige?

Und ja nvidia verwendet grundsätzlich bessere Komprimierungen, die machen aber aber nur wenige Prozent aus. Und nvidia kann auch die Natürgesetze nicht außer Kraft setzen: dank der Kompression können sie vielleicht das kleinere Speicherinterface kompensieren oder den kleineren RAM, aber sicherlich nicht beides und 1 bzw. 2 GB sind ne menge Holz.
 
kleinstblauwal schrieb:

Du hast immer noch nicht verstanden das dein tolles Beispiel nicht auf jedes Spiel zutrifft, sondern auf eine Handvoll.
Und du hast nicht verstanden das es nicht die 3GB sein müssen, da eine 780ti, genauso wenig wie eine 280x das Problem haben.

Vielleicht fährt dein 115kmh Auto einfach auf einer schlechteren Straße? :cool_alt:
 
AlessandroVolta schrieb:
Genau darum geht es. Ein Troll meinte, man könne die Leistungsfähigkeit der Speicheranbindung bei Grafikkarten anhand der Busbreite beurteilen. Hat dann noch massig Fehler in seine "Übersicht" geworfen und dann gemeint belegt zu haben, dass NVIDIA ja ein viel zu knappes Speicherinterface verbauen würde.

Nein, der "Troll" wollte nur anhand von Beispielen die Aussage wiederlegen AMD würde seit der HD2900 nur noch einen kleinen Speicherbus vebauen. Es war genau ein Fehler, der am Ende aber auch gar nichts am Ergebnis verändert hat denn der Wert der AMD Vergleichskarte ist immer noch höher.

AlessandroVolta schrieb:
Dabei ist das Interface tatsächlich deutlich schneller, was NVIDIA abliefert. Eben wegen höherer Taktung oder wegen GDDR5X oder wegen Kompression oder....
War nie bestandteil unserer Unterhaltung in die du reingegrätscht bist und mir erzählen wolltest mein Text wäre Schwachsinn mit deiner total falschen Erklärung der Fachbegriffe.

AlessandroVolta schrieb:
Deiner (teilweise falschen) Liste nach wäre eine Interface mit 1024 bit bei 500 Mhz Taktung besser, als eine 256 bit Interface bei 4000 MHz. Dabei liefert Letzteres die doppelte Bandbreite.
Cool Story, nichts neues für mich, es ging auch wie bereits mehrfach geschrieben ausschließlich um den vebauten Speicherbus und nicht die Bandbreite, was du bis jetzt nicht gerafft hast.
 
Zuletzt bearbeitet:
JazzLash schrieb:
Belege bitte, er tut es doch auch.

Was brauchste denn? google doch R9 290x - schau die die Daten an und Vergleiche das mit einer GTX980.

5288GFLOPS (Single), 220GFLOPS (Double) - MSI GTX 980 Gaming 4G (http://www.heise.de/preisvergleich/msi-geforce-gtx-980-gaming-4g-v317-008r-a1167948.html)

VS

5801GFLOPS (Single), 725GFLOPS (Double) - MSI R9 290x Gaming 4G (http://www.heise.de/preisvergleich/msi-r9-290x-gaming-4g-v308-001r-a1047015.html)

Und trotzdem liegen sie Momentan eher gleich auf, als das die 290x schneller wäre.


WZBW
 
matraj63 schrieb:
Täusch ich mich, oder blendest du den Teil mit den "Random Textures" einfach aus? Dort ist die RX480 vor der GTX980. Hast du mal einen Link zu der Tabelle bzw. zu dem Artikel mit der Tabelle?
Random Textures = Keine Kompression
Black Textures = Maximale Kompression

Das ist ja der Sinn des Tests, dass man einmal die nackte Bandbreite, ohne Kompression sieht und einmal mit Kompression.

flappes schrieb:
Du hast garnichts, das haben die Redakteure und Tester.
Ich habe es in der Diskussion verlinkt und daher für diese Diskussion belegt.

flappes schrieb:
Und schau dir bitte dein gepostetes Diagramm mal genauer an, was glaubst du wohl liegt öfter im VRAM: schwarze Texturen oder zufällige?
Weder noch.

Aber bei Pascal ist man schon sehr nah an "schwarze Texturen" dran:
PascalEdDay_FINAL_NDA_1463156837-011.jpg

Rosa = Komprimiert.

flappes schrieb:
Und ja nvidia verwendet grundsätzlich bessere Komprimierungen, die machen aber aber nur wenige Prozent aus.
Tatsächlich waren es bei Maxwell in realen Spielen bereits 20-30%, Pascal ist nochmal ca. 20% besser als Maxwell.

Macht also ca. 40-50% mehr Bandbreite aus. "wenige Prozent" ist absoluter Quatsch. Siehe auch der von mir verlinkte Benchmark.

flappes schrieb:
Und nvidia kann auch die Natürgesetze nicht außer Kraft setzen: dank der Kompression können sie vielleicht das kleinere Speicherinterface kompensieren oder den kleineren RAM, aber sicherlich nicht beides und 1 bzw. 2 GB sind ne menge Holz.
Doch, das können sie offensichtlich. Sowohl, als auch. Sonst würden sie bei identischer RAM-Größe nicht später anfangen Ruckler zu zeigen und könnten mit weniger Speicher nicht trotzdem mithalten.
 
AlessandroVolta schrieb:
Random Textures = Keine Kompression
Black Textures = Maximale Kompression

Link bitte? Wieso sollten random Textures nicht komprimiert werden?
 
Zuckerwatte schrieb:
1060 3Gb vs 780ti vs 280x wäre folglich auch interessant, um zu sehen ob sich die Karten unterschiedlich Verhalten trotz je 3GB.

tun sie, genau dazu gabs vor ein paar Wochen einen Artikel (such ich jetzt nicht raus) , die 280x hat da durch das höhere Interface (384bit) teilweise überrascht,
die 256bit limitieren ja zB die 1080er
 
Nvidias Speichermanagement funktioniert zwar deutlich besser als das von AMD, sodass die meisten Spiele in Full HD bei vollen Details noch einwandfrei funktionieren.

Tja, nur wie soll das Speichermangement besser sein, Trickserei auf Kosten der Darstellungsqualität? Zaubern kann nVidia plötzlich auch nicht und an der physischen Größe ändert sich nichts. Das wäre doch vielleicht einmal eine genauere Untersuchung wert ;) @ CB?


Die vorgestellte GPU wird trotzdem genügend "Bauern fangen", die trotz des unterdimensionierten Speichers darauf herein fallen (basierend auf Unwissenheit, auf den Märchen einiger "Fachverkäufer" oder mangels Aufschlüsselung in Komplett-PCs), im Einklang mit der seit Jahren dubiosen nVidia Kundenpolitik.

Etwas fragwürdig finde ich die Benchmark-Ergebnisse zu Might & Magic - Heroes VII, dass die beschnittene 3 GB GTX 1060 Karte (mit 10% weniger Shadern) klar vor dem regulären GP106 Vollausbau in Form der GTX 1060 6 GB Founders Edition liegen soll!?! Bitte noch einmal überprüfen und gegebenenfalls korrigieren, denn das wirkt unglaubwürdig.
 
die nächste Grafikkarte hat ne angebaute SSD...zwecks Speicher...


sorry...wo soll das hinführen..gibts demnäxt Grafikkarten mit 12 TB Speicher :cool_alt:
 
Chillaholic schrieb:
Nein, der "Troll" wollte nur anhand von Beispielen die Aussage wiederlegen AMD würde seit der HD2900 nur noch geringe Speicherbandbreite vebauen. Es war genau ein Fehler, der am Ende aber auch gar nichts am Ergebnis verändert hat denn der Wert der AMD Vergleichskarte ist immer noch höher.
Na siehst du. Und du hast sogar mal ausnahmweise (Glück?) Recht: Dein Vorposter sprach von der Speicherbandbreite.

Darauf hin antwortest du:
Chillaholic schrieb:
WAAAAAAS?
AMD R9 290 512 Bit SI vs. GTX 970 224 + 32 Bit SI.
AMD R9 280X 384 Bit SI vs. GTX 960 128 Bit SI.
AMD RX 480 256 Bit SI vs. GTX 1060 128 Bit SI.
AMD Fury X 4.096 Bit vs. GTX 980TI 384 Bit SI.

Auf eine Bewertung der Speicherbandbreite antwortest du also mit der Busbreite des Interfaces. Was völliger Unfug ist. Um das zu bewerten, was dein Vorposter geschrieben hast, hättest du auf die Bandbreite eingehen müssen. Hast du aber nicht.

Chillaholic schrieb:
War nie bestandteil unserer Unterhaltung in die du reingegrätscht bist und mir erzählen wolltest mein Text wäre Schwachsinn mit deiner total falschen Erklärung der Fachbegriffe.
1. Das ist hier ist ein Forum wo jeder jeden antworten kann. Wenn du damit ein Problem hast: Antworte anderen User per PN. Oder poste nicht mehr.
2. Hast du die völlig falsche Metrik verwendet
3. Dann auch noch mit teilweise falschen Daten

Und nein, die Fachbegriffe sind völlig ok. Dein Vorposter hat nie von "Busbreite" gesprochen, sondern von "Bandbreite".

Chillaholic schrieb:
Cool Story, nichts neues für mich, es ging auch wie bereits mehrach geschrieben ausschließlich um den vebauten Speicherbus und nicht die Bandbreite, was du bis jetzt nicht gerafft hast.
Nein, das ist einfach falsch. Gern das Originalzitat:

Herdware schrieb:
Das könnte aber auch damit zusammenhängen, dass Nvidia oft ein breiteres Speicherinterface hat. (Seit dem HD2900-Debakel hält sich AMD beim SI ja eher zurück und kommt meist auch ganz gut damit aus.)

Wo steht da etwas von "Speicherbus"? Genau: Nirgends. Gemein ist as gesamte Interface und dessen Leistungsfähigkeit und nicht nur (wie von dir behauptet) die Busbreite.
 
Zuletzt bearbeitet:
JazzLash schrieb:
Und du hast nicht verstanden das es nicht die 3GB sein müssen, da eine 780ti, genauso wenig wie eine 280x das Problem haben.

Hast du eine Quelle dafür?
Vor 3 Jahren wurde die 780Ti ja noch mit ganz anderen Titeln getestet und es wurde auch insgesamt nicht besonders auf Frametimes geschaut.

Wenn es stimmt, dass eine 780Ti mit 3GB unter den selben Bedingungen problemlos klar kommt, wo eine GTX1060-3GB scheitert, wäre das ein sehr interessantes Phänomen, dem man auf dem Grund gehen müsste.
Was macht den Unterschied? Die SI-Breite? (Was mich wundern würde, denn beim Nachladen von Texturen gibt es ja ganz andere Flaschenhälse.)
Oder schlicht schlechte Optimierung für die neue Karte im Treiber, so dass sich das vielleicht zukünftig noch bessern kann?
 
Zuletzt bearbeitet:
Zurück
Oben