News GeForce GTX 1660 Super: Mit 75 % schnellerem Speicher auf den Fersen der GTX 1660 Ti

R O G E R schrieb:
Also was Nvidia dort gerade betreibt ist doch absolute Verwirrung.
Vorschlag für Nvidia, den nächsten Refresh bitte "Super Duper" nennen :D
RT.iS´uperX wie wärs denn damit ?

Dazu kommt das man als Dau wohl langsam nicht mehr checkt aus welcher Generation und mit welchen features oder VRam Menge die kleineren Karten sind.

z.B. 1060/1660(Ti)/2060(Super)

@Laphonso
Ich nehm dich hier einfach mal stellvertretend für alle die in der Ram Diskussion behaftet sind.

Wenn bei einigen aktuellen und sicher noch stärker in kommenden Titeln die Texturmenge bei 6GB nicht mehr reinpasst aber in 8 passts noch dann gibts mit 6GB entweder Ruckler durch zwangsbedingte Texturnachladeorgien oder den Regler für Texturen in sicher immer öfterer Regelmässigkeit nach links stellen zu müssen.
Solche Beispiele finden sich wenn man auch diverse neuere PCGH Tests sich mal genauer anschaut leider heute auch schon im FHD Bereich. WQHD ist dann schon entweder Daumenkino oder Texturreduktionstränen sind angesagt.

Das Manko 6GB mag sogar, dadurch kann eure Ansicht sogar grundsätzlich vollkommen verständlich erscheinen, aufgrund von teils sowieso fehlender Rohleistung, ab WQHD und aufwärts noch stärker, dadurch nicht mal als ein evtl. Mangel an VRam als Problem wahrgenommen werden. Da der allgemeine Leistungsmangel ein zuwenig an Ram, als eigentlich nicht unerheblichen Teil des Problems von zu wenig Gesamtleistung, völlig unbedeutend erscheinen lässt . Das kann man eigentlich sehr gut bei Direktvergleichen zwischen, ausser bei der Rammenge, ansonsten Identischer Karten erkennen.

Das sage ich völlig Wertneutral ganz ohne erhobenen Zeigefinger oder etwas abwertend zu meinen.
 
Zuletzt bearbeitet von einem Moderator:
estros schrieb:
Soviel Wörter, weil du es als zu teuer empfindest? Also da entstehen doch keine hohen Kosten, die Nand Module werden mWn. über die gleichen Kontaktpunkte angebunden. Du musst nicht einmal das PCB neu entwerfen. Das ist das günstigste Upgrade, das du machen kannst, und erhälst mehr Datenraten. Mit anderen Worten, alles richtig gemacht.
Und ob du DLSS nicht magst, interessiert niemanden. Man wird nicht gezwungen es zu verwenden. Aber zwei Sachen lege ich dir ans Herz: Bei NV arbeiten verdammt schlaue Leute, die Vorteile in dieser Technik sehen (Tests gibt es genug). Und zum anderen wird es stetig weiter entwickelt. In den nächsten 10 Jahre wird DLSS eine entscheidende Rolle spielen, wenn wir Richtung 8K und 16K Auflösung gehen. Ich sehe die Grundidee der Technologie als klare Zukunft an.

Es gibt genug Berichte, die die schlechten Seiten des DLSS aufzeigen.
Da brauche ich mich nicht zu rechtfertigen.
Einfach mal lesen, Vergleiche anschauen.
Das ist nicht nur meine Meinung, auch Profis atestieren das in diversen Spielen.
Es ist und bleibt eine niedrigere Auflösung als vom Monitor dargestellt.
(Schlecht) hochskaliert und durch einen Supercomputer falsch neu gezeichnet.
Es mag mal weniger auffallen, aber Fehler sind halt unvermeidbar.
Wer das toll findet, kann es gerne nutzen, dagegen will ich auch nichts einwenden, wenn das für jemanden aus Leistungsproblemen unvermeidlich ist.
Aber ich kaufe mir dann eher mal ne neue Grafikkarte, oder spiele solche Leistungsfresser halt mal (viel) später, denn ich tue mir so etwas nicht an.
 
Laphonso schrieb:
Doof, wenn die Realität die kühnen Behauptungen schlägt.
https://www.guru3d.com/articles-pages/metro-exodus-pc-graphics-performance-benchmarks,9.html

Man beachte die Graphen.

https://cdn01.hardwareluxx.de/razun...VeryLong_962B5E70136F4C538D0FB011C468742D.jpg

Man beachte die Spikes bei der Radeon 7 mit 16 GB VRAM.

Mit der 2080Ti habe ich auch Spikes in Games, Miniruckler in ganz bestimmten Engines, bei bestimmten Spielen.
Da sind die 11 GB VRAM dann sicher das Problem?
lol

Nun bin ich gespannt, lass mir gerne das Popcorn übrig, bin auf die mentale Gymnastik sehr gespannt.
Ergänzung ()


Also irrelevant bei Karten, die de natura keine 4K GPUs sind.

Danke, genau das war der Punkt. "Extrembeispiel" und throretische Debatten in abstrusen Modellen, abseits der 1660Ti und 1070 usecases.

Mit anderen Worten, die 6 GB VRAM der 1660Ti sind für den avisierten Gebrauch völlig ausreichend.
Ergänzung ()

The 6GB of RAM is a non-issue and stems from users who do not understand the difference between ALLOCATED memory and UTILIZED memory. Steve from both Tech Spot and Hardware Unboxed has repeatedly done tests on this. He's shown that the 3GB/6GB models of the 1060 only show meaningful differences in unrealistic scenarios or when using 8GB of system RAM, as shown HERE. He again did this, more recently, with the RTX 2060 explaining how and why 6GB of VRAM was enough, as shown HERE. But just as we have flat-earthers and anti-vaxxers, there will always be a contingent of people who deny science, testing, and evidence in favor of whatever their belief is.


Also gut, hier ein paar Belege, dass 6GB bei einigen Spielen auch heute schon zu wenig sein können:

Wolfenstein 2 Addon 1080p 2060 weit abgeschlagen hinter 2060S und 2070.
https://www.pcgameshardware.de/Wolf...cials/Grafikkarten-Benchmarks-Test-1295585/2/

Etliche Spiele gibt es dann im Test der 2080, wo man auch schön den Abfall der 2060 zur 2070 sehen kann.
Wenn die Abstände nicht nur 20 sondern auf 50% oder mehr ansteigen, ist das eindeutig einzig und allein der viel zu knappe Speicher.
https://www.pcgameshardware.de/Gefo...Benchmark-Review-Release-Kaufen-1295238/2/#a1

Schaut euch dort z.B. ARk, Hitman und Dirt Rally an, welche in FullHD mit 6GB auskommen, da sind die Abstände nahezu entsprechend der Leistungsunterschiede der GPU gegeben.
Jetzt aber z.B. Wolfenstein, dort ist die 2070 schon in FullHD locker doppelt so schnell, und das bleibt natürlich auch bis 4K so schlimm.
In The Division knickt die Karte in 4K bis zu 36% Abstand ein.
Battlefield beträgt der Abstand auch in 4K schon 44 im Schnitt und 50% bei min Frames.
Tomb Raider quittiert auch in 4K den doppelten Leistungsunterschied.
Odyssey 49 respektive sogar 53%punkte Differenz in 4K.

Es gibt sogar ein Video, wo halt das Extrembeispiel von mit in 4K wars glaube ich genauer gezeigt wird, wie da die 2060 herumstottert und die Texturen nicht geladen bekommt.
Das Video sollte übrigens nur als Beweis dienen, und als Vorschau, wie sich die Karte in 2-3 Jahren wohl in nahezu jedem Grafikspiel präsentieren wird.
Von dem Kauf der Karte wird übrigens als Fazit abgeraten.

Was zudem allgemein in reinen Benchmarkbalken niemals klar ersichtlich wird:
die Spiele schummeln, um die Minimumframes noch konstant hoch zu halten.
Wenn das Spiel also zu wenig Speicher erkennt, dann werden vollautomatisch niedrigere Texturdetails ausgewählt. Oder aber die Texturen werden erst sehr viel später nachgeladen.
Das wurde auch schon in Videos belegt.
So gibt es sogar Fälle, wo auf dem Blatt so gut wie keine Abweichung zu erkennen ist, aber im Spiel selbst bemerkt man im direkten Vergleich doch den einen oder anderen Unterschied, bis dann zu vollständig desaströser Vorstellung, wie im Fall von Wolfenstein.

Ich möchte nur darauf hinweisen, dass der oben zitierte Bericht also nicht wirklich die ganze Wahrheit wiedergibt.
6GB werden sehr schnell altern.
Selbst in FullHD gibt es erste Anzeichen bei Spielen, in 4K sollte man die Karte schon gar nicht mehr einsetzen wollen, ok die Leistung reicht da auch nicht für.
Aber man muss es so sehen: die Ansprüche der anspruchvollsten Titel sind die normalen Spiele von morgen, also vielleicht schon im kommenden Jahr, sicher aber in 2 oder gar 3.
Dann wird man sich ärgern, keine 8GB Karte gekauft zu haben.
Als Übergangslösung sicher kein Problem, auch nicht, wenn man nur in 1080p zocken möchte und dann ggf. die Texturdetails bei Problemen runterstellen mag.
ABer ich weiß aus Erfahrung, dass man alles runterdrhen kann, aber auf keinen Fall die Texturen.
Denn das sieht man als allererstes, wenn die Texturen weichgezeichnet und matschig rüberkommen.
So sieht ein Spiel schnell ein paar JAhre älter aus, als es eigentlich ist.
Dafür gibt man nicht viel Geld für eine neue Karte aus.
Andersherum sidn ja gerade die Texturmods für ältere Spiele so beliebt, eben weil es die Spiele einfach frischer aussehen läßt, obwohl sich nichts geändert hat.

So, ich will euch nicht weiter belästigen.
Nehmt meinen gut gemeinten Rat mit oder nicht.
6GB sind einfach zu wenig, wenn eine Karte genügend Rechenpower für 1440p mitbringt.
 
  • Gefällt mir
Reaktionen: Sennox
BxBender schrieb:
Es gibt genug Berichte, die die schlechten Seiten des DLSS aufzeigen.
Da brauche ich mich nicht zu rechtfertigen.
Einfach mal lesen, Vergleiche anschauen.
Das ist nicht nur meine Meinung, auch Profis atestieren das in diversen Spielen.
Es ist und bleibt eine niedrigere Auflösung als vom Monitor dargestellt.
(Schlecht) hochskaliert und durch einen Supercomputer falsch neu gezeichnet.
Es mag mal weniger auffallen, aber Fehler sind halt unvermeidbar.
Wer das toll findet, kann es gerne nutzen, dagegen will ich auch nichts einwenden, wenn das für jemanden aus Leistungsproblemen unvermeidlich ist.
Aber ich kaufe mir dann eher mal ne neue Grafikkarte, oder spiele solche Leistungsfresser halt mal (viel) später, denn ich tue mir so etwas nicht an.
NV hält dir keine Waffe an den Kopf und zwingt dich es einzuschalten.
Wie gesagt, lies mal meine Postings. Ich halte die Technik für genial, denn das vereinfacht die Programmierung. Derzeit finde ich es auch nicht gut genug, aber ich gebe dem noch Zeit. Algorithmen sind nur so gut, wie die Programmierer. Alles komplex.
 
BxBender schrieb:
Also gut, hier ein paar Belege, dass 6GB bei einigen Spielen auch heute schon zu wenig sein können:

Wolfenstein 2 Addon 1080p 2060 weit abgeschlagen hinter 2060S und 2070.
https://www.pcgameshardware.de/Wolf...cials/Grafikkarten-Benchmarks-Test-1295585/2/

Etliche Spiele gibt es dann im Test der 2080, wo man auch schön den Abfall der 2060 zur 2070 sehen kann.
Wenn die Abstände nicht nur 20 sondern auf 50% oder mehr ansteigen, ist das eindeutig einzig und allein der viel zu knappe Speicher.
https://www.pcgameshardware.de/Gefo...Benchmark-Review-Release-Kaufen-1295238/2/#a1

Schaut euch dort z.B. ARk, Hitman und Dirt Rally an, welche in FullHD mit 6GB auskommen, da sind die Abstände nahezu entsprechend der Leistungsunterschiede der GPU gegeben.
Jetzt aber z.B. Wolfenstein, dort ist die 2070 schon in FullHD locker doppelt so schnell, und das bleibt natürlich auch bis 4K so schlimm.
In The Division knickt die Karte in 4K bis zu 36% Abstand ein.
Battlefield beträgt der Abstand auch in 4K schon 44 im Schnitt und 50% bei min Frames.
Tomb Raider quittiert auch in 4K den doppelten Leistungsunterschied.
Odyssey 49 respektive sogar 53%punkte Differenz in 4K.

Es gibt sogar ein Video, wo halt das Extrembeispiel von mit in 4K wars glaube ich genauer gezeigt wird, wie da die 2060 herumstottert und die Texturen nicht geladen bekommt.
Das Video sollte übrigens nur als Beweis dienen, und als Vorschau, wie sich die Karte in 2-3 Jahren wohl in nahezu jedem Grafikspiel präsentieren wird.
Von dem Kauf der Karte wird übrigens als Fazit abgeraten.

Was zudem allgemein in reinen Benchmarkbalken niemals klar ersichtlich wird:
die Spiele schummeln, um die Minimumframes noch konstant hoch zu halten.
Wenn das Spiel also zu wenig Speicher erkennt, dann werden vollautomatisch niedrigere Texturdetails ausgewählt. Oder aber die Texturen werden erst sehr viel später nachgeladen.
Das wurde auch schon in Videos belegt.
So gibt es sogar Fälle, wo auf dem Blatt so gut wie keine Abweichung zu erkennen ist, aber im Spiel selbst bemerkt man im direkten Vergleich doch den einen oder anderen Unterschied, bis dann zu vollständig desaströser Vorstellung, wie im Fall von Wolfenstein.

Ich möchte nur darauf hinweisen, dass der oben zitierte Bericht also nicht wirklich die ganze Wahrheit wiedergibt.
6GB werden sehr schnell altern.
Selbst in FullHD gibt es erste Anzeichen bei Spielen, in 4K sollte man die Karte schon gar nicht mehr einsetzen wollen, ok die Leistung reicht da auch nicht für.
Aber man muss es so sehen: die Ansprüche der anspruchvollsten Titel sind die normalen Spiele von morgen, also vielleicht schon im kommenden Jahr, sicher aber in 2 oder gar 3.
Dann wird man sich ärgern, keine 8GB Karte gekauft zu haben.
Als Übergangslösung sicher kein Problem, auch nicht, wenn man nur in 1080p zocken möchte und dann ggf. die Texturdetails bei Problemen runterstellen mag.
ABer ich weiß aus Erfahrung, dass man alles runterdrhen kann, aber auf keinen Fall die Texturen.
Denn das sieht man als allererstes, wenn die Texturen weichgezeichnet und matschig rüberkommen.
So sieht ein Spiel schnell ein paar JAhre älter aus, als es eigentlich ist.
Dafür gibt man nicht viel Geld für eine neue Karte aus.
Andersherum sidn ja gerade die Texturmods für ältere Spiele so beliebt, eben weil es die Spiele einfach frischer aussehen läßt, obwohl sich nichts geändert hat.

So, ich will euch nicht weiter belästigen.
Nehmt meinen gut gemeinten Rat mit oder nicht.
6GB sind einfach zu wenig, wenn eine Karte genügend Rechenpower für 1440p mitbringt.
Im ersten Beispiel wurden 8 GB VRAM als das Maximum des Möglichen vorgegeben, und - überraschend - bremst ein 6 GB VRAM Limit, dass man künstlich überschreitet. Ein Klick, und alles passt wieder.
Also inszeniertes Szenario, wie immer in diesen Fällen.

Das zweite Beispiel zeigt die 16 GB VRAM Radeon VII bei ARK Extinction nur 1 bis 2 fps avg vor der 2060.
Ja, wie kann das denn sein? ;)

Die 2060 hat nach hintenraus eher das generelle Power Problem, kein VRAM problem.

Vergleich einfach mal die 2060 und die 2060 Super. Der Punch kommt durch die Shader+Speicherbandbreite und die Textur/Rastereinheiten.

RTX 2060 Super vs. RTX 2060:
  • mehr Speicher: 8,0 statt 6,0 GByte GDDR6
  • mehr Shader-Einheiten: 2.176 statt 1.920
  • höhere Speicherbandbreite: 448 statt 336,1 GB/sec
  • mehr Raytracing- und Tensor-Kerne: 34/272 statt 30/240
  • mehr Textur- und Rastereinheiten: 136/64 statt 120/48

Die 8 GB VRAM Modelle der Vega 56 und 64 machen keine bessere Figur. WIe kommt das bloß? ;)
 
@Laphonso
wieso ignorierst du folgenden Teil von @BxBender s Aussage?
"Schaut euch dort z.B. ARk, Hitman und Dirt Rally an, welche in FullHD mit 6GB auskommen, da sind die Abstände nahezu entsprechend der Leistungsunterschiede der GPU gegeben.
Jetzt aber z.B. Wolfenstein, dort ist die 2070 schon in FullHD locker doppelt so schnell "
 
Sennox schrieb:
@Laphonso
wieso ignorierst du folgenden Teil von @BxBender s Aussage?
"Schaut euch dort z.B. ARk, Hitman und Dirt Rally an, welche in FullHD mit 6GB auskommen, da sind die Abstände nahezu entsprechend der Leistungsunterschiede der GPU gegeben.
Jetzt aber z.B. Wolfenstein, dort ist die 2070 schon in FullHD locker doppelt so schnell "
Keine Ahnung was PCGH da gemessen hat, in Wolfenstein 2 liegt die 2060 auf Ultra Settings in Full HD zwischen 180 und 200 fps, kann man direkt nachsehen, ingame:

Und damit hinter der 2070 und 2060S im zu erwartenden Abstand.
 
@BxBender hast du eigentlich eine Quelle für "Wenn das Spiel also zu wenig Speicher erkennt, dann werden vollautomatisch niedrigere Texturdetails ausgewählt. Oder aber die Texturen werden erst sehr viel später nachgeladen.
Das wurde auch schon in Videos belegt. "
Das würde mich sehr interessieren und es würde auch Sinn ergeben.

@Laphonso Ich verstehe irgendwie nicht was dein AMD Gebashe hier (bringen) soll.
Es ging darum dass Nvidia die Leute mit den Lügen rund um die 970 beschissen hat und dass man bei zwei gleichwertigen Karten (auch in Bezug auf den Preis) lieber zu der mit mehr RAM greifen sollte.
Wieso fühlst du dich genötigt hier die Leistung der 970 zu verteidigen (um die eigentliche Leistung ging es nie) und AMD in den Dreck zu ziehen?
 
Zuletzt bearbeitet:
Da ich ein Print Abo PCGH habe kann ich dir bestätigen das, in einem mehrseitigen Bericht zu dem Thema mit Screenshoots dazu, die automatische Texturreduktion je nach Speichermenge bei einigen Titeln realität ist. Ich kann dir nur nicht mehr die Ausgabe Monat/Jahr sagen.

Entweder auf PCGH mal selber schauen ob es einen entsprechenden Artikel auch free auf der HP gibt ansonsten die Redaktion mal anfragen ob sie dir die Heftnummer mitteilen können. Manche Ausgaben kann man auch noch nachbestellen.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben