Test GeForce GTX 1660 Ti im Test: Wie die GTX 1070 FE mit neuen Shadern und weniger Speicher

ZeroZerp schrieb:
Sebastian Aaltonen zur Technik der 1660:
Klingt ja ned schlecht. Nur ... ist das jetzt nicht so wir bei AMD? Dir haben auch vieles, was in der Zukunft (!) was bringen könnte, würde es genutzt. Und ein Zeithorizont von 1-2 Jahren halte ich für eine 6GB nVidia noch weitaus optimistischer, als man es für AMD-Karten sein musste.
Ich lasse mich ja eines Besseren belehren, allerdings glaube ich nicht an eine Lebensspanne der 1660Ti von 2Jahren+.
Weil NVIDIA liefern muss. RT und DLSS. Und das schnell, sonst sind das alles Totgeburten trotz wegweisender Technik. Die paar Enthusiasten mit GTX 2070/80 machen das Kraut nicht fett. Die Technik muss in den Mainstream. Und das ist halt nicht jenseits der 350EUR. Die 1660 hilft da eher nicht.
 
@DocWindows
Du meinst wozu eine Hardware Lösung wo nvidia doch für die vorbildliche Treiberpflege der alten Generationen so wahnsinnig bekannt ist und diese so garnicht hinten runter fallen läßt um die aktuelle Generation zu pushen? hust

Du kannst auch gern der Meinung sein das höher aufgelöste Texturen besser in höheren Auflösungen zur Geltung kommen aber wo ist da die Antwort auf meine Frage?

Das letzte Argument ist irgendwie witzig.
Ist also deiner Meinung nach eine RTX2080 Ti bei 300 FPS @ 230W sparsamer als eine Vega64 mit Chill @ 150W weil letztere eine geringere Framerate hat, darf man das dann nicht zählen weil die ausreichende Framerate der Radeon bei deren Teillast geringer ist (was dem Stromzähler des Users herzlich egal wäre) oder ist der Strombedarf auf einmal nicht mehr so wichtig ist?
 
Zuletzt bearbeitet von einem Moderator:
Wadenbeisser schrieb:
]
Du meinst wozu eine Hardware Lösung wo nvidia doch für die vorbildliche Treiberpflege der alten Generationen so wahnsinnig bekannt ist und diese so garnicht hinten runter fallen läßt um die aktuelle Generation zu pushen?

Wüsste nicht was es an der Treiberpflege auszusetzen gäbe. CB hat doch schonmal getestet wie sich Karten über Generationen hinweg verhalten. Nichts auffälliges.

Wadenbeisser schrieb:
]
Du kannst auch gern der Meinung sein das höher aufgelöste Texturen besser in höheren Auflösungen zur Geltung kommen aber wo ist da die Antwort auf meine Frage?

Deine Annahme die der Frage zugrunde liegt ist falsch. Deshalb habe ich sie korrigiert. Ich behaupte nicht dass man Grafikspeicher nur in hohen Auflösungen braucht, sondern dass man in höheren Auflösungen am Meisten davon profitiert. Und das belegen auch viele Spieletests. Und übrigens auch das verlinkte Video.
Wenn man hingeht und 4k Texturen auf FullHD einstellt, braucht man natürlich auch unter FullHD massig Speicher. Es bringt halt nicht so viel wie unter 4k. Ob man das Geld dafür ausgeben muss? Ich denke nicht.
Außerdem muss man auch noch bedenken dass in vielen Spielen die Wahl des Detailgrades nicht unbedingt nur Texturen betrifft, sondern auch noch Detailgrade anderer Grafikeffekte. Da nutzt viel Speicher unter Umständen auch nichts wenn die GPU überlastet wird.

Wadenbeisser schrieb:
]
Das letzte Argument ist irgendwie witzig.
Ist also deiner Meinung nach eine RTX2080 Ti bei 300 FPS @ 230W sparsamer als eine Vega64 mit Chill @ 150W weil letztere eine geringere Framerate hat, darf man das dann nicht zählen weil die ausreichende Framerate der Radeon bei deren Teillast geringer ist (was dem Stromzähler des Users herzlich egal wäre) oder ist der Strombedarf auf einmal nicht mehr so wichtig ist?

Es geht um Effizienz und nicht um Stromsparen. Also wenn deine Vega64 auch 300FPS @ 230 Watt schafft zieh ich meinen Hut. Verwechselst du mich immer noch mit den Leuten denen es um Stromkosten geht? Wenn überhaupt dann um Lautstärke, aber hauptsächlich eben um Effizienz.

Überhaupt verstehe ich nicht ganz warum man bei jedem Thema um nVidia und AMD Karten immer wieder den ganzen Moloch an Argumenten für alles mögliche neu durchkauen muss. Bringt sowieso nichts weil jeder auf seinem Standpunkt festgefahren ist. Ursprünglich ging es um 6GB VRAM und nun schau wo wir gelandet sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: psychotoxic und kisser
@DocWindows
Dann benötigen die hoch aufgelösten Texturen deiner Meinung nach und entgegen entsprechende Warnungen in Spielen also nicht viel Speicher. Wie lange die Bastelei am Speicher Management anhält sieht man aktuell bei der GTX970 mit gut ausgelasteten Speicher.
Auch scheint für dich nur die Frameraten Effizienz wichig zu sein, der Strombedarf an sich (der in Abhängigkeit vom Kühlsystem wiederum direkt zur Lautstärke übergeht) wiederum nicht.

Was das Ganze mit dem Thema zu tuen hat?
Der gekürzte Grafikspeicher der 1660Ti hat direkten Einfluss auf die Langzeitnutzung der Karte (Treiberoptimierung für neuere Spiele) und die Nutzung hoch auflösender Texturen und wenn der Strombedarf der Karte beim Spielen an und für sich egal ist, warum wird dass dann immer wieder aufs neue ausgebuddelt?

Schön dass das Niveau der Diskussion damit klar ist und ich mir damit sparen kann weiter darauf einzugehen. ;)
Wenn du noch etwas von mir willst dann kannst du das gern per PM erledigen.
 
  • Gefällt mir
Reaktionen: Sennox
Wadenbeisser schrieb:
Dann benötigen die hoch aufgelösten Texturen deiner Meinung nach und entgegen entsprechende Warnungen in Spielen also nicht viel Speicher.

Wie kommst du auf den Blödsinn? Ich habe gerade genau das Gegenteil geschrieben.

Wadenbeisser schrieb:
Wie lange die Bastelei am Speicher Management anhält sieht man aktuell bei der GTX970 mit gut ausgelasteten Speicher.

Na, man gut dass nVidia jetzt keine Mischbestückung gewählt hat. Sonst hättest du wieder was zum Rummosern gehabt.

Wadenbeisser schrieb:
Der gekürzte Grafikspeicher der 1660Ti hat direkten Einfluss auf die Langzeitnutzung der Karte

Hast das Video immer noch nicht geschaut, ne?
Fallout 4: 2200 MB
Project Cars 2: 3000 MB
Far Cry 5: 3200 MB
Fortnite: 2700 MB
GTA V: 3800 MB
Overwatch: 1500 MB
PUBG: 4000 MB
Rise of the Tomb Raider: 1060: 5700MB, 1070: 7400MB
Watch Dogs 2: 3500 MB
Witcher 3: 1400 MB

Eins von 10 getesteten Spielen (1060 vs 1070) übersteigt die 6GB VRAM auf der 1070, während die 1060 bei 5700 MB verbleibt. Im Bewegtbild sieht man kein Problem.

Fallout 4 wurde 2015 released. Far Cry 5 2018. + 1GB VRAM in 3 Jahren.
Ich sehe schon: Die Langzeitnutzung ist EXTREM in Gefahr. Nicht!

Und wenn man sich mal einen Vergleich zwischen HD Texturen in Far Cry 5 und normalen anschaut
2019-02-27_11h08_23.jpg


dann muss man hier echt attestieren dass sich die 3GB Mehrverbrauch beim VRAM mal so richtig lohnen. NICHT!
Es gibt natürlich deutlichere Screenshots. Hier z.B.

2019-02-27_11h11_24.jpg


Wer gerne 10cm vor einer schön texturierten Holzwand steht, der möge also bitte auf mindestens 8GB VRAM achten. Besser noch mehr.

Das Gameplay ist übrigens 4K. Selbst da reichen 6GB für das normale Spiel noch aus. Die 1660Ti natürlich nicht mehr. Video zum selbst schauen gibts hier

Wadenbeisser schrieb:
und wenn der Strombedarf der Karte beim Spielen an und für sich egal ist, warum wird dass dann immer wieder aufs neue ausgebuddelt?

Weil es um Effizienz geht. Performance pro Watt. Wie oft denn noch?
Es ist besser wenn ich für 50FPS nur 100 Watt brauche als wenn ich für 50 FPS 250 Watt brauche. Meine Güte. Man redet hier echt gegen eine Wand.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Stuffz, Delirus, Floppy5885 und eine weitere Person
Natürlich ist weniger Verbrauch 'ne gute Sache aber deiner Aussage bzgl. Framelimiter nach ist es egal ob die Nvidia bei einem Game (unnötiger/ungebrauchter Weise) mit 300 FPS läuft und ihre (nur für das Beispiel) fiktiven 200 Watt braucht oder man sie auf 75 oder 100 FPS drosselt und nur noch 120 Watt braucht.
Du weichst bei diesem Argument halt auf die Effizienzunterschiede zu AMD aus aber es ging nur darum, dass du sagtest man bräuchte bei Nvidia generell keine Framelimiter ;)

Oh und mein Beispiel bzgl. nicht so tollem VSyncs bezieht sich auf Monster Hunter World, weder alt noch obskur.
Ich hab sogar noch eins: Wolfenstein - The New Order, dort funktioniert das VSync nämlich gar nicht :D "Cannot activate Sync because game is running too fast" (so ähnlich ist der Wortlaut der Console wenn man versucht Vsync einzuschalten).
Was in so einem Fall helfen kann? Das wurde bereits genannt ^^
 
@Sennox: Ok, du brauchst also den Framelimiter um die Frames in einigen problematischen Spielen zu begrenzen weil es sonst zu viele sind. Das passt aber dann trotzdem noch nicht zu Radeon Chill, denn das soll ja gar nicht generell die Frames limitieren, sondern in Szenen in denen sich im Bild wenig tut die GPU drosseln.
Das ist doch einzig und allein eine Maßnahme um den Stromverbrauch zu senken und nicht um zu viele Frames zu limitieren. Für letzteres hat AMD doch noch einen separaten Framelimiter im Treiber wenn ich mich nicht irre, oder?

Also ja: Wenn ich Frames limitieren möchte weil ich sonst "zu viele" hätte und das Spiel keinen Framebegrenzer mitbringt und ich VSYNC nicht nutzen kann, dann brauche ich bei nVidia Karten auch einen Framelimiter.
Das hat aber nichts mit Stromverbrauch oder Effizienz zu tun, sondern mit Problembehebung.

Ich weiche dem Argument deshalb meiner Meinung nicht aus, sondern ich versuche zwischen dem klassischen Framelimiter und Chill zu differenzieren, weil beides unterschiedliche Dinge sind und unterschiedliche Zwecke erfüllen. Und wenn es um "Framelimiter" zum Zwecke des Stromsparens geht (Chill) dann brauche ich diesen bei nVidia nicht, weil es dieses Problem der überbordenden Energieaufnahme nicht gibt.

Wenn ich das bisher nicht deutlich genug gemacht habe, dann Sorry. Ich versuche es nächstes Mal besser zu machen, aber ich will halt auch keine Romane schreiben.
Und falls mein Informationsstand bezüglich der Treiberfunktionen (Chill, Framelimiter, etc.) bereits überholt ist, dann werde ich mich damit nochmal beschäftigen und meinen Standpunkt ggf. ändern.
 
Zuletzt bearbeitet:
@DocWindows
Tja es ist eben nicht jeder so anspruchslos was die Texturen Qualität angeht (und am besten noch in der Config des Spiels rumspielt um für mehr FPS nahezu alles abzuschalten was "ablenken" könnte) und da den Karten in der Vergangenheit jedes mal der kleinere Speicher Ausbau auf die Füsse gefallen ist ist Kritik an der Produkt Politik mehr als berechtigt.
Ich für meinen Teil entdecke die Inhalte des Spiels anstatt mit Scheuklappen möglichst schnell durchzurennen.

Zudem habe ich z.B. in Strategie Spielen lieber 60 FPS @ 50W als 300 FPS (von denen ich ohnehin nichts mitbekomme) @ 150W.
 
ATM gibt es noch keine Spiele, welche 8GB VRAM in FHD oder gar WQHD "wirklich" brauchen.
Bei FF15 ist der Frametimeverlauf auf einer RX 580 8GB schlechter als auf einer 970, was nicht wirklich auf ein VRAM Problem schließen lässt.

Aus dem CB Test: "Allerdings sind volle Details nicht notwendig. Wer die Texturen um eine Stufe herunter stellt, kommt auch schon mit 6.144 MB aus, und zwar ohne an Qualität einzubüßen. Bei den höchsten Texturdetails werden die Texturen schlicht nicht (kaum) komprimiert. "

Frametimeverlauf: https://www.tomshardware.com/reviews/final-fantasy-xv-performance-analysis,5513-4.html

Auch bei anderen Spielen, welche mit 6 oder 8 GB zu ruckeln anfangen, sieht es ähnlich aus. Zumal die Texturen in den meisten Spielen (siehe z.B. COD) in keinster Weise den teilweise hohen VRAM Verbrauch rechtfertigen.

Es kann nicht sein, dass Spieleentwickler nur noch schlampig programmieren und "wir Gamer" deshalb gezwungen sind, übermäßig viel VRAM zu bezahlen für Texturen, die vor 3 Jahren bei halbem Verbrauch genauso gut ausgesehen haben. Das gilt genauso für "man braucht 8+ Kerne fürs flüssige Spielen (obwohl die Spiele in keinster Weise komplexer wurden, geschweige denn eine bessere KI vorweisen können) " oder "wir nehmen überhöhte Tesslation her, die optisch nix bringt".

Dies mal nur als persönliche Beobachtung.

Für 250€ würde ich die Karte nehmen, darüber ist man zu nah an 2060/Vega 56 dran, als das sie sich noch lohnen würde.

Wadenbeisser schrieb:
Zudem habe ich z.B. in Strategie Spielen lieber 60 FPS @ 50W als 300 FPS (von denen ich ohnehin nichts mitbekomme) @ 150W.

Das dürfte aber mit beiden GPU Herstellern möglich sein. Ich spiele z.B. mit einem Framelimiter, der an die Bildwiederholfrequenz des Monitors gekoppelt ist.
 
  • Gefällt mir
Reaktionen: Laphonso
Genau darum geht's ja, es ist bei beiden eine sinnvolle Idee.
Hier wurde aber behauptet bei Nvidia bräuchte man sowas nicht :D
Auch wenn es nur wäre um Energie zu sparen weil man selbst nicht 100+ FPS benötigt

Davon ab ist es halt immer die Frage was ich für mein Geld bekomme.
Wenn ich zwei Karten habe, die ähnliche Leistung bringen und im ähnlichen Preisrahmen liegen dann würde ich immer zu der mit mehr VRAM raten.
Wir reden hier ja nicht von irgendwelchen Bauernfängern Karten von Niveau einer 1030 mit 8GB (fiktives Beispiel).
 
Ich dachte da gings nur um Chill, ein Feature, mit dem ich eher wenig anfangen kann.
So geizig wird wohl keiner sein, dass er die paar Watt für weniger Frames eintauscht. :D

Welche Karte man am Ende kauft, ist halt stark vom Usecase abhängig.
Deshalb finde ich generelle Empfehlungen auch falsch, wenn jemand hauptsächlich "Nvidia Titel" spielt oder den geringen Stromverbrauch will (weil z.B. altes/schwaches Netzteil) oder ein Ultra-Silent System baut, kann auch durchaus die Karte mit weniger VRAM die attraktivere Wahl sein.
 
Wer soll die Grütze kaufen, wenn es mittlerweile brauchbare 1070er für um die 300€ gibt?

Die Frage ist nur, wie lange...
 
Also die ASUS Karte ist mal geil!
Eiskalt und totenstill. Zm im Vergleich mit ALLEN anderen!
Jetzt noch diese für <300€ und passt doch, oder?
Nur dass die 1660 Ti im Desktop und bei Videowiedergabe (Yt, Browser, etc) einen höheren Verbauch hat als die GTX 1060.. ok, die paar Watt machens nicht fett, aber mein PC rennt den halben Tag und quasi ausschließlich Browsing (Firefox), damit Youtube, Videoplayer VLC und MPC-HC, etc.

Und ja, die leidige Diskussion dass man in der Leistungsklasse einer GTX 1660 Ti / GTX1070 / RTX2060 nicht mehr weniger als 8GB VRAM verbauen darf.
Pro und Contra Argumente, die sich gegenseitig die User auflösen etc. Texturen ja keine Leistung brauchen, aber den VRAM füllen und für kack frametimes sorgen können.
Das haben wir jetzt schon seit Monaten, also hab ich die letzten 20 Seiten thread nicht mehr durchgelesen, weil sich eh immer das Selbe wiederholt.
Ich hab daweil meine MSI 1060 und bin happy damit.
Alles was deutlich besser ist ist viel zu teuer. Und Spiele wo man die Leistung brauchen(!!) würde, spieel ich nicht.
Also alles gut (bei mir).
Alle anderen müssen halt selber abwiegen, ob sie sowas kaufen oder nicht.

MfG
 
  • Gefällt mir
Reaktionen: kisser
Oneplusfan schrieb:
Ich dachte da gings nur um Chill, ein Feature, mit dem ich eher wenig anfangen kann.
So geizig wird wohl keiner sein, dass er die paar Watt für weniger Frames eintauscht. :D
Ich, ich! :D
Wie gesagt, es geht ja nicht nur um die Watt sondern auch um die Fieperei diverser Karten bei sehr hohen Frameraten. Das kann einen vor allem bei alten Spielen oder wenn im Hauptmenü mal wieder eine Frameraten Begrenzung vergessen wurde gehörig auf den Keks gehen.
Ergänzung ()

Smartbomb schrieb:
Und ja, die leidige Diskussion dass man in der Leistungsklasse einer GTX 1660 Ti / GTX1070 / RTX2060 nicht mehr weniger als 8GB VRAM verbauen darf.
Pro und Contra Argumente, die sich gegenseitig die User auflösen etc. Texturen ja keine Leistung brauchen, aber den VRAM füllen und für kack frametimes sorgen können.
Können sie...wenn der Grafikspeicher zu klein ist und fleissig in den erheblich langsameren RAM ausgelagert werden muss. ;)
Wenn sie in den Grafikspeicher passen sind sie weiterstgehend Leistungsneutral.
 
Zuletzt bearbeitet von einem Moderator:
Ja, 6GB VRAM ist viel zu wenig, blablabla.. Ich kanns nicht mehr hören...
Screenshot ist von BFV in WQHD, maxed out Settings, Frameratelimit 120fps, Supersampling 100%, Future Frame Rendering ON, G-Sync ON, mit dem Rechner aus meiner Signatur.
Und die Frametimes sind einwandfrei, keine Mikroruckler etc.
Screenshot BFV WQHD
 
  • Gefällt mir
Reaktionen: Laphonso
Banned schrieb:
Wer soll die Grütze kaufen, wenn es mittlerweile brauchbare 1070er für um die 300€ gibt?

Die Frage ist nur, wie lange...

Frage ich mich auch schon die ganze Zeit. Solange es die Vega56 und die 1070 für ~300 € gibt, greift man doch dort zu, statt dieses "merkwürdige" Produkt in Erwägung zu ziehen.
 
  • Gefällt mir
Reaktionen: Sennox
N'Abend!

Hab mich eigentlich nur hier angemeldet, um hier mal meinen Senf zuzugeben. Ich hab ne ganze Weile Weile überlegt, ob ich mir ne 1070 oder 'ne 1660 Ti kaufe. Hab hier auch so ziemlich jeden Forums-Beitrag gelesen und alle Reviews im Netz, die ich dazu finden konnte.

Als Außenstehender finde ich dieses ganze gegenseitige "Fanboi"-Gebashe echt skurril. Das hilft auch der Diskussion nicht. Ich habe die letzten 15 Jahre nur AMD/ATI Sachen verbaut. Das ist jetzt meine allererste nVidia-Karte geworden. Ich bin mittlerweile gut im Berufsleben verwurzelt und brauche nicht mehr auf die Kohle achten. Ich bin bereit, für eine gewisse Qualität einen gewissen Preis zu bezahlen, erwarte dann aber auch die Qualität. Und vor allem will ich ein System, was einfach funktioniert. Ich habe keine Lust ewig an irgendwelchen Settings zu feilen. Und ich bin durchaus umweltbewußter und lautstärke-empfindlicher geworden im Laufe der Jahre (ich würde zum Beispiel kein 1000W Netzteil mehr anschaffen :D ). Und ich glaube, so geht es vielen in meiner Generation (und das sehe ich im Freundes- und Bekanntenkreis genauso bestätigt - ist aber zugegebenermaßen auch ne Art von Blase). Und genau deswegen (auch wenn das hier auf viel Unverständnis trifft) ist es bei mir zum ersten Mal eine grüne Karte geworden, weil AMD meine persönlichen Bedürfnisse da nicht anspricht. Und das wird halt irgendwie bei der Diskussion ausgeblendet. Diejenigen Leute, die sich so eine Grafikkarte holen, sind nicht unbedingt dumm, sondern die haben einfach andere Anforderungen und Erwartungen.

Ich hab lange überlegt, ob ich wegen 2GB DDR5 VRAM jetzt noch eine 3 Jahre alte Architektur kaufen soll. Hier und im Netz gabs einige wenige Stimmen dazu, dass die 1660 Ti durchaus ein paar Vorzüge hat. Schnellerer Speicher, Mesh Shader und das Gedöns, Energieeffizienz, evtl zukünftiger Leistungszuwachs durch Treiberunterstützung, 6GB VRAM evtl. doch kein Weltuntergang, ...
Die Entscheidung muss jeder für sich treffen. Ich persönlich denke, dass man mit den 6GB VRAM noch zwei, drei Jahre (evtl. mehr?) gut fährt, danach vielleicht leichte Abstriche machen muss und dann wird man sehen müssen, ob Raytracing und das Gedöns im Mainstream angekommen ist, oder eben nicht. Sollte es das aber sein, kann ich mir gut vorstellen, dass dann die ganzen alten Architekturen eh nicht performant genug sind, um immer noch alle Settings richtig hochzuschrauben und damit den Grafikspeicher auszureizen. Ich vermute, die Leistung der Karte wird der limitierende Faktor sein, nicht die Größe des VRAMs. Wie gesagt, ist nur Schauen in die Glaskugel und ich bin da wahrlich kein Experte, die Entscheidung muss jeder selber treffen. Aber die 6GB Diskussion hatten wir schon vor Jahren als die 1060 rauskam, die Karte haben auch viele Leute im Freundeskreis verbaut und die hatten bisher entgegen aller damaligen Ankündigungen bisher auch keine großen Probleme.

Ich hab jetzt jedenfalls bei der Saturn-Rabattaktion ne 1660Ti abgefasst, hatte noch nen Gutschein rumliegen und hab somit für nen Kampfpreis von 220€ (wenn man den Gutschein abzieht) nen satten Leistungsschub (vorher ne 7870) und bin mehr als zufrieden. In dem Sinne Danke an die Leute, die hier ne Lanze für die 1660Ti gebrochen haben. Ich habe jetzt ne performante Mittelklasse-Graka, mit der ich in FullHD alle Spiele, die hier so rumliegen, auf Ultra spielen kann. Ich bin happy. :D Schauen wir mal, was die kommenden Jahre so bringen.

Also habt euch lieb. :P
 
  • Gefällt mir
Reaktionen: Delirus
Zurück
Oben