Test GeForce GTX 1660 Ti im Test: Wie die GTX 1070 FE mit neuen Shadern und weniger Speicher

Xhausted schrieb:
250€ für eine 6GB Karte ist einfach mal Totschlagkriterium für mich. Geht leider gar nicht.

Wie so? Weil du vielleicht mal 2-3 spiele hast wo du die texturen etwas zurück nehmen musst und es dir im spiel wohl gar nicht mal auffällt?

Einige tuen immer gleich so als man nicht mehr spielen könnte, oder meinen die das sogar ernsthaft?

Aber immer rund 100watt (temperatur, lautstärke, kühler, netzteil etc.!!!) mehr verbrauchen OHNE einen gegenwert ist ok, sachen gibts die muss man nicht verstehen.
 
  • Gefällt mir
Reaktionen: kisser
Eine Grafikkarte kauft man ja nicht nur für die Spiele, die man hat, sondern auch für die, die noch erscheinen werden.
Werden Entwickler von Nvidia unterstützt, damit Spiele weniger VRAM verbrauchen, oder wieso denkst du dass zukünftige Spiele nicht mehr RAM benötigen als heute?
 
  • Gefällt mir
Reaktionen: Herr Melone, Sun-Berg, Jake Grafton und 2 andere
Also ich lehne mich zurück und lehne auch gegebenenfalls die Grafikbalken einfach nach Links wenn nötig, die gesamte Turing Reihe finde ich persönlich einfach schlecht und preislich extrem unattraktiv.
Mit Vega 64, GTX 1080 (Ti) ist man momentan dermaßen gut bedient, dass man warten kann bis bei Nvidia die Lager überlaufen und der Kram dann zu normalen Preisen aufn Markt kommt.

~120€ Aufschlag für n anständiges 2080er Modell zur 1080 und die Ti Preise einfach ......
Dann eine 1660 Ti für sage und schreibe 300€, 2013 gabs für die Asche richtig kranke Biester für damalige Verhältnisse in Form von AMD 7950 und co.
Oder 560 Ti 448c - war wohl auch eine tolle GPU wo Battlefield 3 noch aktuell war.

Jetzt bekommt man ja kaum was fürs Geld geboten, die Pascal Karten waren Top und hatten ordentlich was unter der Haube im Vergleich zu den Vorgängern - jetzt guckt man sich diese Karten an, die stellenweise von den Vorgängern verramscht werden und so viel Kohle kosten, das ist einfach nicht gut.

Dann spare ich mal Knete zusammen für die nächste GPU Generation und hol mir dort dann ein Flagschiff, sofern lohnenswert. Gibt sowieso keine Spiele die mich jetzt dazu drängen eine neue Karte mit mehr Leistung zu kaufen - bis auf Metro sind alle Grafikbomber eh gefloppt.

Wenn ich mir vorstelle ich kaufe jetzt ne 2080 und in der nächsten GPU Generation ist dann mit höchster Wahrscheinlichkeit 16GB direkt Standard - ja dann tut es mal richtig weh, wenn die Games dann auch den ganzen Speicher voll klatschen.
Besser noch eine deutlich erhöhte Raytracing Leistung und das betrachte ich schon wie eine zweite Grafikkarte in der Grafikkarte, die unterhalb der Ti jetzt schon viel zu stark schwächelt.

Lohnt einfach vorne und hinten nicht, dann kommen wieder die ersten Frühstarter Games ala Call of Duty die für matschige Texturen 8GB Speicher fressen und für nicht so ganz matschige Texturen 12-16 ... erinnert mich sofort an Ghosts, Advanced Warfare usw.
Oder Rainbow Six Siege, jeder der ne GTX 970 hatte und UHD Texturepack nutzen wollte war sofort angeschmiert, obwohl die Karten grad so nen Jahr aufm Markt und aktuellste Hardware waren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zitterrochen, iceshield, Minutourus und eine weitere Person
Sun-Berg schrieb:
Es geht doch gar nicht darum ob heute 6GB VRAM reichen.* Es geht darum ob sie morgen reichen
Und ich spiel seit 9 Jahren mit einer HD 4570m und 512MB

Von LoL über FFXIV bis zu SC2 laufen meine Spiele alle einwandfrei
 
  • Gefällt mir
Reaktionen: Smartcom5
1550886202322.png

Wie lieblos ist das denn bitte!?
Um welche Version handelt es sich denn nu bei der 590? Muss ich diesen einen Eintrag echt selber recherchieren? War es nicht möglich noch gerade diesen einen Eintrag mit anzugeben?
Nutzen Radeon VII und Vega 64 den Launch Treiber der Radeon VII oder wie soll ich diese Zelle deuten?

Wieso überhaupt diese ganzen verschiedenen Treiberversionen?
~ Bin gerade erst am Anfang der Benches, evtl. kommt ja noch 'ne Erklärung aber wenn ich das jetzt nicht loswerde vergesse ich's gleich wieder :D~

Darüber hinaus liest sich die Einleitung sowas von schmalzig...
Zwei mal wird erklärt warum die Karte nicht RTX heißt und ebenfalls zwei mal wie toll doch Chipfläche eingespart wurde und trotzdem Leistung dabei rumkommt...
Ich gehe jetzt zu den "Benchbalken" über aber ich rieche Bias...

@DrFreaK666
Hat man also einfach ältere Werte genommen und die entsprechenden Versionen gelistet... Ja das kann ich nachvollziehen, ergibt Sinn.


Dai6oro schrieb:
Völlig unmöglich da 2x 8Pin Anschlüsse und der Verbrauch ist auch noch mit UV jenseits von gut und böse für meinen Fall. Von der Laustärke möchte ich dann auch gar nicht mehr reden.
Power Color V 56 Red Dragon: 1x 6-Pin & 1x 8-Pin
2 BIOS, einmal max. 165W und einmal max. 185W, alles darüber hinaus schaltet man selbst im Wattman frei.
Dabei ist die Gute sehr leise und dreht nur selten die Lüfter über 1.000 U/Min und selbst dann finde ich sie nicht störend (angehme Laufgeräusche)
Vielleicht immernoch nicht die perfekte Karte für dich aber bitte nicht immer diesen Unsinn verbreiten dass man für die Vegas quasi ein eigenes Kraftwerk bräuchte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu
Karten jedes mal mit den neuesten Treibern zu testen kostet einfach Zeit. Das wird der Hauptgrund sein. Und neue Treiberversionen bringen ja selten massive Performance-Steigerungen
 
  • Gefällt mir
Reaktionen: Web-Schecki
Dural schrieb:
Wie so? Weil du vielleicht mal 2-3 spiele hast wo du die texturen etwas zurück nehmen musst und es dir im spiel wohl gar nicht mal auffällt?

Einige tuen immer gleich so als man nicht mehr spielen könnte, oder meinen die das sogar ernsthaft?

Aber immer rund 100watt (temperatur, lautstärke, kühler, netzteil etc.!!!) mehr verbrauchen OHNE einen gegenwert ist ok, sachen gibts die muss man nicht verstehen.
🙈
Weil es auch um die Zukunft geht! Da wird es deutlich mehr spiele von geben die mehr als 6 brauchen.
 
Man sollte wirklich mehr darauf hinweisen, dass die Effizienu durch den wenigen VRAM erkauft wird. Meiner Meinung nach wird das zu wenig betont. Effizienz wird übermäßig positiv bewertet gegenüber dem VRAM. VRam frisst aber eben viel Strom
 
  • Gefällt mir
Reaktionen: Smartcom5
Plastikman schrieb:
Man sollte wirklich mehr darauf hinweisen, dass die Effizienu durch den wenigen VRAM erkauft wird.
Wie kann es sein, dass 2GB mehr RAM in der Spitze zu über 80 Watt Mehrverbrauch führen können? Der RAM müsste ja verglühen.

Eine schlechte Effizienz beruht auf einem Chipdesign, das die Leistung nicht voll umsetzen kann, aber den Strom benötigt, den die Fläche zieht.
AMD und Nvidia haben so ziemlich die gleiche Anzahl an Transistoren im Chip, AMD hat sogar oft mehr, aber der Nvidia Chip bringt mehr zählbare Leistung im Spiel.

Die These kann widerlegt werden, wenn AMD nur 6GB RAM, idealerweise den selben GDDR6 verbaut und dann die selbe Effizienz wie Nvidia zeigt. Aber glaubt daran wirklich jemand?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu
DeadEternity schrieb:
. Die 269€ Vega 56 ist Radialblower Schrott,... , wer hängt sich so nen Staubsauger freiwillig ins Gehäuse?
Hier... :) mit UV absolut erträglich
Palmdale schrieb:
Welcher Deal war denn das? Oo. Hatte bisher nur die Vega 56 Sapphire Pulse für 308€ am 20.2 und für 303 im Januar die Gigabyte. Die MSI Air für 268€ am 12.2 und 16.2., doch die würd ich nie in meinen Rechner packen

[Siehe Update bei PCGH] :)


KlaraElfer schrieb:
Das hat gar nichts damit zu tun. Verdoppelung des Speichers bei gleichem Interface kostet nur innerhalb der Messungenauigkeit mehr Strom und erhöht den Verwaltungsaufwand der GPU.
Per se kostet mehr V-ram aber nichts. Heißt, die 1660 Ti könnte auch 12GB haben und der Verbrauch bliebe identisch.

Quelle? :)
 
  • Gefällt mir
Reaktionen: Unnu, Sennox, Smartcom5 und eine weitere Person
eax1990 schrieb:
Also ich lehne mich zurück und lehne auch gegebenenfalls die Grafikbalken einfach nach Links wenn nötig, die gesamte Turing Reihe finde ich persönlich einfach schlecht und preislich extrem unattraktiv.
Mit Vega 64, GTX 1080 (Ti) ist man momentan dermaßen gut bedient, dass man warten kann bis bei Nvidia die Lager überlaufen und der Kram dann zu normalen Preisen aufn Markt kommt.

Und welche soll man dann kaufen? Die haben alle zu wenig Speicher. Einzig die 2080Ti ist einigermaßen ok, aber für die Leistung hat sie auch zu wenig Speicher. Und bei dem Preis kann viel passieren, der wird nicht in normalen Regionen ankommen.
Ergänzung ()

Dural schrieb:
Wie so? Weil du vielleicht mal 2-3 spiele hast wo du die texturen etwas zurück nehmen musst und es dir im spiel wohl gar nicht mal auffällt?

Einige tuen immer gleich so als man nicht mehr spielen könnte, oder meinen die das sogar ernsthaft?

Aber immer rund 100watt (temperatur, lautstärke, kühler, netzteil etc.!!!) mehr verbrauchen OHNE einen gegenwert ist ok, sachen gibts die muss man nicht verstehen.
Weil ich nicht immer erst bei jedem Spiel die Framerates analysieren will und dann zig Einstellungen versuchen will die das dann verbessern und nur wenig schlechter aussehen? Weil ich etwas Zukunftssicherheit haben will bei einer neuen Generation für gerade das Geld?
Deinen letzten Satz verstehe ich nicht. Ein paar mehr GB verbrauchen 100 Watt mehr? LOL
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Deine "Analogie" ist nichts anderes als eine Ausrede denn die volle Bandbreite war zwar physisch vorhanden, wurde aber nicht entsprechend angebunden.

Es geht icht um das konkrete technische Problem sondern um den Effekt. Versteh das bitte endlich.
Hast du mittlerweile eine Lösung für das Problem gefunden 8GB problemlos an 192 Bit anzubinden ohne zu bremsen, oder nicht?

Mal angenommen es ginge und ich würde 4 Speicherchips an 4 Controller und nochmal 4 an die restlichen 2 Controller anbinden, dann hätte ich 8GB an 192 Bit. 4 GB schnell 4GB langsam. -> Analogie zur GTX 970

DrFreaK666 schrieb:
4k statt 2k kostet aber auch einiges an Performance, höher aufgelöste Texturen nicht ;)
Der Begriff sagt mir tatsächlich nichts.

Wenn man für immer höheren Aufwand immer weniger Gegenwert erhält spricht man von diminishing returns. Und die hat man Texturen die man immer höher dreht zunehmend. Bis es egal ist ob man auf maximaler Stufe oder einer darunter spielt.
Wenn noch höher aufgelöste Texturen nichts mehr bringen, brauch ich sie auch nicht einstellen.
Ich kann in einer hypothetischen Zukunft, wo 8k Gaming verbreitet ist, zwar in FullHD die für 8k vorbereiteten Texturen laden, habe aber nichts davon. Ich muss aber trotzdem 16GB oder sogar 24GB Speicher auf der Karte haben (und bezahlen).
 
Zuletzt bearbeitet:
Ich weiß gar nicht was das Rumgeheule wegen den 6 GB soll....Die Karte ist doch eindeutig ein "Full HD" Angebot von Nvidia ! Und dafür sind die 6 GB doch absolut angemessen.

Die Leistung im hier und jetzt ist hervorragend fürs Geld ! ( ausgehend von den generell absurd hohen Graka Preisen ).

Bis Games in Full HD wirklich merkbar, und mehrheitlich mehr als 6 GB belegen ist das Teil eh zu langsam.

Beeindruckend ist die Effizienz, und die Performance pro Watt ! Was das Thema angeht wischt Nvidia mit AMD den Boden auf.
Wenn Nvidia auf 7nm geht, kann AMD den Laden dicht machen.
 
  • Gefällt mir
Reaktionen: Organix
Sind sie nicht. 8 GB waren schon 2016 standard auf der 1070, welche auch eine 1080p Karte ist. Und die bekam man damals auch schon voll. Heute erst recht, und man braucht sogar mehr.
 
  • Gefällt mir
Reaktionen: Minutourus, Smartcom5 und Web-Schecki
Danke für den Test!

Effizienz ist beeindruckend, aber das:
Test-Fazit schrieb:
Die GeForce GTX 1660 Ti basiert auf Turing, Raytracing- und Tensor-Kerne gibt es aber nicht. Deutlich günstiger als die GeForce RTX 2060 ist der Sonderling trotzdem nicht, obwohl Nvidia beide Funktionen bei den großen RTX-Modellen immer als Argument für die gestiegenen Preise genannt hatte.

... war ja fast klar. Im Midrange-Bereich geht echt nichts weiter. Weder von AMD, noch von nVidia. P/L-Verhältnis UND gute Performance/Watt gibts eigentlich kaum. Muss man schon selbst Hand anlegen. Sehr schade.
 
1550907481288.png

Wieso werden nicht die Karten mit dem gleichen Treiber getestet?
Oder wenigstens jeden 2. WHQL nachgetestet, damit kann man Treiber Optimierungen und auch in den NDA/PreLaunch-Treibern eingebaute Schummel-Software nachweisen (wird nicht nur bei Diesel gemacht).
  1. Vega VII/64/RX590: Launch-Treiber sollten nachgetestet werden mindestens mit den WHQL Treiber
  2. RX Vega 56: Adrenalin 18.9.3 keine offizielle Unterstützung für Win10 Ver.1809 = mind. 18.10.1 WHQL!!
  3. RTX 2080(Ti) Geforce 411.51 kein offizieller Treiber (NDA-Treiber)!
  4. RTX 2070 Geforce 416.33 nicht bei unterstützten Produkten
  5. RTX 2060 Geforce 417.54 nicht bei unterstützten Produkten
  6. GTX 1660 Ti Geforce 418.91 nicht bei unterstützten Produkten
Wenn ich mit das so ansehe verlieren alle Tests bei CB an Glaubwürdigkeit oder wie würde man sagen:
Vertraue keiner Statistik (oder Test) den du nicht selbst optimiert hast!
 
  • Gefällt mir
Reaktionen: Sennox
@FormatC ... ich finde es immer wieder super, das du dich hier zu Wort meldest.
Und lese deine Artikel grundsätzlich gern.

Wobei man "neutral" im Zuge der unterschriebenen NDA von nVidia natürlich nicht wirklich glauben kann.

nVidia hat es, wie schon geschrieben, wirklich geschafft, die gleiche Leistung wie vor Jahren, um mindestens 2 GB Speicher zu kastrieren.

Da darf im Grunde ein Fazit dann auch nicht mehr neutral sein.
Die Leistung der Karte ist in Ordnung.

Man holt sich nur mal die Fury Karten in den Sinn, wie AMD da im Fazit zerissen wurde wegen wenig VRAM.

Nun hatte nVidia schon alles ...
mehr VRAM, weniger VRAM, teils langsamen VRAM ..
Und nun bringt man einen weiteren Rohrkrepierer, der in den nächsten Jahren einen Neukauf erzwingt.

Da ist diese Neutralität eben eher dem NDA geschuldet. Tief im Inneren kann man die Karte, gerade als Spezialist wie du, keinesfalls gut heißen.

Aber hier sieht man wieder ... flächenübergreifend wie das NDA wirkt.
Keine negative Headline erlaubt, dagegen alle OEMs auf den Sozi Plattformen dazu gegängelt möglichst viel PR für die Karten zu schalten.
Ich erinnere gern nochmal an die Headline der Radeon VII "Zu laut, zu langsam ..."

Es werden glücklicherweise immer mehr Leute, die nVidia gegenüber Skeptisch sind. Man sollte einfach die Augen öffnen. Gerade nach der nVidia NDA gilt "traue keinem Benchmark, den du nicht selbst gefälscht hast".

Ähnlich bei Intel ....
Wieso traut sich keine renommierte Seite einen Test Artikel zu bringen, der die Leistung, NACH Aktivierung aller Sicherheitslücken-Patches, zeigt? Gerade hier, sind schon die Beziehungen zu den Großen deutlich wahrnehmbar.

Natürlich nur, wenn man auch vorher mal kritisch hinterfragt, anstatt wie ein Lemming der Masse hinterher zu rennen.
 
  • Gefällt mir
Reaktionen: LDNV, Unnu, Herr Melone und 5 andere
Exar_Kun schrieb:
Etwas zu teuer für das Gebotene und leider mit Gsync... sonst wäre die Karte interessant. So aber interessiert mich eher die Vega 56.
Du hast aber mitbekommen, dass Nvidia mittlerweile auch AdaptiveSync unterstützt und damit auch mit FreeSync-Monitoren ein variable Refresh-Rate möglich ist?
 
  • Gefällt mir
Reaktionen: Sennox
@Inxession Genau alle blind und geknebelt. Außer den wenigen erleuchteten wie dir. Das die andere meinung fundiert ist, kann gar nicht sein...
 
Hd5m schrieb:
Und ich spiel seit 9 Jahren mit einer HD 4570m und 512MB

Von LoL über FFXIV bis zu SC2 laufen meine Spiele alle einwandfrei

Ich spiele auch manchmal Tetris auf meinem Gameboy von 1990.

Das ist aber nicht der Punkt. 8 GB bzw. 11 GB wurden bei Nvidia nach etwa zwei Jahren Standard einfach eine Preisklasse nach open verfrachtet. Man bekommt heute die selbe Performance mit weniger Vram zum selben Preis. (ungefähr) Des Weiteren darf man wohl davon ausgehen, dass die Anforderungen an VRAM raufgehen werden, nicht runter. Auch unter 1080p.

Man kann sich das nicht schönreden. Müsste ich jetze auf Budget upgraden, würde ich schnell kucken noch eine 1070 für nen guten Preis zu bekommen. Oder einfach Vega 56.
 
  • Gefällt mir
Reaktionen: Unnu und Sennox
Zurück
Oben