Test GeForce GTX 1660 Ti im Test: Wie die GTX 1070 FE mit neuen Shadern und weniger Speicher

Botcruscher schrieb:
Weil die nun mal GPU+RAM und ganze Ref.-Karten an die Partner verscherbeln

Das hat doch mit den Preisen im Einzelhandel nichts zu tun.

Wenn die Händler sich nun entschließen die weniger populären Grafikkarten wie z.B. die AIRBOOST ziemlich günstig rauszuhauen um die Lager leer zu bekommen, dann hat AMD damit gar nichts zu tun.
 
  • Gefällt mir
Reaktionen: psychotoxic
Wüsste jetzt nicht, warum man die der Vega 56 vorziehen sollte - klar, die Effizienz ist wirklich beeindruckend, aber 1. NVidia und 2. 6Gb....nein danke ^^
 
MX04HD schrieb:
eine neue Grafikkarte mit NUR 6GB ist heutzutage wie ein Golf GTI mit nur 3 Rädern, das ist einfach Fakt!

Fakt ist immer noch, dass die nötige VRAM Menge von xen gespielten Spielen und Auflösung in der gespielt wird abhängt. Das hat nichts mit dem Jahr zu tun. Ich habe seit 3 Jahren eine 1070 mit 8GB und noch nie über 5,8GB gebraucht. Weder in FullHD noch in WQHD. Wüsste nicht warum sich das in Zukunft ändern sollte. Für WQHD brauche ich keine 4k Texturen.
 
  • Gefällt mir
Reaktionen: eLdroZe
Mit dem Treibersalat (Launchtreiber der Vega64 :confused_alt:) kann ich mir den Test nicht geben...
Wird echt Zeit für ne Erneuerung...
 
  • Gefällt mir
Reaktionen: Sennox
DocWindows schrieb:
Ich habe seit 3 Jahren eine 1070 mit 8GB und noch nie über 5,8GB gebraucht. Weder in FullHD noch in WQHD. Wüsste nicht warum sich das in Zukunft ändern sollte.

Klar, wenn du jetzt schon weißt, was du in Zukunft für Spiele spielen wirst, dann sind 6 GiB vielleicht für dich ausreichend.
Für die meisten Leute, die 300€+ für ne Grafikkarte ausgeben, ist es aber vor allem wichtig, dass auch zukünftige Spiele mit hohen Anforderungen auf ihrer Karte ordentlich laufen. Und die Anforderungen an den VRAM werden nicht sinken.
 
  • Gefällt mir
Reaktionen: Alphanerd und MX04HD
DocWindows schrieb:
Ich habe seit 3 Jahren eine 1070 mit 8GB und noch nie über 5,8GB gebraucht. Weder in FullHD noch in WQHD. Wüsste nicht warum sich das in Zukunft ändern sollte.

Genau, 6 GB reichen, also ist die ganze Aufregung umsonst.
 
DocWindows schrieb:
Ich habe seit 3 Jahren eine 1070 mit 8GB und noch nie über 5,8GB gebraucht. Weder in FullHD noch in WQHD.

Ich habe seit 2 Jahren eine GTX 1070 mit 8GB und bereits 8GB gebraucht. Schon einmal solche Games wie Cities Skylines mit Mods und allem Drum und Dran gespielt? Da sind 8GB VRAM und 16GB System RAM gar nichts.

Ansonsten sage ich ja: hätte man die Karte offen als "GTX 2050 TI 6GB" - und damit als Einstiegs- bzw. Mittelklasse - beworben und für 259€ UVP vertickt, würde sich keiner beschweren. Und dann noch ne leicht abgespeckte Version (die jetzt als GTX 1650 kommt) als "GTX 2050 4GB" für 179€ auf den Markt geworfen.
 
Web-Schecki schrieb:
Und die Anforderungen an den VRAM werden nicht sinken.

Nein, werden sie sicherlich nicht. Schon deshalb weil Spieleentwickler ihre Spiele mehr und mehr für 4k vorbereiten werden. Das ändert aber nichts daran dass meine Auflösung so bleibt wie sie ist.
Selbst wenn Spiele bald 8k unterstützen, werde ich davon mit meiner Auflösung nicht profitieren.

Darum wird es in Zukunft wichtig werden die Regler im Spiel bedienen zu lernen wenn man nicht unnötig viel Geld für Hardware ausgeben will. Und das hat nichts damit zu tun dass irgendetwas schlechter eingestellt wird, sondern damit dass es für den konkreten Rechner passend eingestellt wird.

just_fre@kin schrieb:
Schon einmal solche Games wie Cities Skylines mit Mods und allem Drum und Dran gespielt? Da sind 8GB VRAM und 16GB System RAM gar nichts.

Habe ich. Skylines ist meiner Meinung nach in erster Linie ein CPU-Killer. Dann kommt System RAM und dann VRAM. Skylines läuft auch total problemlos auf einer 4GB Karte. Die Empfehlung für die Grundversion ist 2GB.

Und dass Spiele je nach vorhandenem VRAM mal mehr und mal weniger belegen ist schon eine recht alte Erkenntnis. CB hat dazu schonmal einen(?) Artikel gemacht.
 
Zuletzt bearbeitet:
XTR³M³ schrieb:
fazit:
V56 ist schneller, lässt sich besser takten, 2GB mehr speicher, 3 spiele dazu und kostet min. 30€ taler weniger... und wegen stromverbrauch: bei 10h/woche nutzung, wären das in 3 jahren ziemlich genau die 30€, die sie günstiger ist, dabei aber immernoch schneller, 2GB mehr speicher und 3 games für 120€... fazit: ein erneutes misslungenes produkt seitens NV... zumindest für den preis, für 150€ wäre sie aber richtig.
Du hast es auf den Punkt gebracht! :daumen:
 
  • Gefällt mir
Reaktionen: XTR³M³
Man muss die derzeitige Preispolitik von Nvidia nicht verstehen. Vor allem nicht für die Performance und Ausstattung.
Ich kann da nur mit dem Kopf schütteln. Habe das Gefühl AMD marschiert gerade richtig vorwärts.
Aber gut.... Konkurrenz belebt schließlich das Geschäft :daumen:
 
DocWindows schrieb:
Fakt ist immer noch, dass die nötige VRAM Menge von xen gespielten Spielen und Auflösung in der gespielt wird abhängt. Das hat nichts mit dem Jahr zu tun. Ich habe seit 3 Jahren eine 1070 mit 8GB und noch nie über 5,8GB gebraucht.
Bei Rise of the Tomb Raider komme ich bei der FHD Auflösung mit meiner GTX 1070 schon über 7GB VRam Auslastung, aber es stimmt schon, das man eher selten und nur in ganz wenigen Games weit über 6GB kommt. Dennoch würde ich mir heute keine Grafikkarte mit weniger als mindestens 8GB Speicher kaufen!

Ansonsten:
Schaue ich mir die Ergebnisse gegen die Radeon Vega 56 an, da unterliegt die GTX 1660Ti ja deutlich, wie soll diese Grafikkarte dann schneller sein, als meine MSI GTX 1070? Die GTX 1660Ti ist eine Grafikkarte die nun wirklich keiner braucht, wer kauft eine neue Grafikkarte der neuen Turing Generation ohne die neuen RTX Features [wegen ein paar Euro weniger?], dann kaufe ich lieber eine neue Grafikkarte in Form einer AMD Vega 56 / GTX 1070 die deutlich schneller ist, die weniger kostet [derzeit Vega 56 269,00 Euro / GTX 1070 289,00 Euro] und die auch noch 8GB Speicher [VRAM] hat, als 2 GB mehr als diese völlig beschnittene und zusammengestutzte GTX 1660Ti, was GPU-Chip / RTX-Features und VRam betrifft?

Wer bitte lässt sich von dieser Schrottgrafikkarte blenden und legt für so etwas um 300,00 Euro auf den Tisch? Da nimmt man lieber das Geld, fährt in die City und wirft aus einem Haus im 3.Stock in der Innenstadt das Geld in Form von 10,00 Euro Scheinen aus dem Fenster und hat anschließend mehrere Minuten lang einen Heidenspaß, wie sich die Menschen in der Fußgängerzone um das Geld kloppen. Und diesen Heidenspaß kann man selbst über 2. bis 3. Jahre mit so einer Grafikkarte im Rechner nie haben!

Also Nvidia muss ja die Kunden / Käufer wirklich schon für besonders bescheuert halten, was man denen an Variationen von Turing Grafikkarten anbietet, selten eine solche Materialverschwendung von einem Unternehmen gesehen, das man in Produkte investiert, die noch überflüssiger sind wie ein Kropf!
 
  • Gefällt mir
Reaktionen: Benji21, Sennox und Balikon
Mustis schrieb:
Whataboutism… Was hat die Speichermenge mit der Effizienz zu tun? […]
Eine ganze Menge!
Deswegen versucht ja nVidia immer wieder höchst erfolgreich mit verringerter Speicher- und damit Leistungsaufnahme künstlich die Effizienz klein zu rechnen – bedauerlicherweise oftmals mit großem Erfolg.

Hätten die Karten die selben Speichergrößen wie die AMD-Gegenspieler, wäre der Unterschied in der Leistungsaufnahme allein aufgrund des Mehr an zu versorgenden Speichers signifikant kleiner – und damit wäre die Effizienz der nVidia-Karten ehrlicherweise geringer.

Rickmer schrieb:
Kerim262626 schrieb:
Versteh ich das jetzt richtig, das Nvidia praktisch eine 1070 mit weniger speicher raus bringt?
Von der Architektur nein, da steckt Turing hinter. …
Die Frage die sich mir dann allerdings direkt als nächstes stellt, wäre dann jedoch folgende;
Was bitte definiert Turingwenn nicht Pascal mit um RT-Funktionalität und Tensor-Cores erweitertem Featureset?
Richtig, nichts.

Demnach wäre die GTX 1660 Ti lediglich Turing, pardon! … jetzt (wieder) Pascal, weil um RT-Besonderheit und die Turing-Kerne beschnitten. Wenn aber weder Raytracing-Features noch Trensor-Cores für's simple hochkomplexe Upscaling mit anschließendem Pseuso-KI-Pixelinterpolations-Weichzeichner à la DLSS vorhanden, dann bleibt es mehr oder minder schlicht bei bloß Pascal – nur jetzt auf 12nm statt 16nm. Und genau das dürfte es auch sein.

In Summe ist diese Karte schlicht Pascal 3.0 (2.0 war der bekannte Turing-Flop, also Pascal bloß erweitert um RT & Tensor-Kerne) und die zwangsläufige Effizienzsteigerung ergab sich mehrheitlich aus dem Wechsel von 16 auf 12nm, noch positiv unterstützt durch geringere Speichergröße und damit Leistungsaufnahme. Realistisch weil nüchtern betrachtet färbt dies dann Turing 2.0 bei weitem nicht mehr so sensationell wie die Folien suggerieren wollen … Komisch.

Und da Pascal schon Maxwellv2 war, macht das „Turing Light“ im Grunde zu Maxwellv4, pardon, Pascal 2.0 3.0
Oder habe ich jetzt was vergessen? Neuauflage um Neuauflage. Blickt keiner mehr durch bei dem Nepp.

tl;dr: Orwell hatte schon ganz Recht mit seinem „Zeitalter des universellen Betruges“


In diesem Sinne

Smartcom
 
  • Gefällt mir
Reaktionen: LDNV, Benji21, Sennox und eine weitere Person
DocWindows schrieb:
Und dass Spiele je nach vorhandenem VRAM mal mehr und mal weniger belegen ist schon eine recht alte Erkenntnis. CB hat dazu schonmal einen(?) Artikel gemacht.

Genau, CB hat 6 vs. 8 GB gestestet, mit dem Ergebnis das 6GB nicht in jedem Spiel reichen.
Aber klar kann man alle Regler so weit nach links drehen das ein Spiel läuft, aber sieht es dann noch gut aus?
 
  • Gefällt mir
Reaktionen: Benji21 und Rockstar85
DrFreaK666 schrieb:
Auch in 1440p sehen 4k-Texturen besser aus als "normale" ;)

Deswegen "braucht" man sie trotzdem nicht. Wer das will muss sich halt im klaren sein das er mehr ausgeben muss. ^^

Ich weiß ja nicht.. Ich lese hier immer 6GB sind viel zu wenig usw...

Also ich frage mich wie ich vor der 1070 klar gekommen bin.. Da hatte ich glaub max 2GB... Hat für den Einsatzzweck gereicht, häää?

Einsatzzweck, das ist hier das Schlagwort. ;)

Und wer natürlich alles in 4k und ultra haben muss der muss halt auch 2, 3 oder 4k für seinen Rechner hinlegen. Es ist nunmal so.

Heulen weil zu teuer bringt nichts, dann musst du halt mit schlechterer Grafik leben und fertig.
 
Wo kommen denn die 269€ für die Vega56 her?

Wenn ich mal idealo bemühe, fangen die Preise da bei 319 an, und das sind auch alles nur irgendwelche ebay Angebote. Ein vernünftiges custom Modell gibt's erst bei 350€ aufwärts.
 
Hallo zusammen,

@ DocWindows

DocWindows schrieb:
Ich habe seit 3 Jahren eine 1070 mit 8GB und noch nie über 5,8GB gebraucht. Weder in FullHD noch in WQHD.

Ich habe noch eine bessere Pointe. Bis März vorigen Jahres war ich seit 2010 mit einer Sapphire Radeon 5850 Xtreme unterwegs und die hatte gerade einmal 1 Gbyte Vram. Und stell dir vor, für Full HD war dies kein Problem. Konnte sogar Crysis 2 u. 3 auf "High" Absolvieren.

Immer wieder amüsant, wie hier der ein oder andere unter Full HD weniger als 8 Gbyte VRam regelrecht als eines eigens zu setzenden Grabstein Proklamiert. Ganz zu Schweigen von Artikeln der ein oder anderen Journalie oder Webseite, die gleich dann behaupten, darunter ginge gar nichts mehr, na ja, mehr oder weniger.

@ cookie_dent

cookie_dent schrieb:
Aber klar kann man alle Regler so weit nach links drehen das ein Spiel läuft, aber sieht es dann noch gut aus?

Klar kann man einen Regler einfach mal einen Tick nach Links umlegen, sieht dann auch gleich ein Spiel wirklich schlecht aus? Wohl kaum. Im besonderen nicht, wenn man mal schaut, welche Unterschiede damit einher gehen in den meisten Spielen. Bei manchen sind es die Wolken sogar lediglich. Völlig lächerlich.

So long...
 
  • Gefällt mir
Reaktionen: GRiNGO73 und franzerich
War aber auch abzusehen, dass sie nen ticken schlechter wird als die RTX 2060.. Es wird auch keine GTX 1770 oder 1880 geben, da man die RTX Produkte - die so wieso schon sehr schlecht da stehen - nicht noch weiter unter Druck setzen möchte..
Turing bzw. Raytracing ist für mich persönlich der Flopp des Jahres.. es wird einfach viel zu wenig Spiele geben, die das unterstützen..

Wer mit gebrauchter Hardware kein Problem hat, sollte sich wohl lieber eine dann günstigere GTX 1070 / Vega 56 oder ggf. gleich eine GTX 1080 holen, die teilweise auch schon für 350€ weg gehen..
 
Ich kann das Argument mit den 8gb auch nicht verstehen warum das dann eine schlechte Karte sein soll, die man nicht kaufen soll oder will.
Wenn man nicht genug für eine bessere Karte ausgeben will oder kann, muß man sich eine kaufen die 6gb oder weniger hat.
Das ist bei allen Sachen so die man kauft (cpu 4 kerne zu wenig, Ram 8 gb zuwenig und und und).
 
Zurück
Oben