Test GeForce GTX 1660 Super im Test: Wie eine GeForce GTX 1660 Ti, nur günstiger

Begu schrieb:
Hier wird auch wieder subtil das Preisniveau weiter nach oben getrieben. Die Karte ist wieder soviel teurer wie sie schneller ist im Vergleich zur 1660. Das gleiche Spiel wird dann demnächst bei der 1650 Super wiederholt, die wird wohl ~10 % hinter der 1660 liegen und mit den 4 Gb schätzungsweise 180 € kosten.

Der Einstiegspreis geht dann mit großen Schritten auf die 200 € Marke zu
 
  • Gefällt mir
Reaktionen: lolololol
ovi schrieb:
Die Karte dürfte für viele FullHD-Spieler absolut ausreichend sein, zumal sie eben auch bezahlbar ist und aufgrund des geringen Stromverbrauchs in nahezu jedem paar Jahre alten Komplettsystem mit Gammel-Netzteil zu betreiben ist.

Schade nur, dass nVidia nicht einfach über den ollen Schatten springen kann und in dem Bereich +2GB verbaut oder es so macht wie AMD mit 4/8GB bei Polaris. Eine 1660 mit 8 GB wäre, wie eben auch eine 1660 Ti mit 8GB, der perfekte Nachfolger für die 1070, also eben ehemals Oberklasse-Leistung zum Mittelklasse-Preis, ohne Kompromisse.

Manchmal fragt man sich echt, wieso die so entscheiden. Potenzielle Käufer würden m.E. viel eher zuschlagen und damit im Zweifel auch häufiger die GPU tauschen, wenn es nicht immer diese offensichtlichen Haken gäbe. Stattdessen versucht man, die Käufer mit mehr Speicher zu deutlich teureren Produkten zu locken, die von der Leistung her gar nicht unbedingt benötigt würden. Es scheint ja oft genug zu funktionieren und so sehr leidet das Image darunter wohl auch nicht, wenn man sich die Marktanteile anguckt.

Ich denke die meisten Käufer wird der geringe VRAM nicht interessieren. Das Produkt ist neu, von Nvidia und hat einen langen Benchmark Balken. Das reicht.

Taktisch macht Nvidia hier alles richtig. Sie sparen etwas kosten und noch viel wichtiger die Kunden kaufen in 2-3 Jahren etwas neues, weil der Speicher ausgeht. Quasi geplante Obsoleszenz.


Was den Stromverbrauch und dessen Kosten angeht: Gegenüber einer Vega 56 spart man bei einem Strompreis von 25 cent und 2 Stunden zocken pro Tag etwa 20 Euro im Jahr. Für Gelegenheitsspieler ist es nur ein Bruchteil.
 
Bei NVIDIA läufts die letzten 3 Jahre wie bei Intel die letzen 7, immer und immer wieder ähnliche Aufgüsse. Und von der Performance ( ausgenommen der 2080ti ) nichts was es nicht schon vor 3 Jahren gab.
 
  • Gefällt mir
Reaktionen: lolololol
Da ist meine über 3 Jahre alte 1070 immer noch das bessere Paket. Die so gut wie bei jedem neuen Game bei WQHD@Hoch noch genug FPS liefert. Erst wenn die neuen Konsolen draußen sind dann wir diese auch ausgemustert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grimey und Sennox
Das zeigt doch eigentlich nur das man Ruhe bewahren muss, und nicht direkt nach einem Launch das kauft was angeboten wird. Die 1650 bzw. 1660 wurden im März/April 2019 eingeführt. Wer da nicht unbedingt eine Karte gebraucht hätte würde nun für vergleichbares Geld die bessere Karte erhalten.
 
Vanilla2001 schrieb:
Bei NVIDIA läufts die letzten 3 Jahre wie bei Intel die letzen 7, immer und immer wieder ähnliche Aufgüsse. Und von der Performance ( ausgenommen der 2080ti ) nichts was es nicht schon vor 3 Jahren gab.

Exakt ... und irgendwann kommt der Konter, mit dem niemand (Intel) gerechnet hat (Zen).

Und exakt wie bei Intel, rennen die Leute auch jetzt nVidia hinterher, als gäbe es keine Alternative.
 
  • Gefällt mir
Reaktionen: lolololol, Grimey und pilzsammler2002
@Inxession
RDNA ist eigentlich schon ein guter Konkter von AMD wenn man es realisitsich betrachtet :), daher kann man anhand dessen Perforamnce gut nachvollziehen wo die reise hingehen wird.
 
  • Gefällt mir
Reaktionen: Sennox und Inxession
Die Leistung (fast) einer 1070 (die 2GB+ RAM) mal nebenbei.... für ein sehr gutes PLV. Wenn ich daran denke was mich die 1070 Gaming X gekostet hat... 500.
 
Jo, in BF5 passt der Vgl. ganz gut:
 

Anhänge

  • 0_1660s_BF5.PNG
    0_1660s_BF5.PNG
    57,7 KB · Aufrufe: 2.300
  • COD-MW@Customs.PNG
    COD-MW@Customs.PNG
    78,6 KB · Aufrufe: 2.276
Pisaro schrieb:
Aufholjagd von AMD im GPU Bereich? Habe ich was verpasst?
Vielleicht.
Nennt sich Navi (5700 und 5700XT), die Customs von Sapphire und PowerColor sind wirklich sehr gut und AMD kann ganz gut im Bereich um die 2070(S) wildern.
 
1080p gibt's seit ~10 Jahren? Da kann man nicht viel verbessern bzw nur Aufgüsse erwarten in Jahre 2019. Da soll man mehr erwarten bezüglich Stromverbrauch.

Eine GraKa hat die Leistung eines 1660ti ohne separaten Stromstecker hätte ich erwartet für high/ultra 1080p im Jahre 2019-2020.
 
Precide schrieb:
Wann entsorgt AMD endlich mal ihre ineffiziente Einstiegsklasse? Wirklich peinlich, dass man da nur diese furchtbare RX590 zur Auswahl hat. Wie alt ist das Design mittlerweile, 4 Jahre?

Ähm naja wie alt sind die Designs von Intel und Nvidia, also hier ist keiner besser als der andere.
 
Screenshot_2019-10-30 Outer Worlds Benchmark Test Performance Analysis.png


Ich poste das zurzeit mit abstand beliebteste und aktuellste Spiel !
https://www.techpowerup.com/review/the-outer-worlds-benchmark-test-performance-analysis/4.html

Die karte ist langsamer als die vier jahre alte GTX1070
Stromverbrauch ist quasi gleich und 2 GB Vram weniger, verstehe den sinn solcher Karten nicht ?

Wenn die karte deutlich effizienter wäre, sagen wir mal 50-70W, dann könnte ich es noch halbwegs nachvollziehen. Das ist aber nicht der Fall.

GTX1070 war bzw. ist die bessere GPU trotz des sehr hohen alters.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lolololol
sialickiz schrieb:
Puh, Unreal Engine mal wieder^^ Diese Engine scheint ziemlich vielseitig zu sein, was GPU Bevorzugung angeht, manche Entwickler bekommen damit ja Spiele hin, in denen AMD und Nvidia sich so zueinander verhalten, wie es der Schnitt zeigt, es gab doch letztens sogar einen Titel mit UE4 wo AMD sogar leicht besser war.
In den meisten Fällen ist sie aber eben sehr stark auf Nvidia optimiert, was ja auch offiziell so gesagt wird.
Aber dieses Ergebnis da ist tatsächlich eines der schlechtesten, die ich je mit dieser Engine für AMD gesehen habe^^

Aber auch Turing kommt ziemlich schlecht weg, ist doch die 1660Ti idR an der 1070 dran. Sieht mir also eher nach allgemeinem Optimierungsbedarf aus.
 
Screenshot_2019-10-30 Draugen тест GPU CPU RPG Ролевые Тест GPU.png


Taxxor@
In Draugen das vor kurzem erschienen ist war GTX1070Ti auch schneller als die VII und das ist FULLHD, extremer hardwarefresser ! In Ace Combat 7 und vielen weiteren titeln wie BlairWitch usw. usw. sah es ähnlich aus.
Outer Worlds ist da kein einzelfall.

Es gibt aber auch non-aaa (UE4) wo AMD ganz "anständig" performed ! Das ist aber eher selten der Fall.
Wenn man viele Spiele die auf der Engine basieren zockt, sollte man generell einen riesenbogen um AMD machen, insbesondere GCN hat hier massive schwierigkeiten.
Das sollte sich aber langsam rumgesprochen haben.

Es sieht aber nicht immer so düster aus für AMD. In Ancestors und Code Vein waren die unterschiede eher "gering"

Das sind die neuesten zwei UE4-titel (Non-AAA)

Screenshot_2019-10-30 Ancestors The Humankind Odyssey тест GPU CPU RPG Ролевые Тест GPU.png

Screenshot_2019-10-30 Code Vein тест GPU CPU RPG Ролевые Тест GPU.png


Die engine kommt nunmal in jedem zweiten Spiel zum einsatz und das wird sich in den nächsten jahren auch nicht ändern, ganz im gegenteil. Das ist extrem schade für AMD aber das ist hier nicht das Thema

Es geht hier um GTX1660S und die frage ob die karte eine daseinsberchtigung hat ? Ich finde nein, wie seht ihr das ?

Die uralte GTX1070 machte doch alles besser und war in den letzten Monaten oftmals günstiger.
 
Zuletzt bearbeitet:
Dann mach doch bitte einen Thread für veraltete Engines auf.
Andere unoptimierte Bsp. mit DX11.0 o.ä. kannste auch gleich dort reinpacken.
Ich habe ein bisschen den Eindruck, das Du immer die Anderen schlecht machen möchtest mit grottigen Indie-Games. Gibts die Keys in Polen kostenlos?
Wennschon, dann AAA-Titel mit otimierten Engines, damit man sieht Was auf die 1660s+ti so zukommt.(+1070)

Und mit UE4 dann doch bitte ein modernes Gears5 und mit Vulkan halt Youngblood!

btw.
Call of Duty: Modern Warfare - Mehr als 600 Millionen US-Dollar Einnahmen in drei Tagen
und ab Morgen:
[UPDATE Gameplay] Battlefield V – Pazifikkrieg – Offizieller Trailer & Gameplay by Jackfrags
die Benchmarks siehe oben in Post#129
 

Anhänge

  • Gears5.png
    Gears5.png
    68,3 KB · Aufrufe: 2.227
  • WYB.PNG
    WYB.PNG
    107,4 KB · Aufrufe: 2.234
Zuletzt bearbeitet:
ich weiß ja nicht wie verrückt man sein kann und sich eine super super super 1660er ab 230 euro zu kaufen wenn es eine vega 56 für billiger gibt, die aber über 15% schneller ist.

oder vergleicht man mal die customs... Gigabyte 1660 super gaming OC 6gb kostet 269 euro, eine asus strix vega 56 8gb kostet das gleiche.... hmmmmm schwere entscheidung! .... NOT.
 
Wird Zeit dass AMD mal die RX 5500 aus dem Sack lässt. Ein Kumpel frägt aktuell nach einer Ablösekarte für seine RX 470 8GB die immer mal wieder mittem im Spiel abschmiert und leider keine Garantie mehr hat.

Ich sehe es weder ein, da wieder eine uralte Polariskarte reinzupacken, noch einen Rückschritt auf nur 6GB VRAM anzunehmen. Zeigt leider auch wunderbar wie sich in den letzten drei Jahren in der Mittelklasse kaum etwas nach vorne bewegt hat.
 
  • Gefällt mir
Reaktionen: Sennox
rx480 aka GerryB @
Was ist den mit dir wieder los ? Komm mal runter, sehr ungesund.
Warum startest du einen Flamewar und suchst wieder nach streit bzw. ärger ?

Na gut, wenn du Input suchst, dann halte ich dich mal auf dem laufenden.
Im neuen Grid und in Ghost Recon Breakpoint das selbe (siehe unten).
GTX1080 vor der VII

Eine vier alte GTX1080 (mid-range) darf einfach nicht vor der neuesten "high-end" karte aus dem hause AMD landen oder siehst du das anders ? Ein bisschen mehr bezug zur Realität würde nicht schaden.

Was schrott ist oder nicht hast du nicht zu entscheiden mein lieber.
Unoptimierter schrott ist für dich alles was auf NVIDIA besser läuft, hmmm ? :freak: Das wird langsam öde mit dir, ständig versuchst du dir alles krampfthaft zurechtzubeigen. Was bringt dir das ?

Ok, aber ich versuche mich deinem Niveau anzupassen und werde zum thema "schrott" was beitragen :
BF5 und Wolfenstein 2 - Youngblood gehören zu den mit abstand schlechtesten shootern der vergangenen jahre, zumindest im SP !
Die user-bewertungen auf Metacritic und co. sagen eigentlich alles, soviel zum thema schrott.

Es spielt überhaupt keine Rolle welche engine oder Api ein Spiel nutzt, wichtig ist das ein Spiel spass bereitet und interessant bzw. gut ist (zb. Outer Worlds & Code Vein ;))

In den meisten Spielen läuft DX11 zudem deutlich runder als DX12, wie erklärst du dir das ?
Veraltet :lol: ? Das ist nicht DX7.0 !

DX12 ist auf dem besten wege DX10 abzulösen als schlechteste API ever.
Bitte schau dir erstmal ein paar Benchmarks an und recherchiere bzw. informiere dich erstmal ein bisschen. Danke

Ich wiederhole es nochmal extra für dich, meistens deutlich schlechter als DX11 (Frameraten, Frametimes etc.)

--------------------------------------------------------


GRID (DX12)


Screenshot_2019-10-30 Grid 2019 im Techniktest mit Benchmarks Warum Direct X 12 Pflicht ist, g...png


Ghost Recon Breakpoint (DX11)

Screenshot_2019-10-30 Ghost Recon Breakpoint im Benchmark-Test 8-GiByte-Grafikkarten ächzen, w...png


und Vulkan nehmen wir auch nocht mit, damit du zufrieden bist.

Screenshot_2019-10-30 Beyond Two Souls тест GPU CPU Action FPS TPS Тест GPU.png



Ich wünsche eine erholsame Nacht.;)

https://www.pcgameshardware.de/GRID...d-2019-Benchmark-Systemanforderungen-1334319/
https://www.pcgameshardware.de/Tom-.../Benchmark-Test-Release-Review-Tipps-1333798/

Edit :
Das für viele beste spiel des jahres (Anno 1800), nutzt ebenfalls DX12.
Nur mal so zu deiner Info ! :heilig:


Screenshot_2019-10-31 Anno 1800 im Technik-Test GPU-Benchmarks und DirectX-Vergleich(1).png
 
Zuletzt bearbeitet:
Laphonso schrieb:
Sorry, Pisaro, ich kenne Dich hier lange als guten Poster, aber das ist einfach Quatsch.
Haben wir hier etikettierte "Warnings" oder bei PCGH oder der GS?
Haben wir irgendwo Spiele mit dem K.O. von 6 GB VRAM
Gerade COD MW zeigt ja, wie perfekt man eine Engine laufen lassen kann. Ohne dass die 6 GB VRAM braucht.

Das ist für mich leider kein Quatsch. Mein Problem mit 6 GB ist halt, dass es halt jetzt schon Spiele gibt die 6GB zum überlaufen bringen. Da der Fall jetzt schon Eintritt, wird das in Zukunft natürlich dann eher noch schlechter.

Meiner Meinung nach macht es halt keinen Sinn eine GPU zu kaufen die jetzt schon je nach Spiel im RAM-Limit hängt.

Ich persönlich würde sowas nie kaufen und rate wirklich jedem im Bekanntenkreis davon ab. Aber jeder so wie er mag.
 
  • Gefällt mir
Reaktionen: Sennox und Redical
Zurück
Oben