Test GeForce GTX 1660 im Test: Nvidia Turing nimmt AMD Polaris ins Visier

Sogar GTX 1070 ist etwa 10 FPS schneller als GTX 1660ti
Nvidia bremst ältere Grafikkarten mit ihren Treibern ab, bspw. unterstützt diese nicht mehr.
 
Zuletzt bearbeitet:
So ein quatsch das wurde schon lange wiederlegt

1660OC= Stock 1660TI
 
  • Gefällt mir
Reaktionen: Zitterrochen und kisser
Unnu schrieb:
Naja, RT und Tensorcores sind ja schon ein Fortschritt.
Nur halt nicht dort, wo es die meisten gerne gehabt hätten.
Wie soll man das verstehen? Wo hätten die meisten denn gerne die Qualitätsverbesserung der Grafik gehabt?

Bei Battlefield sieht man nie dagewesene Reflektionen, bei Metro nie dagewesene GI.
In der direkten Gegenüberstellung ergeben sich je nach Szene schon drastische Unterschiede in der Darstellungsqualität.
Und da in allen modernen Engines sowieso der neue heisse Scheiss das "stochastic rendering" ist kommen Raytracing- ähnliche Verfahren immer weiter in Fahrt (auch wenn mit sehr niedriger Qualität, wenn kein RTX Bescheuniger im Spiel ist).
Spätestens Control läutet einen weiteren Schritt Richtung neuer Ära ein, in dem sowohl Spiegelungen, als auch die Beleuchtung und Verschattung auf RT basieren.

Und obendrein noch zu einem absurden Preis, den wirklich nur noch Techie-Jünger / Early Adopter berappen. Von dieser Spezies gibt‘s halt nur wenige.
Das ist der einzig springende Punkt. Und nur dieser. Was sollte man denn an der Technik (RT) bzw. an den RTX Karten außer dem Preis auszusetzen haben?

Man stößt mit dem klasischen Scanliner einfach an Grenzen.

Da musste sich das Metro Team ja anhören, die nicht- RT Version absichtlich schlecht zu machen und in allen modernen AAA Titel gäbe es solch "hässlichen", schlecht beleuchtete Szenen nicht. Das war einer dieser "Skandalszenen":

Rasterisierung:
763994


Szene dann mit Raytracing:
763997


Dann nehmen wir mal the Division 2 mit "state of the art" Engine dagegen:
763995


Wie wir sehen, wurde da 4A Games zu Unrecht angegriffen.

Das Division 2 Bild zeigt wie Bild 1 bei Metro die typischen Beleuchtungsschwächen der klassischen Rasterisierung, wenn eine Szene im Schatten liegt.

Die "alte" Technik ist einfach wirklich in manchen Szenen so schlecht und ich bin froh, wenn das vorbei ist.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer, kisser und Taxxor
ralf1848 schrieb:
Blödsinn ! Die Karte zielt ganz klar aufs Full HD Segment, und da sind die 6 GB mehr als ausreichend !
Ihr mit eurem Videoram immer.....

Mehr als ausreichend finde ich interessant. Ark z. B. knallt dir mehr als 6GB voll unter Full HD. Auf 1440p war mein Rekord rund 10GB. Und ja, die werden dann sogar gebraucht. Die 2080 des Kollegen hat dann nach ner Weile spielen Mikroruckler aufgrund schlechter Frametimes bekommen. Seine 8GB waren total am Anschlag. Tomb Raider KANN auch mehr als 6GB unter Full HD belegen bzw kommt dem schon gefährlich nahe. Da ich ein paar dieser Spiele habe, machen bei mir auch 6GB keinen Sinn, selbst wenn ich nur Full HD hätte.

@rtx2070 Texturen kosten halt keine/kaum Leistung sondern gehen fast nur auf dem RAM.

Zockt man dann noch Spiele die Texturmods zulassen kann man sich 6GB gleich sparen. Kommt natürlich aufs Game an.

Aber ja, für 90% der Spieler und ihr Spielverhalten reichen 6GB wohl aus.

Für meine Games oder mein Hauptspiel reichen halt nichtmal 8GB.
 
  • Gefällt mir
Reaktionen: onkel-foehn
Taxxor schrieb:
Also ich maße mir mal an, im Blindtest den Unterschied zwischen 47 und 64fps in Asassins Creed zu erkennen.
Wir sprechen hier über einen drei Jahre alten Chip und stehen heute vor 7nm. Nur um den Quantensprung bei P/L noch mal deutlich zu machen.
 
  • Gefällt mir
Reaktionen: onkel-foehn
Vram wird so überbewertet das es kracht wegen amd?!?!? sogar 6gb reichen in UHD mehr als 90% aus. Was sich das spiel an Vram nimmt ist nicht das gleiche was es braucht!
 
  • Gefällt mir
Reaktionen: kisser und Luxmanl525
@Botcruscher
kommen wir mit "25% Leistungsunterschied merkt keiner" jetzt nicht mehr weiter und müssen auf den Leistungssprung über Zeit springen?
Und wenn der Chip 10 Jahre alt wäre, Die Aussage "Die Leistung gab es schon vor 10 Jahren für das Geld" wäre genau so falsch.
 
  • Gefällt mir
Reaktionen: yummycandy, .Sentinel. und Luxmanl525
Finde die 6Gb jetzt auch nicht so schlimm in dem Preisgefüge. Der übliche Nvidia-Geiz beim RAM, damit man die Karte wieder eher aufrüsten muss ;-)
 
Max007 schrieb:
Diese künstliche Beschneidung der Karten um einen ausreichend hohen Leistungsabstand zu den unverschämt teuren 2070/2080 zu halten, ist Beschiss am Kunden.

Es ist höchste Zeit für 1070-Leistung für 200€. Die Gtx 1070 kam vor satten 3 Jahren auf dem Markt. Heute wird eine deutlich langsamere Karte für 220€ auf dem Markt gebracht und uns als P/L-Wunder verkauft. Es ist verkrüppeltes Silizium mit Asbach-GDDR5-Speicher, nichts anderes.

Kunden haben anno 2019 Anspruch darauf, für 200€ in FHD ein drei Jahre altes Spiel (GR:Wildlands) mit 60fps spielen zu können. Geht leider nicht, müssen mit 40fps auskommen.

Kein gutes Produkt! Und die RX590 ist hier auch keinen Deut besser.

Wenigstens einer.
Geschätzt würde ich sagen, dass die aktuell am markt erhältlichen Karten ca. 1 bis 1 1/2 Jahre zu spät sind.

Aber immerhin bekommt man die performance der GTX 980/1060/RX480 jetzt für unter 200€. Das ist ja auch schon mal was. Wobei ne GTX 970 jetzt auch nicht viel langsamer war und die gabs vor 4 1/2 Jahren schon für 300€... :rolleyes:

Der Low Budget Bereich hat in den letzten Monaten etwas profitiert. Aber die Mehrleistung bei entsprechenden Aufpreisen ist jetzt umso lächerlicher. Früher sind die Karten im Bereich unter 200€ gegenüber den 200-350€ Karten oft unverhältnismäßig schwach gewesen, wodurch es sich meist erst rentiert hat, aber ca. 200-250€ eine GPU zu kaufen. Entsprechend müsste sich sowas wie eine RTX 2070 irgendwo zwischen 300-400€ Platzieren. Eine RTX 2080 bei 500-600€.

Aber nein, stattdessen lohnt sich aktuell erst die Vega 56 bei AMD und bei Nvidia eigentlich erst die RTX 2070, weil die RTX 2060 ne völlig abgespeckte Karte mit zu wenig Speicher und zu wenig Raytracing Leistung ist. Rein von den Specs eigentlich die typische Budget Version einer Generation. Sowas sollte nicht mehr als 250€ kosten...

Da kann man nur auf die 7 nm Karten hoffen. Mit denen dürfte dann relativ schnell der gesamte Markt umgekrempelt werden und das P/L Verhältnis in allen Preisklassen deutlich ansteigen.
 
Hallo zusammen,

bis letztes Jahr März war ich noch mit einer Sapphire Radeon 5850 Xtreme unterwegs, die gerademal 1 Gbyte Ram intus hatte. Und hey, ich lebe noch! Sogar Crysis 3 konnte ich auf Stufe "High" absolvieren.

Wenn man sich mal die Qualitätsunterschiede in einigen Spitzenspielen ansieht Respektive "High / Very High / Ultra", dann ist das sogar teils lächerlich, mit welchen Performanceeinbußen dies mit einher geht. Und dabei Reden wir bei dem ein oder anderen Spiel von gerade einmal z. b. der Wolkenqualität :p.

Die besagten Karten sind nun einmal mehrheitlich für Full HD gedacht. Und selbst eine Stufe drüber reicht die VRam-Ausstattung von 6 Gbyte auch noch in weit über 90 % der Spiele. Für alles darüber ist der Chip sowieso zu langsam. Dann schaltet man halt eine Stufe in der Qualität zurück und gut ist. In den meisten Spielen ist davon wenig bis sogar gar nichts zu Sehen. Bei manchen muß man sogar regelrecht die Lupe zu Hilfe nehmen.

Das heißt nicht, daß ich die 6 Gbyte Ausstattung da jetzt verteidigen will in dem Sinne. Natürlich sind 8 Gbyte bzw. mehr gleichwohl besser. Keine Frage. Aber es ist nicht der Untergang des Abendlandes, wie mancher hier seine Silben Propagiert, wenn man mit 6 Gbyte unter Full HD, als auch eine Stufe darüber, unterwegs ist.

@ rtx2070

rtx2070 schrieb:
leute zocken heute noch problemlos auf ner 970 in fullhd...nur weil die 2% forum leute glauben man braucht 8gb an vram in full hd geht die welt unter

Für Full HD ist die besagte GTX 970 ja auch nach wie vor eine brauchbare bis sogar gute - abhängig vom Spiel - Karte. Und die ist höchst Respektvoll gealtert. Das bedeutet nicht, daß mir die Sache mit den 0,5 Gbyte Respektive der entsprechenden Anbindung schmeckt, es macht die Karte aber keinen Deut schlechter.

So long...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GRiNGO73 und .Sentinel.
lol..https://www.youtube.com/watch?v=LCCiwPEdEpg

leute zocken heute noch problemlos auf ner 970 in fullhd...nur weil die 2% forum leute glauben man braucht 8gb an vram in full hd geht die welt unter......
 
  • Gefällt mir
Reaktionen: kisser, Smartbomb, Transistor 22 und 2 andere
Taxxor schrieb:
...wäre genau so falsch.
Darum geht es nicht. Es gab schlicht den Bereich und nach zwei oder drei Jahren zweifel ich schlicht an euerer Euphorie bezüglich des Fortschritts. Vor nicht all zu langer Zeit waren 100% mehr Leistung im dem Preisbereich normal- pro Jahr! Das ich mich da um ein paar Prozente streiten soll, seh ich nicht ein.
 
Hallo zusammen,

@ Botcruscher

Botcruscher schrieb:
Vor nicht all zu langer Zeit waren 100% mehr Leistung im dem Preisbereich normal- pro Jahr! Das ich mich da um ein paar Prozente streiten soll, seh ich nicht ein.

Um ein Paar Prozente brauchst du dich auch nicht zu Streiten. Denn 100 % Mehrleistung von einer auf die nächste GPU-Generation hat es nie gegeben. Nicht einmal auch nur nahe daran! Auch nicht vor "allzu langer Zeit". Schonmal gar nicht "Pro Jahr"!

So long...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, .Sentinel. und Taxxor
Wenn ich jetzt eine neue Grafikkarte kaufen müsste (weil alte kaputt), dann wohl entweder die GTX 1660 oder die RX 580 8GB.
Aber normales Aufrüsten kommt bei den kleinen Sprüngen zurzeit nicht in Frage.
 
  • Gefällt mir
Reaktionen: Alphanerd
Botcruscher schrieb:
Vor nicht all zu langer Zeit waren 100% mehr Leistung im dem Preisbereich normal- pro Jahr!
Den größten Fortschritt in den letzten 15 Jahren hatten wir mit Nvidias Pascal und das waren 60%. Die Regel war sonst immer 30-40% pro Generation
 
  • Gefällt mir
Reaktionen: Zitterrochen, kisser, Luxmanl525 und eine weitere Person
rtx2070 schrieb:
Vram wird so überbewertet das es kracht wegen amd?!?!? sogar 6gb reichen in UHD mehr als 90% aus. Was sich das spiel an Vram nimmt ist nicht das gleiche was es braucht!

Also das wiederum der größte Käse den ich heute gelesen habe :rolleyes:

Unter WQHD ballern maximierte Texturen schon über 6GB voll.
 
  • Gefällt mir
Reaktionen: onkel-foehn
Taxxor schrieb:
Den größten Fortschritt in den letzten 15 Jahren hatten wir mit Nvidias Pascal und das waren 60%. Die Regel war sonst immer 30-40% pro Generation

https://www.computerbase.de/2006-11...gtx/28/#abschnitt_performancerating_qualitaet

Klar waren es nicht immer so viel, wie bei der 8800 GTX, aber doch meist mehr, als heute. Die HD7970 hat z.B. auch mal eben 50% draufgelegt.

Das Problem ist halt, dass früher die Preise nicht angehoben wurden. Neue Karten erschienen immer im grob gleichen Preisbereich. Aber seit Nvidia die Titan rausgebracht hat, steigen die Preise Jahr für Jahr nur noch und man muss immer länger warten, um in "seinem" preisbereich endlich mal ne Karte zu finden, für die sich das Aufrüsten lohnt. Ich warte seit 4 1/2 jahren, dass ich meine GTX 980 für ca. 500€ durch eine doppelt so schnelle Karte ersetzen kann. Ich werd wohl 5 1/2 jahre warten müssen...
 
Zuletzt bearbeitet von einem Moderator:
DeadEternity schrieb:
Also das wiederum der größte Käse den ich heute gelesen habe :rolleyes:

Unter WQHD ballern maximierte Texturen schon über 6GB voll.

Kuck ganzes video weine später.
 
Zurück
Oben