Notiz Gerücht: Nvidia soll GeForce RTX 2060 am 7. Januar vorstellen

Mit DXR auf kleinster Einstellung sind FullHD mit 60FPS drin.(laut meiner Glaskugel)Die 2070 schafft das so gerade eben, die Frametimes auf 60 zu halten.
 
Wenn überhaupt und mit der 3/4 GB mit Sicherheit nicht, naja von mir aus kann der ganze DXR Müll wieder verschwinden wie VR. Zumindest im Gaming Bereich nicht aus gereift und sieht jetzt auch nicht wirklich besser aus auf low sorry.
 
  • Gefällt mir
Reaktionen: Keine Geduld!
Oneplusfan schrieb:
Wenn du sicher bei 60fps Plus landen willst musst du auf FHD das RTX 2070 schon auf High stellen, die Enpfehlung von Ultra kann nicht immer gehalten werden. Also musst du für die 2060 vermutlich Medium oder Low rechnen. Denn Battlefield ist ein MP Shooter und niemand will da wegen RTX zwischendurch mal FPS downs haben. Ergo wird man mit einer 2060 das Ganze eher abstellen und somit es in der Preisklasse mit der Leistung unsinnig. Nvidia hätte besser bei allen neuen RTX Karten eine hohe Anzahl von Cores verbauen sollen, damit das die Technologie pusht oder alternativ ab der 2060 und weiter runter drauf verzichten und mehr Raster Power reinballern sollen. Ich persönlich warte auf die 3080.
 
  • Gefällt mir
Reaktionen: Toprallog
Das Problem von noch mehr RT Cores ist, dass die Die noch größer wären. Also noch teurer.
Bei einer kleineren Node kann erst über mehr Cores nachdenken.
 
Wartet auf die nächste Generation. Wenn die Begeisterung der Entwickler ähnlich verhalten ist wie bei Hardware T&L seinerzeit, dann muss Nvidia (sofern das Invest in raytracing nicht abgeschrieben werden soll) ein äquivalent zur damaligen GeForce 2 MX bringen, die T&L erst in den Massenmarkt katapultiert und für DEVs interessant gemacht hat.
Und das klappt dann mit dem Preis sogar ohne AMDs Mithilfe ;)
Also am besten auf die 3000er Serie und was draus wird warten. Die GeForce 1 war seinerzeit genauso überteuert wie die 2kler aktuell...
 
  • Gefällt mir
Reaktionen: FCK-THIS, Smartbomb und Mcr-King
DanyelK schrieb:
Ergo wird man mit einer 2060 das Ganze eher abstellen und somit es in der Preisklasse mit der Leistung unsinnig.

Zum Glück ist Battlefield nicht das einzige Spiel auf dieser Welt.

Über Sinnhaftigkeit von RTX auf einer 2060 kann man mit Sicherheit diskutieren, aber immer Battlefield als das Maß aller Dinge heranzuziehen ist auch nicht richtig. Mit der Argumentation dürfte man eigentlich auch keine RX580 oder 1060 für dieses Spiel verwenden, weil man damit keine drölfzig FPS auf seinem Superultragamerdisplay hinbekommt.

In der Realität werden vermutlich viele BFV Spieler weder eine besonders potente Grafikkarte verwenden, noch einen speziellen Monitor und sind trotzdem zufrieden. Geht man nach diesem Forum müsste eigentlich fast jeder eine Vega/1080+ haben, in Wirklichkeit ist die 1060 jedoch mit weitem Abstand die meist eingesetzte Grafikkarte und auf dem zweiten Rang kommt die 1050Ti.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FCK-THIS, Keine Geduld! und öcdc
Da ich das Thema schon eine weile beobachte und eigentlich es doch ganz spannend ist wie "neue" Features integriert werden und dann auch genutzt werden (oder auch nicht), möchte ich auch mal meine Meinung dazu äußern:

Das Problem ist doch im Moment einzig, das es bisher nur BF 5 gibt als Spiel, welches DXR/RT oder wie auch immer man es jetzt nennen will implementiert hat. Also ist es doch nur logisch, das es das Paradebeispiel im Moment ist. Und dort ist die implementierung eher so lala. Selbst nach der ersten Optimierung kostet es immer noch Leistung im Gegensatz zur altbewährten Methode. Und es ist sogar eine abgespeckte Version des eigentlichen Features, da es im Moment nur einen Teil des eigentlichen RT berechnet.
Sobald mehr Spiele kommen die es implementiert haben, wird man sehen ob dieses Feature wirklich das hält, was nVidia auf der Gamescon versprochen hatte.

Und ob dann eine RTX2060 mit 6GB Ram genug Leistung haben wird, wird sich dann zeigen. Aktuell, wenn man BF 5 als Referenz nimmt, sieht es eher nicht so aus. Natürlich besteht ja weiterhin die Möglichkeit, dass Dice weiter optimiert bei RT und somit die Leistung dann dementsprechend steigt.
 
  • Gefällt mir
Reaktionen: Smartbomb und Mcr-King
Richtig NV ist selbst schuld wenn es nicht mehr wie BF5 gibt und DXR noch schlechter als VR da steht. Auch ihr Müll mit der RTX2060 kann ich nicht verstehen.

Davon abgesehen dass die 3/4 GB Version total überflüssig ist. Besser eine GTX1060 ti mit mehr bums als so eine halb Gare RTX2060.
 
Selanius schrieb:
Da ich das Thema schon eine weile beobachte und eigentlich es doch ganz spannend ist wie "neue" Features integriert werden und dann auch genutzt werden (oder auch nicht), möchte ich auch mal meine Meinung dazu äußern:

Das Problem ist doch im Moment einzig, das es bisher nur BF 5 gibt als Spiel, welches DXR/RT oder wie auch immer man es jetzt nennen will implementiert hat. Also ist es doch nur logisch, das es das Paradebeispiel im Moment ist. Und dort ist die implementierung eher so lala. Selbst nach der ersten Optimierung kostet es immer noch Leistung im Gegensatz zur altbewährten Methode. Und es ist sogar eine abgespeckte Version des eigentlichen Features, da es im Moment nur einen Teil des eigentlichen RT berechnet.
Sobald mehr Spiele kommen die es implementiert haben, wird man sehen ob dieses Feature wirklich das hält, was nVidia auf der Gamescon versprochen hatte.

Und ob dann eine RTX2060 mit 6GB Ram genug Leistung haben wird, wird sich dann zeigen. Aktuell, wenn man BF 5 als Referenz nimmt, sieht es eher nicht so aus. Natürlich besteht ja weiterhin die Möglichkeit, dass Dice weiter optimiert bei RT und somit die Leistung dann dementsprechend steigt.

Es gibt ja bislang nur BF V, wo bleibt Tomb Raider, was eh kaum noch jemand spielt? Der nächste große Titel wird Metro sein, vermutlich mit ähnlichen Werten wie BF V da das Spiel ähnlich anspruchsvoll ist. Auch kann es mit einer 2060 durchaus auf mittleren Einstellungen gut laufen, aber welches Rauschverhalten haben wir dann? Mir persönlich wären das als Mid-Range Gamer zu viele Wenn’s und zu wenige Spiele im ersten Jahr als das ich in die RTX Technologie investieren wollen würde. Verdammt die Probleme sehe ich sogar bei der 2080Ti neben dem Preis. Nvidia täte gut daran anständig zu subventionieren und die Technologie nach vorn zu bringen ..
 
@DanyelK
Richtig, Sony musste damals ordentlich draufblechen um die PS3 nicht komplett hinten liegen zu lassen weil die X360 deutlich günstiger war und das MIT Subventionen seitens Sony. Da hat es bis zum Ende des PS§-Zyklus und zwei/drei Revisionen gedauert bis man die Preise erreicht hat die man heute für eine PS4 bezahlt.
Jeweils 10-15% günstiger pro Leistungsstufe hätte Nvidia mehr gebracht als der letzte Prozent Marge.

Aber das ist ja somit umso besser, da AMD noch Zeit gewinnt für ihre Karten. Und jeder, der die RTX Karten schon jetzt will, kann sie ja zu den aufgerufenen Preisen kaufen. Ob es so lohnenswert ist, muss jeder mit sich vereinbaren.
 
Die 2060 macht Sinn für Leute, die in FHD ohne Raytracing spielen wollen - wenn überhaupt. Wenn ich mir das Fazit von Wolfgang zum Thema BF V durchlese, dann behaupte ich mal, dass mindestens 1 Jahr vergehen wird, bis überhaupt was brauchbares auf dem Spielemarkt da ist.

Wer weiß, was AMD bis dahin raushaut? Für mich ist die komplette 2er Serie unattraktiv. Völlig überteuert für Features, die es nicht gibt - bis auf BF eben und das taugt nicht.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich habe dies zwar schonmal beschrieben, allerdings passt es hier:

Was will uns Nvidia damit sagen daß sich in der aktuellen Turing Gen., Die Titan RTX mal aussen vor, sich nichts an der Speichermenge getan hat? Ich denke da 7nm ja praktisch schon vor der Tür steht und AMD mit der Radeon Instinct schon den ersten Beschleuniger auf dem Markt hat, wird Nvidia in 2019 schon Recht schnell ein neues Turing refresh lineup in 7nm bringen als Antwort auf Navi und eventuell Vega 2, dann aber mit größerem VRAM. Das würde auch zur dann anstehenden Vorstellung der neuen Konsolen von MS und Sony passen, die dann wohl ebenfalls mehr Speicher nutzen. Ich denke NV weiß was es tut, leider.
 
  • Gefällt mir
Reaktionen: FCK-THIS und Mcr-King
Hoffentlich leistet er sich bis dahin dann mal für die Presentation eine vernünftige Lederjacke ;=)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon, Mcr-King und Neo1179
Oneplusfan schrieb:
RT High bei 60fps FHD dürfte damit in BF V problemlos laufen. Warum sollen die Cores also Verschwendung sein?
60FPS bei nem Shooter? Gilt das überhaupt als spielbar?
In Overwatch empfehlen die Pros >200 um ohne Microruckler zu spielen. Klar die BF V Engine ist vielleicht nicht Overwatch, aber <120FPS sind 2018 einfach nicht mehr zeitgemäß. Da kannste dir auch gleich ne Konsole kaufen und den shit auf Gamepad spielen.
 
  • Gefällt mir
Reaktionen: Mcr-King
  • Gefällt mir
Reaktionen: MichaG
Also sorry Performance einer GTX1080 klar läuft bei denen und bei TR sieht man Vram Mangel. 😉
 
Solide Performance.

Sollte das sich so bewahrheiten und sollten die Preise sich unter 350€ einpendeln, wird das wohl die empfehlenswerteste Karte für 1080p/RTX-Einstieg werden.

Danach finde ich die 2070 echt nicht mehr sinnvoll.
 
  • Gefällt mir
Reaktionen: Neo1179
oemmes schrieb:
Die 2060 macht Sinn für Leute, die in FHD ohne Raytracing spielen wollen - wenn überhaupt. Wenn ich mir das Fazit von Wolfgang zum Thema BF V durchlese, dann behaupte ich mal, dass mindestens 1 Jahr vergehen wird, bis überhaupt was brauchbares auf dem Spielemarkt da ist.

Wer weiß, was AMD bis dahin raushaut? Für mich ist die komplette 2er Serie unattraktiv. Völlig überteuert für Features, die es nicht gibt - bis auf BF eben und das taugt nicht.

Stimmt, eben genauso „überteuert“ und „unattraktiv“ wie Pascal und Vega ...

Preise und Leistung:

RTX 2080 = GTX 1080 Ti
RTX 2070 = GTX 1080 (-5%) = Vega 64 (-5%)
RTX 2060 = GTX 1070 (-5%) = Vega 56 (-5%)

Überteuert somit nicht unbedingt, sie bieten nur das identische P-/L-Verhältnis wie das, was schon verfügbar war (Vega und Pascal).
Lediglich die GTX 1070/80 und Vega 56/64 waren/sind ca. 5% günstiger als die RTX „Konkurrenz“, sind aber auch um eben diese 5% leistungsschwächer.

„Schuld“ daran ist selbstverständlich die fehlende Konkurrenz von AMD - keine Konkurrenz = kein Fortschritt, gleichbleibende Preise. Das ist natürlich nicht nur bei Grafikkarten so.

Bräuchte ich aktuell (!) eine neue Grafikkarte (und würde keine Pascal/Vega besitzen), würde ich bei identischem P-/L-Verhältnis dennoch eine RTX einer GTX oder Vega vorziehen.
Und das nur anhand der Leistung, ob ich Raytracing dann nutze oder nicht ist völlig irrelevant.
 
  • Gefällt mir
Reaktionen: xsodonx, oemmes und Neo1179
FCK-THIS schrieb:
Stimmt, eben genauso „überteuert“ und „unattraktiv“ wie Pascal und Vega ...

Preise und Leistung:

RTX 2080 = GTX 1080 Ti
RTX 2070 = GTX 1080 (-5%) = Vega 64 (-5%)
RTX 2060 = GTX 1070 (-5%) = Vega 56 (-5%)

Überteuert somit nicht unbedingt, sie bieten nur das identische P-/L-Verhältnis wie das, was schon verfügbar war (Vega und Pascal).
Lediglich die GTX 1070/80 und Vega 56/64 waren/sind ca. 5% günstiger als die RTX „Konkurrenz“, sind aber auch um eben diese 5% leistungsschwächer.

„Schuld“ daran ist selbstverständlich die fehlende Konkurrenz von AMD - keine Konkurrenz = kein Fortschritt, gleichbleibende Preise. Das ist natürlich nicht nur bei Grafikkarten so.

Bräuchte ich aktuell (!) eine neue Grafikkarte (und würde keine Pascal/Vega besitzen), würde ich bei identischem P-/L-Verhältnis dennoch eine RTX einer GTX oder Vega vorziehen.
Und das nur anhand der Leistung, ob ich Raytracing dann nutze oder nicht ist völlig irrelevant.
Bei einem kompletten Neukauf stellt sich die Frage nicht. Viele, einschließlich meiner Wenigkeit, wollten gerne upgraden, wegen 4K oder VR z.B. Aber für diese Pascal/Vega User ist Turing ein absoluter Reinfall. Selten hat sich ein Upgrade so wenig gelohnt...
 
  • Gefällt mir
Reaktionen: Mcr-King und oemmes
Zurück
Oben