Notiz Gerücht: Nvidia soll GeForce RTX 2060 am 7. Januar vorstellen

DanyelK schrieb:
Aber für diese Pascal/Vega User ist Turing ein absoluter Reinfall. Selten hat sich ein Upgrade so wenig gelohnt...
Eben, meine 1080 tut es noch sehr gut und bei den Bordellpreisen der 2xxx können sie das Zeug behalten. Warum soll ich einen Haufen Geld für etwas ausgeben für das es genau 1 Spiel gibt und ein weiteres, was DLSS unterstützt. Das Tempo der Spieleentwickler ist ja nun hinreichend bekannt. Und was in einem Jahr oder länger auf dem Markt ist, das weiß auch keiner. Da gibt es auch nur nen Haufen Spekulatius.

Die aktuelle Vega ist auch keine Alternative, da ich eine sehr gut funktionierende Heizung habe und meiner Stromrechnung auch nicht böse bin.

Also, abwarten, Bier trinken.....
 
  • Gefällt mir
Reaktionen: Keine Geduld!
Naja wie gesagt die meisten kaufen bei 150-250€, sorry da bekommt man halt keine Rtx und wer sagt dass bei 350 nicht erst mit der 3GB los geht. Deswegen RTX ist tot bevor es auf die Welt kam dass ist die Realität und wie gut die Entwickler DX12 können naja sieht man ja. Deswegen ohne DRX Konsolen kein Durchbruch so ist die Realität.

Zur RTX2060 3/4 GB sorry meine RX570 hat für 150€ schon 8 GB. 😉
 
  • Gefällt mir
Reaktionen: Keine Geduld!
Die Tabelle ist beim Speicher etwas inkonsistent. Die gleiche Bandbreite bei auf 192bit gedrosseltem Interface? Ist der GDDR6 da etwa deutlich höher getaktet?

Außerdem ist es durchaus möglich, dass die 2060 unter der 1070 raus kommt. Wenn nämlich wirklich keine 64 ROPs wie auf der 1070 zum Einsatz kommen und nur so recht moderate Taktraten. Die 1070 geht ja erst bei 1506Mhz Chiptakt los.

Ich bin jedenfalls froh, vor kurzem eine neue Palit 1070 Gamerock für 330€ geschossen zu haben. Die läuft locker auf 2000Mhz im Boost-Takt und wird mich wohl jetzt wieder ne Weile glücklich machen. Auch wegen der 2GB mehr Grafikspeicher ;)
Da müssten bei Release die sehr guten Custom-Designs der 2060 schon bei 250€ raus kommen, dass ich mich ein wenig ärgere.
 
@MichaG @Wolfgang @Jan von VIDEOCARDZ gibt’s einige interessante neue Informationen. Vielleicht interessant für ein Update oder eine News.
  • UVP Founders Edition: $ 349.—
  • Customs: ~ 350,— bis 400,— Euro
  • Leistung auf Niveau der GTX 1070 Ti
Teilweise soll die RTX 2060 sogar eine GTX 1080 schlagen können.

Auch in Sachen Raytracing & Co. gibt’s erste Werte.
  • Battlefield V: RT Off: 90 fps
  • Battlefield V: RT On + DSLL Off: 65 fps
  • Battlefield V: RT On + DSLL On: 88 fps
0875B124-1548-4D15-A11F-0BC042D9A986.jpeg

2158DC6E-0F1E-42E2-B882-AA7CA25E003B.jpeg


Liebe Grüße
Sven
Ergänzung ()

Ich habe gerade gesehen, @Wolfgang hat die neusten Ergebnisse bereits in einer News aufgegriffen.

Link: https://www.computerbase.de/2018-12/battlefield-v-dlss/

Schneller als die Polizei erlaubt [und schneller als ich.] :D

Liebe Grüße
Sven
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rock Lee, FCK-THIS und MichaG
Den Link hat @r4yn3 schon gepostet gehabt. ;)

Habe mal schnell die MIttelwerte berechnet (ohne RT):
106010701070 Ti10802060
1080p Ø FPS70,45 (66 %)90,1 (85 %)103,1 (97 %)110,1 (104 %)106,2 (100 %)
1440p Ø FPS47 (62 %)62 (82 %)72 (96 %)78 (104 %)75 (100 %)

Für 350 € kann sich das denke ich sehen lassen.
 
Zuletzt bearbeitet: (Rechnung)
  • Gefällt mir
Reaktionen: FCK-THIS und r4yn3
ToKnight schrieb:
Die Tabelle ist beim Speicher etwas inkonsistent. Die gleiche Bandbreite bei auf 192bit gedrosseltem Interface? Ist der GDDR6 da etwa deutlich höher getaktet?
14Gbps beziehen sich auf den Takt. Der GDDR6 läuft bei allen Turings mit 7Ghz. Bandbreite ist durchs schmälere SI natürlich geringer.
 
Also bei TR 59 FPS mit RTX dort wenn es denn irgendwo noch erscheint 20FPS klasse. 😉
 
@S.Kara fehlen noch die 2gb Vram.
Beim Neukauf würde ich eher 8gb mitnehmen.
 
  • Gefällt mir
Reaktionen: Hatsune_Miku
Abseits vom Sinn oder Unsinn von RT: Von der Preis/Leistung ist die doch ok. Man bekommt für ca. 400 Euro die Leistung von Karten, die jetzt - im Abverkauf, wohlgemerkt - noch deutlich teurer sind. Preiswerter als eine Vega 64 ist sie, beim schnellen Blick auf geizhals.de, auch. Nur die 6GB sind nicht so schön, weil man mit der Leistung der 2060 schon in Auflösungen spielen kann, wo es dann ein wenig eng wird.
 
  • Gefällt mir
Reaktionen: FCK-THIS
Ja 8 GB VRAM wären schon nicht schlecht.
Allerdings sollten die 6 GB in aller Regel für 1440p locker ausreichen. Wenn man mit der Karte in 4k zocken will muss man da eh einiges runterschrauben.

Aus Sicht von Nvidia muss halt auch irgendwo die 2070 gerechtfertigt bleiben. Bei 1080p fährt man mit den 6 GB mehr als gut. Die 2060 ist keine High-End Karte.

2160p - 2080 (Ti)
1440p - 2070
1080p - 2060

So denkt sich das Nvidia vermutlich. Davon ausgehend sind die 6 GB der 2060 und die 8 GB der 2070 optimal. Da finde ich die 8 GB der 2080 ehrlich gesagt viel schlimmer.
 
  • Gefällt mir
Reaktionen: oemmes
Vielleicht reichen 6GB VRAM Stand jetzt noch fpr 1440p. Die Frage ist aber immer (und die sollte sich jeder stellen eigentlich), reicht der VRAM auch noch in 1 Jahr, oder in 2 Jahren oder sogar in 3 Jahren.
Nicht jeder ist so crazy und kauft sich jedes Jahr eine neue Grafikkarte.
Ich finde es immer etwas grenzwertig, wenn Firmen absichtlich eine künstliche Limitierung einbauen um Produkten eine verkürzte Verwendbarkeit ohne Abstriche zu geben. Wobei es bei nVidia noch gerade so geht, da man durch verschieben der Regler etwas entgegenwirken kann. Gibt auch schlimmere Firmen wie HP.
 
Hab ich irgendwo überlesen wie DLSS eingestellt war in verbindung mit Raytracing?
Sonst hat doch die scheinbar erfreuliche Aussage über die vielen Frames mit RT 0,0 Aussagekraft.
Und wie, und wie konsistent ist die Bildqualität?
Bei Nvidia scheint viel technisch neues garnicht aus der Technikabteilung zu kommen, sondern viel mehr vom Marketing und die Techniker versuchen dann dem irgendwie gerecht zu werden.

Für mich ist die ganze RTX Serie halbgar. Und in Spielen von Raytracing zu sprechen, zumindest in so großen Lettern mindestens vermessen.
Die Karten müssten ja dann naturgemäß jeden Cinebench Benchmark quasi nativ gewinnen.
 
Balikon schrieb:
Abseits vom Sinn oder Unsinn von RT: Von der Preis/Leistung ist die doch ok. Man bekommt für ca. 400 Euro die Leistung von Karten, die jetzt - im Abverkauf, wohlgemerkt - noch deutlich teurer sind.
Vergleiche ich das mal mit aktuellen Preis-/Leistungen von GTX 1060/1070 sieht die Welt völlig anders aus. GTX1060 kostet ~220€, für die RTX2060 müsste man für ~25% Mehrleistung also rund 60% mehr zahlen.

Zum Release hat die GTX1060 ~300€ gekostet, wieder verglichen kommt bei der GTX2060 beinahe das gleiche P/L Verhältnis raus. Das die Folgegeneration einer GPU und/oder CPU das gleiche P/L Verhältnis hat wie der Vorgänger oder sogar schlechter, ist einfach einmalig und an Unverschämtheit nicht zu überbieten. Rechnet doch mal hoch, was ein i9-9900K kostet dürfte, wenn er das gleiche P/L Verhältnis wie ein Pentium 100MHz hätte. Und müsste man die zusätzlichen Features (Thema Raytracing) von CPU's nochmal extra löhnen... so dreist war noch nicht einmal Intel. Aber Hut ab, die Nvidia-Jünger rennen der grünen Lederjacke scharenweise hinterher und freuen sich.
 
Laut aktuellen Leaks ist die 2060 in 1080p 50 % schneller als die 1060 und in 1440p sogar 60 %.
Von 300 € zu 350 € sind es auch nur 17 % Aufschlag.

Und man zahlt nicht wegen irgendwelchen neuen Features extra. Die Karten sind teurer weil die Chips um einiges größer und somit auch teurer in der Herstellung sind. Genau deswegen wird Nvidia auch (angeblich) GPUs ohne RT-Cores rausbringen, die dann auch wieder günstiger sein werden.

Selbst wenn sich Nvidia neue Features extra vergüten lassen würde - warum nicht? Das Rumgebashe hier geht mir ehrlich gesagt ziemlich auf den ...

Turing ist kein schlechter Chip. RT, DLSS und Mesh Shader sind echte Fortschritte. Nvidia hätte Turing ein Jahr verschieben sollen. Dann hätten die Entwickler (/mehr Entwickler) genügend Zeit gehabt die neuen Features zu implementieren.
Aber wahrscheinlich hätte dann wieder die Hälfte über den "Stillstand" rumgeheult.
 
  • Gefällt mir
Reaktionen: xsodonx, oemmes und FCK-THIS
S.Kara schrieb:
Turing ist kein schlechter Chip. RT, DLSS und Mesh Shader sind echte Fortschritte. Nvidia hätte Turing ein Jahr verschieben sollen. Dann hätten die Entwickler (/mehr Entwickler) genügend Zeit gehabt die neuen Features zu implementieren.
Aber wahrscheinlich hätte dann wieder die Hälfte über den "Stillstand" rumgeheult.

Die RTX2080 hätte auch ihre 3072 Shader bekommen können und entsprechend auch mehr Tensor-Einheiten usw. und durch mehr Zeit mehr Optimierungen bei der Effizienz. Statt 225W bei Referenz mit Werks-OC so ca. 180-200W TDP. Jetzt ist es gefühlt wie bei der 1080TI, gleiche Leistung, "gleiche" TDP. Mehr Speicher hätten dem Chip auch gut getan, auch wenn es ggf. nur 9GB an 288 Bit oder 10GB an 320 Bit gewesen wären. Die TI hätte dann 12GB an 384 Bit bekommen können. Oder noch besser gleich alles mit HBM, damit es erst gar keine Ranzkarten mit Speicherröstung gibt.
 
@Begu: Wenn sich das Raytracing auf der 2060 halbwegs vernünftig nutzen lässt - und danach sieht es ja seit den technischen Updates bei BF V ja aus -, dann bekommt man mehr als nur 25% Leistungssteigerung zur 1060. Das lässt sich Nvidia nunmal bezahlen.

Was mal war, interessiert nicht mehr, denn das ist vorbei. Der Markt, der macht die Preise. Es zählt, was ist bzw. was werden wird. Wird die 2060 so schnell wie kolportiert (woran selbst ich als bekennender AMD-Sympathisant kaum zweifle), dann hängt sie der Vega 64 an der Stoßstange und macht Lichthupe.
Vega 64 hat kein Raytracing und kostet zur Zeit selten unter 400 Euro, i.d.R eher 430 bis 460 Euro. Damit wäre eine 2060 von P/L her aus meiner Sicht vollkommen in Ordnung wegen RT. Sie läge genau zwischen Vega 56 und 64 und würde sich in das Preisgefüge einreihen. Nur 6GB sind das, was bei dem Preis echt weh tut, es hätten ruhig 8 sein dürfen.

Spannend wird, was AMD im Mainstream noch mit Navi bringt, und welche Leistung Nvidia zu welchem Preis bringen wird, wenn die Karten kommen, die keine Tensor Cores für RT haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FCK-THIS
DanyelK schrieb:
Bei einem kompletten Neukauf stellt sich die Frage nicht. Viele, einschließlich meiner Wenigkeit, wollten gerne upgraden, wegen 4K oder VR z.B. Aber für diese Pascal/Vega User ist Turing ein absoluter Reinfall. Selten hat sich ein Upgrade so wenig gelohnt...

4K und VR bilden zusammen nicht ansatzweise ein Prozent der Spieler, somit sind es ganz sicher nicht „viele“ :rolleyes:

Jede Generation ein Upgrade der Grafikkarte hat sich bisher in den seltensten Fällen „gelohnt“, die meisten sind einfach verwirrt, da es selten so ein Leistungsplus wie mit Pascal/Vega gab und erwarten dies nun mit jeder Generation.

Von der R9 2xx auf die Rx3xx gab es auch kaum ein Leistungsplus, und? Man ist ja nicht gezwungen zu upgraden :rolleyes:

Mal davon abgesehen, dass die GTX 1080 aus deiner Signatur für 4K grenzwertig ist, gibt es immer noch „genug“ Grafikkarten mit mehr Leistung (gebraucht: GTX 1080 Ti neu: RTX 2080, RTX 2080 Ti). Die nächste AMD Vega kommt laut Roadmap übrigens nicht vor 2020.

Ein Upgrade von einer GTX 1080 auf eine RTX 2080 wäre dennoch ein ordentliches Upgrade, wenn man die Leistung benötigt.
Wurden übrigens beide für 699$ UVP vorgestellt.

Weshalb Turing für Pascal/Vega Nutzer ein „Reinfall“ sein soll erschließen sich mir nicht, es gab schon zahlreiche Generationen in denen sich ein Upgrade kaum gelohnt hat, keine Seltenheit. Bei fehlender Konkurrenz gibt es keinen Grund mehr Leistung anzubieten. In deinem Fall gibt es genug Grafikkarten mit mehr Leistung, selbst für GTX 1080 Ti Nutzer, die das Geld ausgeben wollen und unbedingt mehr Leistung, als eine GTX 1080 Ti bereits bietet, benötigen, haben auch noch diese Möglichkeit zu einer RTX 2080 Ti.

Laut CB Grafikkarten-Rangliste bietet eine RTX2080 übrigens ganze 40% mehr an Leistung bei 3840x2160p als deine GTX 1080 ;)
Ergänzung ()

Mcr-King schrieb:
Zur RTX2060 3/4 GB sorry meine RX570 hat für 150€ schon 8 GB. 😉

Die RTX 2060 soll 6GB bekommen, es soll lediglich, wie bei der RX580 4GB eine „günstigere“ Version mit weniger Speicher geben.
Für 1080p, wofür die untere Mittelklasse gedacht ist, sind 6GB nun einmal aktuell mehr als ausreichend. Selbst 3/4GB sind für mittlere-hohe Texturen bei 1080p und aktuellen Spielen ausreichend.

Wer bei der RX580 bzw. GTX 2060 extra zur Version mit weniger Speicher greift, muss mit den kleinen Einschränkungen leben. Für Leute die Geld sparen möchten und deshalb ohne Ahnung, was die GB Zahl auf der Verpackung bedeutet, zur „Spar“-Version greifen, aber keine 5min Zeit haben sich zu informieren, habe ich wenig Mitleid. Vor allem wenn man sich dann nach dem Kauf meint sich in irgendwelchen Foren beschweren zu müssen, dass man nicht alle Regler auf ganz rechts stellen kann :rolleyes:

Die 8GB in deiner RX 570 sind schön anzusehen, in Spielen bringen sie dir im Vergleich zu 6GB jedoch keinen Vorteil, sofern du nicht bei 1440p mit 30FPS unterwegs bist.
Ergänzung ()

Banger schrieb:
Die RTX2080 hätte auch ihre 3072 Shader bekommen können und entsprechend auch mehr Tensor-Einheiten usw. und durch mehr Zeit mehr Optimierungen bei der Effizienz. Statt 225W bei Referenz mit Werks-OC so ca. 180-200W TDP. Jetzt ist es gefühlt wie bei der 1080TI, gleiche Leistung, "gleiche" TDP. Mehr Speicher hätten dem Chip auch gut getan, auch wenn es ggf. nur 9GB an 288 Bit oder 10GB an 320 Bit gewesen wären. Die TI hätte dann 12GB an 384 Bit bekommen können. Oder noch besser gleich alles mit HBM, damit es erst gar keine Ranzkarten mit Speicherröstung gibt.

Die RTX 2080 hat verglichen mit der GTX 1080 Ti eine 10% geringere TDP :rolleyes:
Vor 7nm kann man hier keine großen Sprünge erwarten, mehr Entwicklungszeit hätte daran überhaupt nichts geändert.

HBM hat bis auf einen deutlich teureren Einkaufspreis keinen Vorteil gegenüber GDDR6 - das Überhitzen lag lediglich an der fehlerbehafteten Kühllösung der RTX 2080 Ti und dort auch nur bei der Founders Edition. Für RTX 2080 Käufer, die deutlich mehr sein dürften, irrelevant.
Die Bandbreite von HBM2 und GDDR6 sind zumindest ähnlich, die Bit Angabe hat hier nichts zu sagen.

Mehr Speicher als die verbauten 8GB hätten nur für 4K einen Vorteil gebracht. Laut Steam weit, weit weg von einem Prozent aller Spieler. Kein Wunder, wenn man mehr als 60Hz und G-Sync möchte, was im Highend Bereich beides Grundvoraussetzungen sind, darf man 2.499€ blechen.
Somit mehr als 8GB = überflüssig für nahezu alle Käufer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: oemmes
FCK-THIS schrieb:
Die RTX 2080 hat verglichen mit der GTX 1080 Ti eine 10% geringere TDP :rolleyes:

Und deshalb habe ich oben im Beitrag Anführungszeichen verwendet. :rolleyes:

FCK-THIS schrieb:
HBM hat bis auf einen deutlich teureren Einkaufspreis keinen Vorteil gegenüber GDDR6 - das Überhitzen lag lediglich an der fehlerbehafteten Kühllösung der RTX 2080 Ti und dort auch nur bei der Founders Edition. Für RTX 2080 Käufer, die deutlich mehr sein dürften, irrelevant.

Es gibt Tests, wo auch der Speicher bei Custom-Karten grenzwertig heiß wird und wenn im Sommer noch höhere Umgebungstemperaturen dazukommen, ist es auch nicht besser. Da sehe ich schon einen Vorteil für HBM im GPU-Die, welche doch sowieso immer gute Temperaturen hat. Der Die ist dann dadurch größer und es können dann mehr Heatpipes die Wärme an die Kühlrippen weiterleiten. Größeren Dies wird doch bessere Kühlbarkeit nachgesagt. Dann verschwinden potenzielle Defektstellen beim Lot. (Alte Karten rauchen m.E. auch meistens wegen Speicher ab.) Man kann auch das PCB verkleinern oder andernfalls die Spannungswandler weit weg platzieren, damit sich alles nicht mehr so stark gegenseitig aufwärmt. Da bleibt nur der Preis an Nachteil. So sehe ich das, vielleicht ist es ja auch Schwachsinn.

FCK-THIS schrieb:
Die Bandbreite von HBM2 und GDDR6 sind zumindest ähnlich, die Bit Angabe hat hier nichts zu sagen.

Basierend auf gleichem Takt mit GDDR6-Chips, 9GB mit 288 Bit anbinden usw, gibt dann noch bisschen mehr Bandbreite. HBM kann meinetwegen auch knapp 600 Bit für 9GB haben und dafür weniger Takt. Mir ging es nicht mal um doppelte Speicherbandbreite von 6xx auf 12xx GB/s bei der TI zum Beispiel.

FCK-THIS schrieb:
Mehr Speicher als die verbauten 8GB hätten nur für 4K einen Vorteil gebracht. Laut Steam weit, weit weg von einem Prozent aller Spieler.

Ich sehe es auch gar nicht vor, auf die 2080 direkt 16GB zu knallen. Aber gibt ja durchaus Spiele, die den Speicher komplett benutzen, auch bei der TI. Aber diese paar Leute kotzen dann, dass ihre Grafikkarte für 700 bis 1400€ dann speicherkrüppelt. Bei Steam sind dann auch die Leute drin, denen alles egal ist auf Niedrig auf Fertig-PCs von Mediamarkt spielt, wo eine 5 Jahre alte Mittelklassekarte drin steckt. Mit GTA5 und Hintergrundkrinte(TM) habe ich dann auch schon 6,xGB auf 1440P, noch mit DSR, aber ab morgen, oder wann auch immer, mit einem 1440P-Monitor, hängt von DHL ab.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
S.Kara schrieb:
Laut aktuellen Leaks ist die 2060 in 1080p 50 % schneller als die 1060 und in 1440p sogar 60 %.
Von 300 € zu 350 € sind es auch nur 17 % Aufschlag.
Sollten die Preisschätzungen in etwa stimmen, dann ist das meine nächste Karte. Mir altem Sack reicht die Leistung völlig aus. Schaun mer mal, was die CES tatsächlich bringt.

Wenn es stimmt, ist es ne gute Nachricht für die AMDler - man wird dann kfr 580/590er - in guter Qualität, also keinen XFX und PowerColor Schrott für unter 200 Euro kriegen. Ist ja auch net schlecht.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben