News Nvidia Turing: GeForce RTX 2060 mit 1.920 Shadern und 6 GB Speicher

Je geiziger die Hersteller mit dem Speicher sind, desto länger reichen im allgemeinen die 4 GB meiner GTX 980 noch aus :daumen:

Langsam wirds trotzdem lächerlich. :freak:
Aber mir solls recht sein, dann geht mein Geld halt das nächste mal zu AMD.
 
  • Gefällt mir
Reaktionen: itm, ed33, Herr Melone und 5 andere
Redirion schrieb:
eine 3GB Version wird es nicht geben. GDDR6 gibt es nur in 1 und 2 GB großen Chips (bzw. die Hersteller schreiben 8Gb und 16Gb).

Da wäre ich mir nicht so sicher. Stichwort Resterampe und defekte Chips. Nvidia könnte tatsächlich die Lächerlichkeit mit einer 3 GB Version sprengen. Ich hoffe nicht. Sonst ist das Forum wieder voll, weil die Games nicht richtig laufen. Wird schon bei der 6 GB Version so sein. Ich verstehe das alles aus Nvidias Sicht, aber aus Sicht des Kunden ist das mehr als dreist, die Leute müssen immer Ihre Mittelklasse-Karten tauschen. Ich erinnere da mal an die tolle Karte mit 3,5 GB VRAM. :freak:

pietcux schrieb:
6 GB ist nur für Freaks in Technikforen zu wenig, Otto
Normalspieler kommt damit prima hin.

Ich würde beide Aussagen stark bezweifeln.
Gerade so der Otto-Normalverbraucher hat keine Ahnung und überall wird mit GB und dergleichen Werbung gemacht. Es wird eher sogar davon ausgegangen das höhere Zahlen einfach besser sind, weswegen es auch immer irgendwelche Low-Budget Karten mit viel zu viel Speicher gab und die noch gut verkauft wurden. So viel dazu.
Und zum Thema VRAM und hin kommen, es ist einfach grenzwertig. Jemand der die Karte halbwegs ausreizt, bzw. einfach mal die Regler hoch stellt wird dann schon wieder nicht klar kommen und muss in der Zukunft wieder die Karte wechseln, was gerade die sogenannten Otto-Normalverbraucher betrifft. Die bekommt man dann noch besonders lustig dran indem Nvidia sagt das war halt nur die Mittelklasse Karte, hättest die noch höhere gekauft, das Spiel kennen wir inzwischen.
On Top kommt noch die tolle Sache mit den Nvidia-Features, für die die Karte wohl auch wieder nicht reichen wird, hier wurde nicht zum Spaß gesagt dann in Full HD mit 30 FPS in Raytracing, so wie wir Nvidia kennen würde mich das alles nicht wundern.
 
  • Gefällt mir
Reaktionen: Sennox, Cpt.Willard und Mcr-King
Wie, NVidia bringt die 2060 echt noch als RTX-Karte? :D
Die Leistung reicht doch schon bei der 2070 unter FullHD für RTX nicht aus. :freak:

Und die 6GB sind irgendwie auch etwas fehl am Platz - vielleicht aktuell noch ausreichend, aber auf Dauer geht der Karte dann definitiv der VRAM aus (braucht Raytracing nicht noch etwas mehr VRAM?).

Simanova schrieb:
Die Karte wirds nicht rechtzeitig schaffen. Zur CES kommen die AMD 3000er Serie und damit ist der Melkofen für Nvidia aus.
Wer es glaubt wird seelig. Bei AMD kam bezüglich GPUs mit Vega so dermaßen viel heiße Luft, dass die erstmal liefern sollen.

AMD ist halt nicht in der Lage, ihre Kunden zu melken. Wäre AMD an der Position von NVidia (inklusive passenden Marktanteilen...) würden die genau das Gleiche machen. Sind beiden Aktienunternehmen.

NVidia kann ich auch nur die Preise leisten, weil AMD dank krampfhaften Festhalten an HBM und GCN voll auf die Fresse geflogen ist. Und jeder, der mehr Leistung wie ne RX580 braucht, hat nunmal keine sonderlich große Wahl, sofern man nicht gerade die paar Spiele spielt die Vega halbwegs liegen.

dalaidrama schrieb:
Freesync Monitore billiger sind usw.
Komisch, mein Freesync-Monitor (U28E590D) funktioniert an meiner RTX2080 bestens.

RYZ3N schrieb:
möglicherweise 192-Bit schmales Speicherinterface
Das Speicherinterface sagt erstmal wenig über die Leistung aus. Solange die Texturkompression ausreichend leistungsfähig ist kann auch ein schmaleres SI genügen. Beispiel R9 380 gegen GTX960 - 1792 Shader und 256Bit gegen 1024 Shader und 128 Bit - die GTX960 ist nur 9 Prozent langsamer.
https://www.computerbase.de/artikel...487/#diagramm-performancerating-fps-1920-1080
 
  • Gefällt mir
Reaktionen: Cpt.Willard
BF V braucht 7GB in FHD mit RT on? Krass, dann hat die 2080 mir wohl doch zu wenig Speicher (Die Karte wird man auch mit RT wohl eher im 1440p bis 4k Bereich hernehmen wollen). Das würde wohl auch für die 2060 und die 2070 gelten. Wusste nicht, dass der Speicherverbauch so massiv gestiegen ist durch RT.

Ansonsten gehe ich von 1070 - 1070ti Leistung bei ~ 350€ aus, wenn der Takt gleich geblieben ist.
Mit der Karte dürfte RT in BF V ordentlich laufen, wenn der kleine Speicher nicht limitiert
 
Sollten sich die Gerüchte über navi bewahrheiten und dieser auch zeitnah verfügbar sein, wäre das ein sehr gefährlicher Gegenspieler. Ich befürchte aber, dass dieses Kräftemessen noch auf sich warten lässt.
 
playthestation schrieb:
Da wäre ich mir nicht so sicher. Stichwort Resterampe und defekte Chips.

Es gab aber nicht mal bei GDDR5X kleinere Chips als 1GB/8Gb. Die Resterampe scheint sich nur auf Chips zu beziehen, die die Taktraten nicht schaffen.

Ich vermute, die Density der Chips ist immer die gleiche und die 32bit-Anbindung ist "ringsum", so dass kleine Defekte auch den Chip komplett unbrauchbar machen
 
Simanova schrieb:
Die Karte wirds nicht rechtzeitig schaffen. Zur CES kommen die AMD 3000er Serie und damit ist der Melkofen für Nvidia aus.

Da kennst du aber die Saturn/Mediamarkt Schlagwortkunden schlecht - die kaufen nur wo "Intel Inside" und "Nvidia" drauf steht - selbst wenn AMD 500% schneller wäre kaufen die trotzdem weiter ihren gewohnten Kram.

Brainbranding funktioniert eben. :freaky:
 
  • Gefällt mir
Reaktionen: Sennox, ed33, Herr Melone und 12 andere
Wenn das Raytracing dann tatsächlich auf der Karte ist:
Wird schon flüssig laufen, wahrscheinlich sogar mit über 60 FPS!!!... nur halt auf 800x600 :D
 
  • Gefällt mir
Reaktionen: Sennox, ed33, qappVI und 2 andere
ZeroCoolRiddler schrieb:
Dann sind max 1440p drin, und da limitiert der Vram auch nicht auf meiner 980Ti. :confused_alt:

True. Und die ganzen RT Entwickler sprechen davon dass die Sache aktuell recht "memory bloaty" ist, und 6GB ist wie gesagt schon aktuell teils eher eng.
 
  • Gefällt mir
Reaktionen: ed33 und Blumenwiese
iGameKudan schrieb:
men.
NVidia kann ich auch nur die Preise leisten, weil AMD dank krampfhaften Festhalten an HBM und GCN voll auf die Fresse geflogen ist. Und jeder, der mehr Leistung wie ne RX580 braucht, hat nunmal keine sonderlich große Wahl, sofern man nicht gerade die paar Spiele spielt die Vega halbwegs liegen.

Vega reicht locker für WQHD @ 60 FPS.
Die 64er gab es schon unter 400 Euro die letzten Wochen.
Die 56er günstiger.

Da kann mir die RTX 2060 gerne gestohlen bleiben.
Vergleiche mal die Rohdaten. (Vega ca. 500GB/s Speicherbandbreite und 8GB insgesamt)
Rate mal welche Karte besser altert und wo verborgenes Potential schlummert.
 
  • Gefällt mir
Reaktionen: Smartbomb, Gortha, stevefrogs und 8 andere
Gerade mit Freesync würde ich da auch eher die Vega nehmen, aber warten wir mal die Performance + Preise ab.
Turing hat ja auch noch etwas Potential da auch Nvidia einiges geändert hat. Und Vega altert nun auch schon länger vor sich hin, relativ trostlos muss ich sagen.
 
6GB VRAM für 2018 war schon knapp,
aber in 2019 ist das ein schlechter Witz.

Und schön den Kunden schröpfen, Speicherinterface runter auf 192bit obwohl 256bit da sind.
 
  • Gefällt mir
Reaktionen: ed33, Herr Melone, Ernie75 und 4 andere
Magerkost für 400€ ? Öh, nö.

Sollen se mal verticken an wen se wollen - ich schau mir erstmal an was AMD nächstes Jahr liefert.
 
  • Gefällt mir
Reaktionen: ed33
So blöd ist das gar nicht. Wenn das Raytracing gut optimiert ist, kann der 2060er Kunde ein paar nette RT Effekte anhaben und wird damit nicht sehr viel weniger Leistung haben als der 2070er Besitzer, da die Shader sich mit angeschaltetem RT eh teilweise langweilen.

Ohne RT ist es eine anständige DX11/DX12 (in DX 12 wahrscheinlich besser als die 1070) Karte mit just ausreichend Leistung bis 1440p@60Hz, was für viele schon reicht.

Damit wird Nvidia sicherlich diejenigen Kunden erreichen, die schonmal RT Luft schnuppern wollen und dabei nicht die absoluten Hardcore Gamer sind.
Ich glaube es ist ein ausreichend guter Kompromiss für RT-Einsteiger und Mittelklasse. Letztlich entscheidet wohl der Preis, der hoffentlich um die 350€ liegt.

Trotzdem würde ich sie persönlich nicht kaufen. Dagegen sprich für mich das kleinere SI mit den 6GB VRAM und meine Überzeugung, dass Turing nur der Vorbote ist und dementsprechend schnell abgelöst werden wird. Beides spricht nicht für die Zukunftsfähigkeit der Karte.
RT ist technisch sehr interessant aber leider sind für uns user die Möglichkeiten dann doch noch sehr beschränkt. Wenn dann mal ausser den paar 0815 Blockbustern interessante Spiele kommen, kann man es sich ja überlegen. Bis jetzt also noch kein wirkliches Kaufargument.
Ausserdem ist G-Sync immer noch ein absolutes NoGo, weil es einfach sinnloserweise die Monitorpreise erhöht. Aber das ist ein generelles Problem bei Nvidia.
 
  • Gefällt mir
Reaktionen: Ernie75 und danyundsahne
Leute, wenn hier jetzt die Zensurkeule kommt nur weil man die 6 GB VRAM diskutiert und dann noch behauptet das wäre Offtopic oder sonstwas ist das einfach nur peinlich.
Besonders Beiträge wie meiner (der mal #2) war mit um die 20 Likes dann einfach ganz gelöscht.
Sorry, jetzt wirds absurd in diesem Forum!

Ich möchte hier noch ergänzen:
Mein Beitrag, der unter anderem auch in #10 und #40 zitiert wurde hatte nur den faktisch korrekten Inhalt das es typisch Nvidia wäre wenn der Speicher beschnitten wird. Wenn man sich hier die Kommentarsektion anschaut stehen hier noch ganz andere Sachen und das ist weder für mich, noch für diverse andere Leute hier nachvollziehbar. Zumal mein Beitrag ganz gelöscht wurde und nicht mal im Aquarium zu finden ist. Zu viele Likes oder was ist das Problem!?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, duskstalker, stevefrogs und 21 andere
bin mal auf den stromverbrauch gespannt. bei voraussichtlich in etwa gleicher leistung wie die 1070 weniger speicher ist schon ziemlich scheisse, aber bei Turing wird ja grundsätzlich mit dem speicher gegeizt. dafür zahlt man dann auch gerne die hohen preise.

pietcux schrieb:
Btw Crysis 3 in Ultra braucht auf meiner RTX 2080 Grad mal 2,5 GB in Fhd.
Crysis 3 wird nächsten märz auch 6 jahre alt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, Sennox, Zitterrochen und 3 andere
Mal abwarten, was NV wirklich bringt und vor allem, zu welchen Kurs.
Das sie eine 3GB rausbringen, könnte ich mir auch vorstellen und den Chip nochmals beschneiden. Siehe 1060 3G vs 6G.
Naja, solange NV kein FreeSync unterstützt, kann ich ruhigen Gewissens auf Navi warten.
 
  • Gefällt mir
Reaktionen: ed33
iGameKudan schrieb:
as Speicherinterface sagt erstmal wenig über die Leistung aus. Solange die Texturkompression ausreichend leistungsfähig ist kann auch ein schmaleres SI genügen.

Das bestreite ich auch nicht, die Breite des Speicherinterfaces ist ganz sicher nur ein Teil der Gleichung.

Allerdings sind 6GB@192-Bit nun einmal nicht so sexy wie 8GB@256-Bit und es ist daher ziemlich interessant, was für einen Preis NVIDIA für die RTX 2060 ausruft.

Ich kann mir nur schwer vorstellen, dass das Portfolio eine Lücke von 150,— bis 200,— Euro haben wird und glaube daher nicht, dass die GPU für den Preisbereich von 300,— bis 350,— Euro vorgesehen ist.

Ich tippe mal auf eine UVP von 419,— Euro und günstige Customs werden dann für 399,— Euro lieferbar sein. Die RTX 2070 liegt aktuell bei ~ 500,— Euro [für die günstigsten Customs.]

Lassen wir uns überraschen, die 2060 ist ja jetzt auch nicht die „must have“ Karte auf die alle gewartet haben.

pietcux schrieb:
Btw Crysis 3 in Ultra braucht auf meiner RTX 2080 Grad mal 2,5 GB in Fhd. Bf5 7GB in FHD mit RTX. Also passt es doch.

Und das sagt uns jetzt bitte was? Das man vor knapp 6 Jahren mit 3GB gut ausgekommen ist? In wiefern soll das Ende 2018 relevant sein?

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: Zitterrochen, Ernie75, Cpt.Willard und eine weitere Person
Alles reine Spekulation hier, solange man weder Leistungsdaten, noch den Preis kennt ist das alles müsig. Sollte die Karte dieselbe RT Leistung wie die 2070 haben, würde sie sicherlich einen Markt finden da zumindest in FHD brauchbar.

ZeroCoolRiddler schrieb:
Dann sind max 1440p drin, und da limitiert der Vram auch nicht auf meiner 980Ti. :confused_alt:
Wo ist denn da das Ironie Tag? :confused_alt: VRam Verbrauch hängt von der Textur Quali ab und nur wenig von der Auflösung.
 
  • Gefällt mir
Reaktionen: ed33 und Smartin
Zurück
Oben