News Nvidia: Die GeForce RTX 2060 mit TU106 und 6 GB ist offiziell

schlagschnurr schrieb:
Für meine Zwecke sind die 6GB ausreichend und da komme ich noch eine ganze Zeit mit hin.
Moriendor schrieb:
Man kann die Spiele, die 6GB VRAM in diesen Auflösungen belegen (nicht unbedingt brauchen!) nach wie vor an einer Hand abzählen.
domian schrieb:
ich habe um die 100 Spiele (ja auch aktuelle) und keines davon belegt bei mir mehr als 6GB Ram in WQHD

Also ich kann das nicht so ganz nachvollziehen... ja, natürlich, es kommt in erster Linie auf die Titel an die man so spielt. Aber alleine Shadow of the Tomb Raider hatte die 8GB meiner RX470 sehr gut gefüllt - und ich bin nach wie vor in 1080p unterwegs.

Es gab noch so manch anderes Spiel (könnt ich grad nicht aus dem Effeff auflisten), bei denen ich gut über 6GB VRAM Auslastung gekommen bin. Natürlich brauchen Spiele weniger VRAM wenn gar nicht so viel zur Verfügung stehen, das Ganze wird dann einfach anderweitig ausgelagert. Ich weiss nicht mehr ob's bei Linus war oder sonstwo, aber ich hatte mal ein sehr interessantes Video zu der Thematik gesehen. Leider auf die Schnelle nicht gefunden, sonst hätte ich's gern verlinkt.

Jedenfalls finde ich aber in erster Linie, dass es gar nicht darauf ankommen sollte, was es denn braucht und was nicht. Fakt ist doch, AMD bietet schon seit der 470/480 8GB VRAM im Midrange Segment, nur Nvidia hält das nicht für nötig.
Eine Vega56 kriegt man ab 350€, bessere Modelle für um die 400€, da sind 8GB VRAM mit drauf. Nein, die können kein DXR oder DLSS, aber die Rohleistung wird möglicherweise gut vergleichbar sein. Rechnet man noch mit ein, dass selbst eine RTX2070 oder eine 2080 mit DXR ihre Mühe haben, dann fällt jenes Argument für die 2060 eigentlich schon mal flach.
Bleibt eine (wahrscheinlich) 400€ teure Karte mit 6GB VRAM und DXR.
 
  • Gefällt mir
Reaktionen: Sturmflut92, GERmaximus, autofahrer50 und 5 andere
Bevor nun wieder groß über VRAM und Leistungsfähigkeit gemeckert wird, warten wir doch einfach die bald folgenden Tests ab.
Aber 350 Euro finde ich schon ein bisschen zu viel für das Mittelklassemodell. Aber wenn man sich vor Augen hält, dass die GTX 1060 FE einen UVP von 320 Euro hatte, dann ist der Preisanstieg nicht so krass.
Bleibt zu hoffen, dass Partnerkarten auch günstiger angeboten werden.
 
domian schrieb:
2 Jahren schon Probleme leistungstechnischer Natur

Man kann auch Details runter schrauben, was viele Leute machen die in der Preis- bzw. Leistungsklasse kaufen ;)
 
  • Gefällt mir
Reaktionen: Sturmflut92, pietcux, .Sentinel. und 2 andere
Im Gegensatz zu den (preislich) rotz frechen RTX 2080 und RTX 2080 Ti Modellen finde ich die RTX 2070 und auch diese RTX 2060 gelungen. Die RTX 2070 ist im Vergleich zur GTX 1080 günstiger und schneller, wenn auch in beiden Punkten nur geringfügig. Die RTX 2060 wird nach einigen Wochen für 300-350€ über den Ladentisch gehen und dabei sicher eine Performance haben, die sich im Bereich von 1070 - 1070 Ti bewegen wird. Auch ist die RTX 2060 bei weitem nicht so krass abgespeckt, wie es eine GTX 1060 gewesen ist, welche ja nur 50% einer GTX 1080 gewesen ist. Einzig die 6GB VRAM finde ich jetzt nur "OK". Das ist zwar momentan kein nennenswerter Engpass, aber die gesamte RTX Generation hat beim VRAM ziemlich gegeizt.
 
  • Gefällt mir
Reaktionen: GERmaximus und .Sentinel.
Toprallog schrieb:
Aber 350 Euro finde ich schon ein bisschen zu viel für das Mittelklassemodell.

Bedenke du bekommst die Leistung einer 1070 (Ti) die vor dem Mining Boom gut 100 € mehr gekostet hat.
 
MonteSuma schrieb:
@Moriendor

Eine Liste mit getesteten und nicht kompatiblen Monitoren gibt es wahrscheinlich nicht oder?

Mein Acer XF240 ist leider nicht in der Liste, obwohl es dort echt einen großen Anteil an Acer-Monitoren gibt...

Ich denke nicht, da das als Negativwerbung sicher nicht gut ankäme. Im Stream wurde gesagt, dass die nVidia Tests (natürlich! ;) ) nur nach den höchsten Qualitätsansprüchen durchgeführt werden. Das würden die Hersteller vermutlich nicht witzig finden, wenn nVidia so eine Art "shitlist" veröffentlichen würden.
 
MonteSuma schrieb:
@Moriendor

Eine Liste mit getesteten und nicht kompatiblen Monitoren gibt es wahrscheinlich nicht oder?

Mein Acer XF240 ist leider nicht in der Liste, obwohl es dort echt einen großen Anteil an Acer-Monitoren gibt...
Es wird mit jedem FreeSync Monitor gehen. Bei den getesteten Monitoren wird es default aktiviert. Bei den anderen musst du es einfach nur manuell machen.
 
  • Gefällt mir
Reaktionen: MonteSuma
MonteSuma schrieb:
@Moriendor

Eine Liste mit getesteten und nicht kompatiblen Monitoren gibt es wahrscheinlich nicht oder?

Mein Acer XF240 ist leider nicht in der Liste, obwohl es dort echt einen großen Anteil an Acer-Monitoren gibt...

The monitors that are confirmed to receive a G-Sync compatibility update, and therefore offer adaptive sync with Nvidia GPUs, are:

  • Acer XFA240
  • Acer XG270HU
  • Acer XV273K
  • Acer XZ321Q
  • Agon AG241QG4
  • AOC G2590FX
  • Asus MG278Q
  • Asus VG258Q
  • Asus VG278Q
  • Asus XG248
  • Asus XG258
  • BenQ XL2740
Quelle

PS.:
6-g-sync-compatible-monitors.jpg


PPS.: Ah, das nicht gekonnte überlesen...
 
  • Gefällt mir
Reaktionen: MonteSuma
Moriendor schrieb:
Warum? Mit der Karte wird man normal in 1080p oder 1440p unterwegs sein und die VRAM-fressenden Ultra-Details schon aus Performancegründen (Rohleistung) leicht reduzieren müssen.

Man kann die Spiele, die 6GB VRAM in diesen Auflösungen belegen (nicht unbedingt brauchen!) nach wie vor an einer Hand abzählen.

Offenbar gehst du lediglich vom "out of the Box" Zustand der Spiele aus. Schonmal was von Modding gehört? Oder von Patches, die höher aufgelöste Texturen nachliefern?

6GB sind für eine Karte mit dieser GPU Leistung einfach zu wenig. Immerhin hat NVidia selbst die 1070Ti ja bereits mit 8GB ausgestattet. Und das war absolut gut so.
 
  • Gefällt mir
Reaktionen: Valdorian, fox40phil, CMDCake und 3 andere
Sun-Berg schrieb:
Die GPU wird der neue 1080p Tipp meinerseits. Vor Allem, da Nvidia jetzt auch Adaptive-Sync unterstützt.

Ja, auf ganzen 12 Monitoren von über 400, ganz toll.

Cool Master schrieb:
Ist das bei allen RTX Karten oder nur der?

Alle, aber nur nicht mit jedem Monitor ^^

Toprallog schrieb:
Bevor nun wieder groß über VRAM und Leistungsfähigkeit gemeckert wird, warten wir doch einfach die bald folgenden Tests ab.
Aber 350 Euro finde ich schon ein bisschen zu viel für das Mittelklassemodell. Aber wenn man sich vor Augen hält, dass die GTX 1060 FE einen UVP von 320 Euro hatte, dann ist der Preisanstieg nicht so krass.
Bleibt zu hoffen, dass Partnerkarten auch günstiger angeboten werden.

Naja, rechne mal eher mit 400-450€, die 350$ MSRP sind immer noch ohne Steuern. Dazu kommt dann noch nen schickes Customdesign was auch bezahlt werden will.
 
Zuletzt bearbeitet:
Cool Master schrieb:
Bedenke du bekommst die Leistung einer 1070 (Ti) die vor dem Mining Boom gut 100 € mehr gekostet hat.

Ist ja nicht so, dass es die Karte um den Black Friday rum für 350€ oder weniger gab - und nicht nur einmalig.
 
Captain Mumpitz schrieb:
Aber alleine Shadow of the Tomb Raider hatte die 8GB meiner RX470 sehr gut gefüllt

Das ist kurios, denn bei meiner 2080 sind bei WQHD und diesen Settings nur knapp über 5GB belegt.
 

Anhänge

  • TR_RTX2080.jpg
    TR_RTX2080.jpg
    809,7 KB · Aufrufe: 714
Roche schrieb:
Was bitte soll man denn im Jahr 2019 mit einer Karte anfangen, deren GPU zwar ordentlich Leistung bietet, bei der aber die Speichermenge einfach nicht ausreichend ist?

Grundsätzlich stimme ich dem zu, aber in der Praxis ist es weit weniger tragisch, als hier von vielen immer wieder als Horrorszenario an die Wand gemalt wird. Wenn man in Spielen nicht die Ultrasettings wählt und Speicherfordernde Features wie AO (Ambient Occlusion) und/oder Schatten nicht voll aufdreht, dann passt das schon. Aber grundsätzlich passt es zur Nvidia-Strategie der letzten Jahre: Den VRAM möglichst knapp halten auf den Karten - AMD ist da völlig anders aufgestellt.
 
  • Gefällt mir
Reaktionen: melloo, Revan1710 und v_ossi
domian schrieb:
Ich kann das Gemaule bzgl. des RAMs nicht nachvollziehen, sorry.

Die RTX2060 ist nicht für 4K und hohe FR konzipiert, sondern für FHD und vielleicht WQHD.

Ja klar. Und die GTX1070Ti, war natürlich auch nur für FullHD und vielleicht noch WQHD konzipiert...

Meine Fresse, geht euch denn einfach nicht in die Birne, dass die Auflösung des Monitors allein nicht der Punkt ist?
Man muss doch nur einfach mal hoch aufgelöste Texturen in ein Spiel packen und schon steigt der Speicherbedarf massiv an. Dabei ist es egal, ob die grundsätzliche Spielauflösung bei FullHD verbleibt.

Aber ist ja egal, die Karte kommt von NVidia, also ist die halt grundsätzlich gaaaanz toll, nicht wahr?
 
  • Gefällt mir
Reaktionen: fox40phil, Headphonejack, Sennox und 2 andere
domian schrieb:
Sehe ich anders, denn eine RTX2060 wird wohl in 2 Jahren schon Probleme leistungstechnischer Natur mit neuen Titeln haben. Wozu dann also die Reserven beim Ram?
Warum sollte sie aufgrund der Rohleistung Probleme haben? Haben 580 und 1060 auch nicht und die sind noch älter.

Probleme gibt's dann weil nur 6GB verbaut sind. Unsexy, damit sind 'ne Vega56 und 1070(Ti) viel attraktiver bei aktueller Preislage.
 
  • Gefällt mir
Reaktionen: Sturmflut92, Geckoo, Bänki0815 und 3 andere
  • Gefällt mir
Reaktionen: scornthegreat und fahr_rad
v_ossi schrieb:
PPS.: Ah, das nicht gekonnte überlesen...

Mir stellt sich gerade nur die Frage ob XFA240 und XF240 ein und derselbe Monitor sind. Im englisch-sprachigem Raum gibt es den XFA240 und im deutsch-sprachigem Raum gibts den XF240. Sieht zwar gleich aus, aber eben ne andere Bezeichnung...
 
Faust2011 schrieb:
Grundsätzlich stimme ich dem zu, aber in der Praxis ist es weit weniger tragisch, als hier von vielen immer wieder als Horrorszenario an die Wand gemalt wird. Wenn man in Spielen nicht die Ultrasettings wählt und Speicherfordernde Features wie AO (Ambient Occlusion) und/oder Schatten nicht voll aufdreht, dann passt das schon.

Ja toll, da kauft man sich also für 350-400€ ne neue Karte und muss dabei schon im Vorfeld hier und da und dort teils deutliche Abstriche machen, nur weil Dummvidia mit dem Speicher rumknausert.
Das ist einfach inakzeptabel!
Man kauft sich solch eine Karte ja nicht nur für ein Jahr, sondern das Teil soll ja doch schon bitte ne Weile gescheit nutzbar sein.

Würde es sich um eine Karte für vielleicht 150-200€ handeln, dann wärs was anderes. Da muss man grundsätzlich zu Kompromissen bereit sein, was die Spieleinstellungen angeht.
Aber nicht in dem Preisbereich, den NVidia hier für die RTX2060 aufruft. Die hat gefälligst zumindest in FullHD alles gescheit zu packen. Das kann sie aber eben nicht in jedem Fall.
Somit trägt das Ding das Prädikat "Speicherkrüppel" vollkommen zu recht.
 
  • Gefällt mir
Reaktionen: Sturmflut92, fox40phil, iceshield und 2 andere
domian schrieb:
denn bei meiner 2080 sind bei WQHD und diesen Settings nur knapp über 5GB belegt
Nur im Bench oder auch ingame? Der integrierte Bench zeigt nur ansatzweise wie das Spiel mit den Settings und der vorhandenen Hardware läuft, ist aber kein echtes Spielszenario.
Ich bin jemand, der auch während des Spiels immer wieder mit dem Afterburner beobachtet - und da war ich durchaus immer mal wieder mit einem prall gefüllten VRAM unterwegs.
 
Um die 350.- bei einer Leistung von ner 1070Ti. Das wäre der Preis-Leistungskiller von nV.
Ich sehe schon die Absatzzahlen!
Hätt ich nicht gedacht. War eher bei 400.- oder weniger Leistung.
 
Zurück
Oben