Test GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft

DLSS ist (derzeit) nur für UHD:

http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Tests/Review-1265133/4/

"Heißt im Klartext: Im normalen Modus stellt DLSS einen intelligenten Upscaler dar, der für die Ultra-HD-Auflösung angeboten wird (darunter wären die Performance-Gewinne niedriger, sodass sich ein separates Training laut Nvidia nicht lohne). "

und nochmal klarer ausgedrückt von einem PCGH Mitarbeiter:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11805299&postcount=419

"
Zur Klarstellung bezüglich DLSS:

Wir haben vor Ort mit Nvidia darüber gesprochen. DLSS soll in Spielen vorerst nur in Ultra HD (was in der normalen Einstellung bekanntlich nicht mehr natives UHD darstellt) angeboten werden. Später könnte WQHD dazukommen, dafür muss die KI aber noch einmal komplett neu trainiert werden, weshalb sich der Aufwand aus Sicht von Nvidia zurzeit nicht lohne. Die Star-Wars-Demo stellt dahingehend eine Ausnahme dar. "
 
  • Gefällt mir
Reaktionen: Lübke82, pio! und CBL
Demnach ist also DLSS für 98% aller Spieler völlig uninteressant? Nice. :rolleyes:
 
  • Gefällt mir
Reaktionen: Celinna, DanHot, pio! und eine weitere Person
xexex schrieb:
Das macht keine 30% in der CPU Leistung aus. Die CPU rechts hatte vermutlich maximal 4,9Ghz auf einem Kern die CPU links dürfte ein mit Stickstoff gekühlter und auf 5.7Ghz Allcore geprügelter 8700K gewesen sein.
Japp wollte dir nur Recht geben und das mit den Mhz Zahlen ergänzen :)
 
  • Gefällt mir
Reaktionen: xexex
Jan schrieb:
Die Asus GeForce RTX 2080 Ti Strix OC kam gerade zur Tür rein. Die Gigabyte GeForce RTX 2080 Gaming ist im Zulauf.

Weil Wolfgang eigentlich mal diese Woche Urlaub geplant hatte, der Termin dann aber in die Quere kam, ist er jetzt erst einmal ein paar Tage weg. Bis wir ein umfangreiches Roundup bringen müsst ihr euch also noch etwas gedulden. Wünsche dafür aber gerne jetzt schon hier äußern. :)

Partnerkarten klingt gut, besser wäre aber ein SLI-Test!
 
nicht kaufen, die 2080 serie in 12nm ist nur ein lückenfüller, die echten karten kommen in einem Jahr in 7nm
 
  • Gefällt mir
Reaktionen: Celinna und DanHot
ToaStarr schrieb:
Partnerkarten klingt gut, besser wäre aber ein SLI-Test!
2x 2080ti ohne HDMI 2.1 ist sehr sehr kurzlebig und daher nicht sinnnvoll.
2x 2080 ist nicht sinnvoll wg. 8GB Vram.
2x 1080ti ist mit HDR10>60Hz technisch sinnlos weil im Review schon gezeigt wurde, das ein Flaschenhals
bei 144Hz Monis entsteht.
Verstehe nicht, wie hier 5x von verschiedenen Leuten so eine Frage kommt.
 
Capthowdy schrieb:
Demnach ist also DLSS für 98% aller Spieler völlig uninteressant? Nice. :rolleyes:

Yup, das ist jetzt schon richtig bitter. Imho war DLSS das (vorerst) interessantere der beiden neuen Features.

Das ist schon ziemlich irre eigentlich, 3 neue Karten die ne Menge Platz für neue Kerne reservieren und das einzige Feature dass damit ermöglicht wird, läuft nur auf einer Auflösung, die selbst unter Enthusiasten noch recht wenig verbreitet ist?

Fast *zu* irre um wahr zu sein.
 
  • Gefällt mir
Reaktionen: Smartcom5
Wieso. Gerade in 4k fehlt es doch ab und an an Performance. Da kann ich dann wählen ob 4k native oder 4k über DLSS gerechnet wird.

Denke andere Auflösungen werden folgen müssen aber auch trainiert werden.
 
  • Gefällt mir
Reaktionen: Lübke82 und Dark Matter
Flyto schrieb:
nicht kaufen, die 2080 serie in 12nm ist nur ein lückenfüller, die echten karten kommen in einem Jahr in 7nm
Welche Karte würdest du mir empfehlen, mit der ich in UHD durchgehend flüssig in hoher bis sehr hoher Qualität zocken möchte?
 
  • Gefällt mir
Reaktionen: Lübke82
Dai6oro schrieb:
Zur Klarstellung bezüglich DLSS:

Wir haben vor Ort mit Nvidia darüber gesprochen. DLSS soll in Spielen vorerst nur in Ultra HD (was in der normalen Einstellung bekanntlich nicht mehr natives UHD darstellt) angeboten werden. Später könnte WQHD dazukommen, dafür muss die KI aber noch einmal komplett neu trainiert werden, weshalb sich der Aufwand aus Sicht von Nvidia zurzeit nicht lohne. Die Star-Wars-Demo stellt dahingehend eine Ausnahme dar. "

Wenn das stimmt, wäre das die Lachnummer schlechthin. Da wird die Niesche der Niesche bedient. Die 10 Leute werden sich drauf stürzen :rolleyes:
Da würde dann tatsächlich die Reihe komplett aus meinem Interesse verschwinden, weil das das einzige in Zukunft nutzbare Feature für WQHD gewesen wäre.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Vitec und milliardo
Also als 3440x1440 User hätte ich DLSS auch gerne gehabt. Ist nicht so als wäre das ne niedrige Auflösung. ;(

Nuja, dann kann ich erst mal abwarten. Ist eh vernünftiger.
 
  • Gefällt mir
Reaktionen: Daddi89
Damit ist DLSS auch erstmal Geschichte. Das macht es von einer Niesche zu einer Randerscheinung. Welche Entwickler (außer sponsored by nVidia) baut das dann noch in seine Spiele mit ein, wenn es lediglich für UHD genutzt werden kann?
 
Krautmaster schrieb:
Das stimmt. Aber das dürfte sicher kommen imho gibt es keinen technischen Grund das nicht...

Technisch nicht, aber womöglich finanziell? Wenn Nvidia meint, das lohne sich selbst für andere hohe Auflösungen außer 4k erst mal nicht, dann ist die Beschäftigung des Supercomputers ein deutlich teurerer Spass als ich dachte.

Das spricht auch eher nicht dafür, dass viele ältere Spiele ein DLSS-Profil erhalten werden.
 
Zuletzt bearbeitet:
Dai6oro schrieb:
[...]
Zur Klarstellung bezüglich DLSS:

Wir haben vor Ort mit Nvidia darüber gesprochen. DLSS soll in Spielen vorerst nur in Ultra HD (was in der normalen Einstellung bekanntlich nicht mehr natives UHD darstellt) angeboten werden. Später könnte WQHD dazukommen, dafür muss die KI aber noch einmal komplett neu trainiert werden, weshalb sich der Aufwand aus Sicht von Nvidia zurzeit nicht lohne. Die Star-Wars-Demo stellt dahingehend eine Ausnahme dar. "

Aha, noch ne neue Info für mich. Das bedeutet, DLSS und Raytracing zusammen wird schwierig.

Macht Kantenglättung auf 4K denn überhaupt Sinn? (Hab keinen 4K Schirm)
 
Also technisch scheint es zu funktionieren, aber den größten Nutzen hat es in UHD und andere Auflösungen hängen vom Wohl und Wehe Nvidias ab. Besitzer eines 21:9 oder 32:9 Monitors oder noch exotischere Auflösungen bleiben wohl erstmal außen vor.
Dazu sind spieletaugliche UHD Monitore derzeit an 2 Fingern abzuzählen. Ingesamt kommt mir das so vor als wäre alles zu früh auf den Markt gekommen. --> Wait for 7nm GPUs.
 
  • Gefällt mir
Reaktionen: DanHot
Hmm, DLSS nicht auf meinem Ultrawide? Jetzt bin ich enttäuscht und hoffe auf Ausbesserung :(
3440x1440 ist halt wirklich kein Zuckerschlecken.

Btw: Nicht mehr lange und wir knacken die 1000 Posts :D
 
Taxxor schrieb:
Also ich weiß ja nicht wo du das siehst, aber hier im Test ist ist die 2080Ti FE 24% besser in Perf/Watt als die 1080Ti FE, OC gegen OC ebenfalls 23%

Schön, dass du mein Argument untermauerst, indem du das absolute best case Szenario für die 2000er Serie auswählst. Alte Founders Edition gegen neue (quasi custom) Founders Edition in 4k auf CB!

In 1080p und 1440p sind es schon nur noch ~1,5% bei der 2080 und ~11% für die 2080Ti
Bei TechPowerUp sind es selbst in 4k nur 11% bei der 2080 und 15% bei der 2080Ti

Da ist man ganz andere Sachen von Nvidia gewohnt.
Bei Pascal hatte man zwischen 30 und 40% bei dem Vergleich zwischen 2 gleich "schlechten" Referenzdesigns.
 
  • Gefällt mir
Reaktionen: CBL
Zurück
Oben