News Nvidia Turing: GeForce RTX 2080 laut Nvidia ~50 % schneller als GTX 1080

Warum zitiert man so etwas überhaupt? Die GPUs wurden gestern gezeigt. Aber nichts an Benchmarks. Heute werden Folien veröffentlicht. Die GPUs sind vorbestellbar und nicht eine seriöse Quelle kann etwas über die Leistung sagen. Diese Veröffentlichung der PR Materialien seitens nVidia kann man einfach ignorieren. Mehr wohl nicht.

Da ist so etwas wohl deutlich interessanter und diskussionsfähig.

https://www.pcwelt.de/a/rtx-2080-ti-tomb-raider-mit-raytraced-schatten-nur-30-40fps,3452081
 
  • Gefällt mir
Reaktionen: Sebbi, Benji21, Deathless und 3 andere
Demnach ist die neue Grafikkarte auf Basis von Turing je nach Spiel knapp weniger als 50 Prozent schneller, in anderen Spielen knapp mehr – im Schnitt sind es ziemlich genau 50 Prozent.
1. Die Infiltrator Demo ist kein Spiel.
2. In den realen Spielen (hier insgesamt 9) ist die 2080 nur in 2 laut Nvidia flotter als 50% ggü. Pascal. In den anderen 7 nicht, JX3 und SotTR sind es definitiv sogar unter 40%, eher 30-35%.

Weiß nicht, wie man bei der Folie auf im Schnitt 50% kommen will. Je nach Spiel natürlich nicht unmöglich, was auch die Titan V zeigte.
 
  • Gefällt mir
Reaktionen: edenjung
Linmoum schrieb:
Weiß nicht, wie man bei der Folie auf im Schnitt 50% kommen will. Je nach Spiel natürlich nicht unmöglich, was auch die Titan V zeigte.

CB ist halt auf den Hypetrain aufgesprungen. :daumen:
 
  • Gefällt mir
Reaktionen: gesperrter_User, edenjung und ScorpAeon
Doppelte Leistung mit dlss ist durchaus realistisch. Da reicht die Berechnung in 1080p und mit deep learning sieht's aus wie 4k. Das sollte aber auch auf den alten Karten einsetzbar sein.
 
joa, wäre schon nett so. aber ist mit Vorsicht zu genießen.
 
  • Gefällt mir
Reaktionen: lubi7 und edenjung
JMP $FCE2 schrieb:
Umso ärgerlicher, dass sich DLSS nicht treiberseitig bei allen Spielen erzwingen lässt.

Ich verstehe das so. Nvidia lässt ein Spiel auf deren Deep Lerning Hardware laufen, woraus der beste Algorithmus für ein Spiel errechnet wird. Der wird dann vom Treiber für das jeweilige Spiel zum Einsatz gebracht.

Somit erfordert diese Technik auch eine explizite Unterstützung und Freigabe und kann nicht mal eben erzwungen werden. Im Gegensatz zum RT wird es aber vermutlich zu einem späteren Zeitpunkt auch ältere Spiele mit dieser Technik geben.
 
  • Gefällt mir
Reaktionen: MeisterOek, TheBear1517, yummycandy und 2 andere
GUN2504 schrieb:
Irgendwo fehlt mir der Hinweis das die 50% erst noch durch eigene Tests belegt werden müssen. Zumindest steht das sonst bei den AMD Folien dabei...

Aber anscheinend ist CB voll auf den Hype Train aufgestiegen.

Kein Hype Train sondern krummer Rücken seit der NDA. Und nur Papa Nvidia kann da Abhilfe schaffen.
Ich bin schon gespannt wie der "Test" verzerrt werden wird.
 
  • Gefällt mir
Reaktionen: mtmac, Sebbi, j-d-s und 4 andere
Wie wir aus der Vergangenheit doch nun zu Genüge wissen, sind solche Herstellerfolien doch nur Blendwerk. Ich jedenfalls glaube da nicht wirklich dran und will erst unabhängige Tests sehen.
 
  • Gefällt mir
Reaktionen: Flomek und edenjung
Dann doch lieber die 1080Ti die mehr Speicher mitbringt und damit länger nutzbar ist bevor sie wegen Speichermangel flreissig Nachladeruckler produziert oder massiv einbricht.
 
  • Gefällt mir
Reaktionen: StefanSch87 und Augen1337
xexex schrieb:
Somit erfordert diese Technik auch eine explizite Unterstützung und Freigabe und kann nicht mal eben erzwungen werden.

Eigentlich ja nicht den das Netzwerk sollte allgemein gültig sein soll heißen ist egal ob es ein Bild von einem Hund oder einer Katze hoch skaliert wird wohl eher auf ein weiters gameworks sdk hinaus laufen wie VrWorks HairWorks und und und....
 
hm 50% mehr Leistung, wenn man DLSS vergleicht? sehr schlau ;)
 
  • Gefällt mir
Reaktionen: MeisterOek, Sester und edenjung
Folien kann jeder drucken. Die eigenen Test sind nach her entscheidend. Was da im normalen spiel beim normalen User ankommt ist von interesse.
 
Also ich würde das, was die 2080 jetzt kostet für die 2080ti ausgeben. So wird das nix

DLSS finde ich sehr spannend, bin nur gespannt wie man in Zukunft bencht. DLSS aus um besser mit den Vorgängern/Konkurrenz zu vergleichen oder an für die bessere Qualität und mehr Leistung.

Durch DLSS könnte die Karte auch mal doppelt so schnell sein.
40-50% wird sie ohne DLSS schneller sein, wenn man Golem glauben mag
 
  • Gefällt mir
Reaktionen: xBitwinSDKx
Also mit 3 mal knapp über 50% (ohne DLSS) und 7 mal unter 50% (teils deutlich), kommt man im Schnitt auf 50% mehr Leistung?

Sind wohl im Schnitt eher ~40% mehr Leistung gegenüber einer 1080 ohne DLSS.
 
Mit Cerrypicking 50% laut Nvidia, in echt kommen dann also 35-40% raus im Durchschnitt. Wäre 1080Ti Leistung.
 
  • Gefällt mir
Reaktionen: gesperrter_User
Die Preise lassen mich immer mehr zum Konsolenspieler werden. 1 x 2080TI oder 3 x Xbox One X ( ja ich weiß Äpfel und Birnen :D )

Kranke Preise
 
  • Gefällt mir
Reaktionen: MarcsMax und ScorpAeon
Flyto schrieb:
ich freu mich schon auf die 1150 mit 96 bit speicherinterface für 399 EUR SRP (510 EUR strasse) xD

ich darf mich mal selbst zitieren. ok es wird wohl eine 2050 werden aber der Rest stimmt!
 
  • Gefällt mir
Reaktionen: edenjung
Ich finde das Vorgehen Seitens NVIDIA sehr fragwürdig.

Vorstellung ohne echte Benchmarks (dafür RT in Massen), Karte für Vorbesteller freigeben ohne unabhängige Tests und dann nach und nach Marketing Folien unters Volk bringen.

RT? DLSS? Wen soll das zum jetzigen Zeitpunkt interessieren?

Game A, B & C auf einer 1080 (Ti) alle Regler auf Anschlag bei 4K, Game A, B & C auf einer 2080 (Ti), gleiches Szenario und dann die Ergebnisse bitte.

Weshalb sollte man in eine 850 bzw 1.250 Euro teure Grafikkarte investieren wenn diese dann noch immer nicht im Stande ist High-End Szenarien zu befeuern?

Ist sie das? Gut, dann liefert doch mal eine Folie die darüber Aufschluss gibt.

RT, DLSS, so ein Blödsinn.

Wird Zeit für unabhängige Tests.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: Ernie75, MeisterOek, chuckie und 18 andere
RTX 2080 non Ti werde ich mir wohl holen, 1070 für 320 Tacken schon verkauft. :)
Ansonsten noch 3-4 Wochen warten auf Benchmarks und dann hoffentlich mit etwas besseren Preisen bestellen. :)
 
  • Gefällt mir
Reaktionen: kristwi
Das Deep Learning AA klingt interessant da es wohl in erster Linie über die Tensor Kerne berechnet werden dürfte, ergo weniger der eigentlichen klassischen Shader Leistung beanspruchen dürfte. Schön dass es wohl funktioniert imho liefert man gleich eine Vergleich mit der wohl positiv abschneidet. Dürfte ggf auch in bestehenden Titeln schönes AA zum Nachrüsten geben dass die Leistung anhebt.
 
  • Gefällt mir
Reaktionen: xBitwinSDKx und Zespire
Zurück
Oben