Test GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft

Auch Igor hat mit einer 1080 Ti FE getestet, die direkt ins Limit läuft und runtertaktet. Auf einigen US-Seiten gab es bessere Benchmarks zu BF1, wo die 1080 Ti dann nur noch minimal hinter der 2080 ist.

Das DX12 Ruckeln ist übrigens kein Pascal Problem, sondern ein Problem der Engine, welches Dice seit Battlefront2 weiterhin mitschleppt und lediglich vor kurzem angeblich gefixt wurde. Dieses gleiche Mikroruckeln gab es auch auf AMD Karten, obwohl die grade bei DX12 profitiert haben.
 
  • Gefällt mir
Reaktionen: TechFA, devastor, Smartcom5 und 3 andere
AthlonXP schrieb:
sehe ich auch so, also bleibt meine Titan XP CE noch ein Weilchen :D

Hast dein Geld aber sinnvoll investiert.. :rolleyes::freak::freaky:
 
t3chn0 schrieb:
CB hat ja das von mir fast ausschließlich gespielte BF1 nicht getestet, von daher verlinke ich mal auf Igors Test bei Tomshardware.

Es ist unglaublich wie stark die Turing Karten in BF1 sind. Hier deklassiert die 2080 eine 1080Ti um Längen und die 2080Ti ist auf einem anderen Planeten unterwegs.

Betrachtet man sich jetzt noch weiter unten die Frametimes unter DX12, dann sieht man hier eindeutig dass "Ruckeln" von Pascal in BF1 bei DX12. Mit Turing ist das komplett weg und man hat perfekte Frametimes, ein riesiger Fortschritt. Auch sind die MinFPS deutlich besser.

Mit dem richtigen Spiel setzt Turing neue Maßstäbe.


https://www.tomshw.de/2018/09/19/nv...ng-turing-benchmarks-und-neue-erkenntnisse/8/
Das ist aber bei Igor DX12 und das läuft nach meinen Erfahrungen eher inkonsistent mit Rucklern bei Bf1, selbst mit VEGA, also ein Engine Problem

Einen DX11 Test findest bei Hardware Unboxed und da ist alles normal, 2080 und 1080ti gleichauf und die 2080ti 25% voraus. Du wirst mit DX12 in Bf1 eher nicht glücklich.
 
  • Gefällt mir
Reaktionen: Herr Melone, Smartcom5, gesperrter_User und eine weitere Person
t3chn0 schrieb:
Es ist unglaublich wie stark die Turing Karten in BF1 sind. Hier deklassiert die 2080 eine 1080Ti um Längen und die 2080Ti ist auf einem anderen Planeten unterwegs.

1. DX12 ist bei BF1 nicht wirklich gut umgesetzt und selbst AMD-Karten haben dort Probleme.
2. Wo ist die Ti auf einem anderen Planeten unterwegs? Laut dem Test hat die niedrigere min. fps als die 2080 in WQHD.
3. Test mit DX11 heranziehen, weil DX11 in BF1 nur wirklich nutzbar ist und bemerken, dass die 2080 auf Niveau der 1080 Ti ist.

Wie DX12 gut umgesetzt wurde, sieht man derzeit beim neuen Tomb Raider. Auf dem Level ist aber Battlefield 1 nicht und wird es wohl auch nicht mehr sein.
 
Zuletzt bearbeitet:
Supermax2004 schrieb:
Soderle, hoffentlich fällt die 1080 Ti jetzt nochmal ordentlich im Preis. […]
Andererseits ist das 599 Eier Angebot der 1080 Ti längst Geschichte, die kostet wieder locker 700-750 Eier....irgendwas stimmt hier nicht. Shit
Preissenkungen? Bei nVidia?! Pft!
Könntest Du dennoch Recht haben und es ist nVidia's Coup d’État – als Backlash Rückwirkung aus dem Mining-Boom und eine Wechselwirkung aus Gier, Profit und Ballast.

Tornhoof schrieb:
Falls es einen interessiert, folgende E-Mail kam gerade
[…]
vielen Dank für Ihren Einkauf im NVIDIA Online Store.

Leider kam es beim Versand Ihrer Bestellung der RTX 2080 Ti Founders zu einer unvorhergesehenen Verzögerung. Wir teilen Ihnen in Kürze das aktualisierte Lieferdatum mit.
[…]
Bei allem gegebenen Respekt für den Mut eines Kaufs einer solchen Karte zu diesem Preis – ich tät‘s nicht (auch nicht von AMD); Irgendetwas sagt mir, daß Du definitiv nicht der Einzige sein wirst, der solch eine Antwort in Zukunft wird erhalten (siehe oben)!
bgrin15x18.gif

Krautmaster schrieb:

Klar ist es noch absolutes Gimmik aber es funktioniert das erste Mal. Denke aber man sieht schon die wie Game Entwickler auf sowas gewartet haben und ich denke in 3 Jahren sieht man da noch ganz andere Effizienz, Effekte und Möglichkeiten.
Okay, wenn man aber mal die Faktenlage betrachtet, dann sieht man das selbst DICE die Effekte zurück gedreht hat, um spielbare Ergebnisse zu schaffen. Ausgerechnet DICE, einem Studio welches mit Square Enix in der Regel eines der ersten ist, die eine neue Technik mit Freuden adaptieren (Mantle, TrueAudio, DirectX 12, Vulkan et cetera), wenn sie denn Potential für die Zukunft hat.

Im Moment klingt das alles einfach deutlich weniger wegweisend und zukunftstauglich. Die Resonanz der Entwickler im Allgemeinen ist alles andere als euphorisch und auch insgesamt (nicht nur bei DICE) ist das entsprechende Echo eher verhalten.

Wenn schon selbst DICE nicht wirklich den Eindruck erweckt, daß die Technik was taugt, na Wer denn dann?
Irgendwie dolcht es einem, daß abseits der von nVidia bewußt gehypten Vorstellung da doch einfach mal deutlich weniger Substanz vorhanden ist, als man uns Kunden hier glaubhaft machen will und von einer „spektakulären Überraschung“ wirklich keine Rede sein kann – Fanboy hin oder her. Wenn denn zumindest hardwareseitig das Potential vorhanden wäre, ja …
Aber so, und zu dem Preis? Treppenwitz bis Rohrkrepierer.
zeitg29x23.gif



In diesem Sinne

Smartcom
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: s0UL1
Wird interessant zu sehen welche Graka länger durch hält in 4k, die GTX2080 mit 8GB oder die GTX1080Ti mit 11GB
 
Es fehlt einfach die Masse an Käufern, die das ausnutzen wollen und können.
Wenn Nvidia vielleicht mit der 7nm Literation und einer Midrangekarte ab 250€-300€ RT spielbar zum laufen bekommt, werden die Studios wesentlich enthusiastischer.
Allerdings wäre es noch besser, wenn AMD mitmacht, mit ihren neuen Konsolen SoCs = Navi Ableger, sonst wird das eher nichts.
Für die reine Gaming MAsse ist ja schon die neue Chinesische Konsole mit Ryzen-Vega SoC ein ziemlicher Hammer, da auch gleichzeitig vollwertiger PC mit Windows 10, da ist eigentlich nur der RAM ein Stolperstein, sonst könnte sich das jeder 60nHz Gamer und PC Surfer sofort in die Bude stellen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: s0UL1 und Smartcom5
ZeroZerp schrieb:
Das Thema ist neu, weil so etwas von DICE oder einer deren Mitarbeiter nie behauptet wurde. -Konnte in dem benannten Thread auch schon keiner belegen. DICE hat was anderes gesagt.


Schon versucht- Finde es nicht. Wird aber immer besser. Jetzt sind es mit RTX schon 1080P in 25FPS bei Battlefield 5....
Wer bietet (natürlich ohne handfeste Beweise) weniger?

Es gibt ein video das battlefield 5 in 4k mit raytracing on zeigt. Wurde hier auch schon geposted.
 
Also ich finde nur 1080p Videos mit RT on, ansonsten noch 4k mit 60FPS aber ohne RT.


und ehrlich gesagt so viel besser sieht es für mich nicht aus
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: edenjung
Supermax2004 schrieb:
Es wird einige völlig Irre geben, die sich die 2080er Karten blind kaufen werden, egal wie teuer. Nvidia wird gut verdienen und die Entwickler pushen, mit Kohle, damit die Raytracing implementieren damit Nvidia mit immer mehr Spielen werben kann, damit noch mehr Irre zuschlagen.

Ich kaufe mir seit 22 Jahren dGPU's. Also so irre kann ich da mit meinem RTX2080 Kaufverhalten nicht liegen, oder? (ich habe 470er Fermi's als Blowerversion im SLI gehabt, glaub mir, DAS war irre!)

RTX Rules!
 
econaut schrieb:
123% bei der 2080 Ti bedeutet von 260 auf 320 W PT. Theoretisch wären 375 W mit 2x8 Pin kein Problem.

Daher tendiere ich zu einem Custom Modell mit vernünftigem PT.

Eine MSI Duke benötigt auch nur 275W und trotzdem hat sie 2x 8 Pin bekommen. 125% ist das Maximum was ich bei Turing bisher gesehen habe. Die 2080TI Trio sieht mit 3 Stromanschlüssen vielversprechend aus, aber auch hier würde ich nicht sehr viel mehr erwarten. 130-140% Max PT ist doch Wahnsinn, meinst du nicht? Ich hätte sicher nichts dagegen, aber ich halte es nicht für realistisch.

Edit: Mir ist noch eine Sache eingefallen. Wir beide haben den VR Anschluss vergessen. Dieser will auch noch zusätzlich 30 Watt haben, wenn er benutzt wird.
 
Zuletzt bearbeitet von einem Moderator:
Im Westen nichts neues also.

Nahezu fast alles was die RTX 2080 Ti als neue Speerspitze zu bieten hat, konnte die Nvidia Titan Volta als absolute Oberklasse schon vor 9 Monaten bereits und bleibt trotzdem immer noch einen Tiken schneller oder ist zumindest gleichschnell wie die RTX 2080 Ti.

Ob die neuen Raytracing Funktionen und das neue KI basierte Anti Aliasing per Software Treiber Update auch auf den Tensor Cores der Titan Volta laufen werden, wird sich zeigen müssen.

Das einzig wirklich gute am RTX 2080 Ti Release: Die enorme Leistung der Titan Volta gibt es jetzt satte 2.000,00 Euro günstiger mit auch noch deutlich besserer Kühlung.

1.249,00 Euro oder bald sogar noch weniger für eine RTX 2080Ti , anstatt 3.200,00 Euro für eine Titan Volta bei fast identischer Leistung ist schon eine Ansage.

Die Paar fehlenden Shadereinheiten, 1Gb weniger VRAM, GDDR6 anstatt hochmodernes HBM kann man verschmerzen für 2.000,00 Euro weniger beim Preis.

Wüste gerne ob demnächst auch eine Nvidia Titan Turing kommen wird, oder ob die ja immer noch leicht schnellere Titan Volta erstmal für über 1 Jahr auch weiterhin die Leistungskrone behalten wird, bis es eine Titan Next in 7nm dann geben wird.
 
  • Gefällt mir
Reaktionen: Smartcom5
tomshardware hat es eigentlich treffend formuliert:

Deshalb fange ich mit der GeForce RTX 2080 Ti an, der ich von den Leistungsdaten und dem Feature-Set her auch den höchsten Respekt zolle. Warum das so ist, ist schnell erklärt, denn selbst in heutigen Spielen ist diese Karte ein echter „Brecher“. Man muss da noch nicht einmal 30% oder 50% Mehrleistung ohne Zuhilfenahme der neuen Features bekommen, um den Unterschied in der Ultra-HD-Auflösung zwischen „spielbar, aber…“ und „richtig gut spielbar“ zu merken. Manchmal reichen auch schon 10 FPS mehr, um auch die magische 60-Hz-Grenze sicher zu überschreiten.


Das ist dann genau der Schritt, auf den man so lange gewartet hat. Dazu kommt, dass diese Karte es fast immer schafft, eine Titan V zu überflügeln und damit komplett obsolet zu machen. Und bitte komme jetzt keiner mit dem Preis, denn die Titan V war das, was man hätte kritisieren können: ein sündhaft teures Spielzeug für die überbetuchten Pixelschubser-Kiddies.


Man kann den Preis drehen und wenden wie man will, es ist die schnellste Karte, die endlich sauberes Spielen in 4K und mindestens 60 Hz bietet, da beißt die Maus keinen Faden ab. Wer genau DAS braucht, der hat keine Alternative und das allerletzte Quäntchen Mehrleistung kostet nun mal in allen Branchen überdurchschnittlich.

Genau dafür ist in meinen Augen die 2080 Ti da, die 980 ti war für WQHD die erste gut geeignete Karte, die 1080 Ti war die perfekte Karte für die Auflösung und mit Abstrichen einigermaßen für UHD zu nutzbar. Und die 2080 ti holt genau die 30% raus, die der 1080 ti fehlten. Und das ist in meinen Augen das wichtigste, richtig gut spielbares UHD was mit den neuen Gsync Monitoren perfekt wird aber auch richtig richtig Geld kostet. Aber das tut es auch wenn man auf der NOrdschleife Spaß haben will, da geht's eigentlich auch erst mit nem 911er richtig los :-)
 
  • Gefällt mir
Reaktionen: Affe007, Vitec und xexex
Schon witzig im Vergleich eine PS4pro in 4k@60fps zusehen.

 
  • Gefällt mir
Reaktionen: s0UL1, Grundgütiger und Smartcom5
Smartcom5 schrieb:
Ich hatte mir da bereits seinerzeit vor über einem Monat schon Gedanken drüber gemacht …

Edit: Mir fällt gerade (wieder) ein, daß ich total vergessen habe, sämtliche Dinge bezüglich des Speichers mitzukopieren. nVidia hat ja ganz bewußt den zurzeit langsamsten GDDR6 der gesamten Industrie verbaut. Auf Karten für +1200,– €. Also wird selbst schon wieder mit diesem Winkelzug à la Billigheimer die Marge und der Profit am Quartalsende massiv nach oben gedrückt …


Endlich jemand, der sich Gedanken macht und das alles versteht.
Bei CB (und alle anderen Foren) gehörst du da zur Minderheit.

Ich kaufe deswegen überhaupt keine Grafikkarte mehr.
Solange wie meine 270x rennt, bleibt die.
Ist sie defekt, kommt ne "neue" 270x für 50.- und weniger rein.
Gibt eh keine neuen Spiele, die mich interessieren.
 
  • Gefällt mir
Reaktionen: TechFA, s0UL1 und gesperrter_User
Florianw0w schrieb:
"esports" und dann "fortnite" ? ihr habt da aber nen schönen bockmist gebaut und wow die 2080/Ti ist ja mal sowas von Residentsleeper^10

Das ist mir auch besonders störend aufgefallen, Fortnite als Beispiel für "E-Sports-Spiele"? Ernsthaft @Wolfgang ? Das Ding ist ein Casual Spiel mit hohen Spielerzahlen, sonst nichts.
Überhaupt, was ist das für eine beschissene Auswahl für "E-Sports-Spiele"? Fortnite, Rainbow Six: Siege und World of Warcraft?! Wo ist Counter-Strike: Global Offensive? Wo ist Dota 2?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Florianw0w
CS GO und Dota kann jeder Taschenrechner. Das weiss jeder.
Wieso also den Kram testen?
Da ist sowas wie Fortnite oder Rainbow 6 einfach aktueller. Auch wenn geradr Rainbow auch auf jedem Toaster laufen dürfte
 
Für mich persönlich ist noch immer DLSS durchaus interessant . Von daher Tensor Cores Gerne, aber RT hätte man noch rauslassen können.
Vielleicht muss man RT in 1080p und 60fps aber auch in Kombination mit DLSS sehen und das Gesamtergebniss ist dann durchaus besser als viele hier sich vorstellen.
Eventuell kann man so eine Kombination zumindest auf der 2080Ti und einem 4K Monitor durchaus nutzen und bekommt keinen Augenkrebs.

XTR³M³ schrieb:
kann kein 4k mit RT: check(alle turings)
kann DLSS nur in 4k: check(alle turings)
kann kein 4k durchweg: check(2070/2080)
hat zuwenig speicher für die rohleistung: check(2080, 2070 sowieso)
kostet mehr bei gleicher leistung und weniger speicher ggü. 1080Ti: check(2080 und wohl auch 2070)
kann weder DLSS noch RT nutzen: check(2070)
warum hat NV also eigentlich das gerümpel unterhalb der 2080Ti gebracht?

Bei der 2070 würde ich nicht so streng sein. Die 8GB auf dieser finde ich durchaus ok auch wenn es immer mehr sein darf. Immerhin steht sie bei der Leistung gegen die 1080 und Vega 64.
Und warum soll die 2070 kein DLSS können. Eher wird es so sein, dass sie vielleicht nicht so viel Geschwindigkeitsgewinn erzielen kann da sie weniger Tensor Cores besitzt.
Bleibt noch der Preis der 2070 mit 640€ der auch schon wieder nahe einer 1080Ti ist als negativpunkt.

Ulukay schrieb:
JA!!!!!
Das DX12 hat keine 400€ extra gekostet.

Kostet uns unsere privaten Daten durch den Windows 10 Zwang :evillol: , aber immerhin gratis , ja.

LaZz schrieb:
ich hätte mir einen Grundlegende Erklärung zu dem Featureset von DLSS gewünscht und nicht so nen halbgaren Satz ..
"Beide Programme haben eins gemeinsam: DLSS2X, also der optisch schönste Modus, der auf die native Auflösung noch „KI-Upscaling“ draufsetzt, gibt es nicht. Stattdessen wird das normale DLSS genutzt. "
Also hab ich das richtig verstanden mit (DLSS2X = Upscaling +KI) und (DLSS = Upscaling)
und was genau macht die KI ???
und wie kommt nvidia darauf Supersampling als begriff für upscaling einzuführen ???
also bisschen ausführlicher die eigentlich Methode des DLSS ausleuchten wäre doch bestimmt möglich ... kleine Tabelle oder evtl mal nen eigenen Artikel machen darüber was das jetzt genau ist,
denn hier haben ja viele geschrieben das wäre downsampling und würde in nem supercomputer bei nvidia vorberechnet.

Ich glaube, das Problem ist, dass die Redakteure derzeit auch noch zu wenig Information haben seitens Nvidia was genau nun wirklich 100% passiert. Und es gibt eben nur FF15 und Infiltrator bis jetzt. Allerdings auf den Screenshots der anderen Hardwareseiten sieht man schon ganz deutlich, dass DLSS auf jeden Fall die unschärfe die TAA besitzt in den Griff bekommt und dabei auch ordentlich an Leistung zulegen kann.
Bleibt nun abzuwarten wie gut sich DLSS verbreiten kann.
 
Verak schrieb:
Hmm ist dem so ?, also wenn ich mir die meistgespielten (online) Games anschaue, sind das durch die Bank nicht wirklich so die Grafikbomben. - CS, Dota, LoL, PUBG usw.
Und? Wieviel Dutzend Gegenbeispiele soll ich dir bringen? Metro, Tomb Raider, Wolfenstein, BF3,4,5 usw.
Deine Beispiele sind keine. Multiplayerspiele sind oft nicht so die Grafikbomben. Es sollen ja auch entsprechend viele Spielen.
 
Don Sanchez schrieb:
World of Warcraft?! Wo ist Counter-Strike: Global Offensive? Wo ist Dota 2?
WoW wird ja doch noch von ein paar Leutchen gespielt, finde das persönlich gut dass das drin ist...

Zu Turing: schon ein schönes Stück Technik, frage mich allerdings was man künftig für 300€ an aktueller Technik bekommt, das ist der Bereich in dem ich bisher unterwegs war und eigentlich auch bleiben wollte. 2050ti?
 
Zurück
Oben