Test GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft

ZeroZerp schrieb:
Ich bitte um die Quelle, wo DICE das von sich gegeben haben soll.
Das wurde die Tage groß und breit selbst hier auf ComputerBase diskutiert – und in dem Thema hast Du selbst neun Beiträge geschrieben. Also tue bitte nicht so, als wüßtest Du nicht, worum es geht und als wäre das Thema jetzt plötzlich neu.

Falls Du die jeweilige Quelle meinst, in denen es um die genannten 25 FPS ging; Dem entsprechend hat sich ein Entwickler oder einer aus DICE' PR-Abteilung auf reddit geäußert, steht Dir natürlich frei das zur Abwechslung mal selbst rauszusuchen.


In diesem Sinne

Smartcom
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: s0UL1 und Celinna
lustigertxverarschep2fpc.jpg
 
  • Gefällt mir
Reaktionen: hurcos, Do Berek, Celinna und 10 andere
Laphonso schrieb:
Und auf jeden Fall sollte man nicht den CB Test als Maßstab nehmen, sondern den Internetrandom Leli196, der uns mit seiner Expertise die Welt erklärt.
Man sollte sehr wohl den CB-Test als Maßstab nehmen; er offenbart doch recht eindeutig, dass es für den Preis der 1080 Ti lediglich die 2080 gibt, welche aber nur marginal besser ist.

Edit: Ach ja, ganz vergessen, dass die 2080 ja sogar noch weniger Speicher hat als die 1080 Ti und das bei gleichem Preis. Jeder der über einen Kauf einer Nvidia Grafikkarte nachdenkt sollte ich gut überlegen, ob der das noch mitmachen will.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gesperrter_User
Ulukay schrieb:
Bis die Games das unterstuetzen, hat man sie schon laengst durchgezockt

War es bei DX12 anders? Die ersten Spiele die kommen, dienen genauso wie bei DX12 zur "Übung". Ist DX12 deshalb ein Flopp und hätten sich die Grafikkartenhersteller die Unterstützung dafür sparen können?

Ohne Hardware keine Spiele und es soll tatsächlich sogar Titel geben die spielt man nicht einmal durch und legt sie weg.
 
kann kein 4k mit RT: check(alle turings)
kann DLSS nur in 4k: check(alle turings)
kann kein 4k durchweg: check(2070/2080)
hat zuwenig speicher für die rohleistung: check(2080, 2070 sowieso)
kostet mehr bei gleicher leistung und weniger speicher ggü. 1080Ti: check(2080 und wohl auch 2070)
kann weder DLSS noch RT nutzen: check(2070)

warum hat NV also eigentlich das gerümpel unterhalb der 2080Ti gebracht?
 
  • Gefällt mir
Reaktionen: Vendetta, MouseClick68, Celinna und 7 andere
Find strategisch genial was Nvidia da mit Tensor + RT macht. Sie eröffnen ein ganz neues Feld dass drüber hinaus auch sicherstellt dass man künftig wieder schnellere Grafikkarten kaufen muss, das natürlich schwer in Nvidias Interesse liegt.

Die denken da weiter als so mancher hier im Forum der eher ne 1080 TI mit mehr Shader gesehen hätte anstelle der RT und Tensor "Verschwendung".

Rasterizing wird zwar noch lange bleiben, aber der Anteil an RT wird wohl steigen.
 
ich hätte mir einen Grundlegende Erklärung zu dem Featureset von DLSS gewünscht und nicht so nen halbgaren Satz ..

"Beide Programme haben eins gemeinsam: DLSS2X, also der optisch schönste Modus, der auf die native Auflösung noch „KI-Upscaling“ draufsetzt, gibt es nicht. Stattdessen wird das normale DLSS genutzt. "

Also hab ich das richtig verstanden mit (DLSS2X = Upscaling +KI) und (DLSS = Upscaling)

und was genau macht die KI ???

und wie kommt nvidia darauf Supersampling als begriff für upscaling einzuführen ???

also bisschen ausführlicher die eigentlich Methode des DLSS ausleuchten wäre doch bestimmt möglich ... kleine Tabelle oder evtl mal nen eigenen Artikel machen darüber was das jetzt genau ist,

denn hier haben ja viele geschrieben das wäre downsampling und würde in nem supercomputer bei nvidia vorberechnet.
 
Sagt mal, verliert denn bei den aufgerufenen Preisen noch einer - außer mir - die Lust am entspannten zocken?
850 EUR für ne 2080 und 1260 EUR für die Ti - allein für eine schäbige Grafikkarte!
Früher habe ich ja immer den PC als beste Plattform verteidigt, aber bei den Preisen ist man zwangsläufig am hadern! Meine R9 390 darf damit weitere 2 Jahre verbleiben - bis hoffentlich wieder etwas zum fairen Preis von AMD kommt - oder ich lass es dann sein...ganz ehrlich.
 
  • Gefällt mir
Reaktionen: MouseClick68, nebulus, Max007 und 3 andere
Krautmaster schrieb:
Find strategisch genial was Nvidia da mit Tensor + RT macht. Sie eröffnen ein ganz neues Feld dass drüber hinaus auch sicherstellt dass man künftig wieder schnellere Grafikkarten kaufen muss, das natürlich schwer in Nvidias Interesse liegt.

Die denken da weiter als so mancher hier im Forum der eher ne 1080 TI mit mehr Shader gesehen hätte anstelle der RT und Tensor "Verschwendung".

Rasterizing wird zwar noch lange bleiben, aber der Anteil an RT wird wohl steigen.
Ja das ist lobenswert,aber zu welchem Preis.
 
Smartcom5 schrieb:
Das wurde die Tage groß und breit selbst hier auf ComputerBase diskutiert – und in dem Thema hast Du selbst neun Beiträge geschrieben. Also tue bitte nicht so, als wüßtest Du nicht, worum es geht und als wäre das Thema jetzt plötzlich neu.

Das Thema ist neu, weil so etwas von DICE oder einer deren Mitarbeiter nie behauptet wurde. -Konnte in dem benannten Thread auch schon keiner belegen. DICE hat was anderes gesagt.

Falls Du die jeweilige Quelle meinst, in denen es um die genannten 25 FPS ging; Dem entsprechend hat sich ein Entwickler oder einer aus DICE' PR-Abteilung auf reddit geäußert, steht Dir natürlich frei das zur Abwechslung mal selbst rauszusuchen.
Schon versucht- Finde es nicht. Wird aber immer besser. Jetzt sind es mit RTX schon 1080P in 25FPS bei Battlefield 5....
Wer bietet (natürlich ohne handfeste Beweise) weniger?
 
Geht man davon aus, dass Nvidia die besten Samples an die Tester verschickt hat und alles andere wäre verrückt anzunehmen und bezieht man den Preis mit ein, bin ich sehr ernüchtert.

Die angepriesenen Features noch nicht relevant da nicht verfügbar, der Preis der 2080 über dem der 1080ti Costums und die Leistung dafür nicht in dem Rahmen besser...
Vergleicht man den Sprung unter den Varianten 1080 und 2080 könnte man meinen er sei groß genug, aber dabei sollte man nicht vergessen, dass das die Ausbeute von ZWEI Jahren ist.
Der Kunde kauft zudem nicht nur über die Leistung sondern auch über den Preis.

Abseits alledem finde ich es sehr gut, dass Nvidia neue Technologien voranbringt die nicht komplett proprietär sind. Der Marktführer sollte seine Marktmarkt auch mal für den Fortschritt nutzen. ;)
 
Birke1511 schrieb:
Ja das ist lobenswert,aber zu welchem Preis.
Du meinst jetzt bezogen auf den Verkaufspreis?

Naja. Gehe doch mal anders an die Sache ran. Wie kann es sein dass ein Konsolen Chip der aktuell vllt nen Gegenwert von noch 50 Euro hätte teils ne ähnlich gute Grafik zaubert als der Top End PC?

Oft sieht ein gut optimiertes Preset unter dem Ultra Extrem Preset kaum schlechter aus, braucht aber nur nen Drittel oder weniger der Leistung.

Fakt ist doch eher der dass die letzten GPU Generationen ihre Flops in erster Linie für marginal bessere Optik verbraten. Da ist die Frostbite Engine noch absolute Referenz, aber oft hat man den Eindruck als sind die meisten Game Engines einfach nur verschwenderisch was GPU Leistung angeht und das bezahlt jeder GPU Käufer.

Auch die Skalierung Optik zu Shader/Flop wird einfach immer schlechter.

Besser kann es, auch wenn es nun zb viel Fläche und Leistung kostet, nur mit dem Raytracing Ansatz werden da sich so realitätsnahe physikalisch korrekte Welten abbilden lassen. Das kostet wahnsinnig viel Leistung Initial, schiebt aber da Limit erreichbarer Grafik von Battlefield 5 hin zu dem was wir aktuell im Kino sehen, denn das wird geraytraced.

Klar ist es noch absolutes Gimmik aber es funktioniert das erste Mal. Denke aber man sieht schon die wie Game Entwickler auf sowas gewartet haben und ich denke in 3 Jahren sieht man da noch ganz andere Effizienz, Effekte und Möglichkeiten.

Vielleicht wäre es bald besser die Rasterizing Power zu reduzieren um Platz für mehr Raytracing Einheiten zu machen. Gepaart mit eben optimierten Rasterizing Presets die nicht 90% der Flops verbraten.

Edit: stell dir mal vor es hätte kein 4K Boom gegeben, dann wäre das Scaling bei Rasterizing noch weit schlechter. Und 8k macht kaum noch Sinn im Desktop.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus, gesperrter_User und hans.glück
econaut schrieb:
Im Text steht sinngemäß, dass sich die Customs nicht mehr lohnen würden, weil die FE nicht mehr ins Temp Limit rauscht.

Aber im Text steht auch, dass die 2080 Ti ins Power Limit rennt.

Da haben wir doch schon einen wesentlichen Grund für die Customs. Ich kaufe doch keine Karte mit angezogener Handbremse?

Aber stand im Text nicht auch, dass die Asus 2080 die einzige Karte war, die mehr Freiraum beim Power Target lässt. Das waren 125%, während die FE max 124% erlaubt oder so. Sorry, aber es sieht so aus als hätte CB die Karten bis zum Anschlag übertaktet. Ich würde jetzt nicht auf mehr hoffen. Das einzige Modell, dass noch in Frage käme, ist die MSI 2080TI Trio. Sie hat 2x 8 Pin und 1x 6 Pin als Stromanschlüsse und sie sind ja nicht ohne Grund da.
 
Soderle, hoffentlich fällt die 1080 Ti jetzt nochmal ordentlich im Preis. Die 2080 kann man in der Pfeife rauchen. Kein Fortschritt außer Raytracing, da selbe Leistung wie 1080 Ti und teurer.....danke Nvidia und danke AMD natürlich.

Andererseits ist das 599 Eier Angebot der 1080 Ti längst Geschichte, die kostet wieder locker 700-750 Eier....irgendwas stimmt hier nicht. Shit
 
Ok, ernsthafte Frage: was ist denn eine gute 1080Ti Version. Gerne sehr leise, ohne Spulenfieben?!
 
Noch ne kleine Ergänzung zu RT. Ganz generell.

Stellt euch vor ihr hättet ne GPU die 100x schneller ist als ne 1080 TI. Meint ihr heutige Games würden dadurch plötzlich optisch weit besser aussehen? Klar, 4K 144hz würde gehen, auch 8k, aber Mehrwert? Bringt nichts wenn der Schatten dennoch komisch aussieht, die Spiegellungen fürn Arsch ist und die Texturen werden dadurch auch nicht besser.

Bei Raytracing hingegen würde man im selben Game die Ray's hochdrehen, mehr Samples schaffen, ggf mehr Folgerays errechnen können und das Bild würde immer mehr ner gerenderten Grafik gleich kommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus und .Sentinel.
Glatt und ohne Aliasing ist das Ziel. Mit 4k braucht man keine Kantenglättung, sieht top aus bei modernen Spielen und dann ca. 60Fps und alles ist gut. Aber nicht für 1250 Eier ^^. Das ist pervers. Aber so 50 bis 60 Fps im Schnitt gehen auch mit ner 1080 Ti oder 2080
 
Wir sind aber noch nicht soweit das wir uns über noch bessere Bildqualität unterhalten können, wenn in vielen Auflösungen noch gar nicht die Grundleistung stimmt um alles auf Maximum zu drehen und trotzdem 144 Hz auf den Gaming-Monitoren haben. Wie gesagt, in Zukunft wird das schon interessant. Stand jetzt aber einfach für ein Großteil uninteressant.
 
  • Gefällt mir
Reaktionen: Smartcom5
Zurück
Oben