News Turing für Spieler: Nvidia enthüllt GeForce RTX 2070, 2080 und 2080 Ti

ODST schrieb:
In meinen Augen gehört diese High End Karte auch in den High End Markt und der befindet sich schlichtweg nicht bei 1080p

Definiert sich HighEnd neuerdings durch die Auflösung? Muss sich jetzt jeder einen 40" 4K Monitor hinstellen, damit er noch dazu gehört?

Etwa 90% der Spieler nutzen laut Steam noch 1080p oder eine kleinere Auflösung. Was ist also so schlecht daran Karten auf den Markt zu bringen, die bei genau diesen Auslösungen einen echten Mehrwert und eine seit Jahren nicht mehr dagewesene Verbesserung der Optik mit sich bringen?
1535408441638.png


Bei einigen Argumenten hier bekommt man das Gefühl nicht los, als würden sich hier einige schlichtweg auf den Schlips getreten fühlen, was ihre neuen Anschaffungen betrifft. 2160p ist noch lange nicht soweit um 1080p zu verdrängen, weil man schlichtweg nicht mal eben die vierfache Leistung aus dem Ärmel zaubern kann. 1440p ist und bleibt nichts halbes und nichts ganzes weil es nie TV Geräte mit dieser Auflösung geben wird. 1080p ist noch immer die mit Abstand meistgenutzte Auflösung und lässt sich auch wunderbar auf 2160p hochskalieren, also wozu die ewige Diskussion, die sich seit mehreren Seiten nur noch im Kreis dreht?

Wer zwingend in 4K spielen will, kann es mit den neuen Karten doch tun. Der "Rest" bekommt einen Qualitätssprung geboten, den es so in vielen Jahren nicht mehr gegeben hat zu Early Adopter Preisen die noch nie niedrig waren. Wem das alles zu teuer ist oder nicht passt, der braucht keine der neuen Karten zu kaufen.

Statt sich über eine neue Technik zu freuen, wird aber seitenweise nur noch genörgelt und das in einem Computerforum! Seid doch mal froh DAS sich etwas tut und nicht nur mit jeder Generation 20% an Leistung dazu gepackt werden!
 
  • Gefällt mir
Reaktionen: .Sentinel.
@xexex
Nein die Auflösung an sich hat vielleicht nichts mit High End zu tun. Wenn man sich den Begriff High End anschaut, sollte einem schon einleuchten, dass der Durchschnitts-Käufer mit nun 1080p nicht dazu gehören kann, weil das nicht die technische Speerspitze der Monitortechnik darstellt. Die RTX 2080 Ti hingegen ist die Speerspitze der GPU Riege. (höchstwahrscheinlich)

Und da du ja schon die Steamstatistiken mit ins Spiel gebracht hast, hättest du dir auch mal die Grafikkartenverteilung anschauen können. Vielleicht wäre dir dann aufgefallen, dass die erste High End Karte mit 1,19% auch nicht wirklich einen grossen Markt bedient hat bisher. Also warum sollte eine noch teurere Karte auf einmal auf 1080p (Durchschnitts-Jonny) zugeschnitten sein?
GPU_STATS.PNG


Ich für meinen Teil liebe neue Technik und freue mich auf die RTX 2080 (Ti) und werde evtl. zugreifen. Ich find es nur lächerlich, wie manche hier eine >1000€ Grafikkarte in den Himmel loben, die sich noch nicht in einem freien Test bewährt hat und sich zudem an 1080p 60FPS Demo Material aufgeilen, obwohl schon seit längerem vom Markt gepushte Highrefreshrate, HDR, G-Sync und >1440p Monitore gekauft werden und hier die Zielgruppe der teuereren Karten zu finden sein sollte.

Vielleicht irre ich mich auch komplett und jede zweite 1080 Ti wird an einem 1080p Monitor betrieben, wer weiss. Ich habe zumindest noch keinen in meiner Umgebung gesehen.
 
  • Gefällt mir
Reaktionen: nospherato und Mcr-King
ODST schrieb:
Und da du ja schon die Steamstatistiken mit ins Spiel gebracht hast, hättest du dir auch mal die Grafikkartenverteilung anschauen können. Vielleicht wäre dir dann aufgefallen, dass die erste High End Karte mit 1,19% auch nicht wirklich einen grossen Markt bedient hat bisher. Also warum sollte eine noch teurere Karte auf einmal auf 1080p (Durchschnitts-Jonny) zugeschnitten sein?
...
Vielleicht irre ich mich auch komplett und jede zweite 1080 Ti wird an einem 1080p Monitor betrieben, wer weiss. Ich habe zumindest noch keinen in meiner Umgebung gesehen.

Mir ist schon bewusst, dass die 1080Ti nur einen Bruchteil des Marktes ausmacht, ebenso wie Auflösungen jenseits von 1080p. Die Frage ist aber wieso?

Die einfache Antwort ist natürlich der Preis. Es gibt schlichtweg nicht viele Menschen die bereit dazu sind €700+ für eine Grafikkarte auszugeben, damit wäre die Erklärung aber auch zu einfach.

Die andere Antwort ist aber auch die, dass man von einer 1080Ti bisher auch keine Vorteile hatte, wenn man einen 1080p Monitor im Einsatz hatte, außer vielleicht wenn man zwingend hohe FPS Zahlen haben wollte.

Die neuen Karten bedienen letztlich beide Märkte und bieten sowohl mehr Geschwindigkeit bei hohen Auflösungen als auch eine deutlich bessere Darstellungsqualität bei niedrigeren Auflösungen. Der Preis ist zwar jenseits von gut und böse, aber so bleibt die bisherige Hardware noch immer konkurrenzfähig.

Es wird auf der einen Seite also gemeckert was das Zeug hält, wegen der hohen Preise. Auf der anderen Seite würden schnelle Karten zum günstigen Preis, die jetzige Hardware für einige "wertlos" machen oder zu einer Neuanschaffung zwingen. Im Grunde genommen, egal wie man es macht, es wird immer zig Nörgler geben die damit nicht zufrieden sind.
 
  • Gefällt mir
Reaktionen: Oneplusfan, .Sentinel. und OZZHI
hey Leute also erstens würde NV nicht so ein Geheimnis draus machen was sie wirklich können. Des weiteren DLSS ist nix anderes als Checker Board Von PS4 PRO oder das Downsempling von der XBOX.

Tja NV hat was geschaft was Intel nicht hat und die arbeiten schon jahre mehr dran als NV. Womit ich nicht sagen will es sieht nicht gut aus nur nutzen tut es nur eine sehr kleine Rand Gruppe.
 
ZeroZerp schrieb:
@ODST
Für mich sind sie hoch, sollte die Karte das Leisten, was meine verlinkte Demo zeigt jedoch angemessen.
Für alle anderen, die Vorbestellen, oder das Geld bezahlen wohl ebenso.

Findest Du den Sprung der Grafikqualität des verlinkten Videos etwa nicht als groß?

Grüße
Zero

Im Vergleich zu anderen Demos? Nein. Ich hab schon vergleichbare bzw. bessere Demos ohne RT gesehen.

Die Games sehen für mich jetzt auch nicht so atemberaubend aus.
Es ist nicht so als wäre Rasterization nicht gut... Ja Raytracing kann mehr, aber das muss es erstmal auf die Straße bekommen.
Ich finde die Optik von z.B. Tomb Raider ist den Leistungshunger aus der Demo auf keinen Fall wert.
Sorry, aber dafür haben wir mittlerweile zu viele Games mit guter Optik...
Aber ist natürlich auch subjektiv gesehen.

Aber sowas:
oder sowas:

Finde ich auch ohne RT super. Ist zwar wie mit deiner Demo, werden wir in Spielen so schnell so nicht sehen, aber cool ist es trotzdem.

Bzw. sowas:
Das ist das Baking Tool von Unity mit Radeon Rays (also auch kein Echtzeit RT, jedenfalls nicht ganz). Die oben genannte Demo läuft auf ner Konsole mit +-30 FPS, sprich das wäre durchaus in Games drinnen. Und das ist "nur" Unity mit ProRender. (Wobei ich Unity eigentlich mag)

https://unity3d.com/de/book-of-the-dead nur mal für die Eckdaten. Gibt auch eine GDC-Präsentation dazu.

Also ich finde alle 3 Videos auch ohne Echtzeit-RT super. Und bei letzterem dauert das Baking von N Lightmaps halt nur Sekunden statt Stunden was den Entwicklungsaufwand minimiert. Und gerade die oberen beiden zeigen eindrucksvoll was geht. Und die sind nicht mal von Epic-Games.

Wie gesagt. Auch Rasterization kann. Raytracing ist keine Garantie für bessere Optik.
 
Zuletzt bearbeitet:
ODST schrieb:
Die Grafik in Atomic Heart sieht ok aus. Ein aktuelles Doom haut mich eher aus den Sockel als dieser Demo Trailer,

Das dachte ich mir. Genau jetzt sind wir beim Punkt. Dann sind wir offensichtlich vor einiger Zeit schon auf einem für Dich als absolut ausreichendem Grafikniveau angelangt, wenn Du das gezeigte nur als "OK" empfndest.

Dann ist es aber auch völlig Egal, was die Zukunft noch bringt, weil Du keine Notwendigkeit einer Steigerung der Bildqualität siehst.

Du bist halt dann ein User, der die Weiterentwicklung in dieser Richtung zwar später "mitnimmt", diese aber eben nicht in dem Maße begrüßt, davon begeistert ist oder fördern will, wie andere User. Ist ja auch OK.

In meinen Augen gehört diese High End Karte auch in den High End Markt und der befindet sich schlichtweg nicht bei 1080p.

Es will hier anscheinend immer noch keiner begreifen, dass Grafikqualität ungleich der Auflösung ist. Die Auflösung beeinflusst vornehmlich die Schärfe und sonst nichts.

Zudem kommt dazu, dass RT, wenn richtig eingesetzt, einen erheblichen Anteil daran haben kann, die Spiele auch in 4K Auflösung zu beschleunigen (welche bei Steam von 1,17% genutzt wird).

Wenn ich zwischen RTX On @ 1080p und RTX Off @ 1440p/2160p wählen müsste, weisst du ja was ich nehme. ;)
Wie oben schon erwähnt, stellt sich erstens die Wahl nicht (vielleicht jetzt bei den zwei genannten Titeln) und zweitens darf jeder kaufen, was er für richtig hält.

Andererseits bewirbt nVidia ihre Top-Karten für 4k Gaming, ...
Da liegt schon der größte Fehler. Das KANN nVidia nämlich garnicht. Es liegt immer an den Spieleprgrammierern die Grafiklast so weit einzuschränken, dass es ein günstiges Grafikqualität/Performanceverhältnis gibt.

Ansonsten ist Deine persönliche Sicht der Dinge natürlich absolut OK.

Wenn die ersten echten Raytracing Spiele draussen sind und die wirklich besser aussehen als aktuelle Titel, so wie Crysis damals, können wir weiter reden.

Da bin ich 100% bei Dir. Die Atomic Heart Demo lässt hoffen...

@timboboy123
Ich habe nicht behauptet, dass man mit Rastertechnik keine guten Grafiken zaubern kann. Auch nicht, dass dadurch die Beleuchtung schlecht aussehen muss. Im Gegenteil.
Das ganze Zeug sieht inzwischen so aus, wie es das tut, weil man schon seit langer Zeit angefangen hat, mit Hybriden Algorhitmen sich dem Raytracing anzunähern. Sei es durch unmengen an speicherfressenden Pre- Baked Licht/Schattendaten (Unreal), durch Voxel, Lightprobes, Photogrammetrie (die ja auch eher auf Voxeln basiert) und und und.

Alle AO Verfahren basieren z.B. auf Lichtstrahlenverfolgung/Verdeckungsverfolgung.
Jetzt haben wir dann einzelne Kerne, die das ohne Tricks und unmengen an Speicherplatz auf der Festplatte und vor allem VOLLDYNAMISCH und physikalisch korrekt in Echtzeit machen können.
 
Zuletzt bearbeitet:
Mcr-King schrieb:
Des weiteren DLSS ist nix anderes als Checker Board Von PS4 PRO oder das Downsempling von der XBOX.
Wtf, die drei genannten Techniken könnten unterschiedlicher nicht sein - verstehst du überhaupt was dahintersteckt? DLSS hat nichts mit Checkerboard-Rendering oder Downsampling zu tun.
 
  • Gefällt mir
Reaktionen: Oneplusfan
im Prinzip ist es eine Fake Auflösung oder nicht nicht mehr und nicht weniger.
 
ZeroZerp schrieb:
Alle AO Verfahren basieren z.B. auf Lichtstrahlenverfolgung/Verdeckungsverfolgung.
Jetzt haben wir dann einzelne Kerne, die das ohne Tricks und unmengen an Speicherplatz auf der Festplatte und vor allem VOLLDYNAMISCH und physikalisch korrekt in Echtzeit machen können.

Aber da ist der Punkt... Speicher ist billiger als Rechenpower. Und ich seh die Rechenpower lieber wo anders. Wie gesagt. Mir geht's nicht um den Weg, sondern um's Ergebnis. Wenn Baking schnell geht spricht nichts dagegen. Das ist es ja. Wie gesagt, ich find das ja nicht schlecht. Mir fehlt nur das WOW.^^
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben