News Nvidia RTX-Plattform: 21 Spiele sollen Raytracing und DLSS unterstützen

pcblizzard schrieb:
Zumal, wer bei einer 600 Euro Grafikkarte auf den Stromverbrauch achtet, hat seine Prioritäten falsch gesetzt.
Stromverbrauch ist für mich nicht wichtig, wegen 2-3€ im Jahr die das mehr kostet, sondern wegen der Abwärme und der Kühlung.
Ich habe kein großes Gehäuse und das ist auch nicht so brachial belüftet.
Dazu kommt, dass bei mir auch keine Monsterkarte reinpasst, die 3 Slots verbraucht, 1,5mal die Slotbreite breit ist und über 30cm lang ist.
Wenn man es halbwegs gekühlt haben will, damit es nicht drosselt und dabei auch noch halbwegs leise bleiben will, wird mit 200W+ Verbrauch in der Regel nicht glücklich.
Hatte in dem Gehäuse mal eine GTX470, die hat alles in dem Gehäuse mit geheizt, das war kein Spaß. Die jetzige 1080 ist da schon deutlich angenehmer.
Radiallüfter hatte ich auch mal und das war im Gehäuse ein riesiger Unterschied, nur leider war das Teil nicht leise. Verstehe bis heute nicht, warum niemand einen guten Radialkühler baut. Einfach ein paar Heatpipes und einen ordentlichen Lüster mit sinnvoller Drehzahlregelung.
 
  • Gefällt mir
Reaktionen: MeisterOek, stoneeh und megaapfel
Taxxor schrieb:
Dann formulieren wir es anders: Wenn Nvidia eine Karte für 1200€ anbietet, dann darf man auch erwarten, dass sie entsprechende Mehrleistung bringt.

Ja, und wenn sie das nicht tut dann kauft man sie nicht. Auf die Mehrleistung von der du sprichst wurde auf der Präsentation aber nicht ein einziges Mal eingegangen, sondern nur auf HybridRendering. Und dort bringt sie offenbar Mehrleistung, denn Pascal kann kein performantes HybridRendering.
Darum schlage ich vor, dass wenn dein Kriterium die Performance bei reiner Rasterisierung ist, du erstmal auf klassische Benchmarks mit klassischen Spielen von den bekannten Magazinen wartest, bevor du dich unnötig aufregst.

Taxxor schrieb:
Selbst zum gleichen Preis wie die 1080Ti UVP sollte sie ein gutes Stück schneller sein, für diesen Preis noch mal ein ganzes Stück mehr.

Nochmal: Wer sagt dir dass das nicht der Fall ist? Die Präsentation enthielt keine Informationen über diese Frage, sondern nur Performanceinfos über RTX ON.
 
DocWindows schrieb:
Nochmal: Wer sagt dir dass das nicht der Fall ist? Die Präsentation enthielt keine Informationen über diese Frage, sondern nur Performanceinfos über RTX ON.

Ich weiß nicht ob das deine erste Lederjockl-Präsentation war, aber hätte er solch tolle Fortschritte bei der normalen Leistung präsentieren können, hätte er es getan. Sowas lässt sich Lederjockl nicht entgehen, da man immer extra auf die RT Performance hinweisen muss, scheint diese Generation nicht besonders interessant für die Butter und Brot Spiele.

Es mag schön sein für dich, dass sie nen Grundstein gelegt haben in Hardware, trotz allem ist das Ergebnis was präsentiert wurde teilweise ernüchternd. Möglichst die hässlichste normale Grafik gegen RT stellen war nun auch nichts besonderes.

Zudem gab es dir von dir genannten "Performance-Informationen" nicht wirklich. Lediglich von 6x Pascal 1080 Ti Performance bei RT Effekten wurde immer wieder genannt. Wirkliche FPS Balken haben sie sich gespart, wohl auch zu Recht, da es scheinbar ziemlich ernüchternd ausfällt.
 
  • Gefällt mir
Reaktionen: megaapfel
Aldaric87 schrieb:
Möglichst die hässlichste normale Grafik gegen RT stellen war nun auch nichts besonderes.

Hat er doch erklärt. Das war der heutige Stand der Rendertechnik wenn man keine Tricks und Kniffe anwendet. Und diese wurden weggelassen weil sie bei RT gar nicht erst nötig sind.

Aldaric87 schrieb:
Zudem gab es dir von dir genannten "Performance-Informationen" nicht wirklich. Lediglich von 6x Pascal 1080 Ti Performance bei RT Effekten wurde immer wieder genannt. Wirkliche FPS Balken haben sie sich gespart, wohl auch zu Recht, da es scheinbar ziemlich ernüchternd ausfällt.

Also mich haben die Performanceinformationen durchaus interessiert. Besonders die Tatsache, dass wenn sich RT durchsetzt, sich die Performancemessung- und bewertung komplett ändern muss.
Hätte nicht gedacht, dass für mich nochmal die Chance besteht, quasi ein neues Zeitalter der 3D Grafik mitzuerleben. Die eigentliche Anfänge habe ich schon miterleben dürfen, und dass es jetzt nochmal einen ähnlich großen Umbruch in den nächsten 5-10 Jahren geben könnte, freut mich sehr.
 
Du schreibst es: in den kommenden 5-10 Jahren. Die Karten haben dann aber wahrscheinlich 1.000 Terarays per second und nicht mickrige 10 Gigarays.
 
  • Gefällt mir
Reaktionen: MeisterOek, megaapfel, j-d-s und 2 andere
DocWindows schrieb:
Also mich haben die Performanceinformationen durchaus interessiert. Besonders die Tatsache, dass wenn sich RT durchsetzt, sich die Performancemessung- und bewertung komplett ändern muss.
Man wird, was die Framerate angeht einfach in die Steinzeit zurück gebombt, wozu all die tollen Display mit hoher Auflösung wen FHD unspielbar ist? PCGH mussten übrigens ihr 30fps Video SOTR+RT von Youtube nehmen, vermutlich wegen schlechter Publiticy, alles steht unter NDA. Aber das Spiel sieht nicht nur mit RT immer noch furchtbar aus. Texturen-Mischmasch inbegriffen und man hörte die 2080ti im Hintergrund ordentlich pumpen, wenn Licht und Schatten ins Bild kamen, 35fps in FHD. Das ist kein Umbruch.

DocWindows schrieb:
Hätte nicht gedacht, dass für mich nochmal die Chance besteht, quasi ein neues Zeitalter der 3D Grafik mitzuerleben. Die eigentliche Anfänge habe ich schon miterleben dürfen, und dass es jetzt nochmal einen ähnlich großen Umbruch in den nächsten 5-10 Jahren geben könnte, freut mich sehr.
Dann müsstest du ja 60 sein? Mir ist Raytracing dann egal, dann mache ich noch 2 Jahre, gehe in Rente und habe ganz sicher andere Hobbys. Ich habe die Anfänge auch mitgemacht.:)

DocWindows schrieb:
Nochmal: Wer sagt dir dass das nicht der Fall ist? Die Präsentation enthielt keine Informationen über diese Frage, sondern nur Performanceinfos über RTX ON.
Es ging dabei um Zeit in ms, nicht um Performancesteigerungen in fps (da scheint ihr alle etwa zu verwechseln, das können allein die AI Cores gewesen sein, weil es dabei um AA ging (DLAA, DLSS), die sind rein zum Spielen für mehr Framerate nutzlos, Frametimes mit 44ms? Überleg mal was das bedeutet und er meinte glaube ich die P8000.

Wieso ist RT eigentlich jetzt das so tolle Feature das der Gamingsparte, was die GPU Grafik angeht zu einem Umbruch verhilft, gibt es doch schon länger. Ich vermute eher, dass verschwindet unter Spielen schneller wieder in der Versenkung als wir glauben, weil das einfach zu teuer ist. Derzeit ist das für Entwickler ein Thema Schnittstellen Engine kompatibel zu machen oder es bei späteren Weiterentwicklungen oder Enginesupport zu berücksichtigen. Das tut man nicht für Randgruppen (sofort und jetzt) und nachträgliche Portierung ist immer Mist, dass haben wir aus dx12 gelernt.

Das nVidia genau beim RT ansetzt um den Profit zu steigern hat schon seinen Grund, sie wissen wie viel Rechenleistung das erfordern und wie man dann Geld verdient. Nur hat der Spieler dort auch noch ein Wörtchen mitzureden, höher - weiter - schneller, kostet nämlich immens mehr für paar Schatten und Beleuchtungseffekte in Real-Time, als ressourcenschonende Entwicklung. Aber daran liegt nVidia nichts, weil man damit auch nichts verdient. Sieh dir einfach mal die ausufernden Bretter des TU104 an (EVGA), dass ist und bleibt eine x080 Karte? Wie groß sollen Customs noch werden? Hypes wie Apple beim I-Phone zu veranstalten sind in dieser Branche out, weil Blender schnell aufgedeckt werden. Selbst wenn die Leistung bei RT mit 30fps stimmt oder 45, weil mehr eben nicht drin ist und der Aufwand zu kostenintensiv ist, bedeutet das nicht wir stehen vor einem Umbruch, ganz gewiss nicht.

RT ist brauchbar, ja es hypt und hilft Realismus abzubilden, aber das war es auch schon, etwas zu viel Glanz und alles sieht überzogen aus. Man darf es nicht übertreiben und genau das wird stellenweise gemacht. Globale Szenen inklusive Vollbildstrahlenberechnung sehen wir in 10 Jahren jedenfalls nicht, dafür rechnet ein Server aus 8xP8000 24h an 7 Bildern. Die Rig kostet 500.000$ pro Stück..
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Knecht_Ruprecht und megaapfel
Wenn sich herausstellt, daß gut gemachte fake-Schatten bzw Fakebeleuchtung z.B. 4x bessere Performance bei 0,3% schlechterer Optik als bei Raytracing bietet, wird diese hardwarefressende Technik schnell wieder verschwinden.

Ich brauch ne schnelle Graka für die pimax8k u. teilweise Asbachspiele wie Elite oder project cars. Mich interessieren kaum neue Spiele.
 
  • Gefällt mir
Reaktionen: MeisterOek und m.Kobold
Dann such dir was, dass 3.840x1.080@90 Hz schafft, die Brille hat nur einen 1,4 HDMI und unterstützt damit die hohe 8K Auflösung nativ nicht. Sonst musst du auf Pimax X (DP) setzen, aber da warnt selbst der Hersteller das es keine Hardware gibt, die das schafft. Das wird auf die 2080ti genauso zutreffen.

VR ist für mich dieselbe Randerscheinung, viel Hype um nichts ehrlich gesagt, weil die verfügbare Rechenleistung genauso fehlt. Geld drucken...
 
kellerbach schrieb:
Wenn sich herausstellt, daß gut gemachte fake-Schatten bzw Fakebeleuchtung z.B. 4x bessere Performance bei 0,3% schlechterer Optik als bei Raytracing bietet, wird diese hardwarefressende Technik schnell wieder verschwinden.

Der Punkt ist, dass es zum ersten mal seit zig Jahren eine WIRKLICH verbesserte Optik gibt und nicht deine beschworenen 0,3%.

Was ist in den letzten Jahren denn so wirklich herausragendes auf diesem Gebiet geschehen? Nichts! Stattdessen wurden mit jeder Grafikkartengeneration nur noch höhere Auflösungen, noch höhere AA oder Postprocessingalgorithmen eingeführt, die Leistung ohne Ende gekostet haben, aber visuell mit der Lupe gesucht werden mussten.

Das was die letzten 10 Jahre geschehen ist, war Brechstangenentwicklung. Mehr Speicher, mehr FPS mehr Auflösung, mehr Texturen. An der eigentlichen Technik hat sich hingegen seit Jahren praktisch nichts getan.

Microsoft hat es letztlich treffend formuliert.
3D Graphics is a Lie
For the last thirty years, almost all games have used the same general technique—rasterization—to render images on screen. While the internal representation of the game world is maintained as three dimensions, rasterization ultimately operates in two dimensions (the plane of the screen), with 3D primitives mapped onto it through transformation matrices. Through approaches like z-buffering and occlusion culling, games have historically strived to minimize the number of spurious pixels rendered, as normally they do not contribute to the final frame. And in a perfect world, the pixels rendered would be exactly those that are directly visible from the camera:
https://blogs.msdn.microsoft.com/directx/2018/03/19/announcing-microsoft-directx-raytracing/

Letztendlich haben wir in den letzten Jahren nur versucht mit Tricks und beschränkter Technik uns an Raytracing anzunähern und dem sind Grenzen gesetzt. Fotorealismus kann am Ende nur mit RT erreicht werden. Man sollte allerdings aber auch nicht vergessen, dass wir hier erst am Anfang und nicht am Ende einer Entwicklung sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: indy1138 und megaapfel
SavageSkull schrieb:
Verstehe bis heute nicht, warum niemand einen guten Radialkühler baut. Einfach ein paar Heatpipes und einen ordentlichen Lüster mit sinnvoller Drehzahlregelung.

HiS hatte bis zur R9 280 IceQ echt gute war damit immer zu Frieden. Leider gibts aktuell keine HiS in Deutschland udn die bauen auch keine IceQ Radialdesings mehr.
 
kellerbach schrieb:
Wenn sich herausstellt, daß gut gemachte fake-Schatten bzw Fakebeleuchtung z.B. 4x bessere Performance bei 0,3% schlechterer Optik als bei Raytracing bietet, wird diese hardwarefressende Technik schnell wieder verschwinden.

Genau diesen Zustand haben wir ja eigentlich schon. Ich weiß jetzt, ohne zu googlen, nicht mehr, wann HDR eingeführt wurde, aber ich erinnere mich noch daran, dass es so kurz vor der TES Oblivion Zeit (also ca. 2006) gewesen sein muss, denn Oblivion war ja eines dieser Spiele, wo die Entwickler das neue "Spielzeug" überstrapaziert haben.
Auch Dark Messiah of Might & Magic habe ich als so ein überstrahlendes Exemplar in Erinnerung. Zum Glück konnte man HDR meist per *.ini Datei anpassen, um dann ohne Sonnenbrille zocken zu können ;) .

Jedenfalls: HDR, dynamische Lichtquellen + weichgezeichnete "real-time" Schatten, HBAO(+) usw. haben über die Jahre ja nun wirklich dafür gesorgt, dass in Sachen "Fackelage" in Spielen kaum Wünsche offen bleiben.
Das sieht doch alles sehr gut aus und "in the heat of the action" würde man die eher subtilen Verbesserungen durch Ray-Tracing wohl nur seltenst wahrnehmen.

Insofern lässt mich das Thema auch noch recht kalt. Bestimmt eine schöne Sache in ein paar Jahren (übernächste Konsolengeneration oder so...), wenn das dann wirklich Standard wird, flüssig läuft und großflächig zum Einsatz kommt, aber bis dahin ist das für mich kein Hype-Train oder Gamechanger.

Ich werde mir mit sehr hoher Wahrscheinlichkeit irgendwann im (Spät-)Herbst eine RTX 2080 kaufen, wenn diese mindestens +20% mehr Performance als meine 1080Ti liefert, aber sicher nicht wegen RT(X), sondern einfach wegen der besseren Performance.
 
Ich denke, wenn ich HDR sage, vor allem im o.g. Zusammenhang von Spielen gegen Mitte der 2000er, dann weiß jeder, was gemeint ist ;) . Siehe auch die Titel der YouTube Videos, wo auch nur von HDR die Rede ist. Auch in Spielen wird/wurde die Option im Menü immer einfach nur mit "HDR" benannt.

Klar. Die Kiddies kennen das natürlich nur vom aktuellen TV-/Monitor-Trend, aber Software-HDR als ("Fake"-)Lighting-Komponente ist ja schon deutlich älter und darum ging es weiter oben.

Habe es jetzt übrigens mal gegoogelt. HDR wurde DirectX-seitig mit DirectX 9.0 eingeführt und in Hardware ab Shader Model 2.x, d.h. der nVidia GeForce FX 5xxx Serie, sowie von ATI ab der 9xxx Serie unterstützt.

Es hat definitiv damals zu besserem Lighting und realistischeren Kontrasten geführt, aber wurde eben leider auch oft übertrieben eingesetzt.

Ich finde zum Beispiel hier und hier sieht man das ganz gut, wo die Ayleid Ruins in Oblivion völlig überstrahlen und dabei ist es vom In-Game Wetter her sogar noch leicht bewölkt.

Es gab ja dann damals auch schon fast regelrechte Glaubenskriege, ob man Oblivion lieber mit Bloom oder mit HDR spielen sollte. Vielen war HDR zu extrem/hell/überbelichtet.
 
Moriendor schrieb:
Ich denke, wenn ich HDR sage, vor allem im o.g. Zusammenhang von Spielen gegen Mitte der 2000er, dann weiß jeder, was gemeint ist ;)

Dann sei dir gesagt, dass ich trotz 30 jähriger Spielgeschichte mit diesem Begriff nur das aktuelle HDR verbinde, Bloom allerdings überall wo es nur geht ausschalte, weil es wie ein meistens an Mangas oder lichtüberflutete Pornos erinnert und selten Maßvoll eingesetzt wird.

Das es bei Oblivion so genannt wurde und zu Problemen geführt hat, kann schon gut sein. Allerdings habe ich das Spiel, wie praktisch alle Spiele von Bethesda ausgelassen und in anderen ist mir das zumindest negativ nicht aufgefallen.
 
Zuletzt bearbeitet:
pclovely schrieb:
VR ist für mich dieselbe Randerscheinung, viel Hype um nichts ehrlich gesagt, weil die verfügbare Rechenleistung genauso fehlt. Geld drucken...
Facepalm, du hast ja mal gar kein plan von VR und wieviel die Rechner bereits leisten. Aua das muß doch weh tun...
 
xexex schrieb:
Dann sei dir gesagt, dass ich trotz 30 jähriger Spielgeschichte mit diesem Begriff nur das aktuelle HDR verbinde

Ah, kommt jetzt das "wer ist älter" Spielchen? :D

Mag sein, dass Du das gewinnst, aber als Jahrgang 1972 und Spieler, der (wenn wir jetzt mal Pong und Atari-Konsolen weg lassen) ab 1983 auf dem ersten "PC", nämlich einem C-64 gespielt hat, bin ich auch kein völliges Greenhorn mehr ;) .

Ich verbinde HDR neben dem heutigen TV-/Monitor-Gedöns definitiv -AUCH- mit dem Anfang der 2000er Jahre als das als neuer DirectX Effekt ein ziemlicher Hype war und ebenso geliebt wie gehasst wurde (Letzteres eben deswegen, weil viele Entwickler bei der Implementierung übermotiviert waren und alles strahlte wie blöd) .

HDR-Rendering war in jedem Fall eine der "Fake-"Lighting-Technologien, die -wenn richtig und in Maßen eingesetzt- einer der Meilensteine in der Historie zu realistischeren Lichtbedingungen in Spielen war.
 
xexex schrieb:
Der Punkt ist, dass es zum ersten mal seit zig Jahren eine WIRKLICH verbesserte Optik gibt und nicht deine beschworenen 0,3%.

Was ist in den letzten Jahren denn so wirklich herausragendes auf diesem Gebiet geschehen? Nichts! Stattdessen wurden mit jeder Grafikkartengeneration nur noch höhere Auflösungen, noch höhere AA oder Postprocessingalgorithmen eingeführt, die Leistung ohne Ende gekostet haben, aber visuell mit der Lupe gesucht werden mussten.

Ich glaub das Problem ist, das du zig jahre nichts mehr anständiges gezockt hast oder noch nie die Grafik richtig aufdrehen konntest.
Die Spiele die @kellerbach hier angeführt hat sind genau die Spiele die neue Maßstäbe in ihren Bereichen gesetzt haben.

Und dagegen ist Raytracing genau das Gegenteil, die Effekte dort in den Techdemos sind alle jetzt schon möglich... und es wird nur die Qualität die man grad mal mit ner Lupe erkennen kann etwas besser dargestellt und in schnellen scenen verpufft der vorteil sofort weil niemand drauf achten kann.

Fakt ist es kamen etliche gute Engines raus, wie z.b. UE4 oder auch Frostbite... es ist einfach nur lächerlich zu behaupten das sich Grafisch nichts tun würde.

Und was bringt ein die Raytracing Hardware wenn sie permanent im Standby läuft, weil niemand den Müll in ihren Spielen einbinden will?

Selbst wenn Raytracing vom Markt einfach akzeptiert werden sollte (wunschvorstellung), bekommt man ja noch nicht mal ordentliche FPS in den gängigen Auflösungen, von daher wird man selbst mit der teuersten Karte (2080ti) gezwungen sein den Effekt wieder auszustellen, sobald man mit QWHD+144Hz mit Freesync/G-Sync zockt, wird man sofort aus der Hz range geschmissen.

Und für VR sieht es dann sogar noch schlechter aus, im bezug auf hohe Auflösungen und 90fps, da sehe ich raytracing sogar als Rückschritt an.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: MeisterOek, Knecht_Ruprecht und Moriendor
pclovely schrieb:
Dann müsstest du ja 60 sein? Mir ist Raytracing dann egal, dann mache ich noch 2 Jahre, gehe in Rente und habe ganz sicher andere Hobbys. Ich habe die Anfänge auch mitgemacht.:)

Wenn du die Anfänge auch mitgemacht hast, dann müsstest du wissen dasss es damals genau die gleichen Töne gab bezüglich polygonarmer, hässlicher 3D-Modelle mit mieser Performance für nen Sack voll Geld. Und wo sind wir heute? Und nun schickt sich wieder jemand an etwas neues im Gamingbereich bezüglich Grafik zu machen, und natürlich sind die Anfänge nicht optimal oder perfekt. Der Ausblick ist aus meiner Sicht aber alles andere als düster. Das was jetzt aber schon geht ist um einiges besser als das was früher in der ersten 3D-Kartengeneration ging.

In 10 Jahren bin ich übrigens nicht 60. Das dauert noch wat länger. Aber ich habe jetzt schon viele andere Interessen neben dem klassischen Gaming. Darum sehe ich das Thema Turing und Raytracing auch recht entspannt und verspüre überhaupt keinen Drang mir jetzt schon so ne Karte zu kaufen.
 
  • Gefällt mir
Reaktionen: Neronomicon und xexex
Zurück
Oben