News Fünf Jahre GeForce RTX: Teilt ihr Nvidias Gaming-Vision mit Raytracing und Upscaling?

Apocalypse schrieb:
Und vor einem Ferrari Dino 208 GT4 musste er sich nun auch nicht wirklich verstecken
Hat aber Ferrari dennoch nicht dazu bewegt seinen Motor in den Golf zu bauen. Aber nichts Spricht dagegen, sich nen Golf 7900xtx zu holen, insbesondere, wenn der unter bestimmten Umständen ähnlich performed.

leonM schrieb:
Das ist es ja, wäre nett für jene die aktuell nicht RT subventionieren wollen und nur auf Raster und DLSS wert legen.
Und wie sollen neue Technologien entwickelt und verbessert werden wenn man nichtmal anfängt sie zu implementieren?
Was Beleuchtung, Schatten und Reflexion angeht ist Raster eben nur ein Kompromiss. Und der ist mittlerweile am Limit, wenn es weiter Richtung Fotorealismus geht.
Das es aktuell nur eine handvoll Spiele gibt bei denen RT einen wirklichen Mehrwert bietet streite ich nicht ab.
Die Entwicklung zeigt aber in diese Richtung und ich sehe auch viel Potential. Daher ist es nur logisch und sinnvoll Grafikkarten mit entsprechenden Recheneinheiten auszustatten.

Weiterhin ist es nettes Wunschdenken, dass z.B. eine 4090 durch die Deaktivierung von ein paar RT Einheiten 50% günstiger würde.
 
DLAA find nicht mal schlecht. Mit Framegeneration hat mich das in Remnant 2 überzeugen können.
 
Zuletzt bearbeitet:
X-TR4 schrieb:
Monitore gibt es mittlerweile mehr Auswahl denn je - in alle Formaten Auflösungen und Größen. Niemand muss 4K oder 240Hz kaufen. Brauchbares WQHD mit 144hz auf 27" gibt es mittlerweile für kleines Geld (<250€).
Ach, Monitore. Da gibt es so viele und interessant ist auch, dass bestimmte Hersteller auch immer umfassendere Garantien geben, was die Pixel angeht.

Und mit guten WQHD-Monitoren kann man echt noch richtig viel Spaß haben. 4K ist aber auch toll. Ich hab ja beides aktuell im Wechsel auf der Arbeit und zu Hause.
X-TR4 schrieb:
Desweiteren hält heutzutage ein PC deutlich länger wenn man nicht alle Regler auf Anschlag stellen will.
Ja und Nein, es kommt in dem Fall darauf an. Gerade die Lebensspanne von 386er und 486er ist relativ hoch gewesen, was Spiele angeht. Selbst ein Pentium 1 hatte eine relativ lange Lebenspanne.

Es ist an der Stelle eher so, dass sich zur Jahrtausendwende die technologische Entwicklung so rasant entwickelt hat, dass wir eine Zeitspanne hatten, in denen sich der Fortschritt teilweise selbst überholt hat. Wenn ich mir überlegen, dass der Pentium 3 damals mit ca. 450 MHz startete und man quasi innerhalb von 12 Monaten - auch dank AMD damals - den Pentium 3 auf 1 GHz hatte. Das war schon beachtlich. Wenn man dann auch beachtet, wie schnell AMD bei ca. 2 GHz als "Schallmauer" war und Intel bei 4 GHz mit ihren damaligen Designs (und ja, ich weiß das die IPC beim Athlon XP und später Athlon 64 höher war). Mit dem Aufkommen der Dual-Core und später Quad-Core ab 2006 hat sich dann die Entwicklung erst wieder verlangsamt und AMDs "Bulldozer"-Fehlgriff dann quasi einige Zeit zum erliegen gebracht.

Bei den Grafikkarten hat man eine ähnliche Entwicklung. Gerade in den 90er wurden Spiele immer wichtiger, die breite Basis damals an Computern setze auf Hardware aus den 80er und entsprechend wurden die Spiele auch entwickelt. Mit einer Voodoo 1 und auch Voodoo 2 konnte man relativ lange sogar spielen. Viele Spiele der "frühen" 00er boten einen DX6 "Backfall" an und erst als DX8 kam, wurde langsam auf DX7 als Mindestanforderung gesetzt.

Auch hier waren aber die späten 90er und frühen 00er von einer rasanten Entwicklung, nicht nur auf Hardware-Ebene betroffen, sondern auch auf Software. DX7 mit Hardware T&L war ein Zwischenschritt, weswegen Hardware T&L quasi nie wirklich an Bedeutung gewonnen hat und als es diese bekam, war der Abgesagt durch DirectX 8 bereits eingeleutet. Wenn man dann noch die Entwicklung von DirectX 9 betrachtet, dann ist in der Zeit von 1999 - 2004 der große Umbruch der GPU gewesen. Riva TNT als DirectX 6 Karte wurde 1999 von der GeForce 256 als DirectX 9 7 abgelöst, die 1 Jahr später durch die GeForce 3 und Direct X 8 abgelöst wurde, kurz darauf kam DirectX 9 mit der Radeon 9000er.

Der Umbruch von DirectX 8 zu DirectX 9 ist aber relativ "sanft". Die große Änderung damals war HSL, das dann dem Shader Model 2.0 zu grunde lag und die Entwicklung vereinfachten sollte. Im ursprünglichen Shader Model 2.0 kam nicht viel wirklich hinzu, was Funktionen anging, sondern DirectX 9 war damals die "Aufräumarbeit" von den ganzen spezifischen Hersteller-Erweiterungen von DirectX 8.

Der entscheidende Sprung - was auch die Grafikqualität - angeht, kam mit DirectX 9.0c und dem Shader Model 3.0. Also GeForce 6 und Radeon X1x00. Das hat damals die klassische Grafikpipline zerissen und den Grundstein für quasi alle aktuellen Effekte gelegt.

DirectX10 allgemein hatte es schwer, weil DirectX 9.0c quasi das gleiche konnte, nur etwas "umständlicher" und auch DirectX 10.1 ist auch nicht unbedingt an "NVIDIA" gescheitert, weil sie es nicht konnten, sondern weil DirectX 9.0c einfach gereicht hat. Dazu, dass DirectX 10 "Vista" exklusiv war.

Erst DirectX 11, das wirklich wieder neue Funktionen bot, hat dann 2009 auch hier einen Endpunkt eingeleutet der rasanten Entwicklung.

Wir haben - was Hardware angeht - also 3 Phasen beim Computer erlebt. Die Anfänge bis Mitte/Ende der 90er, als die Verbreitung erst zugenommen hat, man aber auch mit Hardware aus der 80er anfangs glücklich spielen konnte. Dann die Phase ab 1998, in der sich sowohl Hardware als auch die Software überschlagen hat und dann seit 2009 wieder eine eher "gemächliche" Phase.
X-TR4 schrieb:
Dass die Preise für eine dezente Mittelklasse-Karte bzw generell deutlich gestiegen sind lässt sich nicht leugnen.
Was aber an vielen verschiedenen Faktoren liegt. Man kann hier den Finger auf NVIDIA, Intel, AMD und Co richten, aber das ist immer nur die halbe Wahrheit.

Dazu kommt für uns in Europa Mitte/Ende 2022 der extrem schlechte Euro-Kurs, der die US-Preise noch mal gesalzen nach oben geschoben hat. 1,08 - stand jetzt Beitrag - ist es aktuell. Das verschiebt zusammen mit der USt. die Preise hier nach oben. Preise hier werden immer Brutto angeben, in den USA Netto.
Pleasedontkill schrieb:
Erste Gen kann nie versprochenes liefern. Jetzt mit 3. Gen geht RT einigermassen, kommt Pathtracing, das RT wie ein schlechter Scherz da stehen lässt.
Path Tracing ist Ray Tracing. Das nur mal so als Haupteinwurf. Path Tracing ist eine Iteration von Ray Tracing, dass sich besondere statitische Effekte zu nutzen macht.

Ansonsten: Was erwartest du? Geht man nach deiner Ausführung, dann hätte weder 3dfx, NVIDIA oder ATi bis 2009 und DirectX 11 ihre "Karten" auf den Markt bringen drüfen, weil erst DirectX 11 wirklich die Entwicklung der 90er "abgeschlossen" hat, was Rasterizer angeht.

Technologie braucht Impulse und die bekommt man nur, wenn man irgendwann auch produktiv damit arbeitet und damit entsprechendes Potenzial erkennen kann.
Pleasedontkill schrieb:
Die ewige NV Karotte
Diese "ewige" Karotte gilt für alle technische Entwicklungen. Es ist ein "ewiger" Kreislauf, dass man etwas "erfindet", dann "umsetzt", dann sich ansieht und "verbessert" und das dann "umsetzt". So funktioniert das nun mal.

Woher soll denn NVIDIA, die Spieleentwickler und Co die Erfahrungen nehmen beim RayTracing, wenn man nicht irgendwann den Sprung wagt?
X-TR4 schrieb:
Und der ist mittlerweile am Limit, wenn es weiter Richtung Fotorealismus geht.
Wie ich geschrieben habe, das lustige ist ja, dass selbst bei Rasterizern so ablief, dass man RT-Techniken implementiert hat um die Globale-Beleuchtung und Co zu verbessern. Der Umschwung auf RT hatte bereits vor 2018 statt gefunden, nur in einem andere Außmaß.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Redundanz, fairlane24, Schokolade und 5 andere
@DevPandi Es hat viel Spaß gemacht deine kleine Geschichtsstunde zu DirectX durchzulesen.

Könnte es sein, dass die von dir erwähnte Leistungsexplosion bei PC-Hardware in den frühen 2000ern am meisten darauf zurückzuführen ist, weil es damals einfacher war das Fertigungsverfahren für GPUs und CPUs zu verfeinern.
 
  • Gefällt mir
Reaktionen: Pleasedontkill
TigerherzLXXXVI schrieb:
Könnte es sein, dass die von dir erwähnte Leistungsexplosion bei PC-Hardware in den frühen 2000ern am meisten darauf zurückzuführen ist, weil es damals einfacher war das Fertigungsverfahren für GPUs und CPUs zu verfeinern.
Grob betrachtet: Ja. Die Fertigungssprünge waren damals gewaltig und haben die Hardware auch immer günstiger gemacht. Bestes Beispiel ist der Pentium 2 damals: im 0,35µm Prozess hat bereits der 233 MHz quasi ein Vermögen gekostet, während später im 0,25 µm quasi der 450 MHz so teuer war wie davor der Einstieg. (Etwas übertieben)

Es gibt da aber einie Faktoren die da miteinander dann verzahnt sind. Auch auf Softwareebene hat sich damals unglaublich viel getan. Der Gang in den 80er zu "Hochsprachen" wie C hat dafür gesorgt, dass man ISA-Konzepte wie CISC neu denken konnten (RISC), weil Compiler die Arbeit übernommen haben. Mit sinkenden Kosten der Fertigung pro Transistor war es dann möglich die Pipeline-Konzepte zu überabeiten, die Spekulative-Ausführung, Sprungvorhersagen und Co weiter zu verbessern. Das wiederum hat dann die Hochsprachen weiter beflügelt und so weiter.

Hard- und Software haben sich immer gegenseitig beinflusst und auch die Entwicklung getrieben.
 
  • Gefällt mir
Reaktionen: Millennial_24K
DevPandi schrieb:
Hard- und Software haben sich immer gegenseitig beinflusst und auch die Entwicklung getrieben.
Darum habe ich bei meiner Frage bewusst "am meisten" gesagt, weil ich den Anteil anderer Faktoren wie architektonische Fortschritte oder die Softwareentwicklung nicht einschätzen kann.
 
mcbloch schrieb:
Raytracing war und ist eigentlich eine Totgeburt gewesen.
Ähm, nö.
In Spielen ist RT bisher noch nicht so dolle. Granted.

Da es allerdings, wie schon erwähnt @eightcore , die einzig wirklich echte Methode ist Graphik auf den Bildschirm zu bringen, wird es sich durchsetzen.
Schon alleine, weil die ganzen anderen Techniken die momentan genutzt werden damit obsolet werden.

Das ist das Eine. Der andere Grund ist schlicht der Markt und die Hersteller. Die brauchen Innovation, Neues und Fortschritt, sonst verkaufen sie ja demnächst nix mehr. ... auch AI ist dann irgendwann gesättigt ...
Schon alleine aus diesem Grund wird es kommen. Die technischen Vorteile des RT sind ein nettes Plus, das die Hersteller gerne mitnehmen.

Gewöhn dich dran: RT wird in recht naher Zukunft die einzige Methode sein, mit der der Bildschirm befüllt werden wird.
 
DevPandi schrieb:
Grob betrachtet: Ja. Die Fertigungssprünge waren damals gewaltig und haben die Hardware auch immer günstiger gemacht. Bestes Beispiel ist der Pentium 2 damals: im 0,35µm Prozess hat bereits der 233 MHz quasi ein Vermögen gekostet, während später im 0,25 µm quasi der 450 MHz so teuer war wie davor der Einstieg. (Etwas übertieben)
Ich denke der Hauptgrund für die damals schnell sinkenden Hardwarepreise war, dass sich der PC als modernes Multitool endgültig in der breiten Bevölkerung durchgesetzt hat. Es gab also eine extrem steigende Nachfrage. Ich erinnere mich noch gut an die damalige Zeit zu Beginn der 2000er Jahre. Es war das Gefühl vom Beginn einer technisch völlig neuen Ära, verstärkt durch die rasante Entwicklung des Internets. Das war irgendwie magisch. Und es war auch die Zeit, in der ich das erste Mal in Kontakt mit PC-Gaming gekommen bin.
 
  • Gefällt mir
Reaktionen: Pleasedontkill
DevPandi schrieb:
Ja und Nein, es kommt in dem Fall darauf an. Gerade die Lebensspanne von 386er und 486er ist relativ hoch gewesen
Nette Geschichtsstunde - da hast du ordentlich ausgeholt! Ja, mein erster 486 hielt relativ lange. Grafikkarte kam eine Diamond Viper v330 und somit damals unwissend die erste Nvidia dazu.
Ich glaube damals war es AoE2, was dem 486 dann das Genick gebrochen hat. Da müsste ich an den PII meines Vaters ;)

Und dann ging es für mich eigentlich erst los..

Ich bezog mich im Beitrag auch mehr auf die für die meisten (meckernden) relevante Zeit - sagen wir Mal mit dem Beginn von GeForce und CB.

DevPandi schrieb:
Was aber an vielen verschiedenen Faktoren liegt. Man kann hier den Finger auf NVIDIA, Intel, AMD und Co richten, aber das ist immer nur die halbe Wahrheit.
So ist es. Inflation etc sollte man ebenso nicht ausser acht lassen.
Das Highend Karten für 500€ zu haben sind, wird nicht mehr kommen. Ebensowenig wie eine 600€ Zusammenstellugn die aktuelle AAA Games stemmen kann. Das Schöne ist ja, dass mittlerweile Alternativen geschaffen wurden, für die es keinen Gaming PC braucht um neue Spiele zu spielen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DevPandi
Unnu schrieb:
Gewöhn dich dran: RT wird in recht naher Zukunft die einzige Methode sein, mit der der Bildschirm befüllt werden wird.
Da bin ich nicht wirklich von überzeugt.
Ich denke es wird eher eine Verschönerung der Grafik bleiben.
 
  • Gefällt mir
Reaktionen: Redundanz, up.whatever und Pleasedontkill
mcbloch schrieb:
Da bin ich nicht wirklich von überzeugt.
Ich schon.
Die letzten 5 Jahre ging es doch gut voran mit RT und da gibt es noch soviel Entwicklungspotenzial, das nimmt gerade erst richtig Fahrt auf.
Äußerst interessantes Thema ist das.

DevPandi schrieb:
Ich habs Lager gewechselt. :)
Persönlich war es bei mir auch mal wieder soweit nach 13 Jahren mal wieder zu NV zu wechseln. Die liefern momentan einfach ein wesentlich besseres Paket ab. Da fällt der Wechsel leicht.
Die GTX 460 hab ich heute noch als Ersatzkarte. 20% mehr Leistung mit OC das waren noch Zeiten 😁
Bin mal gespannt auf die neuen AMDs
 
Raptor85 schrieb:
Ich schätze, es wird auf Hochleistungshardware mit entsprechenden Upscaling-Technologien hinauslaufen, die man sich dann per Streaming auf den heimischen Bildschirm holt. Das wird dann der Nornalfall, nicht mehr die Ausnahme sein
Mein Herz blutet wenn ich das höre aber es stimmt ja. Ich bin mit dem Rechner zuhause aufgewachsen und Hardware in der Hand zu haben, zu bauen und zu schrauben ist einfach geil. Zu optimieren und zu übertakten, das macht einfach Spaß. Ich hoffe bis ALLES in der Cloud ist wird es noch ein paar Jahrzehnte dauern...
 
Zurück
Oben