X-TR4 schrieb:
Monitore gibt es mittlerweile mehr Auswahl denn je - in alle Formaten Auflösungen und Größen. Niemand muss 4K oder 240Hz kaufen. Brauchbares WQHD mit 144hz auf 27" gibt es mittlerweile für kleines Geld (<250€).
Ach, Monitore. Da gibt es so viele und interessant ist auch, dass bestimmte Hersteller auch immer umfassendere Garantien geben, was die Pixel angeht.
Und mit guten WQHD-Monitoren kann man echt noch richtig viel Spaß haben. 4K ist aber auch toll. Ich hab ja beides aktuell im Wechsel auf der Arbeit und zu Hause.
X-TR4 schrieb:
Desweiteren hält heutzutage ein PC deutlich länger wenn man nicht alle Regler auf Anschlag stellen will.
Ja und Nein, es kommt in dem Fall darauf an. Gerade die Lebensspanne von
386er und
486er ist relativ hoch gewesen, was Spiele angeht. Selbst ein Pentium 1 hatte eine relativ lange Lebenspanne.
Es ist an der Stelle eher so, dass sich zur Jahrtausendwende die technologische Entwicklung so rasant entwickelt hat, dass wir eine Zeitspanne hatten, in denen sich der Fortschritt teilweise selbst überholt hat. Wenn ich mir überlegen, dass der Pentium 3 damals mit ca. 450 MHz startete und man quasi innerhalb von 12 Monaten - auch dank AMD damals - den Pentium 3 auf 1 GHz hatte. Das war schon beachtlich. Wenn man dann auch beachtet, wie schnell AMD bei ca. 2 GHz als "Schallmauer" war und Intel bei 4 GHz mit ihren damaligen Designs (und ja, ich weiß das die IPC beim Athlon XP und später Athlon 64 höher war). Mit dem Aufkommen der Dual-Core und später Quad-Core ab 2006 hat sich dann die Entwicklung erst wieder verlangsamt und AMDs "Bulldozer"-Fehlgriff dann quasi einige Zeit zum erliegen gebracht.
Bei den Grafikkarten hat man eine ähnliche Entwicklung. Gerade in den 90er wurden Spiele immer wichtiger, die breite Basis damals an Computern setze auf Hardware aus den 80er und entsprechend wurden die Spiele auch entwickelt. Mit einer Voodoo 1 und auch Voodoo 2 konnte man relativ lange sogar spielen. Viele Spiele der "frühen" 00er boten einen DX6 "Backfall" an und erst als DX8 kam, wurde langsam auf DX7 als Mindestanforderung gesetzt.
Auch hier waren aber die späten 90er und frühen 00er von einer rasanten Entwicklung, nicht nur auf Hardware-Ebene betroffen, sondern auch auf Software. DX7 mit Hardware T&L war ein Zwischenschritt, weswegen Hardware T&L quasi nie wirklich an Bedeutung gewonnen hat und als es diese bekam, war der Abgesagt durch DirectX 8 bereits eingeleutet. Wenn man dann noch die Entwicklung von DirectX 9 betrachtet, dann ist in der Zeit von 1999 - 2004 der große Umbruch der GPU gewesen. Riva TNT als DirectX 6 Karte wurde 1999 von der GeForce 256 als DirectX
9 7 abgelöst, die 1 Jahr später durch die GeForce 3 und Direct X 8 abgelöst wurde, kurz darauf kam DirectX 9 mit der Radeon 9000er.
Der Umbruch von DirectX 8 zu DirectX 9 ist aber relativ "sanft". Die große Änderung damals war HSL, das dann dem Shader Model 2.0 zu grunde lag und die Entwicklung vereinfachten sollte. Im ursprünglichen Shader Model 2.0 kam nicht viel wirklich hinzu, was Funktionen anging, sondern DirectX 9 war damals die "Aufräumarbeit" von den ganzen spezifischen Hersteller-Erweiterungen von DirectX 8.
Der entscheidende Sprung - was auch die Grafikqualität - angeht, kam mit DirectX 9.0c und dem Shader Model 3.0. Also GeForce 6 und Radeon X1x00. Das hat damals die klassische Grafikpipline zerissen und den Grundstein für quasi alle aktuellen Effekte gelegt.
DirectX10 allgemein hatte es schwer, weil DirectX 9.0c quasi das gleiche konnte, nur etwas "umständlicher" und auch DirectX 10.1 ist auch nicht unbedingt an "NVIDIA" gescheitert, weil sie es nicht konnten, sondern weil DirectX 9.0c einfach gereicht hat. Dazu, dass DirectX 10 "Vista" exklusiv war.
Erst DirectX 11, das wirklich wieder neue Funktionen bot, hat dann 2009 auch hier einen Endpunkt eingeleutet der rasanten Entwicklung.
Wir haben - was Hardware angeht - also 3 Phasen beim Computer erlebt. Die Anfänge bis Mitte/Ende der 90er, als die Verbreitung erst zugenommen hat, man aber auch mit Hardware aus der 80er anfangs glücklich spielen konnte. Dann die Phase ab 1998, in der sich sowohl Hardware als auch die Software überschlagen hat und dann seit 2009 wieder eine eher "gemächliche" Phase.
X-TR4 schrieb:
Dass die Preise für eine dezente Mittelklasse-Karte bzw generell deutlich gestiegen sind lässt sich nicht leugnen.
Was aber an vielen verschiedenen Faktoren liegt. Man kann hier den Finger auf NVIDIA, Intel, AMD und Co richten, aber das ist immer nur die halbe Wahrheit.
Dazu kommt für uns in Europa Mitte/Ende 2022 der extrem schlechte Euro-Kurs, der die US-Preise noch mal gesalzen nach oben geschoben hat. 1,08 - stand jetzt Beitrag - ist es aktuell. Das verschiebt zusammen mit der USt. die Preise hier nach oben. Preise hier werden immer Brutto angeben, in den USA Netto.
Pleasedontkill schrieb:
Erste Gen kann nie versprochenes liefern. Jetzt mit 3. Gen geht RT einigermassen, kommt Pathtracing, das RT wie ein schlechter Scherz da stehen lässt.
Path Tracing ist Ray Tracing. Das nur mal so als Haupteinwurf. Path Tracing ist eine Iteration von Ray Tracing, dass sich besondere statitische Effekte zu nutzen macht.
Ansonsten: Was erwartest du? Geht man nach deiner Ausführung, dann hätte weder 3dfx, NVIDIA oder ATi bis 2009 und DirectX 11 ihre "Karten" auf den Markt bringen drüfen, weil erst DirectX 11 wirklich die Entwicklung der 90er "abgeschlossen" hat, was Rasterizer angeht.
Technologie braucht Impulse und die bekommt man nur, wenn man irgendwann auch produktiv damit arbeitet und damit entsprechendes Potenzial erkennen kann.
Pleasedontkill schrieb:
Diese "ewige" Karotte gilt für alle technische Entwicklungen. Es ist ein "ewiger" Kreislauf, dass man etwas "erfindet", dann "umsetzt", dann sich ansieht und "verbessert" und das dann "umsetzt". So funktioniert das nun mal.
Woher soll denn NVIDIA, die Spieleentwickler und Co die Erfahrungen nehmen beim RayTracing, wenn man nicht irgendwann den Sprung wagt?
X-TR4 schrieb:
Und der ist mittlerweile am Limit, wenn es weiter Richtung Fotorealismus geht.
Wie ich geschrieben habe, das lustige ist ja, dass selbst bei Rasterizern so ablief, dass man RT-Techniken implementiert hat um die Globale-Beleuchtung und Co zu verbessern. Der Umschwung auf RT hatte bereits vor 2018 statt gefunden, nur in einem andere Außmaß.