Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NotizDirectX 8.0: Vor 20 Jahren begann das Zeitalter der Shader
Meine GeForce 3 habe ich damals kurz nach Release gekauft, zusammen mit einer Athlon 1200 Kombo. Das war ne Höllenmaschine damals. Alleine die Grafikkarte hat stolze 1200 DM gekostet. Man muss allerdings dazu sagen, dass Shader erst in der 3.0 Version mit DX 9 zum Gamechanger wurden. DX 8 wurde relativ schnell weiterentwickelt und die GeForce 3 war ne ziemliche Zwischennummer. Hielt aber dafür locker drei Jahre und wurde dann erst durch die 9800 Pro ersetzt, nachdem die GeForce 5 ein Riesendesaster wurde.
Ich weiß auch noch, wie ich mit meiner GeForce 2Ti nach dem ersten SplinterCell bedröppelt dastand, weil der zweite Teil auf einmal DX8 und Shader vorausgesetzt hat.
Wieso denn? Klar, heute sind die 15 Watt ein Witz, betrachtet man aber damals die PCs, dann sind die 15 Watt für eine »GPU«, die primär damals primär Polygone mit Texturen versah und das dann in ein 2D-Bild umwandelte, sehr wohl ein recht hoher Verbrauch gewesen.
Gut, die CPU war zu Zeiten der GeForce 3 auch immer noch primär dafür zuständig Objekte zu »verformen« und die Beleuchtung zu berechnen und war damals - verglichen mit der GPU - der primäre Stromfresser im PC. Pentium 3 war bis zu 40 Watt TDP ausgelegt, erst mit dem Pentium 4 ist dann die TDP »explodiert«.
Transform&Ligthning hat sich zu DX7-Zeiten nicht wirklich durchgesetzt, weil der Fallback die CPU war und erst mit DX8, wurde dann T&L stärker genutzt, da dann der Fallback eben DX7 war.
Ist man »böse«, dann hatte die GeForce 3, zu dem Zeitpunkt halt so einige Schaltkreise, die damals nicht wirklich genutzt wurden, aber befeuert werden mussten. Heute sind die GPUs wahre und auch »flexible« Numbercruncher, das benötigt halt auch mehr Energie.
Irgendwie will ich mir mein »Traumsystem« aus meiner Jugend mal zusammen bauen: Pentium 3 Tualatin mit 1,3GHz, 1GB SDRAM und einer Voodoo 3 oder 5 und dann mal messen, was das Ding beim zocken so braucht. XD
mibbio schrieb:
Oder halt auch das im Artikel erwähnte Wasser in Morrowind, weil man dazu Position & Blickwinkel der Spielerkamera braucht.
Nein, das ist so nicht richtig. Die Position als auch der Blickwinkel der Spielerkamera war auch bereits vorher verfügbar und sind auch nicht die wichtigen Punkte für das Wasser gewesen, viele der Techniken gab es bereits unter DX6 und DX7. Mit DX6 wurde »Bump Mapping« (Normalmaps) sowie Multitexture eingeführt, ich weiß nicht, wann »animierte« Texturen unterstützt wurden, ob das DX5 oder so war.
Bereits für Bump Mapping hat man jedoch die Position als auch den Winkel der Spielerkamera benötigt um den Effekt passend darzustellen. Das Problem damals war dann eher, alles sehr »unflexible« auf die Objekte angewendet wurde. Wasserspiegelungen findet man aber bereits in Unreal 1, die Grundlage hier ist eben die Funktion mehre Texturen auf einem Objekt anzuwenden.
Mit DX8 wurden die Funktionen von Bump Mapping massiv aus gebaut, dazu eben dann die Vertex-Shader mit denen man nun auch besser die Oberflächen verformen konnte und darauf bauen auch die Wassereffekte in Morrowind auf. Die Wasserberfläche wird hier mithilfe der Normalmap sowie eben den Vertexshadern verformt. Die Spiegelungen sind aber weiterhin nur eine Textur, die mithilfe des Alpha-Kanals auf die Wassertextur aufgebracht wird.
Ach ja, als ich Mitte 2000 meinen ersten duron PC zusammenbauen ließ, gleichzeitig den vorletzten bei dem ich das noch völlig selbst gemacht habe, war meine gforce 2 gts noch top.
Dann kamen morrowind, die Radeon 8500 und ein Upgrade auf einen athlon 1200 schnell hintereinander, da meine Übertaktung den duron geröstet hatte...
Die 8500 war aber leider auch die einzige Grafikkarte die mir je während der Garantie gestorben ist, dank miesem Kühler und wärmer dachwohnung.
Würde dann zuerst durch eine gforce 4 4200 ti ersetzt, die suoeeise aber nicht so schnell wie erwartet war, und dann 2006 durch den letzten semi komplett PC durch eine x1900xtx.
Die hielt bis sie 2010 starb.
Die Geforce 1 dürfte mehr verbraucht haben.
Erst bei der 2. Version wurde durch die bessere Fertigung der Verbrauch gezügelt und der doppelt so hohe Takt möglich.
hatte damals die geforce 3 gekauft und war nicht ganz zufrieden mit der leistung. brüderchens 8500 ati performte in irgend einem jedi shooter schon zum teil deutlich besser. hatte dann mir gleich ne 4400 ti von leadtek gekauft. die war schon deutlich flotter. als dann 2004 shader 2.0 in farcry der grafische knaller war hatte ich schon längst keinen gfrosch mehr im pc. man war die 5er reihe mies von nvidia...
Sehr interessant ist auch Jensens Talk zu dem Thema. Spiegelt für mich genau das wieder, was Nvidia jetzt wieder mit den RTX Karten getan hat.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich hatte damals eine GForce 3 Ti200 128MB. Und man sah das Wasser danals genial aus in Mirrowind. Das hatte ich eigentlich nur deshalb angeschafft... Ich weiß... Banause. Oblivion hatte mir dann eher zugesagt, nicht nur wegen der Grafik.
Hatte damals glaube ne Geforce 4 440MX dann irgendwann, die hatte dann keinen Pixelshader 3.0 oder so und konnte manche Games nicht wiedergeben... das war echt ärgerlich damals. Bei nem Kumpel mit ner Geforce 4 Ti ging das...
Das war doch die typische Fertig-Familien-PC Karte oder? Die war wirklich ne Gurke :S...
Ich bin damals mit der GF3 ti 200 in meinen ersten selbst zusammengestellten PC eingestiegen ... Bis sie 2004 von der 9800 pro 128MB abgelöst wurde - die zig Jahre her halten musste.
Ich habe das Benchmark 2001SE geliebt .... ich glaube bei meinem letzten GPU wechsel wollte es nicht mehr auf meiner RX480 laufen, wenn ich mich nicht irre.. aber noch auf der GTX 660.
Ich fand der Wechsel zu DX9 war noch ne ganze Ecke extremer was die Optik angeht.
Half Life 2 war damals z.B. der Grund meine PS2 zu verkaufen und das hart zusammengesparte Taschengeld in eine 9800 Pro zu investieren damit auch alles schön in höchsten Settings läuft......man war ich happy als kleiner Junge
Heutzutage kauft man sich ne dicke Grafikkarte und freut sich auch darüber aber nicht so wie es früher mal war, kennt ihr das ?
Vieles ist heute einfach Standard und nix besonderes mehr.
die zeit von ca. 1996 bis ca. 2005 war aber auch sehr dynamisch. software und hardware entwickelten sich enorm. diesen speed gibts heute einfach nicht mehr. war ne tolle zeit, auch wenn man ständig aufrüsten musste
Man war das ne Zeit. Bin zwar erst mit DX9 zum "richtiger Zocker" geworden (weil ich vorher nur so selten am PC durfte ), erinnere mich aber trotzdem gerne zurück.
ich war damals noch mit der Geforce2MX400 unterwegs Stattliche 293MHz GPU-Takt hatte ich mit Übertaktung rausholen können.
Laut Wikipedia ist DX 8.0 allerdings erst am 12. November veröffentlicht worden. War das am 9. schon der richtige Termin oder ist CB 3 Tage zu früh mit der News dran?
Die hatte ich auch damals und irgend so ein Übertaktungstool. Ich hatte keine Ahnung was ich da tue und hab so ein Bratenthermometer von meiner Mutter genommen und an den Kühler gepackt, weil ich so Schiss hatte ihren PC zu schrotten
Ich meinte das Hardware bzw. die GPU Blöcke bezogen. Nicht auf das Feature an sich bzw. den Effekt der sich daraus ergibt..
Denn grob gesehen machen jetzt einfach die universellen Shader das T&L. Aber stimmt- Ich seh grad.
Geht ja um das Thema DX.
Habe mich von den Vorgängerkommentaren ablenken lassen...
Ich bin mir nicht mehr ganz sicher, glaube aber mich zu erinnern das mit DX8 auch die ersten zaghaften Experimente hin zur Beschleunigung von Effekten beim Videoschnitt aufkamen. Ich war da mit einer DV-Kamera und Firewire-Karte unterwegs, konnte aber von den Schnittprogrammen und der Hardware die sie zum Frühstück fraßen nur träumen.
Was daran lag, dass die »Pipeline« unter DX8 noch relativ »unflexibel« war und man hier noch weitgehend in den Ausführungsschritten gefangen war.
Erst DX9 hat dann zum Beispiel »Multiple Render Targets« eingeführt, ebenso, dass man in den Vertex-Shadern auf Texturen zugreifen kann, was es dann ermögliche aus den bis dahin doch linearen Ablauf des Rendering auszubrechen.
Was daran lag, dass die »Pipeline« unter DX8 noch relativ »unflexibel« war und man hier noch weitgehend in den Ausführungsschritten gefangen war.
Erst DX9 hat dann zum Beispiel »Multiple Render Targets« eingeführt, ebenso, dass man in den Vertex-Shadern auf Texturen zugreifen kann, was es dann ermögliche aus den bis dahin doch linearen Ablauf des Rendering auszubrechen.