Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchfĂŒhren oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchfĂŒhren oder einen alternativen Browser verwenden.
Der Retro-Hardware Bilderthread
- Ersteller andi_sco
- Erstellt am
- Registriert
- Jan. 2018
- BeitrÀge
- 19.003
Ich hab ne DeepCool auf dem Tisch.Zombieeee schrieb:Schreib Du doch
Und die Software ist ĂŒberhaupt nicht mein Gebiet
- Registriert
- Jan. 2018
- BeitrÀge
- 19.003
Heute, vor 22 Jahren, wurde die GeForce 3 vorgestellt.
Der (fast) erste Pixel Shader Beschleuniger im Consumer Bereich.
Warum fast? Man munkelt, das bereits die erste Radeon Shader hatte, durch eine Entscheidung von Microsoft wurde dieser aber nicht voll unterstĂŒtzt und eine Emulation war zu langsam.
Vorgestellt wurde die Karte von einem nVidia Mitarbeiter Namens Kirk, der um die Zeit vermutete, das man zehn Jahre spÀter Fotorealistische Grafik auf dem PC hat.
Hardware ist nichts ohne Software:
https://www.nvidia.com/en-us/geforce/community/demos/
Der (fast) erste Pixel Shader Beschleuniger im Consumer Bereich.
Warum fast? Man munkelt, das bereits die erste Radeon Shader hatte, durch eine Entscheidung von Microsoft wurde dieser aber nicht voll unterstĂŒtzt und eine Emulation war zu langsam.
Vorgestellt wurde die Karte von einem nVidia Mitarbeiter Namens Kirk, der um die Zeit vermutete, das man zehn Jahre spÀter Fotorealistische Grafik auf dem PC hat.
Hardware ist nichts ohne Software:
https://www.nvidia.com/en-us/geforce/community/demos/
Zuletzt bearbeitet:
24784ds
Lieutenant
- Registriert
- Nov. 2007
- BeitrÀge
- 586
Ja, letztendlich hat MS vor der Finalisierung von DX8.0 die Specs nochmals angepasst. Die genauen Auswirkungen wurden damals schön im rage3d Forum von einem Entwickler ausgefĂŒhrt und auch warum eine CPU Emulation oder Wrapping auf andere Einheiten nicht funktioniert. Siehe hier: https://www.rage3d.com/board/forum/...k-2k1-no-hardware-support?p=593067#post593067andi_sco schrieb:Warum fast? Man munkelt, das bereits die erste Radeon Shader hatte, durch eine Entscheidung von Microsoft wurde dieser aber nicht voll unterstĂŒtzt und eine Emulation war zu langsam.
What this means is that prior to the final release of DirectX 8.0, Microsoft decided that it was better to expose the RADEONâą's and GeForce{2}'s extended multitexture capabilities via the extensions to SetTextureStageState() instead of via the pixel shader interface. There are various practical technical reasons for this. Much of the same math that can be done with pixel shaders can be done via SetTextureStageState(), especially with the enhancements to SetTextureStageState() in DirectX 8.0. At the end of the day, this means that DirectX 8.0 exposes 99% of what the RADEONâą can do in its pixel pipe without adding the complexity of a "0.5" pixel shader interface.
Additionally, you have to understand that the phrase "shader" is an incredibly ambiguous graphics term. Basically, we hardware manufacturers started using the word "shader" a lot once we were able to do per-pixel dot products (i.e. the RADEON / GF generation of chips). Even earlier than that, "ATI_shader_op" was our multitexture OpenGL extension on Rage128 (which was replaced by the multivendor EXT_texture_env_combine extension). QuakeIII has ".shader" files it uses to describe how materials are lit. These are just a few examples of the use of the word shader in the game industry (nevermind the movie production industry which uses many different types of shaders, including those used by Pixar's RenderMan).
With the final release of DirectX 8.0, the term "shader" has become more crystalized in that it is actually used in the interface that developers use to write their programs rather than just general "industry lingo." In DirectX 8.0, there are two versions of pixel shaders: 1.0 and 1.1. (Future releases of DirectX will have 2.0 shaders, 3.0 shaders and so on.) Because of what I stated earlier, RADEONâą doesn't support either of the pixel shader versions in DirectX 8.0. Some of you have tweaked the registry and gotten the driver to export a 1.0 pixel shader version number to 3DMark2001. This causes 3DMark2001 to think it can run certain tests. Surely, we shouldn't crash when you do this, but you are forcing the (leaked and/or unsupported) driver down a path it isn't intended to ever go. The chip doesn't support 1.0 or 1.1 pixel shaders, therefore you won't see correct rendering even if we don't crash. The fact that that registry key exists indicates that we did some experiments in the driver, not that we are half way done implementing pixel shaders on RADEONâą. DirectX 8.0's 1.0 and 1.1 pixel shaders are not supported by RADEONâą and never will be. The silicon just can't do what is required to support 1.0 or 1.1 shaders. This is also true of GeForce and GeForce2.
There are no shipping products that support pixel shaders from any vendor. You'll have to wait for those.
Because not ALL of SetTextureStageState() can be mapped to pixel shader functionality.
...
Absolutely not. This would KILL performance. Doing any pixel math on the CPU is death for performance.
HÀtte 3dfx die internen Ressourcen besser verteilt, wÀre vermutlich der Rampage der erste Beschleuniger dieser Art geworden.
Leon1909
Lt. Commander
- Registriert
- Sep. 2006
- BeitrÀge
- 1.521
andi_sco schrieb:Heute, vor 22 Jahren, wurde die GeForce 3 vorgestellt.
Mein bester Kumpel hat sich 2001 einen neuen Rechner gegönnt, da drin werkelte eine GeForce 3 Ti 500.
Wir haben bei diversen Bierchen immer und immer wieder den 3D Mark durchlaufen lassen nur um diese wahnsinnig geile Grafik zu bewundern.
kryzs
Lt. Commander
- Registriert
- Apr. 2012
- BeitrÀge
- 1.655
- Registriert
- Jan. 2018
- BeitrÀge
- 19.003
24784ds schrieb:Ja, letztendlich hat MS vor der Finalisierung von DX8.0 die Specs nochmals angepasst.
Quelle: rage3d.com
JasonM [ATi] answerd:FullAction wrote:
What does that mean "it turned into a hairball"?
What this means is that prior to the final release of DirectX 8.0, Microsoft decided that it was better to expose the RADEONâą's and GeForce{2}'s extended multitexture capabilities via the extensions to SetTextureStageState() instead of via the pixel shader interface. There are various practical technical reasons for this. Much of the same math that can be done with pixel shaders can be done via SetTextureStageState(), especially with the enhancements to SetTextureStageState() in DirectX 8.0. At the end of the day, this means that DirectX 8.0 exposes 99% of what the RADEONâą can do in its pixel pipe without adding the complexity of a "0.5" pixel shader interface.
Additionally, you have to understand that the phrase "shader" is an incredibly ambiguous graphics term. Basically, we hardware manufacturers started using the word "shader" a lot once we were able to do per-pixel dot products (i.e. the RADEON / GF generation of chips). Even earlier than that, "ATI_shader_op" was our multitexture OpenGL extension on Rage128 (which was replaced by the multivendor EXT_texture_env_combine extension). QuakeIII has ".shader" files it uses to describe how materials are lit. These are just a few examples of the use of the word shader in the game industry (nevermind the movie production industry which uses many different types of shaders, including those used by Pixar's RenderMan).
With the final release of DirectX 8.0, the term "shader" has become more crystalized in that it is actually used in the interface that developers use to write their programs rather than just general "industry lingo." In DirectX 8.0, there are two versions of pixel shaders: 1.0 and 1.1. (Future releases of DirectX will have 2.0 shaders, 3.0 shaders and so on.) Because of what I stated earlier, RADEONâą doesn't support either of the pixel shader versions in DirectX 8.0. Some of you have tweaked the registry and gotten the driver to export a 1.0 pixel shader version number to 3DMark2001. This causes 3DMark2001 to think it can run certain tests. Surely, we shouldn't crash when you do this, but you are forcing the (leaked and/or unsupported) driver down a path it isn't intended to ever go. The chip doesn't support 1.0 or 1.1 pixel shaders, therefore you won't see correct rendering even if we don't crash. The fact that that registry key exists indicates that we did some experiments in the driver, not that we are half way done implementing pixel shaders on RADEONâą. DirectX 8.0's 1.0 and 1.1 pixel shaders are not supported by RADEONâą and never will be. The silicon just can't do what is required to support 1.0 or 1.1 shaders. This is also true of GeForce and GeForce2.
There are no shipping products that support pixel shaders from any vendor. You'll have to wait for those.
Google Ăbersetzer:
FullAction schrieb:
Was bedeutet das "es wurde zu einem Haarball"?
JasonM [ATi] Antwort:
Das bedeutet, dass Microsoft vor der endgĂŒltigen Veröffentlichung von DirectX 8.0 entschied, dass es besser sei, die erweiterten Multitextur-FĂ€higkeiten von RADEONâą und GeForce{2} ĂŒber die Erweiterungen von SetTextureStageState() bereitzustellen, anstatt ĂŒber den Pixel-Shader Schnittstelle. DafĂŒr gibt es verschiedene praktisch-technische GrĂŒnde. Ein GroĂteil der gleichen Berechnungen, die mit Pixel-Shadern durchgefĂŒhrt werden können, können ĂŒber SetTextureStageState() durchgefĂŒhrt werden, insbesondere mit den Verbesserungen an SetTextureStageState() in DirectX 8.0. Letzten Endes bedeutet dies, dass DirectX 8.0 99 % dessen offenlegt, was die RADEONâą in ihrer Pixelpipe leisten kann, ohne die KomplexitĂ€t einer â0,5â-Pixel-Shader-Schnittstelle hinzuzufĂŒgen.
AuĂerdem mĂŒssen Sie verstehen, dass der Ausdruck âShaderâ ein unglaublich mehrdeutiger Grafikbegriff ist. GrundsĂ€tzlich haben wir Hardwarehersteller angefangen, das Wort âShaderâ hĂ€ufig zu verwenden, als wir in der Lage waren, Pixel-Punktprodukte herzustellen (d. H. Die RADEON / GF-Generation von Chips). Noch frĂŒher war âATI_shader_opâ unsere Multitexture-OpenGL-Erweiterung auf Rage128 (die durch die Multivendor-Erweiterung EXT_texture_env_combine ersetzt wurde). QuakeIII hat ".shader"-Dateien, die es verwendet, um zu beschreiben, wie Materialien beleuchtet werden. Dies sind nur einige Beispiele fĂŒr die Verwendung des Wortes Shader in der Spieleindustrie (ganz zu schweigen von der Filmproduktionsindustrie, die viele verschiedene Arten von Shadern verwendet, einschlieĂlich derer, die von Pixars RenderMan verwendet werden).
Mit der endgĂŒltigen Veröffentlichung von DirectX 8.0 hat sich der Begriff âShaderâ insofern stĂ€rker herauskristallisiert, als er tatsĂ€chlich in der BenutzeroberflĂ€che verwendet wird, die Entwickler zum Schreiben ihrer Programme verwenden, und nicht nur im allgemeinen âBranchenjargonâ. In DirectX 8.0 gibt es zwei Versionen von Pixel-Shadern: 1.0 und 1.1. (ZukĂŒnftige Versionen von DirectX werden 2.0-Shader, 3.0-Shader usw. haben.) Aufgrund dessen, was ich bereits gesagt habe, unterstĂŒtzt RADEONâą keine der Pixel-Shader-Versionen in DirectX 8.0. Einige von Ihnen haben die Registrierung optimiert und den Treiber dazu gebracht, eine 1,0-Pixel-Shader-Versionsnummer in 3DMark2001 zu exportieren. Dies veranlasst 3DMark2001 zu glauben, dass er bestimmte Tests ausfĂŒhren kann. Sicherlich sollten wir nicht abstĂŒrzen, wenn Sie dies tun, aber Sie zwingen den (durchgesickerten und/oder nicht unterstĂŒtzten) Treiber auf einen Weg, den er niemals gehen soll. Der Chip unterstĂŒtzt keine 1,0- oder 1,1-Pixel-Shader, daher werden Sie kein korrektes Rendering sehen, selbst wenn wir nicht abstĂŒrzen. Die Tatsache, dass dieser RegistrierungsschlĂŒssel existiert, weist darauf hin, dass wir einige Experimente mit dem Treiber durchgefĂŒhrt haben, und nicht, dass wir mit der Implementierung von Pixel-Shadern auf RADEONâą halb fertig sind. Die 1.0- und 1.1-Pixel-Shader von DirectX 8.0 werden von RADEONâą nicht unterstĂŒtzt und werden es auch nie. Das Silizium kann einfach nicht das leisten, was erforderlich ist, um 1.0- oder 1.1-Shader zu unterstĂŒtzen. Dies gilt auch fĂŒr GeForce und GeForce2.
Es gibt keine Versandprodukte, die Pixel-Shader von irgendeinem Anbieter unterstĂŒtzen. Auf die musst du warten.
_chiller_
Lieutenant
- Registriert
- Jan. 2014
- BeitrÀge
- 777
Da mach ich mitkryzs schrieb:Na dann lasst uns mal die 3âer rausholen đ
Oben links ASUS V8200 Pure - hÀsslich, bringt von allen TI 200-Karten aber die höchsten Taktraten im OC.
Oben rechts dann die regulÀre V8200
Unten links eine Gainward GF 3 TI 200 mit 128MB
Und unten rechts eine regulÀre MSI Geforce 3
Ich hab noch glaube ich 2 oder 3 Geforce 3 Karten auf dem Reparaturstapel, den Anblick erspare ich euch aber mal.
Eine (funktionierende) TI 500 ist mir bislang aber leider vergönnt geblieben
Ich hab noch zwei ungetestete Geforce 3, links im Bild. Die Sparkle braucht definitiv noch etwas Liebe, die Medion Geforce 3 TI 200 dĂŒrfte neben den ASUS-Karten die wohl verbreitetste Variante in Deutschland sein. Wurde damals in einem Aldi-PC mit Pentium 4 1,8 GHz verkauft, mein Vater hatte auch so eine Kiste.
Edit: Achso, und nehmt euch vor Geforce 3-Karten mit aufgeblÀhten Kondensatoren in acht! Bislang wurde ich von Geforce 3-Karten mit Abstand am meisten und am spektakulÀrsten beschossen bei Inbetriebnahme
- Registriert
- Jan. 2018
- BeitrÀge
- 19.003
Das
intel 80186 + 80187 FPU
hab ich hier als 550W Variante - schönes TeilRaptorTP schrieb:komplett unbenutzt
intel 80186 + 80187 FPU
Zombieeee
Lt. Junior Grade
- Registriert
- Apr. 2011
- BeitrÀge
- 335
Ist das nicht die Serie, mit der "schlechten" Elko BestĂŒckung? Die sind doch hĂ€ufig ausgefallen deswegen.RaptorTP schrieb:komplett unbenutzt ... Elkos "sehen" gut aus. Hauptsache endlich mal genug 4pin Molex !
MfG
Zombieeee
_chiller_
Lieutenant
- Registriert
- Jan. 2014
- BeitrÀge
- 777
Das war das Blackline P5 - fĂŒr das Netzteil habe ich vor ein paar Tagen die speziellen Kondensatoren gesucht (danke ĂŒbrigens fĂŒr den Hinweis @HerrAbisZ !)
Hab hier auch ein be quiet! E5 mit 500W, funktioniert auch noch. Generell sehe ich aber vom Dauerbetrieb mit alten Netzteilen ab, ich hab in allen Retro-PCs Corsair TXM Version 2017 verbaut, die haben noch einen teilbaren 20-24Pin ATX-Stecker und auch noch einen Floppy-Stecker.
Hab hier auch ein be quiet! E5 mit 500W, funktioniert auch noch. Generell sehe ich aber vom Dauerbetrieb mit alten Netzteilen ab, ich hab in allen Retro-PCs Corsair TXM Version 2017 verbaut, die haben noch einen teilbaren 20-24Pin ATX-Stecker und auch noch einen Floppy-Stecker.
_chiller_
Lieutenant
- Registriert
- Jan. 2014
- BeitrÀge
- 777
Ja, die breite Slotblende drĂŒckt das PCB massiv runter, einzig der DVI-Port hĂ€lt noch alles zusammenRaptorTP schrieb:Was zum ?! .... die Slotblende ist krum. Aber auch die PCB?
Von der FX 5200 lagen ĂŒbrigens mehrere im Paket, die Seriennummern enden auf 2884, 2886, 2887, 2892 und 2899. Angesichts der ganzen Quadro-Karten, SCSI-Controllern und Netzwerk-Karten vermute ich mal, dass ich hier den alten Bestand einer Firma aufgekauft habe.
RaptorTP
Fleet Admiral
- Registriert
- Jan. 2006
- BeitrÀge
- 18.903