W
Wechsler
Gast
Und auf Röhrenmonitoren völlig unnötig.peakyblinder schrieb:Damals war Anti-Aliasing die FPS-Ficker Option.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Und auf Röhrenmonitoren völlig unnötig.peakyblinder schrieb:Damals war Anti-Aliasing die FPS-Ficker Option.
Absatz!!!!!!!!!!!!GERmaximus schrieb:Nvidia ist für mich ein Meister im minimal Prinzip und schafft es immer wieder ein Produkt am Markt zu platzieren, was im hier und jetzt gut da steht, morgen aber bereits irgendwo krankt
Ja, alle G80 Chips bis hin zum G92 hatten diesen VRAM Bug. Erst der G92b (warum gab es den wohl?^^) war fehlerbereinigt.Nureinnickname! schrieb:Mit mehr VRAM könnte der Kunde die Karte aber viel länger nutzen und würde seltener Aufrüsten, was wiederum schlecht für Nvidia wäre. Eine vermutung warum das so war/ist.
Bei meiner 8800GTS 320MB lief z.b jedesmal nach einiger Zeit der VRAM voll und das Spiel fing an zu Ruckeln, damals Trackmania Nations, einmal Alt Tab auf den Desktop und wieder zurück, lief es wieder einige Zeit.
Wer behauptet solchen Unsinn ?Wechsler schrieb:Und auf Röhrenmonitoren völlig unnötig.
Röhrenmonitore haben Zeilen, keine Pixel. Geglättet werden auch nicht deren "Kanten", sondern die Ecken dieser Pixel, die man erst mal nur auf LCDs findet. Der analoge Kathodenstrahl zeichnet weich die Mattscheibe, da die Wechsel zwischen Hell und Dunkel analog (also in einem weichen Übergang) erfolgen und die Zeilen auch nicht beliebig scharf gegeneinander abgegrenzt sind wie auf dem LCD.gustlegga schrieb:Treppenstufen
Das Pixel was anderes sind als Loch&Streifenmaske ist mir schon auch klar.Wechsler schrieb:Röhrenmonitore haben Zeilen, keine Pixel.
Und genau davon rede ich auch.Wechsler schrieb:Sichtbare Ecken gibt es deshalb nur bei extrem niedrigen Auflösungen
Was ich früher mit der Röhre im Vergleich zu den heutigen LEDs mehr Strom verbraten hab ,muss ich jetzt mehr heizen. Effizienz ist also im Winter gar nicht mal sooooo wichtig. LolRaucherdackel! schrieb:Ja, die gute alte Röhre... 😍
Pixel Shader 3.0 kamen erst mit der GeForce 6000 Serie. GeForce 3 führte generell Shader ein und nutzte daher Pixel Shader 1.0[wege]mini schrieb:Das Transform and Lighting (oder so) war ein echter Fortschritt, als es in Hardware berechnet wurde. Wenn ich mich richtig erinnere, hatte die erste GForce das und mit der Gforce3 kam dann mit Pixel Shader 3.0 die neue Technologie richtig in Fahrt.
Später kamen dann unified Shader und heute redet man ja sowieso nur noch über CUs.
Waren spannende Zeiten und es war schön, sie miterleben zu dürfen.
Wenn kein OpenGL unterstützt wurde, waren die Voodoos sowieso "nutzlos" und eigentlich brauchte man eine Unterstützung von Glide. DirectX gab es damals noch nicht.
Lang ist es her, aber immer wieder eine schöne Zeitreise.
mfg
0x8100 schrieb:die 2d-karte hat nie irgendein signal der voodoos bekommen.
cha0shacker schrieb:Die Banshee und die Karten ab der 3000 Serie konnten auch 2D.
Henner macht doch bei Stay Forever die Technik Folgen. Ich liebe die.gustlegga schrieb:Es gibt nur einen Föhn, und das war die 5800Ultra.
(Vermisst eigentlich jemand Henner auch so wie ich ? ^^ )
genau anders herum. eine 2d karte hat gar keinen eingang, um das bild der voodoo durchzuschleifen:[wege]mini schrieb:Man schlauft das Signal der Voodoos durch die 2D Karte und von der 2D Karte geht das Signal an den Monitor. Da ich gerade nicht in Dresden bin, kann ich nicht genau schauen, ich bin mir aber 99% sicher.
Nein, genau andersrum.[wege]mini schrieb:Man schlauft das Signal der Voodoos durch die 2D Karte und von der 2D Karte geht das Signal an den Monitor.
Ohne 2D Karte kannst du den Rechner gar nicht booten. Aber du kannst problemlos im 3D-Betrieb das Kabel zwischen 2D Karte und Voodoo entfernen, da dieses nur das 2D-Bild durchschleift.[wege]mini schrieb:Ohne 2D Karte kommt von den Voodoos gar kein Bild. Wenn ich mich richtig erinnere.