Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Der Retro-Hardware Bilderthread
- Ersteller andi_sco
- Erstellt am
Leon1909
Lt. Commander
- Registriert
- Sep. 2006
- Beiträge
- 1.521
Meinen 133er Pentium hätte ich auch gerne wieder. Vom Geld, das ich zu Weihnachten geschenkt bekam und meinem Ersparten habe ich mir RAM, Board und CPU gekauft. Dabei musste ich dann entscheiden, ob ich entweder den 133er und 16 MB RAM nehme oder den 166er und nur 8 MB RAM. Versteht heutzutage kaum noch einer, aber 8 MB RAM waren seinerzeit schweineteuer.
Das alles nahm Platz in einem riesigen Big Tower mit 4 großen Rollen, Klapptür vor den 5 1/4 Laufwerken und großem roten Kippschalter. Durch die später nachgerüstete Quantum BigFoot HDD passte dann auch die Geräuschkulisse zum Gehäuse.
Hab sogar auf die Schnelle Bilder davon gefunden. Leider keine eigenen Fotos, deswegen verlinke ich das mal hier, um nicht gegen Copyright zu verstoßen.
Big Tower mit Voodoo Power – Retro Gaming PC Build
Leider musste dieses wahnsinnig geile Gehäuse dann weichen, als mit dem Pentium II der ATX Standard Einzug nahm :-(
Und...oh mein Gott...ja genau...ab dem Pentium II hatte ich dann auch einen oder sogar zwei USB Ports mit am Board. Und ich fragte mich damals, was ich mit dem Scheiß soll, hieß es doch kurz vorher in der "Chip" noch "USB = Useless Serial Bus!?".
Das alles nahm Platz in einem riesigen Big Tower mit 4 großen Rollen, Klapptür vor den 5 1/4 Laufwerken und großem roten Kippschalter. Durch die später nachgerüstete Quantum BigFoot HDD passte dann auch die Geräuschkulisse zum Gehäuse.
Hab sogar auf die Schnelle Bilder davon gefunden. Leider keine eigenen Fotos, deswegen verlinke ich das mal hier, um nicht gegen Copyright zu verstoßen.
Big Tower mit Voodoo Power – Retro Gaming PC Build
Leider musste dieses wahnsinnig geile Gehäuse dann weichen, als mit dem Pentium II der ATX Standard Einzug nahm :-(
Und...oh mein Gott...ja genau...ab dem Pentium II hatte ich dann auch einen oder sogar zwei USB Ports mit am Board. Und ich fragte mich damals, was ich mit dem Scheiß soll, hieß es doch kurz vorher in der "Chip" noch "USB = Useless Serial Bus!?".
- Registriert
- Jan. 2018
- Beiträge
- 19.039
Ich hätte es gerne selber gemacht, aber für drei Videokassetten und ein 8mm Film hätte es sich nicht gelohnt.gymfan schrieb:Ob Du Deine (für Dich) wertvollen historischen Computer auch irgendwo hin schicken würdest?
Und der Videorekorder, der bereit stand, hat die Bänder zerissen und ich hatte keine Nerven, da mal reinzuschauen...
DJMadMax
Fleet Admiral
- Registriert
- Mai 2007
- Beiträge
- 16.145
Eine 9600 GT war ihrerzeit eine sehr gute Mittelklassegrafikarte. Allerdings musst du nicht nur die damaligen Hardwarekomponenten und Spiele, sondern auch die zugehörigen Grafikeinstellungen und Auflösung beachten.286/16_PS schrieb:war das eine lahme Gurke, oder schon brauchbar? Da ich gerade mein Lynnfield-System fertig habe, eine Frage:
Darin (Core I7 870, 8GB RAM), sitzt eine GTX 580, ist das eine sinnvolle Kombination oder ist das Quatsch?
Beispielsweise Skyrim auf hoher S
Heute wird 4x oder gar 8x AntiAliasing aktiviert und du hast dadurch evtl. einen 10%igen Performanceeinbruch. Früher hat 2x AntiAliasing schonmal schnell allein 20-30% Performance gekostet.
Hinzu kommt die Auflösung. Als Oblivion 2006 das Licht der Welt erblickte, war von Full HD noch zu träumen, selbst bei den Meisten im TV-Bereich (ein 50" Plasma mit Full HD-Auflösung ging schnell in Richtung 3000 Euro).
Für 1280x960 (4:3) bzw. 1280x1024 (5:4) und moderate Einstellungen ist eine 9600 GT prima zu gebrauchen. Devil May Cry 4 (das "alte" ohne Remaster-Geplänkel) läuft damit super.
Die GTX 580 war ebenfalls eine spitzenmäßige Grafikkarte und zudem zu Release Top of the Line. Dennoch gilt hier das gleiche wie auch schon bei der 9600 GT: Die Einstellungen und das Spiel müssen einfach passen. Mit der 580 war dann so langsam auch Full HD salonfähig, weiterhin muss man hier aber mit dem AntiAliasing zurückhaltend sein.
Eine GTX 580 passt für mich übrigens viel besser zu einem Sandy Bridge, also einem i5 2500K oder gar einem i7 2600K (letzteres hatte ich im Frühjahr 2011 zusammen mit meiner GTX 580). Die Releases der GTX 580 sowie des 2600K liegen auch nur 2 Monate auseinander.
Übrigens: Oblivion modded läuft auch auf modernster Hardware nicht immer zufriedenstellend. Die Freaks bei Bethesda haben die Engine nicht gerade sehr ressourcenschonend kreiert. Man denke hier nur an den berühmten RAM-Bug, der durch unsauberen Code schnell zum Overflow führte.
Ergänzung ()
DooM II mit dem Joystick, na bravo 1995, also etwa mit 11-12 Jahren, habe ich DooM II (mit Keyboard only-Steuerung) erstmals komplett durchgespielt, auf Ultra Violence - ohne Cheats selbstverständlich. Jeden Tag nach der Schule ein, zwei Level gespielt, nebenher noch selbst Level mit dem damals sehr verbreiteten DOS-Tool EDMap erstellt und so noch besser die Funktionen des Spiels und mancher Level kennengelernt (Bosstrigger: 666 ^^).codengine schrieb:Mehr Retro geht nicht (ja, es ist meine Wenigkeit im zarten Alter von 10 Jahren).
Aber mach dir nichts draus: Ich Trollo hab zeitgleich versucht, Descent mit Joystick und Tastatur (gleichzeitig) durchzuspielen, bis mich dann die ersten nativ mausgesteuerten Shooter lehrten, dass man so etwas mit Maus + Tastatur spielt.
Eine kleine Sünde beichte ich aber noch:
Ich habe Descent nie durchgespielt und bin irgendwo in Level 16 oder 17 stecken geblieben.
Zuletzt bearbeitet:
DJMadMax
Fleet Admiral
- Registriert
- Mai 2007
- Beiträge
- 16.145
Zusatz:
Hab hier nochmal die korrespondierenden ComputerBase-Artikel herausgesucht:
TES: Oblivion im 2006er Grafikkarten-Test
Anmerkung zur damaligen Testmethodik:
Beim Testsystem handelte es sich um:
Selbst für den Test der 9600 GT hat ComputerBase später noch einmal Oblivion herangezogen, in den gleichen Einstellungen:
TES: Oblivion im Test der GeForce 9600 GT
Die Grafikeinstellungen sind die selben, das Testsystem ist mittlerweile ein deutlich potenteres geworden:
Hab hier nochmal die korrespondierenden ComputerBase-Artikel herausgesucht:
TES: Oblivion im 2006er Grafikkarten-Test
Anmerkung zur damaligen Testmethodik:
AntiAliasing-Tests wuden separat durchgeführt, 1280x1024 ohne AntiAliasing stellte zu Oblivion-Zeiten eine bereits gesteigerte Grafikeinstellung in Spielen dar, insbesondere in Verbindung mit maximalen Spieledetails.Alle Benchmarks werden mit maximalen Details ausgeführt, damit die Grafikkarte möglichst hoch belastet wird. Als Einstellungen haben wir uns dabei für 1280x1024 und 1600x1200 entschieden. Damit zollen wir den modernen High-End-Beschleuniger Tribut, die durch ihre Rechenkraft niedrigere Auflösungen als 1280x1024 CPU-limitiert werden lassen. Neben den reinen Auflösungen lassen wir den Benchmarkparcours auch mit 4-fachem Anti-Aliasing sowie 16-fachen anisotropen Filter durchlaufen
Beim Testsystem handelte es sich um:
- AMD Athlon 64 FX-60 (2,6 GHz, Dual-Core)
- Asus A8N32-SLI Deluxe (nForce4 SLI x16)
- 2x 1024 MB Corsair TwinX1024-3500LL PRO (2-3-2-5)
Selbst für den Test der 9600 GT hat ComputerBase später noch einmal Oblivion herangezogen, in den gleichen Einstellungen:
TES: Oblivion im Test der GeForce 9600 GT
Die Grafikeinstellungen sind die selben, das Testsystem ist mittlerweile ein deutlich potenteres geworden:
- Intel Core 2 Extreme X6800 (übertaktet auf 3,46 GHz, Dual-Core)
- Asus Striker Extreme (Nvidia nForce 680i)
- 2x 1024 MB Corsair CM2X1024-6400 (4-4-4-15)
DJMadMax
Fleet Admiral
- Registriert
- Mai 2007
- Beiträge
- 16.145
Hach, ich mag Zahlen und Graphen und Vergleichstests, und seien sie noch so theoretisch und noch so weit hergeholt
Etwas mehr Details zur Performance einer 9600 GT sowie einer GTX 580 im theoretisch-indirekten Vergleich:
Theoretische 3D-Leistung im interpolierten Vergleich
Ausgehend von der Leistung einer 9600 GT bei 100% (im Schnitt über alle Benchmarks und Auflösungen hinweg) ist eine 8800 GTX 27% schneller in der niedrigsten Auflösung, in 1600x1200 sogar 35% schneller. Eine GTX 285 baut den Vorsprung auf 225%, respektive sogar 275% aus. Diese Werte lassen sich auf ComputerBase insofern vergleichen, da z.B. der Direktvergleich der 9600 GT und der 8800 GTX im Test der 9600 GT getroffen wurde. Die GTX 285 hingegen vergleicht in ihrem Test ebenfalls noch mit der 9600 GT. Das Testsystem der GTX 285 ist jedoch schon ein anderes, als noch zur 8800 GTX und auch die 9600 GT, in der noch die 8800 GTX zum Vergleich herangezogen wurde, verwendet ein eigenes Testsystem. Es könnte also sein, dass die Leistung der 8800 GTX gegenüber der 9600 GT auf dem Testsystem der GTX 285 anders ausfällt, als wie es noch auf dem Testsystem der 9600 GT der Fall war. Wichtig ist uns jedoch der Vergleich einer 9600 GT zur GTX 580 - also arbeiten wir uns weiter vorah.
Könnt ihr soweit noch folgen?! Gut, ich auch nicht -> weiter geht's!
Ein direkter Vergleich der GTX 285 zur GTX 580 fällt wiederum schwer, da ComputerBase hier lediglich mit der Vorgängergeneration wie z.B. der GTX 480 verglichen hat, alternativ mit ATI-Karten der HD 5000er und 6000er Serie. Von daher muss ein erneuter Zwischenschritt eingebaut werden:
Erneut ausgehend von einer 9600 GT müssen die LEistungswerte zur GTX 480 bereits interpoliert werden, da hier kein Direktvergleich auf ComputerBase existiert und zudem die Auflösung der GTX 480-Tests nicht mehr den zuvor genutzten Auflösungen entspricht. Immerhin ist die Anzahl der Bildpunkte von 1600x1200 nur ca. 9% höher als die bei 1680x1050, also lassen sich wenigstens diese Werte miteinander vergleichen.
Das bedeutet: eine GTX 285 ist in 1680x1050 174% schneller, als eine 9600 GT. In der selben Auflösung ist eine GTX 480 ihrerseits aber auch ganze 71% schneller als eine GTX 285. Rechnet man dieses Leistungsplus nun 1:1 auf die 100% der 9600 GT auf, so würde man bei einer GTX 480 eine knappe 370%ige Steigerung gegenüber der 9600 GT in einer Auflösung von 1680x1050 vorfinden.
Zusätzlich kamen bei der GTX 480 auch schon die "größere" Full HD-Auflösungen zum Einsatz, also eben kein 1920x1080 im klassischen 16:9-Format, sondern die leicht darüberliegende 16:10-Variante, 1920x1200. Dies entspricht etwa 11% mehr Bildpunkten als echtes Full HD und somit eine nochmals höhere Belastung der Grafikkarten.
Nun sind wir also soweit für einen theoretischen GTX 580-Vergleich mit der 9600 GT:
Die GTX 580 ist gegenüber ihrem direkten Vorgänger um 14% (1680x1050) bzw. 16% (1920x1200) voraus.
In der gesamten Tabelle sieht man nebst den absoluten Werten (glatte Prozentbeträge) die interpolierten Werte (Kommabeträge) sowie einen Haufen fehlender Werte - eben, weil sie so selbst interpoliert nur schwer verglichen werden können.
Selbst die mit Kommastellen errechneten und theoretischen Werte müssen hier mit Vorsicht genossen werden, denn wie bereits erwähnt haben die Grafikkarten mittlerweile zu viele verschiedene Testsysteme hinter sich und zum Anderen würden all diese interpolierten Werte nur dann stimmen, wenn es tatsächlich kein Bottleneck im System gibt - das kann nebst CPU-Limit auch der Arbeitsspeicherdurchsatz, die PCIe-Schnittstelle oder sogar ganz einfach nur die Spielengine selbst sein.
Worauf ich hinaus möchte:
Selbst eine GTX 580, auch wenn sie in 1680x1050 theoretisch über 434% schneller sein müsste als eine 9600 GT, so sieht die Realität aufgrund der sonstigen Rahmenbedingungen eben vollkommen anders aus. 2006 haben wir Oblivion mit einer Auflösung von maximal 1600x1200 gespielt, vermutlich aufgrund der Performance aber eher in 1280x1024 oder darunter. Heute bauen wir uns ein "Halb"-Retro-System mit einer GTX 580 zusammen, schließen unseren Full HD-Monitor an und wundern uns, wieso Oblivion in fast doppelter Bildpunktzahl nicht 5x so schnell läuft, wie damals noch auf der zum Oblivion-Release gängigeren Grafikkarte.
Ein weiterer Punkt, das bereits angesprochene AntiAliasing:
Hier nur ein ganz kurzer Ausflug, weniger Theorie, dafür deutlich mehr Praxis.
Eine 8800 GTX schafft in Oblivion in 1280x1024 straffe 74,8 FPS, ohne AntiAliasing. Mit aktiviertem 4x AntiAliasing sinkt die Leistung auf 26,4 FPS ein, das ist ein Leistungsverlust von ca. 65 Prozent.
In jüngeren Grafikkarten- und Spieletests hingegen finden Begriffe wie AntiAliasing, Kantenglättung, FSAA, QSAA, TS(S)AA und so weiter schon überhaupt keine Erwähnung mehr - nicht einmal mehr im sehr ausführlichen ComputerBase-Beitrag betreffend der exakten Testmethodik der zum Benchmark-Einsatz kommenden Spiele. Wieso wird es nicht mehr erwähnt? Weil es heute leistungstechnisch tatsächlich keinen solch großen Einfluss mehr wie früher hat. Zudem ist in der Testmethodik mit "Maximale Details" eben genau das gemeint: sollte ein Schieberegler bzw. eine Einstellung fürs AntiAliasing vorhanden sein, so wird dieser spieleintern einfach bis an den Anschlag hochgeschoben. So etwas war früher halt undenkbar.
Was bedeutet das nun?
Muss Oblivion auf einer GTX 580 flüssig laufen?
Ja, auf jeden Fall!
Muss Oblivion auf einer GTX 580 in Full HD und maximalen Details inkl. 8x AntiAliasing flüssig laufen?
Nope
Etwas mehr Details zur Performance einer 9600 GT sowie einer GTX 580 im theoretisch-indirekten Vergleich:
Theoretische 3D-Leistung im interpolierten Vergleich
| 1280x1024 | 1600x1200 | 1680x1050 |
9600 GT | 100,00 % | 100,00 % | 100,00 % |
8800 GTX | 127,00 % | 135,00 % | |
GTX 285 | 225,00 % | | 274,00 % |
Ausgehend von der Leistung einer 9600 GT bei 100% (im Schnitt über alle Benchmarks und Auflösungen hinweg) ist eine 8800 GTX 27% schneller in der niedrigsten Auflösung, in 1600x1200 sogar 35% schneller. Eine GTX 285 baut den Vorsprung auf 225%, respektive sogar 275% aus. Diese Werte lassen sich auf ComputerBase insofern vergleichen, da z.B. der Direktvergleich der 9600 GT und der 8800 GTX im Test der 9600 GT getroffen wurde. Die GTX 285 hingegen vergleicht in ihrem Test ebenfalls noch mit der 9600 GT. Das Testsystem der GTX 285 ist jedoch schon ein anderes, als noch zur 8800 GTX und auch die 9600 GT, in der noch die 8800 GTX zum Vergleich herangezogen wurde, verwendet ein eigenes Testsystem. Es könnte also sein, dass die Leistung der 8800 GTX gegenüber der 9600 GT auf dem Testsystem der GTX 285 anders ausfällt, als wie es noch auf dem Testsystem der 9600 GT der Fall war. Wichtig ist uns jedoch der Vergleich einer 9600 GT zur GTX 580 - also arbeiten wir uns weiter vorah.
Könnt ihr soweit noch folgen?! Gut, ich auch nicht -> weiter geht's!
Ein direkter Vergleich der GTX 285 zur GTX 580 fällt wiederum schwer, da ComputerBase hier lediglich mit der Vorgängergeneration wie z.B. der GTX 480 verglichen hat, alternativ mit ATI-Karten der HD 5000er und 6000er Serie. Von daher muss ein erneuter Zwischenschritt eingebaut werden:
| 1280x1024 | 1600x1200 | 1680x1050 |
9600 GT | 100,00 % | 100,00 % | 100,00 % |
GTX 285 | 225,00 % | | 274,00 % |
GTX 480 | | | 468,54 % |
Das bedeutet: eine GTX 285 ist in 1680x1050 174% schneller, als eine 9600 GT. In der selben Auflösung ist eine GTX 480 ihrerseits aber auch ganze 71% schneller als eine GTX 285. Rechnet man dieses Leistungsplus nun 1:1 auf die 100% der 9600 GT auf, so würde man bei einer GTX 480 eine knappe 370%ige Steigerung gegenüber der 9600 GT in einer Auflösung von 1680x1050 vorfinden.
Zusätzlich kamen bei der GTX 480 auch schon die "größere" Full HD-Auflösungen zum Einsatz, also eben kein 1920x1080 im klassischen 16:9-Format, sondern die leicht darüberliegende 16:10-Variante, 1920x1200. Dies entspricht etwa 11% mehr Bildpunkten als echtes Full HD und somit eine nochmals höhere Belastung der Grafikkarten.
Nun sind wir also soweit für einen theoretischen GTX 580-Vergleich mit der 9600 GT:
| 1280x1024 | 1600x1200 | 1680x1050 | 1920x1200 |
9600 GT | 100,00 % | 100,00 % | 100,00 % | |
8800 GTX | 127,00 % | 135,00 % | | |
GTX 285 | 225,00 % | | 274,00 % | 100,00 % |
GTX 480 | | | 468,54 % | 168,00 % |
GTX 580 | | | 534,14 % | 194,88 % |
Die GTX 580 ist gegenüber ihrem direkten Vorgänger um 14% (1680x1050) bzw. 16% (1920x1200) voraus.
In der gesamten Tabelle sieht man nebst den absoluten Werten (glatte Prozentbeträge) die interpolierten Werte (Kommabeträge) sowie einen Haufen fehlender Werte - eben, weil sie so selbst interpoliert nur schwer verglichen werden können.
Selbst die mit Kommastellen errechneten und theoretischen Werte müssen hier mit Vorsicht genossen werden, denn wie bereits erwähnt haben die Grafikkarten mittlerweile zu viele verschiedene Testsysteme hinter sich und zum Anderen würden all diese interpolierten Werte nur dann stimmen, wenn es tatsächlich kein Bottleneck im System gibt - das kann nebst CPU-Limit auch der Arbeitsspeicherdurchsatz, die PCIe-Schnittstelle oder sogar ganz einfach nur die Spielengine selbst sein.
Worauf ich hinaus möchte:
Selbst eine GTX 580, auch wenn sie in 1680x1050 theoretisch über 434% schneller sein müsste als eine 9600 GT, so sieht die Realität aufgrund der sonstigen Rahmenbedingungen eben vollkommen anders aus. 2006 haben wir Oblivion mit einer Auflösung von maximal 1600x1200 gespielt, vermutlich aufgrund der Performance aber eher in 1280x1024 oder darunter. Heute bauen wir uns ein "Halb"-Retro-System mit einer GTX 580 zusammen, schließen unseren Full HD-Monitor an und wundern uns, wieso Oblivion in fast doppelter Bildpunktzahl nicht 5x so schnell läuft, wie damals noch auf der zum Oblivion-Release gängigeren Grafikkarte.
Ein weiterer Punkt, das bereits angesprochene AntiAliasing:
Hier nur ein ganz kurzer Ausflug, weniger Theorie, dafür deutlich mehr Praxis.
Eine 8800 GTX schafft in Oblivion in 1280x1024 straffe 74,8 FPS, ohne AntiAliasing. Mit aktiviertem 4x AntiAliasing sinkt die Leistung auf 26,4 FPS ein, das ist ein Leistungsverlust von ca. 65 Prozent.
In jüngeren Grafikkarten- und Spieletests hingegen finden Begriffe wie AntiAliasing, Kantenglättung, FSAA, QSAA, TS(S)AA und so weiter schon überhaupt keine Erwähnung mehr - nicht einmal mehr im sehr ausführlichen ComputerBase-Beitrag betreffend der exakten Testmethodik der zum Benchmark-Einsatz kommenden Spiele. Wieso wird es nicht mehr erwähnt? Weil es heute leistungstechnisch tatsächlich keinen solch großen Einfluss mehr wie früher hat. Zudem ist in der Testmethodik mit "Maximale Details" eben genau das gemeint: sollte ein Schieberegler bzw. eine Einstellung fürs AntiAliasing vorhanden sein, so wird dieser spieleintern einfach bis an den Anschlag hochgeschoben. So etwas war früher halt undenkbar.
Was bedeutet das nun?
Muss Oblivion auf einer GTX 580 flüssig laufen?
Ja, auf jeden Fall!
Muss Oblivion auf einer GTX 580 in Full HD und maximalen Details inkl. 8x AntiAliasing flüssig laufen?
Nope
- Registriert
- Jan. 2018
- Beiträge
- 19.039
Ich versteh nur BahnhofDJMadMax schrieb:Könnt ihr soweit noch folgen?! Gut, ich auch nicht -> weiter geht's!
PS bei den IGPUs, aka Vegas fällt Anti Aliasing noch gut auf, die haben aber auch extrem an der Speicherbandbreite zu knabbern.
@MaexxDesign hatte eine schöne Benchmarkliste begonnen, aber leider ist er zur Zeit nicht aktiv und ich weiß nicht, ob ich einfach die Ergebnisse posten darf
DJMadMax
Fleet Admiral
- Registriert
- Mai 2007
- Beiträge
- 16.145
Wieso solltest du Ergebnisse aus deiner eigenen Benchmark-Liste nicht posten dürfen?andi_sco schrieb:ich weiß nicht, ob ich einfach die Ergebnisse posten darf
- Registriert
- Jan. 2018
- Beiträge
- 19.039
Weil die Karten von @MaexxDesign gebencht wurden und er dann eine Liste erstellt hat, mit den Ergebnissen.DJMadMax schrieb:deiner eigenen Benchmark-Liste
Ich hatte nur mal angefangen, die Karten chronologisch zu sortieren
@SV3N ist noch involviert
Ergänzung ()
Mit ATi?Karre schrieb:der XT
<NeoN>
Fleet Admiral
- Registriert
- März 2006
- Beiträge
- 11.941
Karre schrieb:der XT oben links war mein erster eigener PC, allerdings mit Pentium II.
Und schon da gab es einen Rechner für dieses neuartige Home-Office
Karre
Admiral
- Registriert
- Apr. 2010
- Beiträge
- 8.422
Jupp. Mit ATI Rage Pro onboardandi_sco schrieb:Mit ATi?
konkretor
Artikeldetektiv
- Registriert
- März 2011
- Beiträge
- 7.121
Ein Quad Core 2 Q9550 in OVP, der wird nicht ausgepackt. Der bleibt für immer in seiner Box
https://ark.intel.com/content/www/d...or-q9550-12m-cache-2-83-ghz-1333-mhz-fsb.html
https://ark.intel.com/content/www/d...or-q9550-12m-cache-2-83-ghz-1333-mhz-fsb.html
- Registriert
- Jan. 2018
- Beiträge
- 19.039
Befindet sich noch in der Erprobungsphase, diese sollte dann gegen 2024 abgeschlossen sein<NeoN> schrieb:Und schon da gab es einen Rechner für dieses neuartige Home-Office
Leon1909
Lt. Commander
- Registriert
- Sep. 2006
- Beiträge
- 1.521
Ist ja dämlich. Sound Blaster Karten in allen möglichen Varianten bekommt man bei Kleinanzeigen ab 5 Euro hinterhergeschmissen, aber sobald die Dinger ISA-Füße haben, kannst du ne Null an die Fünf hängen. Wenn dann noch AWE mit drinsteht, fängts bei 100 an.
Leon1909
Lt. Commander
- Registriert
- Sep. 2006
- Beiträge
- 1.521
Ich bin grad über einen halbwegs günstigen Pentium gestolpert, 40km von mir entfernt. Wenn der Verkäufer bald mal antwortet, hole ich den morgen ab. Dem fehlt allerdings ne Soundkarte. Muss nichts wildes sein, da wird eh nur ein kleiner Bluetooth-Würfel dran angeschlossen (also nicht über BT, sondern über dessen Klinkeneingang).
Ah jo, ne AT-Tastatur und eine serielle Maus bräuchte ich dann auch noch. Letztere habe ich im Keller, allerdings weiß ich nicht genau in welcher der zahlreichen Kisten sie ihr Dasein fristet.
Das Diskettenlaufwerk ist defekt. Nicht schlimm, ich habe noch zwei oder drei im Keller. Allerdings habe ich ohnehin keine Disketten mehr und ich denke, der Datentransfer zwischen Neuzeit-PC und Steinzeit-PC funktioniert dann am einfachsten mit mit USB Sticks. Das wiederum erfordert dann natürlich einen USB Controller im PCI Slot, natürlich idealerweise mit Windows95 Treibern anbei.
Ich bin so hibbelig
Ah jo, ne AT-Tastatur und eine serielle Maus bräuchte ich dann auch noch. Letztere habe ich im Keller, allerdings weiß ich nicht genau in welcher der zahlreichen Kisten sie ihr Dasein fristet.
Das Diskettenlaufwerk ist defekt. Nicht schlimm, ich habe noch zwei oder drei im Keller. Allerdings habe ich ohnehin keine Disketten mehr und ich denke, der Datentransfer zwischen Neuzeit-PC und Steinzeit-PC funktioniert dann am einfachsten mit mit USB Sticks. Das wiederum erfordert dann natürlich einen USB Controller im PCI Slot, natürlich idealerweise mit Windows95 Treibern anbei.
Ich bin so hibbelig