Unti schrieb:
Früher waren AiBs generell eher unorginell, viel war da gleich gebaut, die meisten haben sich nicht unterschieden.
Und Leadtek hat hier halt einfach die Maximalbrechstange ausgepackt xD
Das mag technisch stimmen, aber optisch gab es, wie
@Palomino genannt hat, die bedruckten Kunststoff-Luftführung. Das schlimmste daran ist jedoch, dass damals auch viele Gehäuse keine Scheibe im Seitenteil hatten, also hat man das noch nicht mal gesehen :X . Ansonsten nahmen sich alle Hersteller gegenüber dem Referenz Model nicht viel. Taktrate war vom Bus bestimmt. Um mehr Leistung zu bekommen musste man den Bustakt erhöhen und das ging, wenn überhaupt, auch nicht so einfach wie bei heutigen Karten.
lnnz schrieb:
"Silent PC" war damals auch noch ein ziemliches Nischenhobby, und wenn ein OEM seine eigene Kühllösung hatte, dann war's auch einfach nur ein Block aus extrudierten Alu mit einem lauten Lüfter. So um 2005-2006 kamen dann die ersten Kühllösungen mit orientierungsunabhängigen Heatpipes auf den Markt, aber das war alles noch sehr unausgereift: Jeder Hersteller hatte seine eigenen Ideen, wie man das ganze am besten löst.
Hier ist ein CB-Test von damaligen 3rd Party GPU-Kühlern: Keiner von denen hatte ein Konzept, das heute noch üblich ist. Der Accelero von AC war nah dran, aber berüchtigt für überhitzenden Speicher.
Die OEMs sind da erst sehr spät aufgesprungen.
@Innz, genau so war das. War der originale Lüfter zu laut, oder die Karte zu heiß, musste man, die meist geklebten, Kühler entfernen und die Garantie war weg. Da konnte man nicht, wie heute, einfach mal eine Karte mit ab Werk installiertem Wasserkühler im Laden kaufen.
Und wenn man den origialen Kühler drauf gelassen hat konnte man die Karten nach ein paar Jahren intensiver nutzung wegwerfen. Die sind dann i.d.R. einen langsamen Hitzetod gestorben, bemerkbar durch die klassischen bunten Polygone unter Last.
Wobei ich sagen muss, dass die Karten ab der fx6000 Serie wieder deutlich leiser und kühler geworden sind. Dem Fön der fx5800 waren nicht viele Karten konkurenzfähig.
Unti schrieb:
Aber sind wir doch mal ehrlich, hat doch viel Spaß gemacht damals, auch wenn man dauerhaft neu kaufen "musste" oder eher "wollte" weil Basteln war cool, der Drang nach Neuem war einfach viel größer wie Heute.
Natürlich ist es für den Standard Consumer heute besser als damals! Aber etwas trauere ich diesem ultra "Fortschritt" von damals zu heute schon hinterher. Langsam "stagniert" es, Entwicklungszyklen werden immer länger, da die Technik immer komplexer wird :/.
Damals gab es aber auch gefühlt ständig irgendwelche neuen DirectX oder OpenGL Versionen und neue Spiele die diese direkt unterstützt haben. Natürlich hat man sich dann für HL2 eine Karte mit der neuesten DirectX9 unterstützung gekauft. Da musste dann die Geforce 3/4 gegen eine Radeon 9000 weichen.
Zudem war damals noch die Entwicklung anders angetrieben. Da die Hardware in absehbarer Zeit immer große Leistungssprünge verzeichnet hat, konnten die Entwickler wärend der Entwicklung damit rechnen, dass die Software wärend der Entwicklungszeit vielleicht nicht optimal läuft. Spätestens ein halbes Jahr nach release sollte sich das Problem dann mit der schnelleren, gängigen Hardware von selbst beheben. Zudem wurde noch viel in Optimierungsmaßnahmen gesteckt. Heute wird jeder Cent umgedreht, Optimierungsmaßnahmen kannste knicken, da werden lieber die Mindestanforderungen hoch geschraubt. Die Anwendungen werden für eine Plattform entwickelt und nachher gibt es schlechte Ports auf oder von Konsolen.
Zudem ist die Zeit des Abwarten auf bessere Hardware rum. Die Singlethread Leistung macht vergleichsweise kleine Sprünge und die Performance holt man aus gutem Multithreading. Dafür müsste man aber Optimieren. Bestes Beispiel dazu ist Minecraft. Hätten die Entwickler anstatt der ganzen Workarounds frühzeitig schon Schnittstellen für Multithreading implementiert, dann würden auch aktuelle, große Modpacks auf vergleichsweise alten Multicoresystemen flüssig laufen.