Bartmensch
Commodore
- Registriert
- Mai 2010
- Beiträge
- 4.800
Ich habe die HD3000er Serie damals ausgelassen und bin vom X1950 auf die HD4850 gewechselt.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Es ist ganz einfach: Die Karte wurde auf SingleSlot geschrumpft und hat das DirectHeatExhaust-Prinzip verloren. Wäre sie bei DualSlot geblieben und hätte die Hitze nicht in, sondern aus dem Gehäuse herausgepustet, dann hätte sie sicherlich das Refdesign weit hinter sich lassen können.TigerherzLXXXVI schrieb:Diese Kühllösung von Sapphire hat offensichtlich noch keinen größeren Vorteil gegenüber dem Referenzdesign gebracht. Oder man hatte es mit der Übertaktung etwas übertrieben.
Ja gut, es gibt auch ein paar wenige Leute die immer noch behaupten 30 FPS sind flüssig . Mikroruckler gab es definitiv, ich habe noch kein SLI/CF System ohne Mikroruckler gesehen.MorbusGon schrieb:Von den Mikrorucklerberichten in vielen Spielen, von denen das Internet voll war, habe ich nur absolut nichts bemerkt bei meinem System
Naja, WENN man sowas macht (wenn es noch gehen würde) dann gleich 2x RTX 4090.spw schrieb:Heutzutage würde ich 2x 7900XT nehmen und der 4090 das Fürchten lehren.
Ja, aber Sapphire hat sich eben für dieses Design entschieden Und genau dieses wird letztendlich bewertet.CDLABSRadonP... schrieb:[...]dann hätte sie sicherlich das Refdesign weit hinter sich lassen können.
https://www.computerbase.de/2008-04/ati-radeon-hd-3870-faellt-unter-119-euro/PietVanOwl schrieb:Die Sapphire HD3870 hatte ich, nur halt die mit dem blauen Kühler. Oh man war der laut.
Zum Glück hatte ein Umbau mit dem Accelero die Karte zum schweigen gebracht.
MFG Piet
Ich hatte dein Posting so verstanden, dass du auf Ursachensuche gehen wolltest...TigerherzLXXXVI schrieb:Ja, aber Sapphire hat sich eben für dieses Design entschieden
...auf Grund dieses Abschnittes.TigerherzLXXXVI schrieb:Oder man hatte es mit der Übertaktung etwas übertrieben.
Weil vermutlich die Hälfte hier im Forum >30 und im Sinne der Jugend "Oldies" sind.....Dome87 schrieb:Wieso ist das so lange her?
Früher war das mit der Vapor-Chamber wohl einfacher
War die 8800GTS damals nicht schneller als die 8800GT? Und damit die 3870 langsamer?Boimler schrieb:Schöne Karte, jedenfalls gut gealtert. Ich bin damals weiter bei meiner 8800GTS geblieben, mangels Geld für eine neue Karte. Wobei mir das Argument im Nachhinein seltsam lächerlich vorkommt
Lauter nicht zwingend, hochtöniger wegen den kleinen Lüftern, der Schalldruckpegel hat aber nicht "soooooo" massiv zugenommen.Fighter1993 schrieb:Wie unglaublich laut das damals alles gewesen ist.
Yeah, Scaling im AFR bei +30-40% im Best Case, da kannst gerne mal probieren mit ner 7900XT + 30% eine 7900XT ne 4090 zu erreichen, eine Karte, die man nichtmal als SingleGPU korrekt ausgelastet bekommt bei allem <4K Maxed Out... Viel Spaß.... Blubber Blubberspw schrieb:Heutzutage würde ich 2x 7900XT nehmen und der 4090 das Fürchten lehren. Habe es damals immer so gemacht. Battlefield und viele andere AAA Titel skalierten top mit X fire.
Laut letztem Artikel von Wolfgang im OC Kopf an Kopf machen das doch viele 7900XTX oder?spw schrieb:Will meinen Chip eigentlich gar nicht hergeben.Der peakt/bleibt ziemlich oft auf 2750MHZ
Nope, der Gerät braucht Energie, immer mehr Energie! 🤦♂️HeinMueck schrieb:Wäre das nicht was für heutige Grafikkarten mit ihren überdimensionierten Verbräuchen und Größen?
30 FPS mit V-Sync sind besser als 40-50 mit Microrucklern^^.Pisaro schrieb:Ja gut, es gibt auch ein paar wenige Leute die immer noch behaupten 30 FPS sind flüssig . Mikroruckler gab es definitiv, ich habe noch kein SLI/CF System ohne Mikroruckler gesehen.
Können sich die 2 GPUs die 60% Auslastung einer Karte teilen, geil.Pisaro schrieb:Naja, WENN man sowas macht (wenn es noch gehen würde) dann gleich 2x RTX 4090.
Haha, da musste ich lachen. Danke dafürUnti schrieb:Können sich die 2 GPUs die 60% Auslastung einer Karte teilen, geil.
Ich auch, die war schön warm - 80°C im Leerlauf.Bartmensch schrieb:Ich habe die HD3000er Serie damals ausgelassen und bin vom X1950 auf die HD4850 gewechselt.
Bitte gernePisaro schrieb:Haha, da musste ich lachen. Danke dafür
Aber je nach Spiel ist mir meine 4090 auf 3440x1440 schon ein klein wenig zu lahm
Hatte damals 2x HD4870 im CF.wuselsurfer schrieb:Ich auch, die war schön warm - 80°C im Leerlauf.
Nostalgie Pur ->Pisaro schrieb:Meine 4890 von PowerColor war "krass" drauf. Irgendwas um 104°C bei maximaler GPU Last und laut wie ein Düsenjet. Das waren Zeiten.
Aber schon eigenartig. CB misst dort 69°C unter Last und ich hatte einfach über 100°C. Auch gutUnti schrieb:Nostalgie Pur ->
30 FPS können flüßig wirken (z.B. auf Konsole), aber nee, anfangen kann ich damit nichts. 60 FPS müssen es schon sein, mindestens. 😅Pisaro schrieb:Ja gut, es gibt auch ein paar wenige Leute die immer noch behaupten 30 FPS sind flüssig . Mikroruckler gab es definitiv, ich habe noch kein SLI/CF System ohne Mikroruckler gesehen.
Ist wie mit allem anderen, weißt man dich drauf hin, legst du dein Augenmerk darauf, es war def. vorhanden, man hat es eben nie bemerkt und dann auch nicht wahrgenommen^^.MorbusGon schrieb:Ich hatte damals aber tatsächlich keine bermerkbare Mikroruckler. Es lief alles super flüßig und responsiv. Aufgefallen wäre es mir sonst definitiv, da ich recht empfindlich im visuellen BEreich bin.
Nicht wirklich. Deswegen hab ich meine PS4 fast gar nicht benutztMorbusGon schrieb:30 FPS können flüßig wirken (z.B. auf Konsole)