Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Im Test vor 15 Jahren: Zwei GeForce 8800 GTX waren schneller als eine
- Ersteller Robert
- Erstellt am
- Zur News: Im Test vor 15 Jahren: Zwei GeForce 8800 GTX waren schneller als eine
general-of-omega
Lt. Commander
- Registriert
- Juli 2004
- Beiträge
- 1.860
Schon komisch, dass jahrelang niemand die Microruckler bemerkte und dann plötzlich das das KO Kriterium war.
Hatte nur eine GTX 295 und wirklich geil war se nur in Benchmarks. Hatte bei vielen Spielen SLI sogar abgeschaltet. Da zwar teilweise etwas mehr FPS, aber ohne SLI sich besser anfühlte
Hatte nur eine GTX 295 und wirklich geil war se nur in Benchmarks. Hatte bei vielen Spielen SLI sogar abgeschaltet. Da zwar teilweise etwas mehr FPS, aber ohne SLI sich besser anfühlte
konkretor
Artikeldetektiv
- Registriert
- März 2011
- Beiträge
- 7.037
@drake23 Ja das ist soweit korrekt, mehr dazu bitte hier weiter lesen
https://www.3dcenter.org/blog/leonidas/rip-tombman
https://www.3dcenter.org/blog/leonidas/rip-tombman
DJMadMax
Fleet Admiral
- Registriert
- Mai 2007
- Beiträge
- 15.870
Weißt du eigentlich, von welchen Größenordnungen du da sprichst?Dracal2002 schrieb:wenn ich bedenke dass Nvidia für die nächste Generation von 2,5 kw spricht
Flossen_Gaming
Commander
- Registriert
- Aug. 2008
- Beiträge
- 2.117
Ich hatte damals dann die 8800GT, welche von der Performance meine ich gleich auf mit der 8800GTX war. War eine sehr schöne Karte, die lange Spaß gemacht hat.
Chris_S04
Commander
- Registriert
- Mai 2011
- Beiträge
- 2.398
Die 8000er GeForce haben damals verglichen mit den Vorgängern einen enormen Sprung gemacht, das war sehr beeindruckend. Gerade die 8800 GT damals mit dem G92 Chip war vom P/L her auch absoluter Wahnsinn.
Die hatte ich damals im SLI und hatte in den meisten Spielen, z.B. Crysis oder Stalker, damals zwar konstante 60FPS (Average), aber trotzdem immer Mal wieder Ruckler und mit der Zeit wurde das immer stärker, weil einfach Treiber und Spiele kaum noch darauf optimiert wurden. Die Krönung war dann GTA 4, das im SLI langsamer lief als mit einer einzelnen Karte.
Die hatte ich damals im SLI und hatte in den meisten Spielen, z.B. Crysis oder Stalker, damals zwar konstante 60FPS (Average), aber trotzdem immer Mal wieder Ruckler und mit der Zeit wurde das immer stärker, weil einfach Treiber und Spiele kaum noch darauf optimiert wurden. Die Krönung war dann GTA 4, das im SLI langsamer lief als mit einer einzelnen Karte.
leckerbier1
Commander
- Registriert
- Dez. 2008
- Beiträge
- 2.458
Hatte zufällig gestern 2x Radeon R9 Nano im Crossfire laufen. Musste es einfach mal testen. Die Mehrleistung im Benchmark ist schon beeindruckend.
RaptorTP
Fleet Admiral
- Registriert
- Jan. 2006
- Beiträge
- 18.806
An sich ist die Idee ja garnicht so schlecht.
Kaufst dir eine Graka.
Dann irgendwann kaufst dir ein dickes Netzteil.
und dann kaufst du dir die 2. Karte gebraucht wenn es eben an Leistung fehlt.
Dann merkst du wie grottig das läuft xD bzw. du bei jedem Game bibbern musst ob es denn im SLI rennt.
ok,ok - ich hatte nie SLI. Aber die Probleme sind mit durchaus bewusst.
Dann noch das Thema Temperatur und die Lautstärke, Stuttering, usw ...
Also nee. Zwar schade das es nie so richtig stabil war doch bös drum das es heute tot ist, bin ich auch nicht.
Kaufst dir eine Graka.
Dann irgendwann kaufst dir ein dickes Netzteil.
und dann kaufst du dir die 2. Karte gebraucht wenn es eben an Leistung fehlt.
Dann merkst du wie grottig das läuft xD bzw. du bei jedem Game bibbern musst ob es denn im SLI rennt.
ok,ok - ich hatte nie SLI. Aber die Probleme sind mit durchaus bewusst.
Dann noch das Thema Temperatur und die Lautstärke, Stuttering, usw ...
Also nee. Zwar schade das es nie so richtig stabil war doch bös drum das es heute tot ist, bin ich auch nicht.
Zuletzt bearbeitet:
crazycusti
Lt. Junior Grade
- Registriert
- März 2010
- Beiträge
- 280
Erstmal am überlegen wo ich das Bild letztens schonmal gesehen hab.. klar bei den DOS-Leuten klein ist die Welt!Karre schrieb:
So eine geile Kartenkombination vergisst man halt nicht.
V
VoAlgdH
Gast
Ich habe damals Pfandflaschen gesammelt, um dann die 600€ für die GTX zu haben...downforze schrieb:Als Schüler hat mich das damals nicht in den Ruin getrieben.
Da darf ich gar nicht drüber nachdenken😂.
tochan01
Rear Admiral
- Registriert
- Mai 2007
- Beiträge
- 5.157
Hatte mal sli
2x660 erstes setup
2x2080 zweites setup
Da es kaum noch blower Kühler gibt, ist kühlung heute echt nen Problem bei geschlossene Gehäusen bzw die FE 3090 heizt die andere vom unten noch mehr wie früher . 380watt als blower, da ist Name echt Programm. Gibt ja sogar eine 3090 sehe ich gerade.
Wäre diese Treiberproblrmatik nicht gewesen.... RAM sharing, also 2x 8Gb = 16 GB und nicht weiterhin 8 funktioniert mittlerweile bei den Profi quadros mittels 2 nvlink briges. Ich bin weiterhin der Überzeugung, dass die microruckler gelöst werden könnten aber es nicht gelöst werden "will".
Damals bei normalen Preisen waren 2 Karten deutlich schneller wie die eine highend und günstiger. Marge bei der einen highend ist aber deutlich höher. 2x1080 haben eine titan sehr deutlich verfrühstückt... bei geringeren Anschaffungskosten. Heute wäre das auch so.... sofern es den gehen würde.
Ich find es echt schade. Das die Probleme nie aus der Welt geräumt wurden bzw es nun tot ist.
2x660 erstes setup
2x2080 zweites setup
Da es kaum noch blower Kühler gibt, ist kühlung heute echt nen Problem bei geschlossene Gehäusen bzw die FE 3090 heizt die andere vom unten noch mehr wie früher . 380watt als blower, da ist Name echt Programm. Gibt ja sogar eine 3090 sehe ich gerade.
Wäre diese Treiberproblrmatik nicht gewesen.... RAM sharing, also 2x 8Gb = 16 GB und nicht weiterhin 8 funktioniert mittlerweile bei den Profi quadros mittels 2 nvlink briges. Ich bin weiterhin der Überzeugung, dass die microruckler gelöst werden könnten aber es nicht gelöst werden "will".
Damals bei normalen Preisen waren 2 Karten deutlich schneller wie die eine highend und günstiger. Marge bei der einen highend ist aber deutlich höher. 2x1080 haben eine titan sehr deutlich verfrühstückt... bei geringeren Anschaffungskosten. Heute wäre das auch so.... sofern es den gehen würde.
Ich find es echt schade. Das die Probleme nie aus der Welt geräumt wurden bzw es nun tot ist.
MilchKuh Trude
Captain
- Registriert
- Dez. 2006
- Beiträge
- 3.125
@RaptorTP
Genau dem gleichen gedanklichen Fehler bin ich damals auch erlegen. Punkt war, zum Zeitpunkt wo ich mir dann die zweite Karte leisten konnte, gab es ähnlich teure neue, die einzeln die Leistung des "geplanten" SLI Setups brachten. Dann habe ich immer die alte verkauft und eine neue mit mehr Leistung für günstig genommen.
SLI hatte ich nur einmal mit Voodoo2s. Aber das war in den 2000ern in nem Retro Rechner, als sie noch billig waren
Genau dem gleichen gedanklichen Fehler bin ich damals auch erlegen. Punkt war, zum Zeitpunkt wo ich mir dann die zweite Karte leisten konnte, gab es ähnlich teure neue, die einzeln die Leistung des "geplanten" SLI Setups brachten. Dann habe ich immer die alte verkauft und eine neue mit mehr Leistung für günstig genommen.
SLI hatte ich nur einmal mit Voodoo2s. Aber das war in den 2000ern in nem Retro Rechner, als sie noch billig waren
Christi
Fleet Admiral
- Registriert
- Dez. 2001
- Beiträge
- 10.924
fand die sli technik schon bei 3dfx für mich uninteressant und hatte nie das bedürfnis sowas zu verbauen.
bei den voodoos im sli gab ja wenigstens noch ein alleinstellungsmerkmal mit der höheren auflösung (1024x768).
sli ist für mich wie mit ner wasserkühlung. wollte ich nie und werde ich auch nie verbauen.
grüße
bei den voodoos im sli gab ja wenigstens noch ein alleinstellungsmerkmal mit der höheren auflösung (1024x768).
sli ist für mich wie mit ner wasserkühlung. wollte ich nie und werde ich auch nie verbauen.
grüße
D
Der Paule
Gast
drake23 schrieb:Wurden die Mikroruckler nicht damals von einem User des 3DCentrer (Tombman?) Entdeckt, bzw. Erstmalig gründlich analysiert?
Das ist korrekt. Anton war derjenige der zumindest in Deutschland (für international möchte ich meine Hand nicht ins Feuer legen) diese Thematik in die Öffentlichkeit gebracht hat.
Insbesondere Blaire im gleichen Forum war, neben anderen, derjenige, der bei SLI Systeme die Profilarbeit im Hinblick auf die Auswahl dort pflegte.
Nvidia hatte bei SLI den Vorteil, dass die Profile manuell geändert werden konnten, z.B. über den NVidia Inspector. Bei Crossfire war das zumindest bis zur 7xxx Serie Anfangs nicht möglich (danach war ich bei dem Thema raus).
Crossfire skalierte in Zeiten der 6xxx und 7xxx dafür etwas besser, zumindest bei den großen Titeln.
Insgesamt war die Profilarbeit der Hersteller für gute Skalierung und Funktionalität essentiell, und da haben sich beide Hersteller nicht mir Ruhm bekleckert.
Für eine vernünftige Bekämpfung der Mikroruckler blieb letzten Endes nur der Weg eines Limiters, das funktionierte einwandfrei. Das lief letzten Endes darauf hinaus, die MinFPS durch mehr als eine Karte nach oben zu drücken und das Limit ungefähr dort zu setzten. Das hatte viele Vorteile und einen offensichtlichen großen Nachteil, nämlich die Kappung hoher möglicher FPS.
Zuletzt bearbeitet von einem Moderator:
RaptorTP
Fleet Admiral
- Registriert
- Jan. 2006
- Beiträge
- 18.806
@MilchKuh Trude
so hab ich eigentlich auch immer gemacht. (Hatte nie SLI)
Immer dann verkauft wenn jeder meinte: die Leistung reicht doch noch !
Das war genau der Punkt bei dem ich auch noch gut was für die Karte bekommen hatte
Nur das letzte Upgrade war das allererste mal das ich 100% der Neupreis Summe gezahlt habe.
Also 1080 Ti behalten.
3080 gekauft, für schlappe 827€ ... aua (ich weiß, ich weiß - Trotzdem viel Geld)
Dann die 3080 nonLHR gegen eine 3080 Ti LHR getauscht für 2h Autofahrt und 2 gepflegtem Austausch während der Testphase beider Karten
so hab ich eigentlich auch immer gemacht. (Hatte nie SLI)
Immer dann verkauft wenn jeder meinte: die Leistung reicht doch noch !
Das war genau der Punkt bei dem ich auch noch gut was für die Karte bekommen hatte
Nur das letzte Upgrade war das allererste mal das ich 100% der Neupreis Summe gezahlt habe.
Also 1080 Ti behalten.
3080 gekauft, für schlappe 827€ ... aua (ich weiß, ich weiß - Trotzdem viel Geld)
Dann die 3080 nonLHR gegen eine 3080 Ti LHR getauscht für 2h Autofahrt und 2 gepflegtem Austausch während der Testphase beider Karten
Bob_Busfahrer
Captain
- Registriert
- Dez. 2004
- Beiträge
- 3.139
R.I.P. Tombman
deo
Fleet Admiral
- Registriert
- Okt. 2005
- Beiträge
- 13.445
Der Stromverbrauch war im Leerlauf schlimm. So ein Highend System wurde dann gerne noch etliche Jahre als Office PC genutzt und da schluckte es enorm Energie über die Zeit.
Der maximalen Stromaufnahme steht eine entsprechend hohe Arbeitsleistung gegenüber. Da wird Zeit gespart bei Berechnungen, was die Effizienz gegenüber eines 50 Watt PC, der dafür Jahre brauchen würde, erheblich steigert. Aber der 50 Watt PC ist dafür bei Office effizienter. Das wird heute kombiniert. Eine aktuelle Grafikkarte braucht im Leerlauf und einfachen Aufgaben nur wenige Watt und bei Höchstleistung lässt sie es dafür krachen.
Der maximalen Stromaufnahme steht eine entsprechend hohe Arbeitsleistung gegenüber. Da wird Zeit gespart bei Berechnungen, was die Effizienz gegenüber eines 50 Watt PC, der dafür Jahre brauchen würde, erheblich steigert. Aber der 50 Watt PC ist dafür bei Office effizienter. Das wird heute kombiniert. Eine aktuelle Grafikkarte braucht im Leerlauf und einfachen Aufgaben nur wenige Watt und bei Höchstleistung lässt sie es dafür krachen.
Berserkervmax
Banned
- Registriert
- Apr. 2004
- Beiträge
- 3.118
Ähnliche Themen
- Antworten
- 102
- Aufrufe
- 13.681
- Antworten
- 64
- Aufrufe
- 8.968
- Antworten
- 127
- Aufrufe
- 19.821
- Antworten
- 104
- Aufrufe
- 14.941
- Antworten
- 133
- Aufrufe
- 19.558