News Im Test vor 15 Jahren: Zwei GeForce 8800 GTX waren schneller als eine

Voodoo 2 SLI skaliert zu beinah 100%. Das "Problem" damals war die mangelnde CPU Power..
Eine Voodoo 5 ist fast exakt doppelt so schnell wie eine Voodoo 4 (zumindest, bis das AGP Interface zu langsam wird)
 
  • Gefällt mir
Reaktionen: andi_sco, Hexxxer76, NMA und 2 andere
Wurden die Mikroruckler nicht damals von einem User des 3DCentrer (Tombman?) Entdeckt, bzw. Erstmalig gründlich analysiert?
 
  • Gefällt mir
Reaktionen: Zitterrochen, Sweepi, Pjack und 4 andere
Schon komisch, dass jahrelang niemand die Microruckler bemerkte und dann plötzlich das das KO Kriterium war.

Hatte nur eine GTX 295 und wirklich geil war se nur in Benchmarks. Hatte bei vielen Spielen SLI sogar abgeschaltet. Da zwar teilweise etwas mehr FPS, aber ohne SLI sich besser anfühlte
 
  • Gefällt mir
Reaktionen: Pjack, MidwayCV41 und Photon
Dracal2002 schrieb:
wenn ich bedenke dass Nvidia für die nächste Generation von 2,5 kw spricht
Weißt du eigentlich, von welchen Größenordnungen du da sprichst? :D
 
  • Gefällt mir
Reaktionen: Yesman9277, Swiffer25 und SteeL1942
Ich hatte damals dann die 8800GT, welche von der Performance meine ich gleich auf mit der 8800GTX war. War eine sehr schöne Karte, die lange Spaß gemacht hat.
 
Die 8000er GeForce haben damals verglichen mit den Vorgängern einen enormen Sprung gemacht, das war sehr beeindruckend. Gerade die 8800 GT damals mit dem G92 Chip war vom P/L her auch absoluter Wahnsinn.

Die hatte ich damals im SLI und hatte in den meisten Spielen, z.B. Crysis oder Stalker, damals zwar konstante 60FPS (Average), aber trotzdem immer Mal wieder Ruckler und mit der Zeit wurde das immer stärker, weil einfach Treiber und Spiele kaum noch darauf optimiert wurden. Die Krönung war dann GTA 4, das im SLI langsamer lief als mit einer einzelnen Karte.
 
  • Gefällt mir
Reaktionen: Veitograf
Hatte zufällig gestern 2x Radeon R9 Nano im Crossfire laufen. Musste es einfach mal testen. Die Mehrleistung im Benchmark ist schon beeindruckend.
 
  • Gefällt mir
Reaktionen: GT200b, Schmarall und FR3DI
An sich ist die Idee ja garnicht so schlecht.

Kaufst dir eine Graka.
Dann irgendwann kaufst dir ein dickes Netzteil.

und dann kaufst du dir die 2. Karte gebraucht wenn es eben an Leistung fehlt.

Dann merkst du wie grottig das läuft xD bzw. du bei jedem Game bibbern musst ob es denn im SLI rennt.


ok,ok - ich hatte nie SLI. Aber die Probleme sind mit durchaus bewusst.

Dann noch das Thema Temperatur und die Lautstärke, Stuttering, usw ...

Also nee. Zwar schade das es nie so richtig stabil war doch bös drum das es heute tot ist, bin ich auch nicht. ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard und ThePlayer
downforze schrieb:
Als Schüler hat mich das damals nicht in den Ruin getrieben.
Ich habe damals Pfandflaschen gesammelt, um dann die 600€ für die GTX zu haben...
Da darf ich gar nicht drüber nachdenken😂.
 
  • Gefällt mir
Reaktionen: Zitterrochen, GT200b, Col. Jessep und 2 andere
Hatte mal sli ;)

2x660 erstes setup
2x2080 zweites setup

Da es kaum noch blower Kühler gibt, ist kühlung heute echt nen Problem bei geschlossene Gehäusen bzw die FE 3090 heizt die andere vom unten noch mehr wie früher . 380watt als blower, da ist Name echt Programm. Gibt ja sogar eine 3090 sehe ich gerade.

Wäre diese Treiberproblrmatik nicht gewesen.... RAM sharing, also 2x 8Gb = 16 GB und nicht weiterhin 8 funktioniert mittlerweile bei den Profi quadros mittels 2 nvlink briges. Ich bin weiterhin der Überzeugung, dass die microruckler gelöst werden könnten aber es nicht gelöst werden "will".

Damals bei normalen Preisen waren 2 Karten deutlich schneller wie die eine highend und günstiger. Marge bei der einen highend ist aber deutlich höher. 2x1080 haben eine titan sehr deutlich verfrühstückt... bei geringeren Anschaffungskosten. Heute wäre das auch so.... sofern es den gehen würde.

Ich find es echt schade. Das die Probleme nie aus der Welt geräumt wurden bzw es nun tot ist.
 
  • Gefällt mir
Reaktionen: Cpt.Willard, Hatsune_Miku, bnoob und eine weitere Person
Ich finde es immer wieder interessant wieviel die Systeme damals im Idle so verbraucht haben. Gut das da was dran geändert wurde.
 
  • Gefällt mir
Reaktionen: MidwayCV41, ThePlayer und P. Schloenzke
@RaptorTP
Genau dem gleichen gedanklichen Fehler bin ich damals auch erlegen. Punkt war, zum Zeitpunkt wo ich mir dann die zweite Karte leisten konnte, gab es ähnlich teure neue, die einzeln die Leistung des "geplanten" SLI Setups brachten. Dann habe ich immer die alte verkauft und eine neue mit mehr Leistung für günstig genommen.
SLI hatte ich nur einmal mit Voodoo2s. Aber das war in den 2000ern in nem Retro Rechner, als sie noch billig waren :)
 
  • Gefällt mir
Reaktionen: Kaulin und RaptorTP
fand die sli technik schon bei 3dfx für mich uninteressant und hatte nie das bedürfnis sowas zu verbauen.
bei den voodoos im sli gab ja wenigstens noch ein alleinstellungsmerkmal mit der höheren auflösung (1024x768).
sli ist für mich wie mit ner wasserkühlung. wollte ich nie und werde ich auch nie verbauen.

grüße
 
drake23 schrieb:
Wurden die Mikroruckler nicht damals von einem User des 3DCentrer (Tombman?) Entdeckt, bzw. Erstmalig gründlich analysiert?

Das ist korrekt. Anton war derjenige der zumindest in Deutschland (für international möchte ich meine Hand nicht ins Feuer legen) diese Thematik in die Öffentlichkeit gebracht hat.

Insbesondere Blaire im gleichen Forum war, neben anderen, derjenige, der bei SLI Systeme die Profilarbeit im Hinblick auf die Auswahl dort pflegte.

Nvidia hatte bei SLI den Vorteil, dass die Profile manuell geändert werden konnten, z.B. über den NVidia Inspector. Bei Crossfire war das zumindest bis zur 7xxx Serie Anfangs nicht möglich (danach war ich bei dem Thema raus).

Crossfire skalierte in Zeiten der 6xxx und 7xxx dafür etwas besser, zumindest bei den großen Titeln.

Insgesamt war die Profilarbeit der Hersteller für gute Skalierung und Funktionalität essentiell, und da haben sich beide Hersteller nicht mir Ruhm bekleckert.

Für eine vernünftige Bekämpfung der Mikroruckler blieb letzten Endes nur der Weg eines Limiters, das funktionierte einwandfrei. Das lief letzten Endes darauf hinaus, die MinFPS durch mehr als eine Karte nach oben zu drücken und das Limit ungefähr dort zu setzten. Das hatte viele Vorteile und einen offensichtlichen großen Nachteil, nämlich die Kappung hoher möglicher FPS.
 
Zuletzt bearbeitet von einem Moderator:
@MilchKuh Trude

so hab ich eigentlich auch immer gemacht. (Hatte nie SLI)

Immer dann verkauft wenn jeder meinte: die Leistung reicht doch noch !
Das war genau der Punkt bei dem ich auch noch gut was für die Karte bekommen hatte

Nur das letzte Upgrade war das allererste mal das ich 100% der Neupreis Summe gezahlt habe.

Also 1080 Ti behalten.
3080 gekauft, für schlappe 827€ ... aua (ich weiß, ich weiß - Trotzdem viel Geld)
Dann die 3080 nonLHR gegen eine 3080 Ti LHR getauscht für 2h Autofahrt und 2 gepflegtem Austausch während der Testphase beider Karten :)
 
  • Gefällt mir
Reaktionen: MilchKuh Trude
Der Stromverbrauch war im Leerlauf schlimm. So ein Highend System wurde dann gerne noch etliche Jahre als Office PC genutzt und da schluckte es enorm Energie über die Zeit.
Der maximalen Stromaufnahme steht eine entsprechend hohe Arbeitsleistung gegenüber. Da wird Zeit gespart bei Berechnungen, was die Effizienz gegenüber eines 50 Watt PC, der dafür Jahre brauchen würde, erheblich steigert. Aber der 50 Watt PC ist dafür bei Office effizienter. Das wird heute kombiniert. Eine aktuelle Grafikkarte braucht im Leerlauf und einfachen Aufgaben nur wenige Watt und bei Höchstleistung lässt sie es dafür krachen.
 
Zwar nur die kleine 8800 GTS aber SLI war schon schnell nur leider waren die Frametimes einfach schrecklich.
Aber irgentwie passte es trotzdem in den CS-601.....
 

Anhänge

  • k-No Room Left 2.JPG
    k-No Room Left 2.JPG
    340,7 KB · Aufrufe: 333
  • k-No Room left....jpg
    k-No Room left....jpg
    292,1 KB · Aufrufe: 332
  • Gefällt mir
Reaktionen: dideldei, VoAlgdH, Hexxxer76 und 3 andere
Zurück
Oben