News Im Test vor 15 Jahren: Dual-GeForce-7800-GT mit externem Netzteil

hatte eine 7900gtx und war stolz wie oskar weil die keiner hatte, die gatte lange gut gedient. nach kurzem test mit zwei 7900gtx dann schnell gemerkt dss dies nicht so viel bringt
 
Ich hatte damals auf einem AMD FX 55 meine Geforce 6800 durch eine 7900 GS ersetzt.
Und das war schon eine deutliche Verbesserung, allerdings alles noch mit einem für damalige Verhältnisse "normalen" Netzteil von 400 W plus/minus zu lösen.
150 W Verbrauch waren für damalige Verhältnisse wahrscheinlich das, was unsere 3090er Toaster durchs Gehäuse blasen.
Leider haben es Nvidia und AMD praktisch nie wirklich geschafft. SLI oder Crossfire für ein größeres Publikum im Mainstream attraktiv zu gestalten - nach dem Motto - ich kaufe mit eine GTX 7800 und wenn´s passt und der Geldbeutel es hergibt, hol ich mir noch eine zweite dazu. Zum einen war die Unterstützung der Game-Engines schon damals reichlich halbherzig, zum Anderen war es oft schlicht nicht mehr möglich, eine 2. identische Karte 2 Jahre später überhaupt noch zu bekommen. Bei AMD kam initial das Problem dazu, dass man als 2. Karte ein "crossfire-zertifiziertes" Pendant zur 1. Karte kaufen musste - das war dann mit der zeitlichen Latenz schon gar nicht mehr zu bewerkstelligen.
 
  • Gefällt mir
Reaktionen: Anzony
mreyeballz schrieb:
Es gab sogar noch Rückgeld für ihn und er war jahrelang super zufrieden. Die Karte war also durchaus alltagstauglich.
Das Lustige an dem Thema war doch dass es meines erachtens erst auffiel als damals 2 Mittelklasse Karten für weniger Geld mehr Leistung als die teuren Top Modelle boten und die HD3870 X2 ddie 8800 Ultra geradezu deklassierte. Auf einmal waren Mikroruckler unübersehbar und ein solcher Verbund natürlich unzumutbar.
 
  • Gefällt mir
Reaktionen: mreyeballz
3090 lacht in 500W ...
 
  • Gefällt mir
Reaktionen: mreyeballz
Die blauen waren aber die Pressemodelle. Die roten mit VGA Ports oben sind wesentlich häufiger vertreten. Habe auch noch 2 da, eine sogar komplett mit OVP. Leider beide ohne richitge Funktion.
Ganz wichtig bei diesen Karten wird ein Board mit nforce 4/5 Chipsatz (AMD oder Intel) und der kleinen SLI Steckbrücke(Single GPU/Dual GPU) benötigt! Liegt an der PCIe Anbindung, da beide GPUs jeweils x8/x8 angebunden sind. Sonst wird nur eine GPU oder gar keine erkannt. Sehr selten, das Mainboard muss damit umgehen können und man muss es halt eben auch wissen.
Asus A8n SLI, Asus P5N-e SLI, MSI P6N SLI usw.

Als Größenvergleich eine 7950GT AGP im Singleslot
 

Anhänge

  • gt1.jpg
    gt1.jpg
    1,4 MB · Aufrufe: 498
  • gt2.jpg
    gt2.jpg
    1,4 MB · Aufrufe: 499
  • gt3.jpg
    gt3.jpg
    1.015,9 KB · Aufrufe: 485
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85, NMA, BrollyLSSJ und 12 andere
Wadenbeisser schrieb:
Das Lustige an dem Thema war doch dass es meines erachtens erst auffiel als damals 2 Mittelklasse Karten für weniger Geld mehr Leistung als die teuren Top Modelle boten und die HD3870 X2 ddie 8800 Ultra geradezu deklassierte. Auf einmal waren Mikroruckler unübersehbar und ein solcher Verbund natürlich unzumutbar.

Naja, wir waren 15 und es war 2005: FPS war für uns die harte Währung, aus der unsere Träume gemacht waren. Und solange WoW lief war alles gut.
 
  • Gefällt mir
Reaktionen: Rockstar85, Öcher Tivoli und Faranor
@mreyeballz

Ich war damals schon ein paar Jahre älter, war von der 2900XT auf die 3870X2 umgestiegen und kann nur sagen dass das Mikroruckler Thema total übertrieben wurde weil der Performance Zuwachs massiv war, obwohl eine GPU nur ca. die Leistung der 2900XT hatte.

Ja der Verbund war zum Teil deutlich problematischer weil es nicht out of the Box funktionierte und z.B. auf weitere Unterstützung seitens der Software angewiesen war aber meine damaligen Spiele liefen damit wunderbar.
Die sogenannten Mikroruckler fielen mir nur im unteren FPS Bereich auf wo eine GPU ohnehin schon hoffnungslos überfordert gewesen wäre.
 
  • Gefällt mir
Reaktionen: psychotoxic, 416c, Pulsar77 und eine weitere Person
@Wadenbeisser

Auch meine Erfahrung. Hatte einige Jahre später 2x HD4870 im Crossfire und das lief super. Das dürfte auch die Hochzeit der Treiberunterstützung gewesen sein. Fast alle Spiele, die ich hatte, profitierten davon. Auf CB wurde bereits seit einiger Zeit über Mikroruckler berichtet, ich hatte es trotzdem ausprobiert und habe es nicht bereut. Die Karten hielten ein paar Jahre bis die HD6950 Einzug erhielt, die dann zu diesem Zeitpunk wirklich weniger Wartung seitens der Software benötigte.
 
  • Gefällt mir
Reaktionen: Rockstar85, NMA und Pulsar77
mreyeballz schrieb:
Wir hatten die Karte tatsächlich damals für einen Mitschüler verbaut, der uns eines Tages einen dicken Briefumschlag mit seinem Konfirmationsgeld in die Schule mitbrachte und sagte: "Baut mir den besten PC, den ich dafür bekomme."

Uns ging recht schnell die Hardware aus, da es eine enorme Summe war. Es wurde dann (ohne Gewähr, da es schon 15 Jahre her ist):

Athlon 64 X2 6000+
EPoX EP-9NPA+ SLI
4x 512MB RAM
4x 250 GB HDD (hier merkt man schon die Verzweiflung, da man nicht mehr wusste wo man das Geld noch hinstecken sollte)
Ein viel zu überdimensioniertes Enermax Netzteil mit komplettem Kabelmanagement (das hat auch die Karte komplett versorgt, das externe Netzteil haben wir nicht gebraucht)
Ein Thermaltake Big Tower mit Wasserkühlung (er wollte unbedingt eine Wasserkühlung)
Und eben jene Karte.

Es gab sogar noch Rückgeld für ihn und er war jahrelang super zufrieden. Die Karte war also durchaus alltagstauglich.

Hö, weißt du noch, was euch dazu bewogen hat, auf AMD zu setzen als es schon den Core2 Extreme X6800 gab?
 
@mreyeballz

Mit 2 GPUs funktionierte es zufriedenstellend aber mit 3 oder gar 4 GPUs nahmen die Probleme durchaus überhand.

@ATIst

Abgesehen davon das der Core 2 erst 2006 raus kam und es um eine Karte von 2005 geht? :D
 
  • Gefällt mir
Reaktionen: kryzs und mreyeballz
@ATIst

Ich meine mich zu erinnern, dass dort P/L in keinem Verhältnis stand, weswegen auch die FX-Prozessoren rausgefallen waren und wir uns für den dicksten "normalen" Prozessor entschieden haben. Ich habe die Preise nicht mehr im Kopf, eventuell kannst du dort etwas Licht ins Dunkel bringen.
Wir hatten in dieser Phase quasi ausschließlich AMD verbaut (Athlon XP / 64), Intel kam erst mit dem Core 2 Duo wieder in Mode bei uns. Da hatten wir dann alles durch: E6600, E6700 und für bisschen geringeres Budget die E4x00-Modelle (ließen sich MEGA übertakten, das war ein enormer Geheimtipp, da sie deutlich mehr FSB mitgemacht haben und von Haus aus einen hohen Multi hatten). Später dann Q6700 als Quadcores dann massentauglich wurden. An Pentium 4 und Core 2 konnte ich mich aus unseren Kreise nur in Fertig-PCs erinnern.

Übertakten war damals noch relativ simpel über den FSB möglich und falls er tatsächlich mehr Leistung hätte haben wollen, hätten wir da bisschen dran gedreht. Es war zwar nicht unser Geld, trotzdem ist ab einem gewissen Punkt eine Schmerzgrenze erreicht, die man nicht mit gutem Gewissen übertreten kann.

Leistung war am Ende genug da, sodass wir nicht mal übertaktet haben.
 
  • Gefällt mir
Reaktionen: Rockstar85 und NMA
Konnte sie bisher leider nur mit einer GPU testen weil das passende mainboard fehlt. Sie ist sehr kompakt gebaut, siehe Groeßenvergleich mit der V5.
2000 Stueck ist natuerlich ne Ansage gewesen, und der Preis dazu...
Der Standardkuehler war wirklich nicht zu gebrauchen, deswegen sind die Zalman montiert.
Die Originalpackung ist so groß wie ein Koffer und hat nen Halteriemen.

IMG_2146.jpg
 
  • Gefällt mir
Reaktionen: NMA, Dr!ll, konkretor und 2 andere
Bei einem Spiel die 7800gtx klar schneller als dir 1800xt, beim nä. Spiel genau andersrum, wtf. Welche Karte hat man sich denn dann geholt, muss ein riesen Fragezeichen gewesen sein. Ich bin von 6800gt auf 7900gtx gegangen.
 
Wadenbeisser schrieb:
@mreyeballz

Mit 2 GPUs funktionierte es zufriedenstellend aber mit 3 oder gar 4 GPUs nahmen die Probleme durchaus überhand.

Diesen Schritt habe ich nie gewagt. Das hat ja neben der Kosten der einzelnen Grafikkarten noch spezielle riesige Boards mit genügend Abstand zwischen den Slots noch Netzteile mit 8 PCIe-Steckern und riesige Gehäuse erfordert. Das war für mich schon immer fernab jeglicher Praxis und allein für Benchmarks.

@Wadenbeisser

Guter Punkt. Ich sehe gerade, dass es den 6000+ auch noch nicht 2005 gab. Damals war der dickste wohl der 4600+ oder 4800+. Ich sag ja: Es ist 15 Jahre her ;-)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA und ATIst
Interssant wie mann auch das verquerte Lüfterkonzept der normalen Gt sieht, das wohl dem BTX Design geschuldet war, nur mit Müh und Not konnte man so schon die Abwärme der normalem Karten im ATX Gehäuse bändigen, ein Punkt auf den in den Rezesionen der damaligennZeit mMn leider so gar nicht eingegangen wurde, mit 3rd Party Kühler oder passendem Gehäuse konnte man hier etwas Abhilfe schaffen und musste querdenken
 
Betrifft auch „NVIDIA Quadro Experience“?

...Flascher Thread - sorry 🙈
 
Die hat sicherlich einen gehörigen Sammlerwert wie viele weitere Dual-GPU Sondereditionen von Asus. Ich habe zumindest eine gewöhnliche 7950 GX2 im Regal - die auch funktioniert.
 
mreyeballz schrieb:
Ich sehe gerade, dass es den 6000+ auch noch nicht 2005 gab.
jetzt wo du es sagts, Als Winsor kam der ja erst 2007 und die Brisbane Version 2008. Da sitzen wir schon im Zeitalter der bekannten Geforce 8 Serie. :D
 
  • Gefällt mir
Reaktionen: NMA und ATIst
Teropet schrieb:
Der Standardkuehler war wirklich nicht zu gebrauchen, deswegen sind die Zalman montiert.
Wollte meine damalige HD3870 X2 auch mit zwei Zalman Kühlern umrüsten, ist dann aber leider nichts draus geworden und sie viel der Bucht zum Opfer. Ist schön zu sehen das man eine umgebaute Dual Karte mal sieht. 👌😊
 
  • Gefällt mir
Reaktionen: NMA
Zurück
Oben