Retro

C:\B_retro\Ausgabe_8\: Historische Multi-GPU-Grafikkarten

Sven Bauduin
178 Kommentare
C:\B_retro\Ausgabe_8\: Historische Multi-GPU-Grafikkarten

C:\B_retro\Ausgabe_8\ wirft einen Blick auf die exotischen Multi-GPU-Grafikkarten und ganz besondere Pixelbeschleuniger. Echte Klassiker von ATi und Nvidia geben sich hier die Ehre und zeigen, was in ihrer Epoche möglich – wenn auch nicht immer sinnvoll – gewesen ist. Ein spannendes Kapitel aus der Geschichte der Grafikkarte.

Jeden Sonntag wirft C:\B_retro\ einen unterhaltsamen Blick zurück auf drei Jahrzehnte voller bewegter Geschichten und die Entwicklung der Computerszene: Was geschah in den letzten 30 Jahren zwischen 1980 und 2010 in der Informationstechnik? Geschichten von Mythen, Meilensteinen und Meisterwerken: C:\B_retro\.

C:\B_retro\Ausgabe_8\

Historische Multi-GPU-Grafikkarten

Nachdem sich C:\B_retro\Ausgabe_7\: ganz den Anfängen des legendären MMORPG World of Warcraft gewidmet hat, wird es in C:\B_retro\Ausgabe_8\ ein wenig exotischer. Noch lange vor der pfeilschnellen GeForce RTX 2080 Ti (Test) auf Basis von Turing und der Radeon RX 5700 XT (Test) mit ihrer neuen Mikroarchitektur RDNA kämpften die Hersteller ATi und Nvidia mit SLI, CrossFire und nicht zuletzt mit Multi-GPU-Grafikkarten um die Krone des schnellsten Grafikbeschleunigers seiner Zeit.

C:\B_retro\Ausgabe_8\ geht vor allem auf die Grafikkarten ein, die sich bereits in den letzten zwei Jahrzehnten auf ComputerBase beweisen durften und zu denen auch entsprechendes Bildmaterial und Benchmarks vorliegen. Doch vorab, wie sieht es eigentlich innerhalb der ComputerBase Community aus?

Hast du jemals eine Dual-GPU-Grafikkarte besessen?
  • Ja, ich habe eine ATi/AMD Radeon Dual-GPU-Grafikkarte besessen
    11,0 %
  • Ja, ich habe eine Nvidia GeForce Dual-GPU-Grafikkarte besessen
    9,2 %
  • Nein, ich habe nie eine Dual-GPU-Grafikkarte besessen
    79,7 %

C:\B_retro\Ausgabe_8\Historische Multi-GPU-Grafikkarten\

Gigabyte GV-3D1 (2005)

Nachdem Gigabyte bereits Mitte Januar 2005 angekündigt hatte, dass seine hauseigene Dual-GeForce-6600-GT-Karte ab Ende Januar 2005 für rund 500 Euro im Bundle mit der SLI-Platine GV-K8NXP-SLI im Handel erhältlich sein sollte, durfte sich die Grafikkarte am 14. Februar des Jahres 2005 unter der Bezeichnung Gigabyte GV-3D1 (Test) auf ComputerBase beweisen. Um beide Chips auf der Grafikkarte nutzen zu können, ist der Einsatz des GV-K8NXP-SLI zwingend vorausgesetzt.

Mit der GV-3D1 konnte sich Gigabyte seinerzeit rühmen, die erste Multi-GPU-Karte mit zwei GeForce 6600 GT konstruiert zu haben. Die Idee an sich war aber nicht neu, doch dank der Wiederauferstehung der SLI-Technik bot sich nun die Möglichkeit, diese Idee auch mit zwei aktuellen Grafikprozessoren zu realisieren.

GV-3D1 mit Kühler
GV-3D1 mit Kühler
Rückseite
Rückseite

Die beiden Grafikchips vom Typ NV43 aus der Nvidia GeForce-6-Serie takteten mit 500 MHz nach Nvidia-Vorgaben und verfügten über jeweils 128 MB GDDR3-Speicher, der mit einer Bandbreite von 128 Bit angebunden wurde. Der Grafikspeicher wurde von Samsung geliefert und besaß eine Zugriffszeit von 1,6 ns sowie einen Speichertakt von 560 MHz. Hier ließ Gigabyte ein wenig Spielraum, denn Samsung selbst spezifizierte den GDDR3-Speicher offiziell mit bis zu 600 MHz. Auf einer gewöhnlichen GeForce 6600 GT taktete der GDDR3 gar nur mit 500 MHz, weshalb die GV-3D1 neben der Kraft der zwei Herzen auch in Sachen Speichertakt vorne lag.

Anders als eine reguläre GeForce 6600 GT benötigte die Dual-GPU-Grafikkarte einen PCIe-Stromanschluss, um den Strombedarf der beiden GPUs zu decken. Der PCIe x16-Slot lieferte nicht genug Leistung für zwei NV43-Chips.

GeForce 6600 GT
GeForce 6600 GT
GDDR3-RAM
GDDR3-RAM

Mit einem AMD Athlon 3500+ (Test), einem Asus A8N-SLI Deluxe und 2 × 512 MB Crucial Ballistix PC3200 CL2 durfte sich die Gigabyte GV-3D1 dann schlussendlich mit dem ForceWare 66.93 als Treiber den Benchmarks im ComputerBase Test stellen. Die Ergebnisse in den drei am häufigsten vertretenen Auflösungen der damaligen Zeit in Spielen wie Call of Duty, Doom 3, Far Cry, Half-Life 2, Halo, Quake 3 Arena sowie Splinter Cell und Unreal Tournament 2004 ergaben folgendes Bild:

Diagramme
Performancerating 1024x768
    • A8N-SLI - GeForce 6800 Ultra SLI (400/550)
      95,3
    • A8N-SLI - GeForce 6800 GT SLI (360/515)
      93,7
    • A8N-SLI - GeForce 6800 GT SLI (350/500)
      92,9
    • A8N-SLI - Radeon X800 XT (500/500)
      89,5
    • A8N-SLI - GeForce 6800 Ultra (400/550)
      88,8
    • A8N-SLI - GeForce 6800 GT (350/500)
      88,1
    • A8N-SLI - GeForce 6800 SLI (325/350)
      88,0
    • A8N-SLI - GeForce 6800 GT (360/515)
      86,4
    • GV-K8NXP-SLI - GeForce 6800 GT (350/500)
      85,6
    • A8N-SLI - GeForce 6600 GT SLI (500/500)
      84,2
    • A8N-SLI - GeForce 6600 GT SLI (520/520)
      83,8
    • GV-K8NXP-SLI - GV-3D1 SLI (500/560)
      82,5
    • GV-K8NXP-SLI - GeForce 6600 GT SLI (500/560)
      82,4
    • GV-K8NXP-SLI - GeForce 6600 GT SLI (500/500)
      81,6
    • A8N-SLI - GeForce 6800 (325/350)
      78,1
    • A8N-SLI - GeForce 6600 GT (500/500)
      76,5
    • A8N-SLI - GeForce 6600 GT (520/520)
      75,9
Einheit: Prozent, Arithmetisches Mittel

Hier konnte sich die Dual-GPU-Grafikkarte leicht oberhalb eines SLI-Gespanns bestehend aus zwei 6600 GT platzieren, sich allerdings nicht entscheidend absetzen – eine einzelne GeForce 6800 GT oder gar Ultra konnte nicht geschlagen werden – was ComputerBase seiner Zeit wie folgt einordnete:

Sicherlich ist die GV-3D1 in unserem Ranking weiter vorne platziert als die SLI-Kombi aus zwei Asus N6600GT. Nicht vergessen darf man jedoch den mit 60 MHz höher getakteten Speicher der Gigabyte-Karte. Werden die beiden Asus-Karten auf denselben RAM-Takt übertaktet, so zeigt sich ein klares Unentschieden. Einer GeForce 6800 GT kann weder der eine noch der andere SLI-Kandidat das Wasser reichen.

ComputerBase

Asus EN7800GT Dual (2005)

Bereits Mitte September 2005 zeigte Asus seine Dual-7800-GT-Karte auf Basis des G70 aus der GeForce-7-Serie von Nvidia und konnte zu diesem Zeitpunkt bereits ein voll bestücktes und seriennahes PCB der Grafikkarte vorweisen.

Viele Informationen wollte und konnte Asus zu diesem frühen Zeitpunkt noch nicht anbieten und es blieb abzuwarten, ob es die Karte, die unterhalb des Preises zweier 7800 GT (Test) angesiedelt sein sollte, denn dieses Mal in den Handel schaffen würde. Die 6800 Ultra Dual bliebt seinerzeit ein Prototyp.

Die EN7800GT Dual zeigte sich zuerst als voll bestücktes PCB
Die EN7800GT Dual zeigte sich zuerst als voll bestücktes PCB

Kurz darauf sickerten neue Details zur EN7800GT Dual durch, die Karte sollte plötzlich für um die 1.000 Euro, also doch teurer als zwei einzelne 7800 GT, in den Handel kommen und lediglich 2.000 Mal produziert werden. Am Ende kam es wiederum doch ein wenig anders.

Ab November 2005 sollte die EN7800GT Dual das schaffen, was dem Vorgängermodell mit zwei 6800-Ultra-Chips nie vergönnt war - sie kam in den Handel. Die mit zwei 7800-GT-Chips bestückte Karte war tatsächlich weltweit auf 2.000 Einheiten limitiert und besaß eine UVP von 869 Euro.

Asus präsentierte zudem eigene Benchmarks, die der EN7800GT Dual bei Taktraten von 489/679 MHz mit dem ForceWare 78.01 im Zusammenspiel mit einem Asus A8N-SLI Premium, einem Athlon 64 4000+ (Test) und 1.024 MB Arbeitsspeicher im 3DMark03 27.203 und im 3DMark05 11.138 Punkte bescheinigten. Eine Besonderheit der Dual-GPU-Grafikkarte war ohne Zweifel das externe 80-Watt-Netzteil, das insbesondere beim Übertakten für einen stabilen Betrieb sorgen sollte. Die offizielle Produktseite der EN7800GT Dual auf der Website des Herstellers ist noch heute online.

Asus EN7800GT DUAL

Die Asus Extreme N7800GT Dual (Test) bot SLI für High-End-Kunden auf nur einer Grafikkarte und konnte im Test von ComputerBase mit einer sehr hohen Leistung und einer guten Lüftersteuerung überzeugen. Dennoch mutierte die Dual-GPU-Grafikkarte unter Last gerne zum „Krawallmacher“ und hatte zudem mit einer sehr hohen Leistungsaufnahme zu kämpfen.

Diagramme
Performancerating 1280x1024
    • nVidia GeForce 7800 GTX SLI
      99,4
    • Asus Extreme N7800GT Dual
      98,1
    • nVidia GeForce 7800 GT SLI
      96,4
    • nVidia GeForce 7800 GTX
      85,7
    • ATi Radeon X1800 XT
      81,5
    • nVidia GeForce 7800 GT
      79,1
    • ATi Radeon X850 XT-PE
      71,2
    • ATi Radeon X1800 XL
      70,7
    • nVidia GeForce 6800 Ultra
      70,6
    • ATi Radeon X850 XT
      68,9
    • nVidia GeForce 6800 GT
      63,7
    • ATi Radeon X850 Pro
      61,9
    • ATi Radeon X800 XL
      61,5
    • ATi Radeon X800 GTO
      54,0
    • ATi Radeon X800
      50,1
    • nVidia GeForce 6800
      49,6
    • ATi Radeon X800 GT
      48,8
    • nVidia GeForce 6600 GT
      48,2
    • ATi Radeon X1600 XT
      48,1
    • ATi Radeon X700 Pro
      40,2
    • ATi Radeon X1300 Pro
      29,4
Einheit: Prozent, Arithmetisches Mittel

Nichtsdestotrotz erfüllt die Asus Extreme N7800GT Dual genau den Zweck, für den sie konzipiert worden ist: Einige Grafikkartenfans glücklich zu machen, denen die Lautstärke, die Temperatur, die Stromaufnahme sowie der sehr hohe Preis reichlich egal sind und die gleichzeitig etwas Außergewöhnliches im Rechner werkeln lassen wollen.

ComputerBase

ATi Radeon HD 3870 X2 (2008)

Die Radeon-HD-2000-Serie von 2007 startete mit großen Versprechungen, konnte sich aber gegen die starke Konkurrenz vom Schlage einer GeForce 8800 GTX (Test) mit dem phänomenalen Grafikprozessor G80 nie durchsetzen. Den besten Eindruck hinterließ seinerzeit die Low-End-Karte Radeon HD 2400 XT (Test), die als einzige ihren direkten Gegenspieler größtenteils im Griff hatte.

Die Nachfolger, rund um die Radeon HD 3870 (Test) auf Basis des überarbeiteten RV670-Grafikchips, hinterließen einen weitaus besseren Eindruck und konnten nicht nur mit der Konkurrenz aus dem Hause Nvidia mithalten, sondern boten auch einige Eigenschaften und Fähigkeiten an, die die Konkurrenz bis zu diesem Zeitpunkt vermissen lies. Für die High-End-Käufer hatte ATi aber erneut auch mit der Radeon HD 3870 keine Grafikkarte im Produktportfolio, da sie nur wenig schneller als die ATi Radeon HD 2900 XT (CrossFire-Test) ihren Dienst verrichtete. Es war also höchste Zeit für ATi, in dieser Hinsicht etwas zu unternehmen.

Die passende Antwort hörte gut zwei Monate nach der Vorstellung der HD-3000-Serie auf den Namen „Radeon HD 3870 X2“, die nichts anderes als zwei Radeon-HD-3870-Grafikkarten auf einem PCB darstellte. ATi entwickelte eine Platine, die zwei RV670-GPUs auf sich tragen konnte, modifizierte leicht die Taktraten und hatte im Januar 2008 endlich eine Grafikkarte in petto, die der Nvidia GeForce 8800 Ultra (Test) das Fürchten lehren sollte.

ATi Radeon HD 3870 X2
ATi Radeon HD 3870 X2
Radeon HD 3870 X2 Rückseite
Radeon HD 3870 X2 Rückseite

Auf der Radeon HD 3870 X2 verbaute ATi zwei RV670-GPUs, die im CrossFire-Modus miteinander kommunizieren konnten, um so die Leistung der Karte zu erhöhen. Die RV670-Chips, auf der HD 3870 X2 RV680 genannt, waren dabei identisch mit den Rechenwerken auf einer Radeon HD 3850 oder Radeon HD 3870. Die GPU taktete auf der Radeon HD 3870 X2 mit 825 MHz, was spürbar höher lag als die Frequenz auf der Radeon HD 3870 (775 MHz). Das Speicherinterface war auf der Grafikkarte pro Chip 256 Bit breit. Der Speicher taktete mit 900 MHz (Radeon HD 3870: 1125 MHz, GDDR4).

Radeon HD 3870 X2 ohne Kühler
Radeon HD 3870 X2 ohne Kühler

Am 24. Januar 2008 sollte es dann soweit sein und die HD 3870 X2 trat zum mit Spannung erwarteten Test auf ComputerBase an – es sollte der ersehnte Griff nach den Sternen werden.

Die Radeon HD 3870 X2 zeigte eine sehr gute Leistung und wusste die GeForce 8800 Ultra meistens in die Schranken zu weisen. Wenn CrossFire in einem Spiel optimal funktionierte, renderte die Dual-GPU-Karte deutlich schneller als Nvidias Flaggschiff. Ohne CrossFire-Unterstützung lieferte die HD 3870 X2 eine Leistung auf Augenhöhe der HD 3870 ab.

Performancerating
Performancerating – 1280x1024
    • ATi Radeon HD 3870 X2
      100,0
    • Nvidia GeForce 8800 Ultra
      89,1
    • Nvidia GeForce 8800 GTS 512
      88,4
    • Nvidia GeForce 8800 GTX
      81,8
    • Nvidia GeForce 8800 GT
      79,6
    • ATi Radeon HD 2900 XT
      72,3
    • ATi Radeon HD 3870
      71,9
    • ATi Radeon HD 3850
      62,0
    • Nvidia GeForce 8800 GTS
      61,2
    • Nvidia GeForce 8800 GTS 320
      58,2
    • ATi Radeon X1950 XTX
      48,3
    • Nvidia GeForce 7950 GX2
      46,3
    • ATi Radeon 2600 XT X2 (3)
      39,7
    • Nvidia GeForce 7900 GTX
      35,7
    • ATi Radeon X1950 Pro
      33,5
    • Nvidia GeForce 7950 GT
      30,9
    • Nvidia GeForce 8600 GTS
      30,7
    • ATi Radeon HD 2600 XT (4)
      26,6
    • ATi Radeon HD 2600 XT (3)
      25,4
    • Nvidia GeForce 8600 GT
      24,2
    • Nvidia GeForce 7900 GS
      22,1
    • ATi Radeon X1650 XT
      21,3
    • Nvidia GeForce 7600 GT
      16,9
    • ATi Radeon HD 2400 XT
      12,5
    • Nvidia GeForce 8500 GT
      10,6
Einheit: Prozent, Arithmetisches Mittel

In Anbetracht der überzeugenden Benchmarks und der Rückkehr in das Segment der High-End-Grafikkarte, sprach ComputerBase der ATi Radeon HD 3870 X2 seinerzeit ein entsprechend positives Fazit aus:

Nach einer langen Pause greift ATi mit der Radeon HD 3870 X2 endlich wieder das High-End-Segment an – und bringt es ganz schön durcheinander. Unterm Strich gibt es aber derzeit keine schnellere Grafikkarte als die ATi Radeon HD 3870 X2 auf dem Markt.

ComputerBase

Nvidia GeForce 9800 GX2 (2008)

Eine Radeon HD 3870 X2 auf dem Grafikkarten-Olymp wollte sich Nvidia nicht all zu lange anschauen und so machten bereits im Februar 2008 die ersten Bilder und Benchmarks der neuen Dual-GPU-Grafikkarte im Internet die Runde.

Die GeForce 9800 GX2 wurde mit zwei GPUs vom Typ G92-450 ausgestattet, welche jeweils mit 600 MHz takteten und auf zwei, über Nvidias SLI-Technologie verbundenen, PCBs integriert wurden. Der Shadertakt der insgesamt 256 Shader-Prozessoren (2x 128) lag bei 1.500 MHz. Die zwei mal 512 MB GDDR3 wurden jeweils über ein 256-Bit-Speicherinterface angebunden und takteten real mit 1.000 MHz. Der GDDR3-Speicher stammte einmal mehr von Samsung und besaß eine Zugriffszeit von 0,83 ns. Im Grunde handelte es sich bei der 9800 GX2 um zwei GeForce 8800 GTS 512 MB (Test).

Nvidia GeForce 9800 GX2
Nvidia GeForce 9800 GX2
Nvidia Quad-SLI
Nvidia Quad-SLI

Nachdem die 9800 GX2 ab Mitte März 2008 bei ersten Händlern zu Preisen ab 529 Euro als lieferbar gelistet wurde, durfte sich das Dual-GPU-Flaggschiff am 18. März 2008 auch endlich im Test auf ComputerBase und in damals so beliebten Spielen wie Stalker, F.E.A.R., Call of Duty 4 und Gothic 3 beweisen.

Performancerating
Performancerating – 1280x1024
    • Nvidia GeForce 9800 GX2
      100,0
    • ATi Radeon HD 3870 X2
      76,1
    • Nvidia GeForce 8800 Ultra
      66,8
    • Nvidia GeForce 8800 GTS 512
      63,7
    • Nvidia GeForce 8800 GTX
      60,7
    • Nvidia GeForce 8800 GT
      56,8
    • ATi Radeon HD 3870
      49,3
    • Nvidia GeForce 9600 GT
      47,0
    • ATi Radeon HD 3850 512
      43,4
    • ATi Radeon HD 3850
      40,8
    • Nvidia GeForce 8600 GTS
      21,9
    • ATi Radeon HD 3650
      18,6
    • Nvidia GeForce 8600 GT
      17,4
Einheit: Prozent, Arithmetisches Mittel

Mit der GeForce 9800 GX2 (Test) hatte Nvidia ohne Zweifel ein beeindruckendes Stück Hardware auf den Markt gebracht, welches schlussendlich gut ein Drittel schneller rechnete als die Radeon HD 3870 X2.

Wenn da nicht das Problem gewesen wäre, dass der Grafikkarte bei extremen Settings des Öfteren der Speicher ausging. Solange vierfaches Anti-Aliasing aktiv war, reichte der Speicher zwar in der Regel noch aus und die GeForce 9800 GX2 war die schnellste Grafikkarte, die sich zu dieser Zeit auf dem Markt befand, bei achtfachem MSAA brach die Dual-GPU-Karte dann aber ganz gerne ein. Hier wäre es sinnvoller gewesen, gleich 2 x 1024 MB auf dem Doppel-PCB zu verbauen. Bereit sein musste man bei der GeForce 9800 GX2 hingegen dazu, unter Last einen recht hohen Geräuschpegel zu akzeptieren. Unter Windows war die Grafikkarte zwar angenehm leise, in einer 3D-Anwendung aber aufdringlich laut.

Für wen all' diese Einschränkungen keine Probleme darstellen, für den gibt es zur Nvidia GeForce 9800 GX2 aktuell keine Alternativen auf dem Markt. Völlig sorgenfrei ist man aber auch mit dieser Grafikkarte nicht.

ComputerBase

Gainward Rampage 700 GS GLH (2008)

Nachdem sich bereits im August 2008 mit der ATi Radeon HD 4870 X2 (Test) erneut eine Dual-GPU-Grafikkarte den Platz an der Sonne sichern konnte, legte Gainward mit der Rampage 700 GS GLH (Test) auf Basis eben dieser HD 4870 X2 noch einmal nach und brachte das erste Custom Design mit zwei GPUs vom Typ RV770 und werksseitiger Übertaktung auf den Markt.

Gainward schien vom Referenzdesign der Radeon HD 4870 X2 nicht viel zu halten, zumindest gab es optisch zwischen diesem und dem Design der Rampage 700 GS GLH kaum noch Gemeinsamkeiten. Das rot gefärbte PCB maß immer noch eine Länge von 27 cm, sah jedoch um einiges aufgeräumter aus als das Pendant auf dem bekannten Referenzdesign. Davon abgesehen benötigte die Grafikkarte immer noch einen Acht-Pin- sowie einen Sechs-Pin-PCIe-Stromstecker, um den Dienst verrichten zu können.

Als Kühlsystem setzte Gainward auf der Rampage 700 GS GLH erstmals zu dieser Zeit auf einer Desktop-Karte einen schier riesigen und wuchtig wirkenden Triple-Slot-Kühler ein, der dementsprechend gleich die nächsten beiden PCI- oder PCIe-Slots blockierte.

Gainward übertaktete die beiden GPUs auf der Rampage 700 GS GLH von 750 MHz auf 790 MHz und auch der GDDR5-Speicher machte einen Sprung um 100 MHz und wurde mit 1.900 MHz angesteuert. In den folgenden Benchmarks im Test von ComputerBase sollte die außergewöhnliche Dual-GPU-Grafikkarte die neue Referenz darstellen, was allerdings mit einer enormen Leistungsaufnahme einhergehen sollte.

Diagramme
Performancerating
    • Gainward 700 GS GLH
      103,4
    • ATi Radeon HD 4870 X2
      100,0
    • Nvidia GeForce GTX 280
      68,9
    • ATi Radeon HD 4870 1GB
      58,2
Einheit: Prozent, Arithmetisches Mittel

Mit einer im Vergleich zur HD 4870 X2 um 6 Prozent höheren Leistungsaufnahme, konnte das Custom Design von Gainward die Referenzkarte von ATi vom Thron stoßen und war kurz vor Weihnachten 2008 die schnellste Grafikkarte am Markt.

Mit der Rampage 700 GS GLH spricht Gainward die absoluten Enthusiasten an, die nicht nur die höchste Leistung, sondern auch etwas Besonderes beziehungsweise Einzigartiges in der Hand halten möchten. Und beides ist die Grafikkarte alleine durch das erstmals eingesetzte Triple-Slot-Kühlsystem. Zusätzlich erhöht Gainward die Taktraten, womit man die schnellste, aktuell erhältliche Grafikkarte auf dem Markt hat.

ComputerBase

Nvidia GeForce GTX 295 (2009)

Bereits Ende 2008 wurde bekannt, dass die neue Dual-GPU-Speerspitze von Nvidia unter der Bezeichnung GeForce GTX 295 firmieren sollte. Zuvor lautete der Arbeitstitel noch GeForce GTX 260 GX2. Durch den Wegfall des Suffix „GX2“ sollte der Status als Dual-GPU-Grafikkarte nicht mehr explizit in der Bezeichnung ausgewiesen werden.

Kurz nachdem ATi mit HD 4870 X2 Platz 1 im Ranking der Grafikkarten erobert hatte, kündigte Nvidia auch schon die GeForce GTX 295 an, welche zwei GT200b/GT206-GPUs (gefertigt in 55-nm-Technologie) jeweils auf einer einzelnen Platine per SLI miteinander kombinieren sollte. Zwischen den PCBs saß ein Lüfter, der die Chips auf niedrigen Temperaturen hielt. Die GT206-Rechenkerne waren wie auf den Einzelkarten voll ausgestattet und kamen mit jeweils 240 skalaren Shadereinheiten sowie jeweils 80 TMUs daher. Das Speicherinterface hingegen war mit 448 Bit pro GPU leicht beschnitten. Die GeForce GTX 295 besaß einen Chiptakt von 1.242 MHz und der 896 MB große GDDR3-Speicher taktete mit 1.000 MHz. Die maximale Leistungsaufnahme sollte laut Nvidia 289 Watt betragen.

GeForce GTX 295 Oberseite
GeForce GTX 295 Oberseite
GeForce GTX 295 Rückseite
GeForce GTX 295 Rückseite

Die Nvidia GeForce GTX 295 (Test) konnte im Test auf ComputerBase nicht vollends überzeugen und war kein eindeutiger Gewinner. Und so stellte sich die Frage: Wer baut also die bessere Multi-GPU-Karte? ATi oder Nvidia? Eine Frage, die äußerst schwer zu beantworten war.

Die Leistung der GeForce GTX 295 lag im Schnitt über der der ATi Radeon HD 4870 X2, ließ in hohen Auflösungen aber deutlich Federn und lag bei hohen Qualitätseinstellungen teilweise gar zurück. Nicht zuletzt deshalb, weil die ATi-Karte durch den neuen Beta-Treiber (Catalyst 9.1) einen ordentlichen Sprung nach vorne gemacht hatte.

Performancerating
Performancerating – 1280x1024
    • Nvidia GeForce GTX 295
      100,0
    • ATi Radeon HD 4870 X2 Cat 9.x
      90,8
    • ATi Radeon HD 4870 X2
      87,5
    • Nvidia GeForce GTX 280
      64,3
    • Nvidia GeForce GTX 260²
      56,5
    • ATi Radeon HD 4870 1GB
      55,4
    • ATi Radeon HD 4870
      54,0
    • Nvidia GeForce GTX 260
      53,5
    • Nvidia GeForce 9800 GTX+
      47,5
    • ATi Radeon HD 4850
      43,5
    • Nvidia GeForce 9800 GT
      38,4
    • ATi Radeon HD 4830
      37,8
    • ATi Radeon HD 3870
      33,6
    • Nvidia GeForce 9600 GT
      31,2
    • Nvidia GeForce 9600 GSO
      27,6
    • ATi Radeon HD 4670
      25,2
Einheit: Prozent, Arithmetisches Mittel

ComputerBase urteilte, dass wie so oft – wenn Ziel des Einkaufs nicht ausschließlich der Erwerb der schnellsten Grafikkarte sein sollte – der Preis das Zünglein an der Waage sein könnte. Somit bliebt es abschließend wieder einmal beim Kunden, eine für ihn möglichst optimale Wahl aus zwei nicht optimalen Produkten treffen zu müssen.

Sollte sich die Preisprognose von Zotac mit 460 Euro in Deutschland bewahrheiten, dann dürfte die Nvidia-Karte rund 90 Euro mehr kosten als das ATi-Modell und müsste sich im reinen Preis-Leistungs-Rating, das Mikroruckler außen vor lässt, geschlagen geben.

ComputerBase

Mehr als ein halbes Jahr später, im August 2009, machte es die Zotac GeForce GTX 295 (Test) als „Facelift“ auf Basis des neuen Single-PCBs besser und zeigte, wozu die GeForce GTX 295 von Beginn an hätte im Stande sein können.

Zotac GeForce GTX 295
Zotac GeForce GTX 295

Weitere Dual-GPU-Grafikkarten im Test

Über die letzten 15 Jahre hatte ComputerBase noch weitere Dual-GPU-Beschleuniger im Test, hier eine kleine Übersicht:

Aus der Community

Die Dual-GPU-Grafikkarten der ComputerBase Leser

Wie bereits angekündigt, wird die C:\B_Retro\Ausgabe_8 durch tolle Bilder von Dual-GPU-Grafikbeschleunigern aus der Community ergänzt. Im Laufe der Woche wird diese Galerie nach und nach durch weitere Bilder ergänzt, die im Kommentar-Thread durch die Community-Mitglieder geteilt werden. Weitere tolle Bilder von Retro-Hardware findet sich auch im Retro-Hardware Bilderthread von Community-Mitglied „andi_sco“.

C:\B_retro\Preview\

In der kommenden Ausgabe von C:\B_retro\ dreht sich alles um das Thema, welches es bereits in die aktuelle Ausgabe schaffen sollte, eine besonders erfolgreiche Spielekonsole.

C:\B_retro\Review\

An dieser Stelle finden sich die bisherigen Themen der vorangegangenen Ausgaben von C:\B_retro\ in chronologischer Reihenfolge.

C:\B_retro\Feedback\

Was haltet ihr von C:\B_retro\ und welche Themen wünscht ihr euch in der nächsten Ausgabe? Die Redaktion freut sich über konstruktive Kritik, Lob, aber auch Vorschläge, um die neue Serie zukünftig noch stärker an den Wünschen der Leserschaft ausrichten zu können. Mit diesem Lesestoff im Gepäck wünscht die Redaktion einen erholsamen Sonntag!

Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.

Du hast rund um den Black Friday einen tollen Technik-Deal gefunden? Teile ihn mit der Community!