Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Nachdem GeCube im Vorfeld der heute gestarteten Computex von einer neuen Dual-Grafiklösung auf Basis von AMDs neuen Mittelklasse-Grafikchips gesprochen hatte, zeigt auch Sapphire ein Modell, das der Sapphire X1950 Pro Dual folgen soll.
sry bei highend macht sowas sinn aber in Mainstream ist das schwachsinnig auch wenn es schön ist zu sehen das sowas machbar ist aber da kauf ich mir eine GTX oder HD2XXXX
damit bin ich besser bedient
Warum macht es keinen Sinn? Ich kann einfach Kohle am Mainboard sparen und trotzdem 4 Displays mit Infos versorgen. Vorrausgesetzt eine solche Lösung bleibt beim Preis akzeptabel, was sie ja bekanntlich leider selten tun.
Wieso sinnlos?
Um auf 4 Displays PPTs oder Word Dokumente anzeigen zu lassen brauchts doch keine Performance einer GTX
Nicht jeder will auf 4 Monitoren nur gleichzeitig ZOCKEN
Im Gegensatz zu Dual-Karten, auf denen nur zwei Anschlüsse sind, ist das hier mal ein wirklich praktische Lösung. Wenn ich soviele Monitore bräuchte, würde ich mir auch eine kaufen ^^.
ich meine jetzt nicht wegen der 4 DVI eingänge ich weiß das paar leute damit was ganz anderes machen würden gerade bei präsentation, multimedia usw. aber wenn man sowas macht braucht man auch keine HD 2600 XT da reicht auch schon ne weit kösten günstigere version z.b HD 2400XT wenn man keine unglaubliche 3d anwendung braucht und die leute die CAD usw. machen nehmen sowieso ne andere karte^^
ist doch super!ich wollte sowieso ne HD2600XT kaufen,ne 2900XT zeiht mir eindeutig zuviel strom und wenn das mit dem niedrigem verbrauch stimmt ists doch super.mit ner einzigen 2600XT müsste man wohl nicht so lange dabei sein wie mit ner dual-lösung,ja ich kaufe gerne auf längerfristige sicht und lege keinen wert auf Grafik sondern auf das Game an sich
schön find ich, dass der Platz gut genutzt ist, wenn man mal drüber nachdenkt dass statt der zwei zusätzlichen DVI-Ausgänge sonst die Kühlungsgitter zu sehen sind... Find ich scho nich übel^^
Nur ist es bei highend-Karten in dieser Form aufgrund der aufwendigeren Kühllösungen praktisch unmöglich, wenn man nicht Platinengrößen von 35cm+ haben möchte. Eine Lösung wie bei der GX2 war ja schon grenzwertig.
Ich finde solche Lösungen immer recht interessant, auch wenn sie für mich aus verschiedenen Gründen nicht in Frage kommen würden. Ist ja für die Firmen auch immer ein gewisser Kompetenzbeweis.