Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Naja, mit meiner letzten Sapphire-Karte hatte ich nur Probleme... Drei mal ist der Speicher durchgebrannt, bevor die Karte beim vierten mal das Mainboard mitgenommen hat... Ich warte also, bis wer anders eine Lösung mit zwei Chips bringt, EVGA z.B. war immer gut. Oder ich warte bis zur nächsten Generation. ^^
Wer sagt denn das die Karte die Spieler ansprechen muß?
Immer das gejammer von wegen (Sinnlos zu wenig Leistung zum spielen) es gibt auch noch leute die sich Freuen wenn sie ihre Monitore nur noch an einer Grafikkarte anschließen müßen.
Für denn Multimonitor Betrieb ist Karte ideal und für 200€ geht das ja wohl,eine 2900XT oder 8800GTX kosten bei weitem mehr und haben nur 2 DVI anschlüße.
Ihr dürft nicht immer darauf schließen das wenn eine neue Grafikkarte kommt sie nur für Gamer ist.
@ CBOT bin voll deiner meinung
Es gibt, bzw. ich kenn nur die "Matrox QID LP" die als "Einzel-grafikkarte" 4 Monitore unterstützt und die kostet fast 600€.
Deswegen wären solche karten perfekt für sowas geeignet.
Und wenn man sich ma die spezifikationen für die Matrox anschaut, da hören sich die von der X2 zehnmal besser an.
@16 und 17 --> erst nachdenken --> dann was posten!!!
Einer Karte die Primär auf mehrere Monitore ausgelegt werden soll (also keine Gamer Karte) benötigt keine 2 Stromhungrige GPUs die obendrein auch noch mit 6 Sone laufen.
Es hauptsächlich eine Gamer Karte, und diese brauchen nunmal mehr als ein lächerliches 128bit Speicherinterface.
Also FANBOY -> erst nachdenken --> dann was posten!!!
Was bringt denn dem Chip auf den 2600er Karten ein 256 bit oder gar 512 Speicherinterface.. genau.. nicht genug, als dass es sich lohnen würde ; )
Das Speicherinterface mag mit 128Bit heutzutage "klein" sein, ob es lächerlich ist, kannst du ja mal herausfinden indem du mal ne Steuerungssoftware / Schaltung dafür entwirfst ; ).
Ist ein klasse Teil - es überzeugt mich aber nicht ganz. Die SPeicheranbindung wäre mir für hohe Auflösungen eher ein Dorn im Auge.
Berichten zufolge soll der Kühler ganz angenehm sein und es wurde schon ein genauerer Blick darauf geworfen. So sind das 2 große Zalman ähnliche Kupferkühler, die mit Alu verbunden sind. Der Rest der Karte wird nur von einem formschönen Plastikkleid bedeckt.
Schon lustig, früher reklammieren soviele das es Dual Slot Kühlung gibt bei dem die heisse Luft nach aussen befördert, später sind Sie sogar erwünscht für leisere Kühlung sowie bessere Kühlung & dass die Luft nach aussen gelangt.
Heute haben die (Dual) Grafikkarten 4x DVI's bei dem halt 2x PCI Slots verdeckt werden, wenn es wieder so eine Art Hot-Air-Out Kühlung geben würden dann wäre der Kühler sicherlich 3 Slot, und dann fängt dieses gejammer wieder von vornerein an.
Ich selbst wäre im Falle eines Dual GraKa's anschaffungs lieber auf eine 3 Slot Kühlung angewiesen als auf 2 bei dem die Hitze im Tower bleibt...
Und von d er Leistung her find ich diese Karte sicherlich nicht wirklich Intressant, kanns mir wie viele anderen sicherlich denken wo Sie liegen...
Da wäre eine 8800GTS mit 320MB sicherlich besser bedient.
Ausser man braucht 4 DVI's Monitoren, dann wäre es Top!
Also ich weis nicht wie es euch geht,aber diese Dual Karten sind doch voll der Blender oder nicht.In der heutigen Zeit brauche ich keine Karte mehr mit einem 128 Bit Flaschenhals.Da reizen mich auch die 2 Cores auf einer Karte nicht.Aber wers brauch solls sich kaufen.Irgendwie bringt man Im PC Bereich heutzutage ja fast alles an den Mann/Frau
Eine HD 2600XT benötigt schon 80 Watt, und diese ist schon extrem laut. Ich habe die Karte doch selber für kurze Zeit gehabt. Der Kühler ist mit 6 Sone deutlich lauter als der standard der X1900XT. Und das bedseutet schon was! Jetzt nehmen wir das ganze mal zwei und schwupp siehts nicht besser sondern schlechter aus!
2GPUs verursachen höhere Abwärme als eine, die wiederum gekühlt werden muss.
Die Karte ist weit von dem entfernt was du in ihr siehst!