9800GX2 vs. 3870X2 wie funktionierts

Nicht nur neu entwickeln, die Kosten würden unverhältnismäßig steigen und der Nutzen wäre zu gering...
Ich mein man hört ja schon was sich Leute hier für einen Kampfpreis für die Karte erhoffen, also muss man eben Kompromisse eingehen, um die Karte preislich attraktiv zu gestalten.
Der minimale Leistungsvorteil ist zu gering um den Kostennachteil zu kompensieren...

Edit:
@Lar337: Interessante Frage...
das was ich bzgl des Skalierens sagte bezog sich auch noch auf die Zeit, als es kein SLI/CF in der Form wie heute gab und es eben Karten wie die Voodoo 5 5500 mit 2 GPUs gab oder Rage Fury MAXX... so viel ich weiß funktionierten die bei allen Spielen... ka wie gut heutige Multi-GPU-Lösung skalieren und ob sie in Sachen Kompatibilität eben reibungsloser funktionieren als ein SLI/CF-Verbund.
Ich hoffe halt ein wenig, dass das SLI/CF bei den Multi-GPU-Lösungen eben noch "hardware-näher" umgesetzt wird, also z.B. war es glaub ich bei der Rage Fury MAXX so dass immer abwechselnd eine GPU ein Bild gerendert hat... das hat die Karte von sich aus gemacht und bedurfte keiner großen Treiberunterstützung... vielleicht funktionieren die heutigen Multi-GPU-Lösungen auch wieder etwas "Treiber-unabhängiger" und erfordern nicht in der gleichen Weise die Unterstützung seitens Treiber und Software... aber das ist eine Hoffnung meinerseits, ka ob das so stimmt...
 
Zuletzt bearbeitet:
Wieso skalieren DualGPU Karten eigentlich so viel besser als normale SLI/CF? Btw, warum funktionieren sie im Gegensatz zu CF/SLI fast bei allen Spielen?
Naja, die interne Verschaltung ist wohl flotter, allerdings zeigt die 7950GX2 imo, dass internes SLI nicht besser ist bzw. besser sein muss.

cYa
 
@VAP7985 thx ich glaub ich hab jetzt auch nochmal thx:D

tja ich fürchte das hat meine hoffnung gedämpft:(

aber hey immer hin is die ati dann eine karte was man von der nvidia nich sgen kann:D

spass beiseite hoff mal das die leistung trotdem in orndung geht

mfg hncam

edit: hey was is nu eigentlich mit dem GDDR5? Da war neulich sone wirre diskusion im zusammenhang mit dem g100 , ob der jetzt schon produziert wird oder ob es nur erste testmuster geben hat. Was ist da los?
 
Zuletzt bearbeitet:
@ hncam
Gern geschehen

Naja so schlimm ist das performancetechnisch nicht die 2900 XT zeigt ja das die 3870 nicht von 512 bit Speicherinterface profitieren würde und auch die 512 MB scheinen kein problem zu sein die 1gb Variante der 2900 XT hat ja auch nicht viel gebracht.
Ich freu mich auch schon auf die 3870 X2 auch ohne 512bit und 1gb shared Memory ;)
 
@y33H@: Könnte allerdings auch an der Mutli-PCB-Lösung liegen die eben einem gewöhnlichen SLI noch etwas näher kommt als 2 GPUs auf einem PCB.
Aber du hast recht: Es muss nicht besser Skalieren als gewöhnliches SLI/CF, aber es ist zu erwarten dass es zumindest nicht schlechter skaliert :-)
Und bei guter Umsetzung kann man eben damit wohl deutlich mehr rausholen als bei normalem SLI/CF, wobei ich eine 2 PCB-Lösung sowieso nicht als "gute Umsetzung" betrachten würde..

@VAP7985: Yep, und wenn die 3870 X2 auch noch so gut skaliert wie die anderen ATI-Dual-GPU-Lösungen, dann kann man sich um so mehr drauf freuen... :-) (Edit: musste nen Smiley hinzufügen, sonst hätte ein unwissender das als Ironie verstehen können :P)

Edit:
Ach ja... und ich würde auch nicht immer zu viel wert auf technische Daten wie Breite des Speicherinterfaces oder 1 GB Common Memory (ich nenn's mal "common" weil shared klingt etwas negativ behaucht... :P) oder ob die Karte nun 1 GB oder 2 GB RAM hat usw... wichtig ist, was die Karte leisten kann, was also am Ende rauskommt. Gute technische Daten lassen leider keinen direkten Rückschluss auf die tatsächliche Leistungsfähigkeit. Wenn's so wäre, bräuchten wir keine Benchmarks mehr. Eine Grafikkarte ist ein Gesamtwerk, das zusammenpassen muss, die 2900 XT zeigte, wie es nicht geht...
 
Zuletzt bearbeitet:
Also ich werd mir die 3870x2 zulegen!!! ich werd euch dann sagen wie die so leuft.
ich find es gut das ati gute neuerungen hat z. b. das die karten im office betrieb runtergektet werden oder
das 2 gpus auf 1 gd ddr4 speicher zurückgreifen mit 512 bit!!! die wird den nv karten ordentlich Paroli bieten!!!
Die 9800GX2 wid glaube ich nur wenig Käufer finden ein Grund wäre z. B. das es nivida nicht hinbekommt das die Karte gescheit unter Spielen leuft bestes Beispiel dafür ist die Geforce 7950 GX2 ! ! ! die hat auch viele Probleme gemacht!!!
 
1668mib schrieb:
@bensen: Die Busbreite ja, aber wo ist hier die Busbreite rauszulesen: "Also wenn jeder chip 256Bit kann/hat"? Musste erst mal wissen welchen Chip er meint (klar, die GPU)...
und wo liest du hier was anderes raus? was soll er sonst meinen?
zwar schlecht ausgedrückt, aber ist doch klar was er meint

hncam schrieb:
@bensen für mich ist ein anzeichen das es einen gemeinsamen speicher geben wird, schon die tatsache, das beide chips auf einer pcb sitzen. Warum sollte sich ATI sonst die mühe machen alles so zu quetschen und nicht einfach bei nvidia klauen und eine Doppel-pcb verwenden
also wenn das dein ein argument sein soll...:rolleyes:
es gibt ne menge dual-gpu karten (auf basis von x1650xt, 2600xt, 7800gt, 6600gt ...) die alle auf einem pcb waren
ist halt billiger alles auf ein pcb zu bauen, wenn es vom platz her reicht macht es also

irgendwie hat einer mal was von nem gemeinsam nutzbaren speicher geschrieben und alle freuen sich wie ein schneekönig
aber ne quelle, bzw. stichhaltiges argument hab ich bisher noch nicht gesehen
 
Zuletzt bearbeitet:
war es bei der 7950GX2 nicht so das sie zwar 1GB speicher hatte aber wegen diesem internen SLI, jeder chip nur auf 512MB speicher zugreifen konnte?

die neue 9800GX2 soll ja auch 1GB speicher haben, ist es bei dieser jezt auch so wie bei der 7950GX2?
 
Lar337 schrieb:
Schön wäre es noch, wenn sich eine GPU im Idle abschalten könnte.

Brauchst du kein Bild mehr in Windows und guckst du auch so keine Videos etc.? :freak: Am besten baut sich die Grafikkarte von alleine aus, wenn man nicht spielt.. :rolleyes: Dank Powerplay werden bei den HD3er Karten nicht benötigte Bereiche des GPU's im Idle Betrieb abgeschaltet.

Naja, ich bin guter Hoffnung was die X2 angeht, die X1950PRO Dual skalierte ja teilweise auch recht gut, kam sogar oft an ein X1900XTX CF und die 8800GTS 640 ran.

Die 9800GX2 wid glaube ich nur wenig Käufer finden ein Grund wäre z. B. das es nivida nicht hinbekommt das die Karte gescheit unter Spielen leuft bestes Beispiel dafür ist die Geforce 7950 GX2 ! ! ! die hat auch viele Probleme gemacht!!!

Die 9800GX2 werden sicherlich viel mehr Leute kaufen als eine HD3870X2. GF9, das hört sich doch toll an ;)
 
Zuletzt bearbeitet:
@8mile
er spricht von einer gpu abschalten, nicht beide :rolleyes:
versteh deine reaktion nicht, für ein bild braucht man keine 2 gpus oder?

Die Zwei-PCB-Lösung ist ja nicht die erste unpopuläre Entscheidung seitens NVIDIA, man denke nur mal an die Kühllösungen der GeForce FX-Reihe zurück...
man könnte es auch als zukunftsweisend betrachten :D
ähnliche kühllösungen wurden danach recht häufig. nur eben technisch gut umgesetzt und nicht so katastrophal wie bei der fx

btw: hat wer nen guten bench der zeigt das ne dual2600xt besser als ein 2600xt cf gespann skaliertß
hab da bisher noch keinen gesehen
 
achso sorry, dann habe ich das falsch aufgefasst, ich dachte er bezieht sich da allgemein auf die GPU's.. Bei so einer Dual Karte wäre das mit Sicherheit nicht schlecht, wenn eine GPU komplett abschalten würde. Wird sicherlich spätestens durchgesetzt wenn nur noch Multi GPU Karten kommen (R700 wahrscheinlich).
 
@HNcam,

also das mit den Dualcore GPU chips ist ma grade am durchdenken. Praktisch ein chip mit mehren Cores. Aber die sind noch weit davon enfernt, nur hat man mal angefangen in die richtung zu denken. Ich versuch mal später den Link dazu zu finden. Die Meldung kam aus dem Hause AMD/ATI. Von NV hat man bisher in die Richtung noch nix gehört.

Gruss Jens
 
8MiLe schrieb:
achso sorry, dann habe ich das falsch aufgefasst, ich dachte er bezieht sich da allgemein auf die GPU's.. Bei so einer Dual Karte wäre das mit Sicherheit nicht schlecht, wenn eine GPU komplett abschalten würde. Wird sicherlich spätestens durchgesetzt wenn nur noch Multi GPU Karten kommen (R700 wahrscheinlich).

Wobei es bei Single-GPU-Karten auch nicht unbedingt schlecht wäre.
Wenn sich der Monitor abschaltet, könnte die GPU ja eigentlich mitmachen ;)
 
@ 8MiLe

Können bei den Phenoms nicht auf den AM2+boards unbenötigte Kerne ausgeschaltet werden? Das wird sicherlich auch bald bei den kommenden Multigpukarten gehen. Vielleicht kann das die x2 3870 oder die gx2 9800 schon.
 
bei der 3870x2 kann man von Hand 1 Kern abschalten, das ging bei der 2600xt dual schon, die auf dem selben Prinzip basiert.
 
Zurück
Oben