News Aus Dual-GPU-GeForce GTX 260 GX2 wird GTX 295

Nvidia oder die news von CB besagen das es sich um ein PCB mit zwei GPUs handelt das stimmt ber net es sin 2 GPUs auf 2 PCBs zu einer Karte vereint :freak:
das ist zwar nett schlimm aber wenn die Karten sich zu einem Hexa Sli verbund berbinden ließen wäre das irgendwie voll cool :D
 
Vielleicht muss man es nicht gerade so pointiert formulieren wie Garrett66, aber ich denke auch, hier wird viel zu viel "Rationalismus" in die Gehirne der Top-Manager hineininterpretiert und zu schnell "vergessen", dass es hier in allererster Linie um ein mediengehyptes Prestigeduell zweier US-amerikanischer Top-Konzerne geht, und wer (wie ich) schon einige Mal in Amiland war, der wird bestätigen, dass dort tatsächlich in vielerlei Hinsicht eine andere Mentalität vorherrscht und Konsum einen ganz anderen Stellenwert hat (sieht man ja auch aktuell sehr schön an der Kredikartenkrise dort :p) Und da wertet es das Image eines Herstellers eben gewaltig auf, das potenteste Produkt im Portfolio zu haben, egal, mit welchem Aufwand und zu welchem Preis man das realisiert - denn: "The winner takes it all!"

Die z.T. verbissen geführte Diskussion um sparsame Netzteile und "bloß kein überdimensioniertes kaufen" ist z.B. ein "typisch deutsches" (Foren-)Phänomen und würde in US-amerikanischen Foren, wo Leute mit einer 8800 GT und einem C2D gerne zu einem 800 W-Boliden greifen, bestenfalls Kopfschütteln und Heiterkeit auslösen ;)

Ist zwar traurig, aber leider wahr :rolleyes:

AMD/ATI hat die 4870 X2 nach meiner Überzeugung nur gebracht, um nVidia zu plätten und in publicityträchtigen Charts und Benchmarks obenauf zu stehen ("der zweite Gewinner ist der erste Verlierer!"), und aus keinem anderen Grund schlägt das grüne Imperium jetzt zurück - ob das für den Endanwender Sinn macht oder nicht, ist bei den ersichtlich geringen Verkaufszahlen dieser Dinosaurierkarten so 'was von wayne, solange man eben wieder - und sei es auch nur vorübergehend - den Längsten...äh, Verzeihung, die Schnellste hat..:evillol:

LG N.
 
@aivazi:
Erst lesen, dann posten!
computerbase schrieb:
Im Gegensatz zur HD 4870 X2, welche zwei GPUs auf einer Platine vereint, wird die GeForce GTX 295 voraussichtlich wie die bekannte GeForce 9800 GX2 lediglich einen Verbund aus zwei Grafikkarten darstellen.
Für Nvidia ist das die einfachste Lösung. Haben ja schon Erfahrung mit der 9800GX2 gemacht.
 
Hi zusammen,

ok bei Wasserkühlungen gebe ich euch vollkomen recht, da ist die ATI bauweise sicherlich von Vorteil. Das sich die Nvidia Karte allerdings stärker erwärmen soll als die Ati Karte bzw das die ATI besser zu kühlen sein soll glaube ich erst wenn ich es schwarz auf weiß sehe. Bei der ATI Karte bekommt ein Chip sogesagt auch die Abwärme des anderen ab. Würde NV z.B. wieder auf die Sandwichweise bauen und sagen wir mal eine Karte verdrehen hätten wir fast das gleiche wie bei ATI nur das die Chips statt nur nebeneinander eben versetzt übereinander liegen. Aber ist ja bisher eh nur alles spekulation. Kommt Zeit kommt Rat.

gruß nothe
 
@Nobbi56
ich hab gehört die 4870X2 verkauft sich sehr sehr gut. Gab wohl am Anfang auch nicht zu unterschätzende Lieferschwierigkeiten. Außerdem ist die Gewinnspanne bei solchen Karten doch deutlich höher.
Und die X2 ist ja keine Ultra (die war wirklich etwas übertrieben teuer)
 
@nothe bei der Sandwich bauweise würden sich die Chips wortwörtlich gegenseitig Grillen :D aber das passiert bereits bei einer einzelnen GTX280

aber ich selbst kann mir nicht vorstellen das man 28 Speicherbausteine 2 riesen GPUs mit riesigem Hetspreader und unmengen von Spannungswandlern auf ein PCB bekommt :freak: das teil müsste mindestens einen halben Meter lang sein
 
Zuletzt bearbeitet:
areku schrieb:
Ossi94 nichts für ungut aber woher hast du die stumpfsinnige Behauptung, dass Nvidiakarten weniger verbrauchen? Wo steht denn das bitte?...

Im hauseigenen Test von Computerbase. Die sollte man sich schon mal anschauen...
 
~Basti~ schrieb:
Hi,

Aber wie hat ATI das hinbekommen ? ;)

MfG, Sebastian

das liegt definitiv an der ordnung der Karte vergleich mal eine GTX260 mit einer 4870 dann wirst du sehen das die ATI systematisch aufgeräumt ist und bei der Nvidia jedes Bauteil ohne Plan und Logik raufgelötet wurde ;)
 
towa schrieb:
Klar auf der Packung, wenn man denn eine Sieht..... :rolleyes:
Wo kaufst du deine Hardware? Auf dem Schwarzmarkt?
Interessante Argumentation, am Name der Karte, deren Namen du dank fehlendem Karton nicht wissen kannst, gibt dir anhand des möglicherweise nicht vorhanden "GX2" nicht zu erkennen, das es 2 GPUs sind.

milamber! schrieb:
Nach welchen dir zurecht gelegtem Schmu hat den der GTX 280 Triple SLI die FPS Krone, hm?
Welche andere Lösung hat eine konstant höhere Leistung?

cbmik schrieb:
Platzverbrauch, Kühlung, ...
Was ist damit?
2 Slots bleiben 2 Slots.
300W max bleiben max 300W max.
 
@ aivazi und basti.

Es wird ziemlich sicher an der Größe der Prozessoren Liegen.
 
die größe der GPUs wird sich zu 100% nicht verändern da der selbe chip nur geshrinkt verwendet wird da werden höchstens ein paar quadrat mm fehlen
 
tjo mal schauen, denke trotzdem dass sie das hinbekommen und die karte nicht heißer bzw stromhungriger wird als die HD 4870 X2.

Ansonsten ist die Karte von Anfang an für den Müll, da die HD 4870 X2 für mich schon zu hohe Werte hat.
 
Nobody2311 schrieb:
Hallo

Wie siehts jetzt mit der 55nm Verkleinerung bei den Einzelchipkarten aus?
Mir wurde gesagt, dass einige der Meinung seien, dass die "kleinere" Variante bereits im Umlauf seien...

Mir wäre (egal nVidia oder ATI) eine Zweichipkarte einfach zu teuer bei der Anschaffung und auch im Betrieb. Und dann kommen noch die Probleme wie Mikroruckler.
Leider drückt da die Ami-Mentalität bei nVidia durch, die "Ich bin der Beste/Grösste, egal was es kostet/verbraucht"-Mentalität.

Gruss
Nobody

Nochmals.

Gruss
Nobody
 
Bleibt ja wenigstens noch Platz fuer eine GTX 290 (Single GPU).

Bin ueberhaupt nicht an Dual GPUs interressiert.




gruss
 
Unyu schrieb:
Wo kaufst du deine Hardware? Auf dem Schwarzmarkt?
Interessante Argumentation, am Name der Karte, deren Namen du dank fehlendem Karton nicht wissen kannst, gibt dir anhand des möglicherweise nicht vorhanden "GX2" nicht zu erkennen, das es 2 GPUs sind..


die meisten kaufen sich ihre karte bei fertig rechnern oder im internet. Da sieht man den Namen, den Karton aber in der Regel nicht und weiß somit nicht, dass es MutliGPU ist. Nicht mal du als MutliGPU-Hasser solltest doch ausnahmsweise diesen Schritt, soweit er der Wahrheit entspricht, tollerieren. Es ist nur Kundenverarsche, sorry.


gruß
 
Hallo!!!

Wer kauft sich den ein Fertig-Over-High-Endsystem:freak:

Die "Zielgruppe" die von der Karte angsprochen sind, werden wohl wissen was sie da für eine Heizung kaufen:rolleyes:
 
nicht die ganzen kiddis die sich von ihren eltern so ein teil kaufen lassen... da gibts leider gottes reichlich davon.


gruß
 
Ja die Fertig PCs. Werden immer als letztes genommen, wenn alle anderen Argumente tot sind, ist halt gerade in über Namen zu meckern.
Mal ehrlich:
Wer einen Fertig PC kauft, wird eh bechissen, weit mehr als es der böse Name könnte.
Wer einen Fertig PC kauft, ist nicht vom Nachdenken/fragen entbunden. Woher weiß er den Namen der Karte? Woher weiß der Kunde, was das (G)X2 bedeuted? Würde der Kunde nicht zugreifen wenn er wüsste was es bedeuted? Warum verkaufen sich dann kleine SLI Systeme so super?
 
Zurück
Oben