News Aus Dual-GPU-GeForce GTX 260 GX2 wird GTX 295

Zumindest wird mit dem VRam(wenn es stimmt) kein Flaschenhals erzeugt wie bei der Lachnummer 9800GX2.
 
ch33rio schrieb:
Mit oder ohne Mikrorucklern?

ne dual hat ohne entsprechende Treiber und dem bsiher verwendeten AFR (alternative Frame Rendering) keine Chance den Microrucklenr zu entkommen.

Ein gern von den Herstellern verschwiegende Sache bei Dualgrafikkarten
 
Ist schon interessant. Hier wird spekuliert über Preis, über Leistung, über Skalierung.
Aber ... wie gesagt ... alles spekulativ.

Anstatt sich einfach zurückzulehnen, eine Dose Popcorn zu knabbern und sich zu amüsieren, was die hohen Herren von NVIDIA und ATI da machen, werfen sich hier einige nur Freundlichkeiten an den Kopf und versuchen sich zu überzeugen, warum dieses oder jenes Modell besser ist.

Nur zur Erinnerung: Ihr seit den Managern von besagten Firmen aber auch mal sowas von Sch***egal, egaler geht´s nicht. Ihr seit nur dazu da, euer Geld abzuliefern. Nicht mehr, nicht weniger.

Ihr ergreift hier Partei für eine Institution (Person), die sich um uns einen feuchten Kehrricht schert. Die nicht mal weiss, das wir existieren. In Persona natürlich.
Das da jemand sein muss, der ihren überteuerten Krempel regelmäßug kauft, dass wissen sie wohl. :evillol:

Die lachen über euch/uns, wie man sich in Foren wie diesem gegenseitig bekriegen kann wegen ein paar Shadern, FPS oder MHz.
Glaubt ihr allen Ernstes, die machen das um der Ehre willen?
Pfff, hier geht es darum, bis zum Rentenalter möglichst viele Milliarden zu scheffeln. Auf´s eigene Konto versteht sich. Erfolgreich sein, das ist es.

Ihr zahlt denen u .a. den privaten LearJet, der sie mit ihren Mätressen erst in die Oper und dann ins Bett fliegt.
Und ihr zerpflückt euch wegen einem (oder auch zwei) Plättchen PCB mit ein paar Transistoren drauf. :lol:

Jungs, seht das ganze doch mal viel entspannter. Ins Grab könnt ihr das Gelumpe eh nicht mitnehmen. ;)



mfg
G
 
Fred Fredburger schrieb:
Warum denn nicht ein 280 GTX GX2 das wäre doch mal interessant, wohl aber schlecht zu kühlen.

In dem Preisbereich für Wasserkühlung vorkonfektioniert anbieten. Den 100er mehr macht das Kraut auch nicht fetter.
 
@Garrett66

Was?? Ich bin ATI und NVidia egal? .... Aber ..... aber.... ich dachte das wären meine Freunde..... :-(

Und ins mit Grab nehmen kann ich meine Grafikkarte auch nicht? Worauf soll ich dann im Jensits zocken?
 
Unyu schrieb:
Ich verstehe nicht, warum es 2 beschnittenen GT200b sein sollen, außer der Preiskampf.
So bleibt die FPS Krone erstmal beim GTX 280 Triple SLI.

Oh Herr towa, auf der Packung steht oft mehr als nur der Name der Karte.

Nach welchen dir zurecht gelegtem Schmu hat den der GTX 280 Triple SLI die FPS Krone, hm?
 
suessi22 schrieb:
betreff Mikroruckler: Hier haben sie es nicht geschafft - die 4850X2 zu Mikrorucklern zu bringen. Ist da ein Licht am Ende des Tunnels?

Frag lieber nicht.
Sonst kommt gleich noch einer, der behauptet, dass das Licht am Ende des Tunnels auch ein entgegenkommender Zug sein könnte. :lol:
 
Ich hatte auch mal eine 7950 GX2 und lese mit Horror, daß NVidia wieder dieses bekloppte Sandwichdesign verwenden will. Ich hatte jedenfalls mit der 7950 GX2 nur Ärger und war schnell geheilt vom Dual-GPU Hype.

Der größte Witz ist doch, dass Crysis (als hardwarehungrigstes Spiel) kaum von SLI und CF profitiert.
 
Anstatt wieder einmal zwei Karten zu nehmen und diese mit Klebeband zu umwickeln (Sarkasmus), hätte man sich mal ein paar Gedanken für ein völlig neues Design einer MultiGPU Karte machen können.
 
Der Moloch schrieb:
hätte man sich mal ein paar Gedanken für ein völlig neues Design einer MultiGPU Karte machen können.


Aber sowas kostet Geld. Viel Geld. Und das ist in den USA nun mal gerade etwas knapp! ;)
Also baut man was neues in was altes ein und verkauft es als Innovativ.

BWL erstes Halbjahr ---> Minimalprinzip = Mit minimalem Mitteleinsatz ein vorgegebenes Ziel erreichen!
Und das Ziel heisst/die Ziele heissen: Leistungskrone und Umsatzmaximierung! :)
 
Hey, Garrett66!
Ich denke, inzwischen hat sogar der dämliche Köter unserer Nachbarn gerafft, dass es dir sehr wichtig ist, jedem der es hören will (oder auch eben nicht), mitzuteilen, dass du die Grafikkartenhersteller für arrogante, großkaptialistische, moralbefreite Menschenverächter hälst.

Danke für deine Ausführungen hierzu, aber können wir uns nun bitte wieder der GTX 260 GX2 an sich zu wenden?
 
Zuletzt bearbeitet:
würd ja lachen wenn die im januar released wird, die schnellste karten dieses Planeten ist und dann im Februar HD58XX kommen die diese leistung leicht übertreffen bei viel weniger strombedarf und ohne MR xD xD xD xD xD würd ich lachen.

naja ich glaub selber nicht dran,
ich finds aber auch schade das NV sich gegen eine eindeutige kennzeichnung als GX2 karte entschieden hat, viele kunden könnten drauf reinfallen.
 
Naja also wenn die Leistung der GX 2 zur X2 ähnlich ist wie das verhältniss von 4870 und GTX260², dann lohnt sich ein Kauf wohl von der Leistung her nicht. Am deutlichsten wird sich wohl daher die Stromaufnahme und die Lautstärkeentwicklung auf die Bewertung der GX2 auswirken.
 
hmm, wenn sie durch den shrink 35% weniger strom verbraten, dann hat man halt insg. 45% mehr verbracuh als eine normale 260er.
Aber, DIe hd 4870x2 hat ienen extra chip an board, um beide cpus zu verbinden, und daher skaliert dort auch crossfire so gut.
Mit normalem SLI wirds da sicher EInbußen geben.
 
2x 896 MB sind zu wenig Speicher!
Da reitet nVidia die Karte in das gleiche Schicksal wie damals die 9800 GX2.
 
Zurück
Oben