Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Aus Dual-GPU-GeForce GTX 260 GX2 wird GTX 295
- Ersteller Sebastian
- Erstellt am
- Zur News: Aus Dual-GPU-GeForce GTX 260 GX2 wird GTX 295
Tyr43l
Rear Admiral
- Registriert
- Okt. 2003
- Beiträge
- 5.170
ch33rio schrieb:Mit oder ohne Mikrorucklern?
ne dual hat ohne entsprechende Treiber und dem bsiher verwendeten AFR (alternative Frame Rendering) keine Chance den Microrucklenr zu entkommen.
Ein gern von den Herstellern verschwiegende Sache bei Dualgrafikkarten
- Registriert
- Nov. 2008
- Beiträge
- 2.911
@nothe
Der Vorteil eines einzigen PCB ist die Möglichkeit Wasserkühler zu verwenden, die nicht exakt für diese Karte gebaut wurden.
Der Vorteil eines einzigen PCB ist die Möglichkeit Wasserkühler zu verwenden, die nicht exakt für diese Karte gebaut wurden.
Keres
Vice Admiral
- Registriert
- Juli 2008
- Beiträge
- 6.405
Ist schon interessant. Hier wird spekuliert über Preis, über Leistung, über Skalierung.
Aber ... wie gesagt ... alles spekulativ.
Anstatt sich einfach zurückzulehnen, eine Dose Popcorn zu knabbern und sich zu amüsieren, was die hohen Herren von NVIDIA und ATI da machen, werfen sich hier einige nur Freundlichkeiten an den Kopf und versuchen sich zu überzeugen, warum dieses oder jenes Modell besser ist.
Nur zur Erinnerung: Ihr seit den Managern von besagten Firmen aber auch mal sowas von Sch***egal, egaler geht´s nicht. Ihr seit nur dazu da, euer Geld abzuliefern. Nicht mehr, nicht weniger.
Ihr ergreift hier Partei für eine Institution (Person), die sich um uns einen feuchten Kehrricht schert. Die nicht mal weiss, das wir existieren. In Persona natürlich.
Das da jemand sein muss, der ihren überteuerten Krempel regelmäßug kauft, dass wissen sie wohl.
Die lachen über euch/uns, wie man sich in Foren wie diesem gegenseitig bekriegen kann wegen ein paar Shadern, FPS oder MHz.
Glaubt ihr allen Ernstes, die machen das um der Ehre willen?
Pfff, hier geht es darum, bis zum Rentenalter möglichst viele Milliarden zu scheffeln. Auf´s eigene Konto versteht sich. Erfolgreich sein, das ist es.
Ihr zahlt denen u .a. den privaten LearJet, der sie mit ihren Mätressen erst in die Oper und dann ins Bett fliegt.
Und ihr zerpflückt euch wegen einem (oder auch zwei) Plättchen PCB mit ein paar Transistoren drauf.
Jungs, seht das ganze doch mal viel entspannter. Ins Grab könnt ihr das Gelumpe eh nicht mitnehmen.
mfg
G
Aber ... wie gesagt ... alles spekulativ.
Anstatt sich einfach zurückzulehnen, eine Dose Popcorn zu knabbern und sich zu amüsieren, was die hohen Herren von NVIDIA und ATI da machen, werfen sich hier einige nur Freundlichkeiten an den Kopf und versuchen sich zu überzeugen, warum dieses oder jenes Modell besser ist.
Nur zur Erinnerung: Ihr seit den Managern von besagten Firmen aber auch mal sowas von Sch***egal, egaler geht´s nicht. Ihr seit nur dazu da, euer Geld abzuliefern. Nicht mehr, nicht weniger.
Ihr ergreift hier Partei für eine Institution (Person), die sich um uns einen feuchten Kehrricht schert. Die nicht mal weiss, das wir existieren. In Persona natürlich.
Das da jemand sein muss, der ihren überteuerten Krempel regelmäßug kauft, dass wissen sie wohl.
Die lachen über euch/uns, wie man sich in Foren wie diesem gegenseitig bekriegen kann wegen ein paar Shadern, FPS oder MHz.
Glaubt ihr allen Ernstes, die machen das um der Ehre willen?
Pfff, hier geht es darum, bis zum Rentenalter möglichst viele Milliarden zu scheffeln. Auf´s eigene Konto versteht sich. Erfolgreich sein, das ist es.
Ihr zahlt denen u .a. den privaten LearJet, der sie mit ihren Mätressen erst in die Oper und dann ins Bett fliegt.
Und ihr zerpflückt euch wegen einem (oder auch zwei) Plättchen PCB mit ein paar Transistoren drauf.
Jungs, seht das ganze doch mal viel entspannter. Ins Grab könnt ihr das Gelumpe eh nicht mitnehmen.
mfg
G
Fred Fredburger schrieb:Warum denn nicht ein 280 GTX GX2 das wäre doch mal interessant, wohl aber schlecht zu kühlen.
In dem Preisbereich für Wasserkühlung vorkonfektioniert anbieten. Den 100er mehr macht das Kraut auch nicht fetter.
- Registriert
- Nov. 2008
- Beiträge
- 2.911
@Garrett66
Was?? Ich bin ATI und NVidia egal? .... Aber ..... aber.... ich dachte das wären meine Freunde..... :-(
Und ins mit Grab nehmen kann ich meine Grafikkarte auch nicht? Worauf soll ich dann im Jensits zocken?
Was?? Ich bin ATI und NVidia egal? .... Aber ..... aber.... ich dachte das wären meine Freunde..... :-(
Und ins mit Grab nehmen kann ich meine Grafikkarte auch nicht? Worauf soll ich dann im Jensits zocken?
suessi22
Lt. Commander
- Registriert
- Sep. 2006
- Beiträge
- 1.062
Moin,
betreff Mikroruckler:
http://www.hardware-infos.com/tests.php?test=49&seite=14
Hier haben sie es nicht geschafft - die 4850X2 zu Mikrorucklern zu bringen. Ist da ein Licht am Ende des Tunnels?
MfG
betreff Mikroruckler:
http://www.hardware-infos.com/tests.php?test=49&seite=14
Hier haben sie es nicht geschafft - die 4850X2 zu Mikrorucklern zu bringen. Ist da ein Licht am Ende des Tunnels?
MfG
milamber!
Commander
- Registriert
- Dez. 2004
- Beiträge
- 2.260
Unyu schrieb:Ich verstehe nicht, warum es 2 beschnittenen GT200b sein sollen, außer der Preiskampf.
So bleibt die FPS Krone erstmal beim GTX 280 Triple SLI.
Oh Herr towa, auf der Packung steht oft mehr als nur der Name der Karte.
Nach welchen dir zurecht gelegtem Schmu hat den der GTX 280 Triple SLI die FPS Krone, hm?
Keres
Vice Admiral
- Registriert
- Juli 2008
- Beiträge
- 6.405
suessi22 schrieb:betreff Mikroruckler: Hier haben sie es nicht geschafft - die 4850X2 zu Mikrorucklern zu bringen. Ist da ein Licht am Ende des Tunnels?
Frag lieber nicht.
Sonst kommt gleich noch einer, der behauptet, dass das Licht am Ende des Tunnels auch ein entgegenkommender Zug sein könnte.
Lonesloane
Lt. Junior Grade
- Registriert
- Okt. 2006
- Beiträge
- 354
Ich hatte auch mal eine 7950 GX2 und lese mit Horror, daß NVidia wieder dieses bekloppte Sandwichdesign verwenden will. Ich hatte jedenfalls mit der 7950 GX2 nur Ärger und war schnell geheilt vom Dual-GPU Hype.
Der größte Witz ist doch, dass Crysis (als hardwarehungrigstes Spiel) kaum von SLI und CF profitiert.
Der größte Witz ist doch, dass Crysis (als hardwarehungrigstes Spiel) kaum von SLI und CF profitiert.
Der Moloch
Lieutenant
- Registriert
- Sep. 2007
- Beiträge
- 532
Anstatt wieder einmal zwei Karten zu nehmen und diese mit Klebeband zu umwickeln (Sarkasmus), hätte man sich mal ein paar Gedanken für ein völlig neues Design einer MultiGPU Karte machen können.
Keres
Vice Admiral
- Registriert
- Juli 2008
- Beiträge
- 6.405
Der Moloch schrieb:hätte man sich mal ein paar Gedanken für ein völlig neues Design einer MultiGPU Karte machen können.
Aber sowas kostet Geld. Viel Geld. Und das ist in den USA nun mal gerade etwas knapp!
Also baut man was neues in was altes ein und verkauft es als Innovativ.
BWL erstes Halbjahr ---> Minimalprinzip = Mit minimalem Mitteleinsatz ein vorgegebenes Ziel erreichen!
Und das Ziel heisst/die Ziele heissen: Leistungskrone und Umsatzmaximierung!
bitfunker
ewohner
- Registriert
- Okt. 2001
- Beiträge
- 18.283
Hey, Garrett66!
Ich denke, inzwischen hat sogar der dämliche Köter unserer Nachbarn gerafft, dass es dir sehr wichtig ist, jedem der es hören will (oder auch eben nicht), mitzuteilen, dass du die Grafikkartenhersteller für arrogante, großkaptialistische, moralbefreite Menschenverächter hälst.
Danke für deine Ausführungen hierzu, aber können wir uns nun bitte wieder der GTX 260 GX2 an sich zu wenden?
Ich denke, inzwischen hat sogar der dämliche Köter unserer Nachbarn gerafft, dass es dir sehr wichtig ist, jedem der es hören will (oder auch eben nicht), mitzuteilen, dass du die Grafikkartenhersteller für arrogante, großkaptialistische, moralbefreite Menschenverächter hälst.
Danke für deine Ausführungen hierzu, aber können wir uns nun bitte wieder der GTX 260 GX2 an sich zu wenden?
Zuletzt bearbeitet:
tgsn4k3
Admiral
- Registriert
- Dez. 2006
- Beiträge
- 7.892
würd ja lachen wenn die im januar released wird, die schnellste karten dieses Planeten ist und dann im Februar HD58XX kommen die diese leistung leicht übertreffen bei viel weniger strombedarf und ohne MR xD xD xD xD xD würd ich lachen.
naja ich glaub selber nicht dran,
ich finds aber auch schade das NV sich gegen eine eindeutige kennzeichnung als GX2 karte entschieden hat, viele kunden könnten drauf reinfallen.
naja ich glaub selber nicht dran,
ich finds aber auch schade das NV sich gegen eine eindeutige kennzeichnung als GX2 karte entschieden hat, viele kunden könnten drauf reinfallen.
Vulture_Culture
Lt. Commander
- Registriert
- Jan. 2008
- Beiträge
- 1.307
Naja also wenn die Leistung der GX 2 zur X2 ähnlich ist wie das verhältniss von 4870 und GTX260², dann lohnt sich ein Kauf wohl von der Leistung her nicht. Am deutlichsten wird sich wohl daher die Stromaufnahme und die Lautstärkeentwicklung auf die Bewertung der GX2 auswirken.
Faranor
Lt. Commander
- Registriert
- Nov. 2007
- Beiträge
- 1.417
hmm, wenn sie durch den shrink 35% weniger strom verbraten, dann hat man halt insg. 45% mehr verbracuh als eine normale 260er.
Aber, DIe hd 4870x2 hat ienen extra chip an board, um beide cpus zu verbinden, und daher skaliert dort auch crossfire so gut.
Mit normalem SLI wirds da sicher EInbußen geben.
Aber, DIe hd 4870x2 hat ienen extra chip an board, um beide cpus zu verbinden, und daher skaliert dort auch crossfire so gut.
Mit normalem SLI wirds da sicher EInbußen geben.
Was genau ist jetzt an 2 PCBs schlechter?Tyr43l schrieb:Schade, 2 PCB's, runter getaktet. Das macht ATI deutlich besser - ein PCB mit 2Chips ..
cbmik
Lieutenant
- Registriert
- Dez. 2007
- Beiträge
- 673
bensen schrieb:Was genau ist jetzt an 2 PCBs schlechter?
Platzverbrauch, Kühlung, ...
Ähnliche Themen
- Antworten
- 4
- Aufrufe
- 1.397