News Radeon HD 4870 X2 schlägt GeForce GTX 280?

Ist ja eigentlich nur logisch, dass zwei HD4870 (eine ist laut 3d mark vantage ~ 15% langsamer als die 9800 GX2) schneller als eine GTX 280 ist.
Spätestens im Herbst wenn der GT200b in 55nm erscheint wirds dann sicherlich auch eine GT200b GX2 (vll kommt diese aber auch erst 2009 ?) geben, die dann sicher wieder deutlich die Pace machen wird. ;)
 
Zuletzt bearbeitet:
Sgt.Speirs schrieb:
Danach macht Nvidia das selbe. Günstige Chips für die Mittelklasse, für High-End einfach zwei davon.
Dann sieht AMD alt aus mit der doppel RV770.....
Ja, wäre kein Unterschied, aber wie bezeichnet man das dann? Ultra-High-End? Oder wird RV770 zum Low-End? ;)

xxxx schrieb:
@Unyu genauso wie schrottige Treiber und mangelnden Support.
Begründung?

@Schinzie
Nö ich wette nicht, ich hoffe inständig und halte mich an die bisher guten Aussichten auf weitere Singlekarten.
 
@BIG_MAC: da spricht ein wahrer experte in sachen kühlung :D
selbst die 2900xt ließ sich problemlos mit luft kühlen und die hatte nicht einmal stromsparmechanismen^^ und die hat schon ne tdp von 215 watt... wo bitte sollte also das problem liegen 235 watt (also nur 20 watt mehr) mittels wakü zu kühlen?^^ einfach auf jede gpu ein kühler und gut ist...
einige übertreiben wirklich...
aber für alle, die sich für ihre stromrechnung interessieren wäre die karte ein absolutes nogo...
 
Zuletzt bearbeitet:
Alles schön und gut diese ganzen Vorraussagen und Prognosen. So genau weiß es im Endeffekt doch niemand.

Ich persönlich warte lieber auf handfeste Tests und Benchmarks, bevor ich mich großartig freue.
 
Der preis hört sich echt Super an. :daumen:

Wenn der auch in Deutschland so viel kostet, und die Leistung in der nähe der 9800 gtx liegt,
bin ich auf die Antwort von Nvidia gespannt.
 
TchiboMann schrieb:
armselig, dass ati mit dual-gpu gegen eine single-gpu antreten muss um die Performancekrone zu gewinnen.

armseelig das die single gpu karte von nvidia denselben stromverbrauch hat wie eine dual gpu karte von amd...:evillol:
 
leute überlegt mal: egal ob die X2 gewinnt oder nicht, ATI hat im moment den marktvorteil. ich versuche das so neutral wie möglich zu erklären: nVidia kann pro Wafer nur 100 Chips herstellen, von denen wiederum nur ca. 47 funktionstüchtig sind. Wenn man jetzt davon ausgeht dass 100 pro Wafer funktionstüchtig sind, dann hat man herstellungskosten von ca. 60$ pro stück. da man aber weiss das nur etwa die hälfte nutzbar ist, steigt der preis pro chip auf >120$, was wiederum einen enormen kartenpreis bringt. ATI hingegen kann glaube ich 316 Chips pro Wafer herstellen (55nm vs. 65nm, kleinere chips), wovon in der regel 290 funktionstüchtig sind (habe ich auf einer seite gelesen, weiss nicht mehr welche). Die haben pro chip herstellungskosten von ca. 30-40$, was etwa ein drittel der kosten eines GTXXX ist. nVidia möchte aber nicht gänzlich verlieren und wird darum ähnlich agieren wie mit der 8800GT; jede karte bringt nVidia einige $'s verlust. dies machen sie um die GXXX rauszuvwerfen und die b-version verbreiten zu können welche wesentlich günstiger zu fertigen sein wird als die originalversion. Ich glaube die neue GeForce reihe wird nur enthousiasten bedienen können.

Und eine GX2 version wirds definitiv geben.......... sobald jeder ne LN2 kühlung im haus hat und neben dem kernkraftwerk wohnt:D

Ich habe das ganze aus meiner sicht beschrieben, vielleicht täusche ich mich ja gewaltig. Am besten wir warten ab und beurteilen das ganze in einigen wochen.

Greetz
 
@saban: die antwort ist doch einfach: preissenkungen bei der 9800gtx :D und ati kontert mit neuer preissenkung ;) son preiskampf wäre echt was feines ^^ was heist hier wäre? WIRD! :D

@Desoxyribo: ich glaub du irrst^^ soll leute geben, die n cf aus 2 2900xt hatten und dann noch oc ;) das wäre vom verbrauch (unter last!) her etwa das gleiche...
 
Zuletzt bearbeitet:
Unyu schrieb:
Dann sieht AMD alt aus mit der doppel RV770.....
Bin gespannt wie Nvidia dann 1.4 Mrd. Transistoren auf das/den Die bekommen möchte^^

Der Nachfolger des GT200 wird eine andere Architektur haben. Da werden die Karten wieder neu gemischt, zumindest für Nvidia...
 
Ob es sich Nvidia leisten kann die 9800gtx um 50€ und mehr zu senken? :freak:

Selbst wenn sie es machen, ist die HD 4850 dann immernoch die bessere Wahl. :cool_alt:
 
Hennimo schrieb:
armseelig das die single gpu karte von nvidia denselben stromverbrauch hat wie eine dual gpu karte von amd...:evillol:

und kostet wohl mehr^^

bazooExcalibur schrieb:
Na und selbst wenn die Dual GPU von ATI Schneller ist wen juckst mich nicht.

Da setzt ich mir doch 2 Single GPU GTX 280 rein.

hehe,und zahlst mal über 1000euro für 10fps mehr...


gruß
 
Das Prerenderlimit 3 unter Xp/ der lag von 4 Frames unter Vista hindert dich. ;)
 
Zurück
Oben