News Radeon HD 4870 X2 schlägt GeForce GTX 280?

Hab auch nen 30" und warte schon sehnsüchtig auf die GTX 280. Die sollte hoffentlich reichen ... falls nicht kommt halt ne 2. oder 3. dazu. ;-)

Aber mal ganz ehrlich ... ich habe aktuell ne 9600GT am laufen und selbst die packt viele aktuelle Spiele noch super in voller Auflösung problemlos. (z.B. TRA alles Full mit 2xAA)

man kann auch übertreiben.
Für einen 30 Zoller reicht EINE 9800GX2 noch locker aus. Ohnehinn werden die Karten (also die X2 und die 280) Genug power für 20x Crysis auf extrem high und bei 2560x1600bringen. (Ok vl. ein bisschen übertrieben) Aber trotzdem sollte man nicht ü+bertreiben mit der Leistung. bei den grafikkarten ist dann sowieso der Prozi der Flaschenhals
 
Desoxyribo schrieb:
habs darauf bezogen dass Project-X die DualGPU karten schlechtredet und anscheinend nie mikroruckler gesehn hat, aber selber ne 3870X2 hat;)

sorry den bezug auf die mikroruckler hab ich nicht aufgegriffen

naja hab auch schon einige sli-systeme sehn können und ich hab erst verstanden was mikroruckler sind, nachdem man sie mir an 3dmark vorgeführt hat, sprich wenn die kamera flüssig durch die gegend schwenkt
bei spielen hab ich überhaupt keinen unterschied gesehn denn da gibts selten so flüssige kamerafahrten
wenn man nicht weiss was mikroruckler sind, bemerkt man sie eh nicht
für mich steht einzig und allein die kompatibilität mit spielen im weg
mikroruckler sind was für bürokraten :freaky:
 
Saintscar schrieb:
sorry den bezug auf die mikroruckler hab ich nicht aufgegriffen

naja hab auch schon einige sli-systeme sehn können und ich hab erst verstanden was mikroruckler sind, nachdem man sie mir an 3dmark vorgeführt hat, sprich wenn die kamera flüssig durch die gegend schwenkt
bei spielen hab ich überhaupt keinen unterschied gesehn denn da gibts selten so flüssige kamerafahrten
wenn man nicht weiss was mikroruckler sind, bemerkt man sie eh nicht
für mich steht einzig und allein die kompatibilität mit spielen im weg
mikroruckler sind was für bürokraten :freaky:

ist schon ok:)

Vulture_Culture schrieb:
man kann auch übertreiben.
Für einen 30 Zoller reicht EINE 9800GX2 noch locker aus. Ohnehinn werden die Karten (also die X2 und die 280) Genug power für 20x Crysis auf extrem high und bei 2560x1600bringen. (Ok vl. ein bisschen übertrieben) Aber trotzdem sollte man nicht ü+bertreiben mit der Leistung. bei den grafikkarten ist dann sowieso der Prozi der Flaschenhals

naja, wenns eine mit 1.5Gb speicher gäbe schon, sonst nicht. der geht ja schon bei 1650x1080 der Speichersaft aus.
 
Eine GTX 280 reicht gerade mal für 30", würd ich sagen, wenn man einigermaßen hohe Ansprüche hat.

@ Unyu
Ich nicht, ich kenn nur TSSAA ;).
 
Bin gespannt auf die neuen Karten.

Hab mir gerade nen 24er Moni bestellt.
Erstmal sehen wie gut die 8800GTX damit fertig wird.

Falls es nicht mehr reicht, gibts bei mir im Herbst nach 2 Jahren wiedermal ne neue Graka
und die 8800GTX kommt in den Bastel-PC :D

Gruss Seft
 
Lübke schrieb:
@Desoxyribo: 2 x 9800gx2 können auch nur auf 512 mb zugreifen... je gpu halt... wenns dir darum geht, die 8800gt mit 1024 mb kostet grad noch knapp 130,- € ;) ok, war nur spass^^


ich glaube du weisst genau wie ich das gemeint habe;)
 
ich bin selber ein besitzer einer x2 und die microruckler fallen mir genau in zwei spielen auf: bioshock und ut3.
ich würde mir sofort wieder eine x2 kaufen, da der preis total fair ist und die leistung für mich akzeptabel ist. crysis aufn 19zöller mit 2xAA alles auf high ausser shader und postprozessing mit 25-40fps.
ich hoffe das ati mal wieder die krone holt und nvidia entlich von den monsterchips runterkommt und dual gpu's vordert. wenn nämmlich nv so richtig dual gpus herstellt werden auch schnell die spiele mehr performance bringen da ja alles itmtbp ist.
 
die 4870x2 dürfte so brachial schnell sein, dass man kaum in gefahr kommt unter 30 frames zu fallen von daher ist dieses microruckler gedöns doch eh nur hypothetisch und nicht zu sehen.

tatsache ist aber nun mal, dass nvidia NICHT schnell kontern kann. wie nun des öfteren erklärt wurde ist eine dualgpukarte mit dem GT200 nicht möglich und nvidia hat es aus den bekannten strom und hitzeproblemen auch nicht vor.

der g92 ist ausgelutscht und nicht mehr zu steigern, selbst der g92b verspricht keine steigerung, die 9800GT wird gleich getaktet sein wie ne 8800GT und kaum schneller werden.

zum anderen kann nvidia auch die preis nicht mehr groß senken, da man mit dem g92 jetzt schon äußerst knapp kalkuliert.

also braucht nvidia nen neuen kleineren chip,den man auch für ne dualkarte verwenden kann, aber der steht auch net an, da sämtliche entwicklung in die gt200 gesteckt wurde und laut aussage von nvidia der g92 noch ein jahr laufen soll.

dann steht aber im winter schon der r800 in 40 oder 45 nm an.

also siehts net so doll aus für nvidia und erklärt auch vielleicht die aggressivität, mit der deren ceo so letzte zeit verbal "glänzt" *g*
hunde die bellen, beißen eben nicht ;)

atis aussage vor einigen wochen im sommer bei den diskreten grakas bei über 50% zu liegen ist meiner meinung nach sehr wahrscheinlich.
war im jahr 2006 vor dem g80 auch so und soo lange ist das ja nun auch noch net her.

ich würd im moment alles auf ati wetten ;)

PS und selbst nvidia kann es sich kaufmännisch nicht auf dauer erlauben pro gpu verlust zu machen, nur um marktanteil halten zu können, so wie es mit der 8800GT war.
 
XD cosmicparty du würdest IMMER auf ati wetten :D
und dass der g92 ausgelutscht sein soll bei 675mhz, wo asus und co 740mhz varianten im angebot haben glaubst du ja wohl selbst nicht^^
http://geizhals.at/deutschland/a300261.html
http://geizhals.at/deutschland/a308098.html
http://geizhals.at/deutschland/a305247.html
und das sind sogar noch die "alten" in 65nm...
die billigste g92-karte kostet aktuell übrigends 66,- €
http://geizhals.at/deutschland/a334640.html
und das sind mit sicherheit keine altbestände, da die grad erst raus ist ;)
 
Zuletzt bearbeitet:
@ lübke: das ist ne umbenannte 8800GS und das sind defekte g92 chips, die so noch unters volk gebracht werden ;)

also doch altbestände *g*

und was sollen die links zu ollen 8800GTS die 250€ kosten? *g* neue übertaktete 8800GTS heißen doch nun 9800GTX ;)

meinste damit kannste ne 4850 für 180€ (on das mit dem 156€ in holland stimmt, mag ich net beurteilen) schocken? ;)
 
Zuletzt bearbeitet:
Desoxyribo schrieb:
Bevor du diesen spruch losgelassen hast hättest du lieber mal deine eigene signatur ansehen sollen, die deiner aussage nach warscheinlich ein fake ist

Warum soll dies denn ein Fake sein? Ich hab mir eine HD 3870 X2 geholt weil ich Sie für unter 200€ bekam und dies sogar MIT denn 100€ teuren EK WaKü drauf Montiert.

Es heisst doch nicht das jeder der ein CF/SLI Config hat gleich Mikroruckler vors Gesicht bekommt?!
Ich habe selbst noch nie bemerkt, aber oft gelesen.

Ich verstehe nicht warum man die sachen die man besitzt immer loben muss?
Lieber die wahre Meinung über dinge reden die man schon selber erfahrungen hat als dinge die man noch nie vors Gesicht bekam.

Ich hatte vorher eine 8800GTS, wegen gewisse gründen habe ich zur eine 8800GT gewechselt.
Die Perfomance Unterschied sind leicht spürbar, z.b. ca. 20% langsahmer in Assasins Creed.
Diese Angaben wurden NUR GESCHÄTZT! Mit der HD 3870 X2 jetzt spüre ich ca. gleichwertige Leistung wie eine 8800GTS bzw. etwas schneller.
Aber nicht diese Leistungssteigerung die ich mir erhofft habe, und deswegen auch meiner Meinung zur denn Dual GPU's GraKas.
 
Also wird keine GX2 mit den 280 Chip die Welt erblicken? Wenn der Preis stimmt würde ich doch eher zur einer 4000 X2 greifen.
 
@cosmicparty: das dient nur der veranschaulichung mit den 740mhz, damit dus auch glaubst ;) die sind in der herstellung auch nicht teurer als die billigste version, und die liegt deutlich unter 180,- € ^^
sone gpu auf dem pcb der 8800gtx würd ich mir mal wünschen. die gtx ist mit ihrer "lahmen" g80-gpu ja schon etwa gleichschnell wie die 4850...
 
Zuletzt bearbeitet:
@lübke: das sind oft handselektierte chips. dann wirds teuer
jeder chip läßt dich anders takten aufgrund der herstellung, manche gehen eben auch höher.

ich gebe zu bedenken, warum denn zBdie 9800GT nicht schneller getaktet wird als ne 8800GT.

der g92 ist ausgelutscht, da passiert nix mehr. aus ner höhergetakteten 8800GTS wurde ne 9800GTX (mal wieder nvidiaverarsche) und aus ner geshrinkten 8800GT wird ne 9800GT.

natürlich wird es immer handselektierte chips geben, die n bissle höherlaufen, aber eben mit gutem aufpreis.
ne 280 soll 200$ mehr kosten als ne 260.... warum? eben weil dort alles funktioniert, die leicht "beschädigten" chips werden 260er

ist bei ati aber auch so, die perfekten chips werden zur 4870, da kostet der aufpreis aber bei weitem weniger
 
Zuletzt bearbeitet:
seine eigene Dual GPU Karte mit einer Singel GPU von der Konkurenz zu vergleichen ist sowas von arm.

eine Woche später stellt nVidia ihre eigene Dual GPU vor und ATi kann sich wieder in die Ecke stellen. Also ich find eide ATi GPU Karten sinnlos, da man mit einer Single nVidia sinnvoller bedient ist...

Die Single GPUs von ATi mache sinn weil sie günstig sind, aber alles andere nene.. was ist aus ATi nur geworden...

schade wirklich....
 
falls nvidea eine gx2 bringen sollte, dann sicherlich doch nicht basierend auf 2xgtx 280, oder? die alte gx2 basiert ja auch nicht auf 2x 88/98gtx. 2x gtx 260 nach die shrink wäre imho noch wahrscheinlicher. glaube aber auch nicht, dass eine gx2 kommt. eher eine ultra 280.
 
Zurück
Oben