News Radeon HD 4870 X2 schlägt GeForce GTX 280?

@ unyu: selbst ein shrink geht nicht immer weiter, irgendwann limitiert die atomgröße.

es wird im moment an 32 nm geforscht, aber das wird noch jahre dauern, das relativ naheliegendste ziel ist ati 40-45nm in nem halben jahr.

bei weiteren shrinks müßten auch erst neue fabriken gebaut werden. amd plant eine 32nm fabrik in new york, aber der bau hat noch net mal begonnen.

davon abgesehen ist ati im die-shrink wohl besser als nvidia, also das ist nun wirklich keine sorge für ati, dass nvidia da überholt *g*
 
@cosmicparty

mir gehts net um ati vs nvidea sondern ums spekulieren was passieren könnte. wie gesagt, am wahrscheinlisten aus meiner sicht ist
1. ultra 280 (55nm)
unwahrscheinlich
2. gx2 260 (55nm)
und sogut wie ausgeschlossen
3. gx2 280 (55nm)
4. gx2 280 (65nm)

würde mich freuen, falls die x2 die gtx 280 schlagen würde (da wir, die kunden, davon profiteren). genauso würde ich mich über einen konter auf die x2 von nvidea freuen.
 
cosmicparty schrieb:
@orbmuk2K: ist dir bekannt, dass ati dran arbeitet (mache glauben mit dem r770 wäre es schon so, andere meinen erst mit dem r800), dass die gpus auf EINEN speicher zugreifen können?

Vermutlich nicht nur ATI, aber mit dem R700 wage ich zu behaupten dass es noch nicht kommt.

Aber man sollte auch hier bedenken das jede GPU andere Sachen im Speicher brauchen könnte und es niemals vergleichbar mit einer SingleGPU wäre die das Frame einfach nur schneller abliefert. Effektiv wird der Speicherverbauch also nahezu linear mit der Anzahl der GPU's ansteigen.

NVIDIA hat doch mit dem GT200 bewiesen dass die Leistung durch Erhöhung der Shaderanzahl besser skaliert als 2GPU's mit halber Shaderanzahl.

Auch wenn NVIDIA jetzt sagt dass sie auf den selben Zug aufspringen werden wie ATI heisst das nicht dass es auch die bessere Technik ist. Es heisst nur das es wirtschafftlicher ist.

Ich denke Intel ist mit Larabee gar nicht so verkehrt eingestiegen ;-)
 
cosmicparty schrieb:
@cnq: an eine ultra kann nvidia denken, wenn die auf 55nm geshrinkt haben, mit der kommenden version wirds net gehen.
woher beziehst du diese informationen?
@ nWarrior: ich denke du bist lächerlich, wer atis politik als lächerlich differmiert und gleichzeitig nvidias verarschpolitik gutheißt ist doch n bissle.....
sorry aber bleib einfach bei den tatsachen
du machst dich lächerlich mit deiner amd-ist-super-und-nvidia-schlecht-masche
diese geschickte vermarktung kann ati/amd genau so gut, da schenken sich beide nichts
es sind alles gewinnorientierte unternehmen die nicht das sozialamt spielen
aber ok, du bist bestimmt noch sehr jung und mußt noch viel lernen im leben *g*
du hast es eben schwer im moment, ich versteh das ja =)
bleib einfach sachlich oder lass das posten
du reisst immer derbe das maul auf und machst andere dumm an
dabei hasst du selbst anscheinend noch viel zu lernen,, oder wie war das im thread "Finale Taktraten der GeForce GTX 280/GTX 260?"
 
isigrim schrieb:
Das mit den Grafikkarten und den Diskussionen darum ist interessant.
Wer braucht solche Karten? (4870x2 und gt 280) Doch nur High-End Spieler, die auf ihrem 30" Monitor irgendein Hochglanz-Spiel spielen wollen. Als Beispiel sei hier Crysis erwähnt........aber wer spielt denn die ganze Zeit Crysis? Für wieviele Spiele braucht man momentan die schnellsten Karten auf dem Markt(3870x2 und 9800 gx2)? Wieviel Prozent der Computernutzer (ich meine hier nicht nur Spieler) kaufen sich solche Karten?
Wieso erzeugen solche Meldungen also so einen Aufruhr? Wartet doch einfach erstmal die Benchmarks ab...so lange dauert das nicht mehr.
Auch das mit dem Stromverbrauch wird sich dabei erst noch zeigen müssen. Das Rechnen in TDP Werten ist in etwa so unsinnig, wie bei einem Auto den Spritverbrauch anhand von Vollgasfahren anzugeben. Das macht niemand.....Einen Großteil der Zeit ist so ein Rechner doch im idle. Es kommt also letztlich auf Durchschnittswerte an.
TDP -werte sind nur was für die Hersteller von Kühllösungen.

Also nochmal: Abwarten und Tee trinken. Das beruhigt die Nerven! (Außer Schwarztee)

genau meine meinung. ausserdem glaube ich das ich nicht der einzige bin der Crysis durchgezockt hat, den multiplayer kann man ja vergessen. Langsam wirds langweilig

cosmicparty schrieb:
@ unyu: selbst ein shrink geht nicht immer weiter, irgendwann limitiert die atomgröße.

technisch gesehen ist 0.02nm möglich, erst dann müsste man sich nen anderen stoff besorgen. die Siliziumtechnik ist noch laaaaaaange nicht ausgeschöpft.

cosmicparty schrieb:
bei weiteren shrinks müßten auch erst neue fabriken gebaut werden. amd plant eine 32nm fabrik in new york, aber der bau hat noch net mal begonnen.

davon abgesehen ist ati im die-shrink wohl besser als nvidia, also das ist nun wirklich keine sorge für ati, dass nvidia da überholt *g*

naja ne ganze fabrik musst du für nen shrink nicht bauen, nur son automaten (sind so gross wie n Hummer H2). kostet aber auch relativ viel, davon könntest du in china sicher ne fabrik eröffnen:D

Greetz
 
so wie ich gelesen habe werden die Gt260/280 die letzten single gpu karten, die next gen. nvidia grafikkarten sollen von nun an multi gpu karten werden.
ich denke da ist was dran.
 
@cnq: ja genau so seh ichs auch, mit dem shrink auf 55nm wird nvidia n bissle höher takten können und ne ultra bauen, für dualgpu karten ist der chip trotzdem zu groß und stromfressend.

davon abgesehen, würde ich niemanden zu ner 260/280 raten, weil der shrink auf 55nm schon in 2 monaten passieren soll, und dann sind die käufer wieder die gearschten.
 
@ bensen:

wieso ich drauf komme, dass ich vermute eine ultra wird es mit dem GT200 nicht geben?
sondern erst mit dem GT200b?

kann ich dir erklären. weil nvidia aufgrund der hitze und des stromverbrauchs den chip bei weitem nicht so hoch takten kann, wie sie es erhofften.

beiweitem niedrige taktung als der g92.

und erst ein shrink auf 55nm wird eine höhere taktung erlauben.... mit glück.

logisch, oder? =)
 
du mutmaßt. du weisst gar nichts genau, weder die max. mögliche taktfrequenz noch die wärmeentwicklung.
es ist genauso möglich das noch reserven da sind und eine ultra möglich ist. es ist auch möglich das ein shrink viel später kommt oder gar nicht.
du stellst immer spekulationen als tatsachen dar

das ein shrink mehr spielraum lässt sollte allgemein klar sein
 
oje,ich sollte hier nema lesen, da kriegt man ja nur noch die ***

Orbmu2k schrieb:
Eine DualGPU Karte schlägt Single Karte ... mhh ok nix besonderes.

1x 250W TDP vs. 2x160W TDP (320W)
1x GTX280 650$ vs. X2 ~700$ (2x350$)

+ Mikroruckler Problem
+ Teilweise Mangelnde MultiGPU Unterstützung
+ Redundanter Speicher (Kosten + Strom)

Dann wird die Karte viellleich 15% schneller sein, da kommt NV eben mit der GT200b mit höherem Tak und GDDR5 und hat auch 15% mehr und das alles bei weniger TDP und weniger Kosten und ohne bekannte MultiGPU Probleme.

Wenn ATI und NV es endlich mal schaffen würden echtes MultiGPU zu bieten würde ja keiner was sagen. Sprich Shared VRAM, Sync FPS etc ...

wo haste denn die schwachsinnigen Vorstellungen her? weder die TDP kann man verdoppeln, noch den nicht bestätigten Preis.. ich verwette meinen Hintern drauf,dass die X2 günstiger sein wird,als die GTX280, außer sie wird wirklcih brachial schneller.

Orbmu2k schrieb:
Hab auch nen 30" und warte schon sehnsüchtig auf die GTX 280. Die sollte hoffentlich reichen ... falls nicht kommt halt ne 2. oder 3. dazu. ;-)

Aber mal ganz ehrlich ... ich habe aktuell ne 9600GT am laufen und selbst die packt viele aktuelle Spiele noch problemlos in voller Auflösung. (z.B. TRA alles Full mit 2xAA)

und wieso dann keine X2? nur weil ATI drauf steht,was..weil vor Mutli gpu scheinste ja keine sorgen zu haben,wenn du zwei bis 3 Kraftwerke rein stecken willst...

michi12 schrieb:
Eine Dual-Karte mit Crossfire und Multi-GPU Probleme (Microruckler) schlägt eine single-Chip Karte.
Dass ist doch nix besonderes. Die 3870x2 schlägt auch die 8800 gtx.
Und was passiert wenn Crossfire nicht unterstützt wird ?
Die 3870x2 kack ab und dass Spiel ist nicht spielbar.

Wenn dann sollte man vergleichen:
4870x2 vs. 2x GTX280 @SLI

Und dann sieht es schon wieder ganz anders aus, und ATI wird in den Boden gestampft :D.

Die sollten wenn dann schon Multi-CORE-GPUs rausbringen.
Aber bitte nicht diese möchtegern pseudo Crossfire verschnitte.

Und wer dass Geld hat, eine 4870x2 zu kaufen, der kauft sich lieber 2x GTX280/60 und steht damit besser :D

Abwarten auf die Tests, dann kann man mehr sagen ;)

Jo und zahlt ca 1200euro gegen 500euro..junge,denk mal mit..und was ist das für ne aussage? pseudoCF verschnitt? aber 2 GTX280 reinbaun,wo SLI eigentlihc sogar noch schwachsinniger ist..mensch, wie grün kann deine Brille nur sein.

DiamondDog schrieb:
seine eigene Dual GPU Karte mit einer Singel GPU von der Konkurenz zu vergleichen ist sowas von arm.

eine Woche später stellt nVidia ihre eigene Dual GPU vor und ATi kann sich wieder in die Ecke stellen. Also ich find eide ATi GPU Karten sinnlos, da man mit einer Single nVidia sinnvoller bedient ist...

Die Single GPUs von ATi mache sinn weil sie günstig sind, aber alles andere nene.. was ist aus ATi nur geworden...

schade wirklich....


was ist hier schade...ey,i kann mir nur wiederholen,aber ich lasse es... Genau wegen sowas ist mom Nvidia marktführend.. Wenn man nen Laien fragt,welche Graka, dann sagt er egal in welchem preissegment Nvidia,die sind doch schneller..son schmarn
 
@ besen: was du mutmaßen nennst, nenne ich zusammenfassen der verschiedensten informationen im netz.

wenn die die-größe und der stromverbrauch und die abwärem doch keine probleme verursachen würde, warum taktet nvidia den gt200 denn wesentlich niedriger als den g92?

ich mutmaße nicht, ich beschreibe nur berichte anderer medien, ich erfinde nichts sondern zitiere im prinzip nur und auf wunsch werd ich auch verlinken als "beweis" *g*
 
@kehrblech
nur weil der chip niedriger taktet muss er doch nicht am limit sein
große chips gehen eben weniger weit. warum soll nvidia keine reserve einberechnet haben?
der G80 hat auch niedrig getaktet, trotzdem war ne ultra möglich

und wenn man gerüchte zusammenfasst bleiben es gerüchte ;)
 
alt schrieb:
DAS IST DOCH ALLES KÄSE !! MIR IST DAS SOWAS VON SCHNUPPE WER SCHNELLER IST.

Überlegen wir mal anders. Sind die "next" Graka Krücken ala ATI und Nvidia denn nun im Stande bei einem Spiel wie Crisis die Qualität auf High gestellt zudem eine Auflösung sagen wir mindestens 1280*1024 bei Einstellung 16 AF und 8 AA flüssig unter direct x 10 zu zocken ?

Sprich 200 oder 300 FPS !!!
Bitte nicht übel nehmen, aber wäre in deinen Fall nicht ein Update deiner Augenfunktion angebracht wenn die erst ab 300 flüssig laufen ähm sehen ;-)
 
@benson: was würde denn eine höhere taktung bedeuten?
vielleicht "kann" der chip mehr, aber die nvidialeute sagen, bei 240 watt muß schluß sein. irgendwann stößt man an grenzen und diese stromgrenze kann man eben nur durch einen die-shrink wieder ein wenig überlisten ;)

also gibts ne ultra erst mit dem gt200b, der aber ja auch schon in 2 monaten kommen soll.... von daher nochmal, wer sich n gt200 in 65 nm kauft ist selber schuld, wenn er 2 monate später feststellt, er hat oldie-technik gekauft ;) und das für 650$ *g*
 
Zuletzt bearbeitet:
Schinzie schrieb:
oje,ich sollte hier nema lesen, da kriegt man ja nur noch die ***
wo haste denn die schwachsinnigen Vorstellungen her? weder die TDP kann man verdoppeln, noch den nicht bestätigten Preis.. ich verwette meinen Hintern drauf,dass die X2 günstiger sein wird,als die GTX280, außer sie wird wirklcih brachial schneller.



und wieso dann keine X2? nur weil ATI drauf steht,was..weil vor Mutli gpu scheinste ja keine sorgen zu haben,wenn du zwei bis 3 Kraftwerke rein stecken willst...

Das war nur zum veranschaulichen, ...das ihr immer die Werte auf die Goldwage legen müsst... , aber bis die X2 kommt (August?) ist die GT280 auch im Preis gesunken und glaub mir einfach die X2 wird dann mehr kosten wenn sie auch nur nen Hauch schneller ist. Das mit der TDP ist klar aber sie wird (je nach Taktung) die doppelte Leistung ziehen wie eine 4870 und das ist dann auch mehr als die GT280 in der Realität zieht.


Mein Meinung über MultiGPU kann man hier aus dem Thread gut erkennen, wenn es ne ausgereifte Technik wäre käme es in Frage ansonsten nicht.

Beim Triple SLI habe ich wohl das Ironie Tag vergessen sorry, aber 1200€ oder gar 1800€ für Grafikkarten geht dann doch zu weit. Ich muss für mein Geld auch arbeiten und das ist es mir nicht wert.

Eine GTX280 gönne ich meinem 30" (Spare ja schon fast 2 Jahre [8800GTX]) aber alles andere bewegt sich jenseits von gut und böse.
 
@ orbmu2K: ein 2 jahre alter 30er? nun wäre mal die frage interessant, inweitweit sich der monitor überhaupt für schnelle games eignet ;)

ich vermute mal, der limitiert dann doch

und nochwas, falls du die diskussion verflogt hast, mußt du leider feststellen, dass ati eine 4870x2 günstiger herstellen kann, als nvidia ne GTX280 ;)

also wirds kaum preisvorteile von nvidia geben *g*
 
Ok Ati gewinnt mit der HD 4870 X2 gegen die Geforce 280GTX .... bei dem ein oder anderen Game.
Das sei den Canadiern auch mal gegönnt !
 
cosmicparty schrieb:
@ orbmu2K: ein 2 jahre alter 30er? nun wäre mal die frage interessant, inweitweit sich der monitor überhaupt für schnelle games eignet ;)

ich vermute mal, der limitiert dann doch

und nochwas, falls du die diskussion verflogt hast, mußt du leider feststellen, dass ati eine 4870x2 günstiger herstellen kann, als nvidia ne GTX280 ;)

also wirds kaum preisvorteile von nvidia geben *g*

Der Monitor ist sogar noch etwas älter, ich meinte eher die 8800GTX.

Zum Spielen ist der absolut genial, AC oder TRA mit Gamepad aus 50cm Entfernung. :-P
Aber auch für schnellere Spiele ist der Monitor mit 16ms schnell genug. Force VSync ist natürlich Pflicht bei dem Teil.

Also ich denke auch die ATI X2 kostet ihr Geld man braucht ja nicht nur 2 GPU's sondern auch den doppelten GDDR5 Speicher der noch recht teuer sein dürfte und das PCB ist dann auch viel komplexer.
 
Orbmu2k schrieb:
Vermutlich nicht nur ATI, aber mit dem R700 wage ich zu behaupten dass es noch nicht kommt.

es ist unwarscheinlich, aber technisch gesehen möglich, also optimistisch bleiben:)

Orbmu2k schrieb:
NVIDIA hat doch mit dem GT200 bewiesen dass die Leistung durch Erhöhung der Shaderanzahl besser skaliert als 2GPU's mit halber Shaderanzahl.

woher willst denn du das wissen ? oder hast du bereits ne GT280 ?;):freak:

Orbmu2k schrieb:
Auch wenn NVIDIA jetzt sagt dass sie auf den selben Zug aufspringen werden wie ATI heisst das nicht dass es auch die bessere Technik ist. Es heisst nur das es wirtschafftlicher ist.

nur weil AMD diese richtung eingeschlagen hat heisst es nicht das die technologie schlecht ist. Sie ist noch nicht völlig ausgereift.

Orbmu2k schrieb:
Ich denke Intel ist mit Larabee gar nicht so verkehrt eingestiegen ;-)

das habe ich von anfang an gesagt.

bensen schrieb:
@kehrblech
nur weil der chip niedriger taktet muss er doch nicht am limit sein
große chips gehen eben weniger weit. warum soll nvidia keine reserve einberechnet haben?
der G80 hat auch niedrig getaktet, trotzdem war ne ultra möglich

der chip ist aber am limit, ausser du benutzt LN2. Auf einer seite ist gestanden das der GT280 sogar noch etwas schlimmer ist als die 8800GT im referenzkühler: der chip wird bis zu 102° warm. Die 8800Ultra benutzt den gleichen kühler wie die GTX, versuch das mal mit nem chip der schon bei standarttakt über 100° wird. Die ultra könnten sie nur rausbringen mit sonem waküset wie dei Sapphire HD3870X2 Atomic, was den preis aber in solche höhen befördern wird das es sich nicht lohnen würde.

Orbmu2k schrieb:
Also ich denke auch die ATI X2 kostet ihr Geld man braucht ja nicht nur 2 GPU's sondern auch den doppelten GDDR5 Speicher der noch recht teuer sein dürfte und das PCB ist dann auch viel komplexer.

der speicher kostet nicht soviel wie alle denken, wieviel weiss ich zwar nicht aber nicht viel mehr als GDDR3. das PCB bleibt genau gleich, guck dir die 3870X2 an. Der preis wird unter dem preis zweier 4870er liegen. 2 4870er kosten ca. 660$ -> 400€ + steuern usw = 430€, demnach dürfte die 4870X2 so um die 400€ kosten, die GT280 wird um die 600€ kosten, was aber auf 630 ansteigen kann wegen den lieferengpässen welche es garantiert geben wird. demnach kosten zwei GT280 ca. 1260€, davon kauft man sich ja 3x 4870X2, welche garantiert schneller sind als 2x GT280.

Greetz
 
Zuletzt bearbeitet:
Zurück
Oben