News Radeon HD 4870 X2 schlägt GeForce GTX 280?

durchschnitt der heutigen kommentare in den news: 16
kommentare unter dieser news: 100

wie lustig es doch immer ist, wenn amd vs nvidia/intel antritt. :D
 
Sgt.Speirs schrieb:
Bin gespannt wie Nvidia dann 1.4 Mrd. Transistoren auf das/den Die bekommen möchte^^

Der Nachfolger des GT200 wird eine andere Architektur haben. Da werden die Karten wieder neu gemischt, zumindest für Nvidia...

Nun ja - ich glaube kaum dass sie vom 65nm GT200 eine Dualkarte bringen. Sicherlich vom 55nm Refresh - der hat dann vll "nur" noch 1 Mrd Transistoren. :freak:

Gut, danach wird auch nV im Enthusiastensektor nur Multicore oder Multi DIE Lösungen bringen, ATi sicher auch.
 
Zuletzt bearbeitet:
@BIG_MAC: da spricht ein wahrer experte in sachen kühlung
selbst die 2900xt ließ sich problemlos mit luft kühlen und die hatte nicht einmal stromsparmechanismen^^ und die hat schon ne tdp von 215 watt... wo bitte sollte also das problem liegen 235 watt (also nur 20 watt mehr) mittels wakü zu kühlen?^^ einfach auf jede gpu ein kühler und gut ist...
einige übertreiben wirklich...
aber für alle, die sich für ihre stromrechnung interessieren wäre die karte ein absolutes nogo...

Ich rede ja nicht von 1 GTX 280 , die 235 Watt TDP hat , sondern von einer GX2 Version , wie sie von einigen Prophezeit wird . Nur hätte diese dann eine TDP von 450 Watt . Und ein anderer Weg so ein Ding zu kühlen außer LN2 ist mir da jetzt nicht eingefallen .

Edit : Ich hab gerade das Zitat der Woche gefunden , dass kommt jetzt in meine Sig .
 
@Unyu:
Genau, gut dass du es ansprichst.
Ich hoffe ja mal stark, dass V-Sync an + Prerender Limit 0 endlich wieder funktionieren wird!
Das war bis zur GeForce 7xxx der Fall, ab der 8er und 9er-Reihe gibt es da immer Systemcrashes.

Grüße
 
BIG_MAC schrieb:
Edit : Ich hab gerade das Zitat der Woche gefunden , dass kommt jetzt in meine Sig .

das haben schon 10 andere forumuser in ihrer signatur...
 
Also, trotz das es mich etwas mühe macht hier wieder etwas herein zu schreiben (Wegen der neuen Layout im vergleich zur früheren CB bei dem es direkt ein Antwort Button gibt) muss ich wohl oder übel hier mein Senf dazu geben.

Ich finde es einfach nur lächerlich das hier soviele Leute jammern was der Stromverbrauch jetzt angeht.
Sicher wird der GTX280er und der GTX260er viel Strom schlucken, aber Ihr denkt doch nicht tatsächlich das es auch Permanent über 200 Watt zieht? :freak:

Wenn ich mich erinnere waren da ja auch mal eine rede von AMD / Intel mit Ihren TDP angaben bei dem man gelernt hat das TDP nicht gleich TDP ist.

Bei denn heutigen Radeon HD 3870er Karten schlucken die im 3D Modus auch eine menge mehr als nVidias 9600GT bzw. 8800GT, und ist noch langsahmer.
Ausser dass die PowerPlay Funktion dies wieder gut macht.

Und das ein Dual Chip Grafikkarte ala HD 4870 X2 ein GTX 280 schlägt ist doch keine wirkliche Innovation, oder was denkt Ihr denn? Erst wenn die Games wirklich anstandslos die Dual Chip Grafikkarte mit eine Effizienz von mind. 80% erreicht kann ich von "meiner Meinung" behaupten das dies klar geht.
Ich finde 80% auch nicht gerade hoch, aber 100% erwarte ich nicht.
Denn die heutigen GraKas haben ja noch diesen Mikroruckler problem (Von dem ich selbst noch nicht gesehen habe) bzw. die Speicher die vereinzeln sind, also nicht als eine Einheit Grafikkarte sondern als mehrere angesehen werden soll.

Ich verstehe allerdings voll das ATI Ihre neue Grafikkarten nicht so teuer anpriesen kann wie ein nVidia GTX200er Karte. Denn im Single verlieren Sie dies wie es aussieht, dementsprechend muss die Grafikkarte für Ihren Preis auch gerecht sein.
Aber ich denke nicht das jeder hier schnell 500-600€ auf die Seite hat für eine GraKa, deswegen wird die ATI HD48er wohl besser einschlagen.

Soviel zur meiner Meinung... so long...
 
ich verstehe nicht, warum bei der tatsache, dass erst die x2 besser sein könnte als die nvidia karten, die rede von "es sieht gut aus für ati" ist ?
es ist eine selbstverständlichkeit, dass eine dual-gpu version einer karte, schneller sein sollte als die beste single-gpu der konkurrenz
denn andernfalls bräuchte die single-gpu variante gar nicht zu existieren, da sie wettbewerbsunfähig wäre...
zumal sli und cf immer mit soviele rumgefriemel und ärger verbunden sind, dass ich ne ordentliche single-gpu lösung jederzeit vorziehe
die ati karten sind vom preis her trotzdem interessant
 
Eine DualGPU Karte schlägt Single Karte ... mhh ok nix besonderes.

1x 250W TDP vs. 2x160W TDP (320W)
1x GTX280 650$ vs. X2 ~700$ (2x350$)

+ Mikroruckler Problem
+ Teilweise Mangelnde MultiGPU Unterstützung
+ Redundanter Speicher (Kosten + Strom)

Dann wird die Karte viellleich 15% schneller sein, da kommt NV eben mit der GT200b mit höherem Tak und GDDR5 und hat auch 15% mehr und das alles bei weniger TDP und weniger Kosten und ohne bekannte MultiGPU Probleme.

Wenn ATI und NV es endlich mal schaffen würden echtes MultiGPU zu bieten würde ja keiner was sagen. Sprich Shared VRAM, Sync FPS etc ...
 
@BIG_MAC: ich denke mal dass sich auch ein 2900xt cf mit wakü kühlen lässt... das sollte als maßstab ganz gut passen... und dann war da ja noch das ding mit dem die-shrink... ich denke schon dass nv noch eine gx2 raushaun wird und wenns nur aus posergründen ist

Ich habe ja nur mit etwas Ironie beschrieben , wie man eine GX2 Karte von dem GT 200 mit einer 2 Slot oder 1 Slot Kühlun kühlen könnte . Aber eine HD 2900 XT X2 , wenn es sie gegeben hätte , hättest du aber auch nicht so leicht gekühlt .
 
Project-X schrieb:
Und das ein Dual Chip Grafikkarte ala HD 4870 X2 ein GTX 280 schlägt ist doch keine wirkliche Innovation, oder was denkt Ihr denn? Erst wenn die Games wirklich anstandslos die Dual Chip Grafikkarte mit eine Effizienz von mind. 80% erreicht kann ich von "meiner Meinung" behaupten das dies klar geht.
Ich finde 80% auch nicht gerade hoch, aber 100% erwarte ich nicht.
Denn die heutigen GraKas haben ja noch diesen Mikroruckler problem (Von dem ich selbst noch nicht gesehen habe) bzw. die Speicher die vereinzeln sind, also nicht als eine Einheit Grafikkarte sondern als mehrere angesehen werden soll.

Bevor du diesen spruch losgelassen hast hättest du lieber mal deine eigene signatur ansehen sollen, die deiner aussage nach warscheinlich ein fake ist:

Mein System: TT Kandalf LCS - Special Mod | Antec NeoPower 650W Blue | Acer X243W 24" TFT mit 1920x1200 |
ASUS P5KC | Intel C2Q Q6600 G0 @ 3.71GHz mit WaKü | ASUS Radeon HD3870 X2 mit EK WaKü |
OCZ M.Kit PC2-8000 ReaperX HPC (2x 2GB) | [2x] Samsung SP F1 HD753LJ 750GB |
Creative X-Fi X-Music | Logitech MX Revolution & Z-5500 | MS WinVista64 Ultimate SP1 | "17822" 3DMarks06

Owned:D
 
@Unyu solltest vielleicht mal weiter lesen als die erste Zeile in meinen Post steht genau drin warum und ich bin bei weitem nicht der Einzige der das Problem hat/hatte.Von der Tatsache das bei älteren Spielen seit ner gewissen Treiberversion schöne Texturfehler auftreten ganz zu schweigen.
 
Kohle Intressiert mich nicht.
Werde eh noch ein bischen warten bis der Preis runter geht.

Mich intressiert nur die Leistung. Für 30 Zoll kann man nicht genug kriegen.
Habe jetzt meine 2 9800 GX2 bestellt und mal schauen was die so im SLI bringen.


Sollten die irgendwann zu schwach sein und 2 GTX 280 mehr Leistung bringen werde
ich mir Natürlich diese zu Legen.
 
ohne alles gelesen zu haben

die neue nvidia karte ohne die x2 von ati = y euro
die neue nvidia karte mit der x2 von ati y-y*0.4

alles andere ist doch wayne :)
 
Desoxyribo schrieb:
Bevor du diesen spruch losgelassen hast hättest du lieber mal deine eigene signatur ansehen sollen, die deiner aussage nach warscheinlich ein fake ist:



Owned:D

erklär mir mal bitte wen oder was du nun geowned hast :)

wenn leute ihre ehrliche meinung aus erfahrung weitergeben und nicht alles was sie besitzen anpreisen, ist es nicht immer gefaked
das gibts ab und zu

keine ahnung ob du erfahrung mit sli/cf hast, aber es sollte auch so nachzuvollziehen sein, was Project-X geschrieben hat
oder hälst du es für unglaublich unfassbar und weltbewegend, dass eine dual-gpu jede single-gpu der konkurrenz schlägt oder schlagen können sollte
bloß dass es bei dem problemen die sli UND cf mit sich bringen, schon mehr sein muss als nur schlagen, eher chancenlos vernichten

aber wie gesagt, der preis macht die atis interessant (single, cf und sli kommen mir die nächste zeit nicht in frage)
 
bazooExcalibur schrieb:
Kohle Intressiert mich nicht.
Werde eh noch ein bischen warten bis der Preis runter geht.

Mich intressiert nur die Leistung. Für 30 Zoll kann man nicht genug kriegen.
Habe jetzt meine 2 9800 GX2 bestellt und mal schauen was die so im SLI bringen.


Sollten die irgendwann zu schwach sein und 2 GTX 280 mehr Leistung bringen werde
ich mir Natürlich diese zu Legen.

Hab auch nen 30" und warte schon sehnsüchtig auf die GTX 280. Die sollte hoffentlich reichen ... falls nicht kommt halt ne 2. oder 3. dazu. ;-)

Aber mal ganz ehrlich ... ich habe aktuell ne 9600GT am laufen und selbst die packt viele aktuelle Spiele noch problemlos in voller Auflösung. (z.B. TRA alles Full mit 2xAA)
 
Saintscar schrieb:
erklär mir mal bitte wen oder was du nun geowned hast :)

wenn leute ihre ehrliche meinung aus erfahrung weitergeben und nicht alles was sie besitzen anpreisen, ist es nicht immer gefaked
das gibts ab und zu

keine ahnung ob du erfahrung mit sli/cf hast, aber es sollte auch so nachzuvollziehen sein, was Project-X geschrieben hat
oder hälst du es für unglaublich unfassbar und weltbewegend, dass eine dual-gpu jede single-gpu der konkurrenz schlägt oder schlagen können sollte
bloß dass es bei dem problemen die sli UND cf mit sich bringen, schon mehr sein muss als nur schlagen, eher chancenlos vernichten

aber wie gesagt, der preis macht die atis interessant (single, cf und sli kommen mir die nächste zeit nicht in frage)

habs darauf bezogen dass Project-X die DualGPU karten schlechtredet und anscheinend nie mikroruckler gesehn hat, aber selber ne 3870X2 hat;)
 
Radeon HD 4870 X2 schlägt GeForce GTX 280
Eine Dual-Karte mit Crossfire und Multi-GPU Probleme (Microruckler) schlägt eine single-Chip Karte.
Dass ist doch nix besonderes. Die 3870x2 schlägt auch die 8800 gtx.
Und was passiert wenn Crossfire nicht unterstützt wird ?
Die 3870x2 kack ab und dass Spiel ist nicht spielbar.

Wenn dann sollte man vergleichen:
4870x2 vs. 2x GTX280 @SLI

Und dann sieht es schon wieder ganz anders aus, und ATI wird in den Boden gestampft :D.

Die sollten wenn dann schon Multi-CORE-GPUs rausbringen.
Aber bitte nicht diese möchtegern pseudo Crossfire verschnitte.

Und wer dass Geld hat, eine 4870x2 zu kaufen, der kauft sich lieber 2x GTX280/60 und steht damit besser :D

Abwarten auf die Tests, dann kann man mehr sagen ;)
 
Zuletzt bearbeitet:
Edgecrusher86 schrieb:
Nun ja - ich glaube kaum dass sie vom 65nm GT200 eine Dualkarte bringen. Sicherlich vom 55nm Refresh - der hat dann vll "nur" noch 1 Mrd Transistoren. :freak:
Durch einen Shrink werdens nicht weniger Transitoren, bis auf ein paar Überschüssige, die die Yield anheben.
-> GT200b: 400mm² @ 55nm.

@xxxx
In den Zeilen dadrunter war keinerlei Information.
Link zu den Problemen? (ja Probleme gibts ja immer, hier muss es ja schwerwiegend und weit verbreitet sein, damit du es ansprichst)
 
Zurück
Oben