News Radeon HD 4870 X2 schlägt GeForce GTX 280?

cosmicparty schrieb:
auf deutsch. nvidia hat sich verrannt und ati liegt technisch vorne ;)
wenn nvidia wollte könnten sie ihre chips auch in 55nm produzieren
immerhin fertigt tsmc und nicht amd selber
aspro schrieb:
Und was war dann bitte der G92?
der G98 kam imho vor dem G92
Dieser Satz ist längst veraltet. Sowohl nV als auch ATI werden in Zukunft immer die größten Chips mit der kleinsten Strukturbreite fertigen, was ganz auch ganz logisch ist. 1. hat man die absolut gesehen größten Einsparungen an Chipfläche und 2. natürlich wegen der Leistungsaufnahme. Gerade beim GT200 sieht man ja auch, dass nVidia aufgrund der Größe nicht drumrumkommen wird, den schnellstmöglich zu shrinken.
in der vergangenheit war es zumindest nicht so
wenn deine argumente stimmen, warum wurde der G80 dann in 90nm gefertigt? G73b, G84 und G86 kamen in 80nm
der erste chip in 110nm war auch nen mainstream/lowcost

es ist eben ein großes risiko einen großen chip auf einen "unbekannten" prozess umzustellen
 
bensen schrieb:
wenn nvidia wollte könnten sie ihre chips auch in 55nm produzieren
immerhin fertigt tsmc und nicht amd selber
Wieso sollte nV nicht wollen? Ich glaub kaum, dass sie Spaß mit ihrem knapp 6cm² Chip haben

der G98 kam imho vor dem G92
G92 kam Anfang November, G98 erst irgendwan im Dezember.

in der vergangenheit war es zumindest nicht so
wenn deine argumente stimmen, warum wurde der G80 dann in 90nm gefertigt? G73b, G84 und G86 kamen in 80nm
der erste chip in 110nm war auch nen mainstream/lowcost

es ist eben ein großes risiko einen großen chip auf einen "unbekannten" prozess umzustellen
Vielleicht weil G86 und G84 auch wesentlich später als G80 kamen.
 
Unyu schrieb:
Solltest den Beitrag lesen: Es geht um den Preis: 3850 512 gleichteuer wie 9600GT 512, obwohl diese etwas schneller als die 3870 ist.

Die GeForce 9600 GT ist nicht schneller als die HD3870. Die alten Benchmarks bei CB sind seit dem Catalyst 8.5 Geschichte. Ich habe dir schon mal den Link gegeben, wo die HD-Karten mit dem neuem Treiber unter DX10 deutlich schneller wurden. Genau da hat bei CB die HD-Karte nicht alles rausholen können. Das sieht man auch an dem alten Rating bei CB, wo es noch ein Rating ohne DX10 gab und die HD3870 gut mit der GeForce 8800 GT mithalten konnte.

Entweder nimmst du neuere Benchmarks mit Catalyst 8.5, oder du lässt es ganz bleiben.

Auch ist die HD3870 nicht unbedingt günstiger zu produzieren als eine GeForce 9600GT. Zunächst kennst du die Yeald-Rate nicht. Ein neuer Prozess hat am Anfang meist eine schlechtere Yeald-Rate. Zudem hat die HD3870 einen teureren Dual-Slot-Kühler und teureren GDDR4-Speicher.
 
aspro schrieb:
Wieso sollte nV nicht wollen? Ich glaub kaum, dass sie Spaß mit ihrem knapp 6cm² Chip haben

Ganz einfach, seit der Geforce FX Panne ist nV hier schlichtweg vorsichtiger geworden ;) Die GF4 Ti Serie war in 150nm die GF FX 130nm... seit dieser Zeit bringt nV immer zuerst Low/Mid-Karten in neuer Fertigung.

Die Ablösung des GT200 in Form des GT200b (55nm) dürfte aber recht bald einzug halten. Mit dem erreicht nV dann endlich höhere Taktraten und die Karten werden wieder neu gemischt :)

Eigentlich können wir nur von einem harten Konkurrenzkampf profitieren :) Dann sinken die Preise :cool_alt:

Ich denke nicht das nV mit dem GT200 in eine falsche Richtung gegangen ist, wie hier etliche schon geschrieben haben. nV hat mit relativ wenig Aufwand einen ziemlich Leistungsfähigen Chip auf Basis einer alten Architektur geschaffen, wer würde es nicht so machen wenn die Architektur doch super ist???

ATi hat in der aktuellen Position auch nichts falsch gemacht! Sie müssen mit anderen Mitteln versuchen das Leistungsniveau von nV zu erreichen, da schlichtweg keine Entwicklungsressourcen für einen "Monster-Chip" vorhanden sind.

Komisch find ich nur das ATi neue Karten als Konkurrent zu alten Karten von nV aufstellt... Es wäre mehr als peinlich wenn die neue Serie aktuelle nV Karten nicht schlagen könnte.

Ich seh dem Kampf der Giganten gelassen entgegen :)
 
xxxx schrieb:
Scheint das selbe wie der On-Off Bug der 965/P35 zu sein:
Das Problem sitzt vorm Bildschirm. "Grafikkartenwechsel: PROBLEM GELÖST" - Oh ja defekte Karten gibts immer mal.
Bei AMD läuft immer alles? (ich meine nicht den miesen CF Support oder das fehlende AF) Wahnsinn.

xp_home schrieb:
Die alten Benchmarks bei CB sind seit dem Catalyst 8.5 Geschichte.
Forceware 174.16 ist im Vergleich zum Geforce 175.16 auch nicht der Neueste.
 
Zuletzt bearbeitet:
Unyu schrieb:
Was ist eine Dual Core GPU? :confused_alt:
Entweder du packst mehrere Dice auf ein Package oder ein PCB oder du nimmst einen riesen Chip.

Du hast die Antwort selber gegeben: Mehrere Dies auf einem Package. Also quasi wie beim CPU

Heute: Zwei GPUs auf ein PCB.
Zukunft: 1 GPU, aber mit 2 Dies-->DualCore GPU.

Und wenn den Leuten nicht langweilig wird, packen sie zwei sone DualCore GPUs auf ein PCB--->Quadcore Grafikkarte.

Davon noch zwei in den PC und man hat den Gegner schon erwischt, bevor er um die Ecke kommt :utminigun:

Hab jetzt geblickt, was du mit vergleichbar gemeint hast "von den Produktionskosten her". Wobei das nur bedingt vergleichbar ist.

9600GT Standard mit 512MB

3850 Standard mit 256MB

Mehr RAM kostet eben mehr, wenn die Leute das haben wollen, müssen sies bezahlen. Das ist wieder sone Stückzahl-Sache. Die 512MB 3850 erreicht beim Verkauf wahrscheinlich nicht annähernd die Stückzahlen der 256MB Version. Geringe Stückzahlen-->teurer-->verkaufen sich schlechter-->geringe Stückzahlen usw. Zumal auf den 512MB Versionen fast durchweg kein Referenzlüfter verbaut wird, das macht die Sache auch wieder teurer.

Die 96GT gibts eh nur als 512MB (mindestens), was die Sache am Anfang durchgängig bissl teurer macht, was sich aber durch die Stückzahlen wieder relativiert. Die 1GB Variante ist ja auch teurer als die 512MB, relativ gesehen sogar noch mehr als bei der 3850 (im Durchschnitt). Ist ja auch logisch, weil ne Verdoppelung auf 1GB nunmal mehr kostet als ne Verdoppelung auf 512MB.

Edit: Was meinst du mit fehlendes AF jetzt?

24784ds schrieb:
Komisch find ich nur das ATi neue Karten als Konkurrent zu alten Karten von nV aufstellt... Es wäre mehr als peinlich wenn die neue Serie aktuelle nV Karten nicht schlagen könnte.

Was meinst du bitte? Die 4850 schlägt ne 9800GTX (wird jedenfalls gerüchteweise verbreitet). Und die kam vor einem Monat oder lass es zwei sein raus. Das ist nunmal aktuell das schnellste was NV hat, jedenfalls momentan. ATI kann schlecht hingehen und die 4850 mit einer nicht erschienen Graka vergleichen. Zumal die GTX260/280 in einem ganz anderen Leistungs und vor allem Preissegment spielt. Eine neue Grakageneration muss nicht automatisch alles andere wegfegen, solange der Preis stimmt zumindest. Und danach siehts aus.

Sorry Doppelpost, kann mal jemand zusammenlegen.
 
Zuletzt bearbeitet von einem Moderator: (DP zusammengeführt)
@24784ds
Komisch find ich nur das ATi neue Karten als Konkurrent zu alten Karten von nV aufstellt... Es wäre mehr als peinlich wenn die neue Serie aktuelle nV Karten nicht schlagen könnte.

das hat den einfachen grund, dass ati im mom von der reinen performance nicht ganz an nv rankommt. es wäre schlechtes marketing, sich selbst als konkurrent den gtx280 aufzuerlegen, an den die 4870 sicher nicht rankommen wird. da sucht man sich schlauerweise den nächst kleineren gegner (bezogen auf das eigene produkt) und geht zwangsläufig als sieger aus allen vergleichen hervor ;) ati macht das schon ganz richtig...
die 2900xt war ja auch erst gegen die 8800gtx vorgesehn, da man aber nicht an diese rankam, hat man vor erscheinen die 8800gts 640 zum direkten gegner erklärt...

im moment hat nv halt den vorteil, dass der g80 schon sehr ausgereift ist und gut mit der unified-shader-technologie arbeitet und dadurch eine sehr gute grundlage für die refresh-chips darstellt, ati mit dem r600 aber leider einen deutlich schlechteren start in die unified-shader-technologie hatte und somit auch deren refresh-chips im nachteil gegenüber nv sind. der r800 soll eine ganz neue architektur besitzen und hat somit wieder die chance an die spitzenleistungen der nv-chips anzuschließen oder diese gar zu überflügeln ;)
 
Zuletzt bearbeitet:
Laut CJ ist der Vantage-Punktestand derzeit so:
  • 4870 X2: X5500
  • GTX 280: X4800

Die X2 wäre damit rund 15 % schneller. Bleibt abzuwarten, ob sie dies auch in Spielen ist oder nur in synthetischen Benchmarks. Bei 15 % wäre mir eine Single-GPU karte noch lieber, sollte es aber größer ausfallen wäre die X2 eine ernsthafte Alternative.
 
Unyu schrieb:
Forceware 174.16 ist im Vergleich zum Geforce 175.16 auch nicht der Neueste.

Dann schau mal was da verbessert wurde und dann schau was bei Catalyst 8.5 steht und was die Messungen sagen.

Wie gesagt, die alten Messungen sind Geschichte.
 
Zuletzt bearbeitet:
bensen schrieb:
wenn nvidia wollte könnten sie ihre chips auch in 55nm produzieren
immerhin fertigt tsmc und nicht amd selber
Da gehört aber eine Menge Erfahrung dazu, sodass man nicht einfach einen neuen Chip auf gut Glück kleiner produzieren kann. TSMC Produziert nur, die Entwicklung muss Nvidia machen und das braucht seine Zeit.
 
.. sieht es für ATi nichtsdestotrotz gut aus, den Kampf um die Geschwindigkeitskrone seit langer Zeit wieder zu erobern...

...Darüber hinaus kommen die für Multi-GPU-Systeme üblichen Probleme bei der Radeon HD 4870 X2 zum Tragen

Ja eben....kann auch dreimal so schnell sein, würde ich trotzdem nicht mal geschenkt nehmen wie jede andere MultiGPU Sch...karte auch!

Und wie kann man angesichts dessen da von "Geschwindigkeitskrone" reden, ist doch Äpfel mit Birnen verglichen, Single und MultiGPU sollten endlich mal klar getrennt behandelt und verglichen werden!

"Armutszeugnis" würd ich treffender finden wenn Ati nur mit sowas dagegen halten kann, wo noch nicht mal die Microrucklerei Problematik gelöst ist...:rolleyes:
Vom restlichen Treiberknatsch an jeder Ecke oder schlechter Unterstützung von Spielen...und schwups gar nicht mehr so schnell...gar nicht zu reden, MultiGPU Karten sind einfach Müll egal von wem.
 
YouRselfgoq schrieb:
Denn Preis = Kaufpreis+Strompreis...

Ach, ich bin froh, das die nächsten 5 Jahre sagen zu können:
Für mich nicht ;)

Stromflatrate ist einfach das beste ;)




Achja... 2 GPU-GraKas müssen nicht unbedingt besser sein als 1 GPU-Grakas.
Die 3850X2 ist auch nicht besser als 'ne 8800 Ultra :]
Wie es auch kommen wird, solange die Dual GPU Probleme nicht aus der Welt geschafft sind, solange gibt es keine solche in meinem Gehäuse :)
 
Unyu schrieb:
Scheint das selbe wie der On-Off Bug der 965/P35 zu sein:
Das Problem sitzt vorm Bildschirm. "Grafikkartenwechsel: PROBLEM GELÖST" - Oh ja defekte Karten gibts immer mal.
Bei AMD läuft immer alles? (ich meine nicht den miesen CF Support oder das fehlende AF) Wahnsinn.


Forceware 174.16 ist im Vergleich zum Geforce 175.16 auch nicht der Neueste.

Wie schön, dass bei AMD die Treiber ständig weiterentwickelt werden und sogar Notebook-GPUs unterstützt werden...
Tjaaa, macht Nvidia nicht. Eine 2. Nvidia-GPU kommt mir nicht mehr ins näxte Notebook.
Klar, mit ner modifizierten ini und dem neusten Forceware (ok, jetzt geforce) kein Thema, aber arm isses schon, des auf die Notebookhersteller zu schieben...

Übrigens: wie schon überall angemerkt wurde: die 3870>9600GT ....
Komischerweise ist die 9600GT relativ dicht an der 8800GT, trotz der fast halbierten Shaderanzahl.

Die 9600GSO und ihr SI und ihr VRam sind zum lachen. Da die das selbe wie die 8800GS ist, brauch ich zu der ja nix zu sagen.
AMD ist effizienter bei der Nutzung vom VRam.
 
Lol, ist es nicht vollkommen egal wer die Leistungskrone hat?

Ich persönliche werde mir nie eine High-End-Karte kaufen, Preis/Leistung stehen in keinem Verhältnis.
Bei mir ist bei 250 Euro schluss. Und in dem Bereich ist es wichtig und interessant wer was zu bieten hat.

Was interessiert mich eine X2 mit wahnsinnigem Stromverbrauch und 500 Euro kosten, für 25-50% mehr Frames?

Wie kann man bei Gerüchten nur soviel posten?
 
@ Kreisverkehr

Das mit dem relativ geringen Performance-Unterschied liegt einzig und allein daran, dass die 9er-Serie exklusive Treiber hat/hatte (ich glaube "hatte", aber ich bin mir da nicht sicher bei Nvidias miserabler Treiber-Politik, das war bei meinen ATIs ganz anders).
Das ist natürlich auch eine Möglichkeit, die Verkäufe der "neuen" Modelle anzukurbeln, indem man die Performance der 8er-Serie künstlich beschneidet... :rolleyes:
Mit 2 verschiedenen Treibern benchen hat für mich fast keine Aussagekraft, wenn man bedenkt was für Sprünge dadurch allein möglich sind.

BTT:

Man könnte natürlich argumentieren, dass Nvidia um die 4870 X2 zu überflügeln ja auch einfach eine GTX260/280-Dual-GPU-Karte bringen könnte. Aber angesichts der Chipgröße und der Verlustleistung halte ich das für ausgeschlossen, der Chip dürfte allein schon genug Probleme verursachen, eine GX2-Version der GT200-Serie halte ich für nicht realisierbar... So etwas wäre höchstens noch mit Wasser zu kühlen und das als einzige Kühlungsmöglichkeit dürfte den potentiellen Kundenkreis weiter einschränken, der Aufwand wäre unter witschaftlichen Gesichtspunkten nicht zu rechtfertigen. Die paar Leute, die die theoretischen 1000+ Euro ausgeben würden, spülen nicht genug Geld in die Kassen.

Es wird Zeit dass ATI mal wieder zeigt wo der Hammer hängt, sonst wird die nächste "neue Generation" von NV wieder nur ein Die-Shrink mit beschnittenem Speicherinterface, und die Leute kaufen diese Moglepackungen auch noch...
 
Unyu schrieb:
Scheint das selbe wie der On-Off Bug der 965/P35 zu sein:
Das Problem sitzt vorm Bildschirm. "Grafikkartenwechsel: PROBLEM GELÖST" - Oh ja defekte Karten gibts immer mal.
Bei AMD läuft immer alles? (ich meine nicht den miesen CF Support oder das fehlende AF) Wahnsinn.

Na klar sitzt das Problem vor dem Bildschirm aber in dem Fall sind es die Programmierer von Nvidia und nicht die User.
Im übrigen sind die Karten nicht defekt sieht man ja an meiner den seit ich den Mdt Ram gegen Corsair Speicher getauscht hab sind diese Abstürze seltsamerweise weg.Und bevor du fragst ja selbiges System mit Mdt Speicher lief vorher problemlos mit einer Ati.
 
holdrio schrieb:
Ja eben....kann auch dreimal so schnell sein, würde ich trotzdem nicht mal geschenkt nehmen wie jede andere MultiGPU Sch...karte auch!

Und wie kann man angesichts dessen da von "Geschwindigkeitskrone" reden, ist doch Äpfel mit Birnen verglichen, Single und MultiGPU sollten endlich mal klar getrennt behandelt und verglichen werden!

"Armutszeugnis" würd ich treffender finden wenn Ati nur mit sowas dagegen halten kann, wo noch nicht mal die Microrucklerei Problematik gelöst ist...:rolleyes:
Vom restlichen Treiberknatsch an jeder Ecke oder schlechter Unterstützung von Spielen...und schwups gar nicht mehr so schnell...gar nicht zu reden, MultiGPU Karten sind einfach Müll egal von wem.

Ja laut ati ist es gar nicht möglich (mit bisherigen karten) das problem per treiber zu lösen, ob das stimmt oder nicht kann ich nicht beurteilen.

Aber was sein könnte wäre das dieses problem jetzt eben wegen anderer hardware gelöst wird. Daher würde es schon sinn machen solch eine neue karte zu bringen.

Ich gehe davon aus das Ati dieses problem spätestens mit der nächsten komplett neuen architektur lösen wird, mit ein bischen glück schon diese.

Aber für die meisten inklusive mir sind diese karten ob x2 von ati oder die neuen nvidia karten eh uninteressant. Da sie einfach zu teuer sind. Alles über 300 euro (bzw deutlich teurer) macht doch keinen sinn.

bräuchte erst mal futter für meine hd3870, die hat wenige stunden spielen auf dem rücken weil es einfach wenig gute neue spiele gibt.
 
Zurück
Oben