News Radeon HD 4870 X2 schlägt GeForce GTX 280?

@cosmicparty: hm dann kannst du mir sicher einen testbericht zeigen in dem die tester beim oc weniger als die 740mhz geschafft haben? was ich gelesen hab, da kamen meist ca 800 mhz bei raus... oder sind die noch handselektierter? ^^
im ernst, spätestens wenn der g92b da ist kann nv problemlos so hoch takten und der g92 wird mit sicherheit einen akzeptablen konkurrenten zur 4850 abliefern...
der g92 ist noch lange nicht ausgelutscht und braucht sich auch nicht zu verstecken... ati wird ganz sicher nicht konkurrenzlos sein in dem segment...
wer seine sache besser macht werden wir sehn, aber dass nv probleme habn soll kannst du mir echt nicht weismachen...
 
Zuletzt bearbeitet:
DiamondDog schrieb:
seine eigene Dual GPU Karte mit einer Singel GPU von der Konkurenz zu vergleichen ist sowas von arm.

eine Woche später stellt nVidia ihre eigene Dual GPU vor und ATi kann sich wieder in die Ecke stellen. Also ich find eide ATi GPU Karten sinnlos, da man mit einer Single nVidia sinnvoller bedient ist...

Die Single GPUs von ATi mache sinn weil sie günstig sind, aber alles andere nene.. was ist aus ATi nur geworden...

schade wirklich....

Muss ich leider auch sagen! Bevor ATI von AMD übernommen wurde, habe ich ATI gemocht, vor allem die 9800 XT war ja mal ne fette Karte. Nun empfinde ich ATI und ihre Marktpolitik nur noch lächerlich, denn der gute Ruf ist einfach weg!
 
Computerbase schrieb:
Gegen die GeForce-GTX-Modelle von Nvidia, die GeForce GTX 260 und die GeForce GTX 280, werden die ATi-Sprösslinge aber aller Voraussicht nach chancenlos sein.

Ich finde, man sollte erst benchen, dann Aussagen darüber abgeben.. Wenn das irgendwelche Leute hier im Forum tun, ist das das eine, wenn das CB macht, find' ich's daneben..

Ausserdem gehört heute auch mehr dazu, als pure FPS: Mich nimmt wunder, wie NVIDIA ihr 65nm Monsterbaby kühlen will, ausserdem kommt da noch Stromverbrauch und Preis dazu; Gut möglich, dass man sich für 1xGTX260 zwei HD4870 leisten kann.. Für mich bedeuten 576mm^2 DIE-Fläche und diese komplexe Bauweise, tiefe Yields und die wiederum pushen den Preis..
 
@cnq: an eine ultra kann nvidia denken, wenn die auf 55nm geshrinkt haben, mit der kommenden version wirds net gehen.

@ nWarrior: ich denke du bist lächerlich, wer atis politik als lächerlich differmiert und gleichzeitig nvidias verarschpolitik gutheißt ist doch n bissle.....

aber ok, du bist bestimmt noch sehr jung und mußt noch viel lernen im leben *g*

du hast es eben schwer im moment, ich versteh das ja =)
 
Zuletzt bearbeitet:
@d-Raven-b: die schreiben ja auch "aller vorraussicht nach" und nach allen daten die man bisher sammeln konnte ist das schon ziemlich offensichtlich so... außerdem, weißt du, ob cb nicht schon n testsample hat? ;)

die kühlung ist doch nich das problem. sind grade mal 20 watt mehr als bei der 2900xt... ist zwar unschön aber nicht unmöglich...
 
@cosmicparty

shrink soll ja schon im gange sein. wann soll denn die x2 launchen? kann mir gut vorstellen, dass nvidea kurze zeit danach wieder kontern kann...
 
Wochenlang beschweren sich alle, dass ATI kein High-End mehr bringt. Jetzt bieten sie etwas in dem Bereich an und wieder ist es nicht recht.

Klammert euch ruhig an eure Single-GPU-Karten. ATI ist einen Schritt voraus und wie sehr da irgendwas ruckelt kann hier überhaupt keiner sagen. Hauptsache direkt den Teufel an die Wand malen.
 
Ich kann mir gut vorstellen, dass wenn 2 CPU's auf einem Mainboard untergebracht sind auch solche Probleme bereiten...also der Trend sollte richtung 'So viele Kerne wie möglich auf einem DIE' gehen.
 
@cnq: die 4870x2 ist im prinzip auch fertig, die treiber werden nur optimiert.

zum thema shrink, nvidia wirds dann in einigen wochen wohl schaffen auf 55nm zu shrinken nur sollte man nicht vergessen, dass ati schon in der 40-45nm entwicklung ist... daraufhin wird dort vorbereitet ;)

wenn der r800 in 40 nm noch vor weihnachten kommt, wärs der supergau für nvidia, dann würd ich alle aktien verkaufen *g*
 
cYaInH3ll schrieb:
Wochenlang beschweren sich alle, dass ATI kein High-End mehr bringt. Jetzt bieten sie etwas in dem Bereich an und wieder ist es nicht recht.

Klammert euch ruhig an eure Single-GPU-Karten. ATI ist einen Schritt voraus und wie sehr da irgendwas ruckelt kann hier überhaupt keiner sagen. Hauptsache direkt den Teufel an die Wand malen.

ATI konnte es mal besser im High End Bereich! Nämlich auch mit SingleChips! Und es kann mir keiner sagen, dass die SingleChips am Ende wären, denn das ist absoluter Blödsinn! Es geht immer was. Dass, was dabei eine Rolle spielt, ist die Auslegung der Architektur.

Und was macht ATI jetzt? Bringt so einen DualGPU Schrott raus, wo man Mikrorukler zu spühren bekommt. Ich weiß, wie es sich mit Mikroruckler spielt, da ich mal ein SLI System hatte und seitdem nie wieder SLI oder CF! Zumindest solange nicht, bis besagte Probleme weg vom Fenster sind.
 
Lübke schrieb:
im ernst, spätestens wenn der g92b da ist kann nv problemlos so hoch takten und der g92 wird mit sicherheit einen akzeptablen konkurrenten zur 4850 abliefern...
Nicht im Auge eines AMD Fans.
Das G92 bereits heute weitaus billiger ist, den Die Shrink noch vor sich hat (dabei noch billiger wird und höher getaktet werden kann), wird dabei gerne übersehen.
Klar. AMD räumt mit einem Chipmodell alles vom Markt. :rolleyes: ..... so wie G94 vs billiger RV670 (ach ne der ist nur in der Produktion billig, der Kunde spürt nichts davon)....

d-Raven-b schrieb:
Mich nimmt wunder, wie NVIDIA ihr 65nm Monsterbaby kühlen will
So wie AMD die HD2900XT, nur leiser.

mat_2 schrieb:
Ich nicht, ich kenn nur TSSAA ;).
Traurig. ;)

Pepsito schrieb:
Schon bei 4aa müsste der Speicher limitieren...
Bei SSAA limitiert wohl alles, es ging doch nur um die Standardausage Karte xy reicht.
 
cYaInH3ll schrieb:
Wochenlang beschweren sich alle, dass ATI kein High-End mehr bringt. Jetzt bieten sie etwas in dem Bereich an und wieder ist es nicht recht.

Klammert euch ruhig an eure Single-GPU-Karten. ATI ist einen Schritt voraus und wie sehr da irgendwas ruckelt kann hier überhaupt keiner sagen. Hauptsache direkt den Teufel an die Wand malen.

MultiGPU ist doch in aktueller Form nicht mehr als ne "Notlösung", schon allein die Tatsache dass man den VRAM 2x benötigt zeigt das man mit dieser Technik noch lange nicht da ist wo man hin will.

Die Karten haben dann 2GB VRAM wovon nur 1GB effektiv zur Verfügung steht. Das ist mit Sicherheit nicht als "Fortschritt" zu bezeichnen.

Der nächste logische Schritt bei Karten mit 4 GPU's wären dann 4GB für effektive 1GB!
 
zum letzten mal für dich nWarrior... die zeit der singlechips ist vorbei, das hat nvidia erkannt und die sagen es auch, der gt200 ist der letzte seiner art als high end gpu... nur du redeste an den tatsachen vorbei.

wie kann man dir das erklären, du willst einfach net verstehen.

zu große chips heißt zu viel strom, zu heiß,zu niedrige taktung, zu teuer in der herstellung, zu große ausfallsraten und zu gering der gewinn.

und da sich nvidia als börsenunternehmen am gewinn orientieren muß, solltest du jetzt mal begreifen.

@orbmuk2K: ist dir bekannt, dass ati dran arbeitet (mache glauben mit dem r770 wäre es schon so, andere meinen erst mit dem r800), dass die gpus auf EINEN speicher zugreifen können?
 
Zuletzt bearbeitet:
Die Lösung für große Chips heißt Dieshrink. Kennen wir aus den letzten Jahren.
 
Also bei Grid ist schon die 9800 GX2 am Limit bzw mit der Auflösung und Einstellung.

2560x1600. Musste von 8AA auf 4AA Runterstellen..
Einstellung im Menü auf Ultra.

Mit 8AA gipt sehr Oft Zeitlupen Training. Und wenn die FPS Zahl unter´s Limit fällt
siehts Böse aus.

Habe die CPU auf 3,6 Ghz OC, weiss nicht ob es mit Wakü 4,0 Ghz noch was an FPS
bringen würde.
 
Zuletzt bearbeitet:
Die NVidia GTX 280 ist fast ein zwei GPU Chip. Diese hat die Größe und den Verbrauch einer zwei GPU Karte. Da finde ich den Weg von von ATI um einiges besser.
 
Unyu schrieb:

du solltest wirklich ein fettes nVidia-logo als avatar nehmen. deine ewigen utopischen g92b/g94-träume wie "ach so gil & stark der wird" gehn warscheinlich nicht nur mir aufn s*ck. shrinken heisst nicht automatisch höher takten, da gibts andere faktoren als die hitzeentwicklung & verbrauch. sonst könnte man ja nen prozzi unter flüssigem helium auch auf 120Ghz takten, sofern der nicht sofort supraleitend wird (d.h. das metall). das hängt von der architektur ab. wieso hat nVidia nicht direkt den G94xy weiterentwickelt zu einem 50nm monster das alle grakas killt ?
 
Zuletzt bearbeitet:
Ich merke, ihr habt die alle schon selbst in Aktion erlebt! Kann man euch ja nur beneiden.

@Orbmu2k:
Was interessiert mich denn, wie viele Speicherklötze da drauf kleben? Preiswert muss das Ding sein und anständig pulvern bei 1920x1200 und anständigem AA+AF.
 
Das mit den Grafikkarten und den Diskussionen darum ist interessant.
Wer braucht solche Karten? (4870x2 und gt 280) Doch nur High-End Spieler, die auf ihrem 30" Monitor irgendein Hochglanz-Spiel spielen wollen. Als Beispiel sei hier Crysis erwähnt........aber wer spielt denn die ganze Zeit Crysis? Für wieviele Spiele braucht man momentan die schnellsten Karten auf dem Markt(3870x2 und 9800 gx2)? Wieviel Prozent der Computernutzer (ich meine hier nicht nur Spieler) kaufen sich solche Karten?
Wieso erzeugen solche Meldungen also so einen Aufruhr? Wartet doch einfach erstmal die Benchmarks ab...so lange dauert das nicht mehr.
Auch das mit dem Stromverbrauch wird sich dabei erst noch zeigen müssen. Das Rechnen in TDP Werten ist in etwa so unsinnig, wie bei einem Auto den Spritverbrauch anhand von Vollgasfahren anzugeben. Das macht niemand.....Einen Großteil der Zeit ist so ein Rechner doch im idle. Es kommt also letztlich auf Durchschnittswerte an.
TDP -werte sind nur was für die Hersteller von Kühllösungen.

Also nochmal: Abwarten und Tee trinken. Das beruhigt die Nerven! (Außer Schwarztee)
 
Unyu schrieb:
So wie AMD die HD2900XT, nur leiser.

LOL, du solltest dir nicht nur ein nVidia-AVATAR reinstellen, sondern auch in deiner Signatur so was wie "Nvidia macht alles besser als ATI. Glaubt mir, denn ich liebe nVidia!" schreiben.
Es gibt noch keine Tests der GTX 280 und du behauptest einfach mal so vom blauen Himmel runter, dass die leiser sein wird. Also wirklich. Wie kann man nur so Fanantisch bei einem Hardware-Hersteller sein, dass man einfach so irgendwelchen Mist unter jede News schreibt nur um nVidia im besseren Lichte stehen zu lassen...
 
Zuletzt bearbeitet:
Zurück
Oben