Test Test: ATi Radeon HD 4870 X2

So Leute, kaum hat ATI sein neues Wunder HD 4870 X2 rausgebracht, ist Sie vermutlich schon in ein Paar Wochen nicht mehr Nummer eins. Denn NVidia baut aller Voraussicht nach auch eine X2 mit 2 GT200b-Chips, damit wird ATI wieder seine Krone abgeben müssen, so wie ich es hier schon mehrmals vermutet habe und meinte, dass es eben etwas blöd ist eine X2 mit einer einfachen GPU zu vergleichen. Ich freu mich dann auf den Vergleich zwischen der HD4870 X2 und der GTX280 X2 mit den neuen GT200b-Chip und dem ebenfalls GDDR5 Arbeitsspeicher. Hier noch der Link dazu, damit es nicht heißt ich hätte etwas erfunden...

http://www.pcgameshardware.de/aid,6...a_eine_GX2-Karte_mit_zwei_GT200b_GTX_280_GX2/
 
@BMW
Ich glaube nicht an eine 2x0 GTX GX2.Viel zu schwer zu realisieren meiner Meinung nach. Will jetzt nicht auf Einzelheiten eingehen, aber wie bitte sehr soll das gehen? Die paßt in keinen Rechner und der Stromhunger wird das nächste Problem sein. Dann wäre da noch die Temperatur....träumt weiter...ich glaube es erst wenn ich es sehe;-)
 
@Martricks,

warum nicht? Das Hitzeproblem ist wirklich das kleinste Problem. Man bräuchte einfach nur nen anderen Kühler draufmachen. Nicht so nen langen geschlossenen, sondern z.B. einfach zwei Zalman 900irgendwas. Schon ist das Problem gelöst. Stromverbrauch ist nix anders, als GTX280 SLI, wobei man sagen muss, dass die GX2 dann in 55nm gefertigt wird. Dadurch wird das Hitz- und Größenproblem minimiert. Aber wie schon gesagt. Abwarten auf FAKTEN ist wohl das sinnvollste.
 
@bmw

haha, ne GX2 lässt bestimmt noch mindestens ein halbes jahr auf sich warten... bis dahin gibts eh schon wieder neue generationen.


gruß
 
So siehts aus, die 4870X2 wird min. 5 Monate auf der Spitze bleiben schätze ich, dann kommt die 58x0 Generation um sie abzulösen, mal sehn ob Nvidia da mithalten wird können ;)
 
Naja, wenn ATI etwas realisieren kann, weshalb sollte es NVidia denn nicht genauso tun? Man hat vor einigen Monaten vieles nicht geglaubt was heute schon realisiert wurde und was noch realisiert wird bzw. was uns alles noch in Zukunft erwartet.
Immerhin ist NVidia schon lange der König unter den GPUs und wenn es darum geht etwas neues und besseres zu entwickeln dann ist NVidia bestimmt nicht von schlechten Eltern. Das Problem mit der Hitze kann man auf alle Fälle in Griff bekommen, vor allem wenn es um die nächsten Generationen von GPUs geht und zwar aufgrund der Beschaffenheit und Größe der Chips.
 
Naja, ich denke nV wäre durchaus in der Lage eine solche X2 Karte zu bauen. Die frage bleibt für mich einfach ob es sich für sie lohnt. Immerhin würde die Karte nur etwas bringen, wenn sie schnell kommt -> man müsste mit erhöhten Kosten und Aufwand entwickeln, damit es zackig voran geht und dann.... dann hat man eine Karte die die Performancekrone zurück holt, aber auf Grund ihrer Ansiedlung im wirklich obersten High-End kaum Käufer findet. Dafür würde sie 55nm GT200b Chips brauchen, die man sonst in günstigere GTX2x0 Karten verbauen könnte.
Aber warten wirs ab! Ich bin sowieso schon gespannt, wie sich die HD4870X2 verkaufen wird.
 
Realsmasher schrieb:
Crysis ist mittlerweile fast ein jahr alt und es ist noch kein Spiel an die abstrusen Anforderungen rangekommen.

Gott sei Dank! Es war ja schließlich auch nicht das Ziel von Crysis ein Spiel/eine Engine zu entwickeln, die nach einem Jahr schon alle ausreizen können. Da Crysis auf Medium aber zumindest bei 1280x1024 auf allen etwas besseren Grafikkarten flüssig läuft und immer noch besser aussieht als andere Spiele geht das schon in Ordnung.

Ich finde es besser ein Spiel zu haben, bei dem man auch nach zwei Jahren noch die Grafik hochschrauben kann statt ein Spiel zu haben, dass schon zum Release voll ausgereizt werden kann und dass man dann nie wieder anschaut. Crysis wird auch in einem Jahr noch mit dann erscheinenden Spielen grafisch konkurrieren können.

Außerdem ist Crysis eines der wenigen Spiele, die auch auf 2560x1600 super aussehen. Die meisten anderen Spiele mit super hübschen Screenshots (Bioshock, Assassin's Creed, Call of Duty 4 etc.) sehen auf Bildern toll aus (und vielleicht sind sie es auch auf 1280x1024), aber auf 2560x1600 enttäuschen alle diese Titel grafisch total. (wie gesagt: GRAFISCH!!! Am Spiel selbst ändert sich natürlich nichts dadurch).

Realsmasher schrieb:
Ich sehe aktuell eher Spiele mit UT3 Engine bzw Konsolenkonvertierung kommen, was auch logisch scheint.

Natürlich. Wäre auch schrecklich, wenn alle die gleiche Grafikengine nutzen würden. Zumal jede Engine ja so ihren eigenen Look hat. Mir ist die UT3 Engine viel zu "Plastik"-mäßig. Nicht so schlimm wie die Doom3-Engine, aber viele Oberflächen mit Reflektionen sehen mit der UT3-Engine aus, als wäre alles aus Plastik gemacht. Das trübt den Eindruck etwas.

Realsmasher schrieb:
Ich meine, jeder Entwickler kennt die Kritiken und vorallem die Verkaufzahlen von Crysis, das tut sich keiner freiwillig an.

Naja, 1.5 Mio. verkaufte Spiele sind für einen Shooter jetzt nicht gerade schlecht. Bei den meisten Shootern träumen die Entwickler nichtmal von solch hohen Verkaufszahlen (v.a. nicht für den PC).
 
BMW530d schrieb:
So Leute, kaum hat ATI sein neues Wunder HD 4870 X2 rausgebracht, ist Sie vermutlich schon in ein Paar Wochen nicht mehr Nummer eins. Denn NVidia baut aller Voraussicht nach auch eine X2 mit 2 GT200b-Chips, damit wird ATI wieder seine Krone abgeben müssen, so wie ich es hier schon mehrmals vermutet habe und meinte, dass es eben etwas blöd ist eine X2 mit einer einfachen GPU zu vergleichen. Ich freu mich dann auf den Vergleich zwischen der HD4870 X2 und der GTX280 X2 mit den neuen GT200b-Chip und dem ebenfalls GDDR5 Arbeitsspeicher. Hier noch der Link dazu, damit es nicht heißt ich hätte etwas erfunden...

http://www.pcgameshardware.de/aid,6...a_eine_GX2-Karte_mit_zwei_GT200b_GTX_280_GX2/

Dazu hier ein paar Infos die die Schwierigkeiten beschreiben die so ein Unterfangen mit sich bringt. "In ein paar Wochen" ist das sicher nicht zu lösen. Das PCB würde auch wirklich sehr aufwendig werden und ob das mit dem vorhandenem Platz zu schaffen ist ? Vor einer Dopplung steht fast zwangsläufig die Reduzierung der Chipgröße.

http://www.hardware-infos.com/news.php?news=2311

Ok, rein theoretisch wäre 2x200b denkbar, wie auch der Artikel oben sagt. Aber zu welchem Preis? Ich denke mit Faktor 2 kommt man da nicht klar. Stellt sich die Frage wie groß der Markt für eine GraKa ist die mal so eben geschätzte 650-700 € kosteten könnte.

Ich denke NVIDIA tut gut dran auf die Performancekrone erstmal zu pfeifen und nur die Umstellung auf den 200b mit 55 nm durchzuführen. Würde die X2 zwar nicht schlagen, könnte aber Luft zur 4850 X2 bringen. Denn mit der müssen sie sich ja auch bald noch rumschlagen - zu einem Preis der auch wieder breitere Käuferschichten anspricht und der 280 GTX zusätzlich das Wasser abgräbt. Parallel sollte Nvidia an der ursprünglichen Strategie weiterzuarbeiten die Monsterchips zu beerdigen und wie AMD auf wirtschaftlich zu fertigendere kleinere Chips auszuweichen - alles andere wäre eine teure Sackgasse.
Es würde auch Nvidias derzeitiges Problem nicht lösen, denn der Markt für eine X2 mit 400 € setzt ganz andere Stückzahlen um als eine Grafikkarte die nahezu das Doppelte kostet.

Aber mal ganz nebenbei - auch wenn ich damit vielleicht Träume zerstöre: Vapoware die es noch nicht mal auf dem Papier wirklich gibt wurde bisher immer wieder gern eingesetzt um potentielle Käufer vom Konkurrenzprodukt fernzuhalten ;)
 
@FredKune: Crytek&EA haben auf weitaus höhere Verkaufzahlen gehofft CoD4 z.B. wurde öfter verkauft als Crysis obwohl die Grafik bei weitem nicht so gut ist wie bei Crysis, aber:
"Call of Duty 4: Unglaubliche Verkaufszahlen
Sieben Millionen. Das ist die Zahl, über die sich Activision derzeit freut. Und das Spiel, welches zu dieser Zahl passt, heißt Call of Duty 4. Das Action-Spiel konnte sich seit November bis Ende Dezember 2007, also in einem recht kurzen Zeitraum, eben über sieben Millionen mal verkaufen. Da kam kein anderes Spiel mit, was den Shooter zum Top-Seller des abgelaufenen Jahres macht. Darüber hinaus stellt MajorNelson.com fest, dass Modern Warfare derzeit der beliebteste Xbox Live-Titel ist. " zitiert von PCgames- News.com
 
Rambo5018 schrieb:
@FredKune: Crytek&EA haben auf weitaus höhere Verkaufzahlen gehofft CoD4 z.B. wurde öfter verkauft als Crysis obwohl die Grafik bei weitem nicht so gut ist wie bei Crysis, aber:
"Call of Duty 4: Unglaubliche Verkaufszahlen
Sieben Millionen.

Ja, ok. Aber CoD4 konnte mit 1-3 auch etliche Anhänger begeistern und 7 Mio. sind bei PC-Spielen ja auch wirkliche Ausnahmetitel. Die meisten bleiben weit unter 1 Mio. und da sind 1.5 Mio. schon ziemlich gut. Ich sag ja auch nicht, das andere Titel nicht mehr verkaufen, aber ein kommerzieller Erfolg dürfte Crysis dennoch sein.

Bei Crysis war der Hype auch einfach zu groß. Kein Spiel der Welt hätte den Erwartungen gerecht werden können. Und es gibt auch das Problem, dass die meisten nicht verstehen, dass Crysis nicht so langsam ist, weil es schlecht programmiert wurde, sondern weil man für eine solche Grafik einfach mehr Leistung benötigt als bisher zur Verfügung steht. Bei Far Cry war das damals gar nicht anders. Auch das konnte damals keiner spielen, wenn alles auf max. gestellt war. Dadurch braucht man für Crysis 2 und 3 aber keine neue Engine programmieren, sondern kann die "alte" behalten und dennoch grafisch oben mitschwimmen. Das reduziert die Kosten.

Mir hat das Spiel jedenfalls Spaß gemacht und ich freue mich auf Warhead und die weiteren Teile. Immerhin lernt man bei denen ein wenig aus den Fehlern. Für Warhead hat man sich ja nun eine Autorin für die Story ins Boot geholt. Mal schauen wie gut die Zusammenarbeit funktioniert hat.
 
Für mich fällt di X2 jetzt ins Wasser. Ich habe vorher noch nie Mikroruckler gesehen und dachte das wäre nicht so schlimm, aber jetzt habe ich dieses Mikrorucklerprogramm ausprobiert.
 
@ ©ћ٥٥ŧεя©

Ist doch egal, du kannst die Karte auch bei 20° auf über 100° treiben ...

cYa
 
mit übertakten und Voltmod würde alles gehen^^. Ne Spaß bei seite.

Es ist ja auch sehr oft das Problem, dass sich Leute die Karte kaufen und dann z.B. vorne keinen Lüfter im Gehäuse haben. Woher soll die Grafikkarte dann kühle Luft ansaugen? Da verliert man gleich einige Grad Celsius, wenn man z.B. keine gute Gehäuselüftung hat.
 
Also man sollte mit dem Microrucklern auch nicht übertreiben...klar kann man die Spüren....aber die X2 hat echt soviel Power, dass das nur bei Crysis zu merken ist....für mich kommt eine X2 nicht in Frage, weil ich mit einer 4870/512MB jedes Spiel auf Maximum spielen kann(ja außer Crysis)....Und ehrlich gesagt verbraucht meine 4870 schon genug Strom.Ich achte jetzt schon immer drauf dass ich auch wenn ich nur 15min. weggehe den Rechner ausstelle:-) Wenn Powerplay richtig funktionieren sollte kommen eventuell 2x4870/1024MB rein.Die sind schön leise^^ Hab meine 2te 4870 jetzt erstmal meinem Bruder gegeben weil ich mir sonst vorkomme wie jemand der sein Geld ausm Fenster rauswirft...250Watt Idle ist echt schon krass.Dafür muss ich im Winter mein Zimmer nicht heizen....klappt echt:-)
 
@Martricks,

wunderst du dich über deinen Verbraucht? Wenn man übertaktet, dann darf auch nicht jammern gell. Kauf dir erstmal ein sehr Effizientes Netzteil, sofern du es nicht schon hast. Nicht übertakten, sondern untervolten, dann klappt es auch mit dem Stromverbrauch^^. Die Microruckler sind meiner Meinung nach nicht mehr als Micro zu bezeichnen schaut euch das doch mal an wie crass das schwankt: https://www.computerbase.de/2008-08/test-ati-radeon-hd-4870-x2/24/

Und betreff die Karte hat so viel power. Dann schau dir mal die Benches an, wenn du AA und AF mal bisschen aufdrehst, dann braucht man erst wirklich power, was keine Grafikkarte bei einigen Games liefern kann. Auflößung natürlich min. 1650x1050.
 
@ Tobi
Netzteil Tagan BZ 1300:-) Falls es im Winter zu kalt wird kann ich dann noch 2x4870X2 ranklatschen....rofl
Klar kann ich runtertakten.Läuft im moment auch "nur" mit 4Ghz die Kiste.Aber so viel Strom verbrät die CPU garnicht.Hab halt noch andere Stromfresser drin...4 Festplatten und die NB will bei 4GB auch mehr Saft haben.Sind im Idle übrigens exakt 225Watt.Klar Spielt die Auflösung auch ne Rolle....aber wer sich ne X2 holt und nicht min. in 1650x1050 spielt hat auch selber schuld.Ich zocke in 1920x1200.Da lohnt sich das schon.Auch die 2GB Ram sind da teilweise von Vorteil.

Mal abgesehen von den Microrucklern....habe mit CF immer ein paar Problemchen gehabt, ne X2 wird da nicht besser sein.Mit einer Karte hat man einfach weniger Stress.Hatte jetzt ein gutes halbes Jahr 2x3870 und einen Monat 2x4870...hab einfach kein bock mehr auf CF.Die sollen erstmal die Treiber verbessern für CF und die Microruckler beseitigen...und das wird eh nix:-( Aber ich finde ne X2 vom Aussehen echt geil.In Schwarz sieht die Viel geiler aus als in diesem Puff-Rot:-)
 
Hallo Forumsgemeinde


Das Problem Mikroruckler wird hier in diesem Thread ja häufig erwähnt, und obwohl ich keine persönlichen Erfahrungen damit machen konnte und auch in absehbarer Zeit nicht machen werde (nur Single-GPU), hat es mein Interesse erweckt, mich von der theoretischen Seite dem Thema MR zu nähern.

Frage: Wieso entstehen Mikroruckler ?

Wir haben ein Spiel, dessen Einstellungen so gewählt werden, dass die Grafikkarte limitiert,
die Cpu also noch gut Luft nach oben hat. So wird es wohl im Normalfall auch für den Ottonormalgamer sein.

Die CPU benötigt 10 ms um die Grafikkarte mit einem Frame zu versorgen.
Auf Grund der Limitierung durch die GK braucht GChip 1 nun 50 ms um dieses Frame darzustellen und ist somit nach 60 ms fertig mit dem 1. Frame , nach 110 ms (+50) mit dem 3. Frame.

GChip 2 bekommt nach 20 ms den 2. Frame von der cpu und ist somit nach 70 ms und 120 ms fertig mit Frame 2 und 4.

Also ergeben sich folgende Frametimes und Deltas

Fr 1 60ms
Fr 2 70ms Delta 10ms ~ 100Fps
Fr 3 110ms Delta 40ms ~ 25Fps
Fr 4 120ms Delta 10ms ~ 100Fps
Fr 5 160ms Delta 40ms ~ 25Fps

Das ergäbe dann mit MR durchwachsene 40 avg. Fps(avg. 25ms FrametimeDelta).

So in etwa stell ich mir die theoretische Seite der Mikroruckler vor und bitte um Rückmeldung
, ob ich hier einem Irrtum unterliege.

Sollte es aber so sein , so sind MR vielmehr ein CPU-Problem als ein Sli/CF-Problem, genau genommen ist sogar die zu hohe Leistung der CPU dafür verantwortlich , dass die Frametimes im ZickZack laufen.
Nun im obig konstruierten Fall müsste die CPU statt alle 10ms nur alle 25 ms ein frame ausliefern, oder alternativ GChip 2 die Ausgabe seiner Frames um 15 ms verzögern, um regelmässig Frames nach 25 ms auszugeben und dabei auch die avg. Fps von 40 zu halten.
Und das müsste doch softwareseitig zu machen sein, auch wenn dies natürlich ein einfach gestrickter Fall ist, und in der Realität des 3D-Spiels kein Frameverlauf konstant ist.

Aber da es ja offenbar noch keine Lösung der GChip-hersteller gibt, wird der Fall wohl doch nicht so einfach sein.

Gruß
Raubwanze

PS: Bin ich doch etwas offtopic geraten
Den Test finde ich ok, die 4870x2 konnte man in allen Bereichen (3D-Leistung, Last-Verlustleistung, damit verbundene Wärmeentwicklung und Lautstärke) so erwarten, wie sie letztendlich abschneidet. Tests von der 4870 und 4870CF gabs ja schon vorher, womit die Grundtendenz ja schon gezeigt wurde.
Gut , dass ihr auf die stärkstmögliche CPU gebaut habt, einem QX9750@4Ghz und auch in den höchsten Auflösungen testet und somit einer CPU-Limitierung bestmöglich entgegenwirkt.
 
Zuletzt bearbeitet:
Das Problem Mikroruckler wird hier in diesem Thread ja häufig erwähnt, und obwohl ich keine persönlichen Erfahrungen damit machen konnte und auch in absehbarer Zeit nicht machen werde (nur Single-GPU), hat es mein Interesse erweckt, mich von der theoretischen Seite dem Thema MR zu nähern.

Schau mal hier rein:
https://www.computerbase.de/2008-08/programm-simuliert-mikroruckler/
Mit dem Programm kannst du µRuckler auch mit einer single Karte, selber erleben. Thx @ Realsmasher...

Hätte gehofft das NV es diesmal sein lässt und keine GX2 baut, aber nein, ATI muss ja unbedingt druck machen und nochmal so eine Frimetimeversatz X2 bringen... Naja im GPGPU wird die GX2 wahrscheinlich wieder top sein.
 
Zurück
Oben