Test Test: ATi Radeon HD 4870 X2

dein weltbild ist eben pcgh günstig erscheinen zu lassen.
Und was habe ich davon?

High-End ist das maximal technisch Machbare. Nun, dann ist ein effektiver Stromsparmodus und eine leise Kühlung ebenfalls gefragt, dass was die Karten hier aktuell aufzeigen ist garantiert nicht das maximal technisch Machbare - oder willst du das Gegenteil behaupten? High-End mit Leistung und nur Leistung gleichzusetzen ist Humbug. Ein Ferrari-Fahrer achtet auch darauf, dass sein Fahrzeug ihn nicht in der ersten Kurve killt und auf die Optik eh. High-End bezieht sich auf das Gesamtpaket.

cYa
 
@ y33H@:
ati achtet auch drauf, dass die karten standhaft sind. also was soll son blöder vergleich mit "aus der kurve fliegen"???

wer fliegt denn grade dauernd aus der kurve? ich lese in zig foren, dass nvidias GTX auf über 105 grade gehen aufgrund von fertigungsproblemen. und zu laut sind, wegen fehlern in der herstellung.

also erzähl nicht son quatsch. ati läuft sicher im gegensatz zu nvidia im moment.


aber nochmal zu high end.
bei high end denkt an maximale leistung. richtig? das ist das ziel.

und erst in einer nächsten generation, wird versucht, diese maximale leistung durch weniger strom zu erziehlen.

haben wir das auch verstanden?

also ne x2 aus dem blickwinkel von ottonormal zu schildern, ist lächerlich.

die x2 ist für hardcore gamer, die auch mit 5€ im monat mehr kein problem haben. und die eh mit headset spielen, falls es otto normal zu laut wird, wenn er nen brief schreiben will mit sonem rechner.

aber erzähl du nun wieder die vorteile von nvidia, so wie du es bei pcgh gelernt hast ;)
 
Ein Hardcoregamer will aber auch maximale BQ und "gute" Fps. Frag mal HisN, ob er seine GTX 280 gegen eine HD4870X2 tauscht. Frag mal mmic29 oder schau mal ins 3DC. Nur weil du High-End mit Leistung pur gleichsetzt, macht das nicht jeder andere. Meine GTX 280 ging auch über 100° - wenn interessierts? Bei der Temp hat sie noch volle Power. Und wenn bei CB die X2 12° heißer ist als die 280er, will ich nicht wissen, wie heiß die X2 mit einem Multi-GPU-tauglichen FurMark wird.

cYa
 
Zuletzt bearbeitet:
was willste mir jetzt erzählen?

das nvidia mit ihrer schlechten aa leistung und ihrer verschwommenen grafik besser ist?

ich will klare linien, ich will details und schärfe und keinen "weichzeichner" wie auf irgendwelchen "aktbildern" *g*

und davon abgesehen, wenn man mit der x2 die details runterschrauben muß bei irgendwelchen exotischen einstellungen aufgrund der "bösen" mr, dann ist man bei ner GTX schon längst im unspielbaren bereich gelandet.

die x2 ist ne klasse für sich, dass sollte man auch anerkennen, wenn man fan der anderen seite ist. alles andere ist neid. ist in meinen augen nun mal so!
 
Kurz zu den Microrucklern:

Die X2 rechnet ja in den hohen Auflösungen fast doppelt so schnell wie ne GTX280. Da müßte Sie ja ein Frame auslassen um schlechter als ne GTX280 zu sein. Die Frames sind aber nur versetzt, womit ich überzeugt bin, dass auf der ATI alles besser läuft als auf ner NVIDIA. (selbst mit Microrucklern!)

mfg
 
@ cosmicparty

Schon mal 32x SuperSampling live gesehen? Mehr AA und AF geht nicht. Ach ja, mal CFAA probiert? Das macht nichts anderes als Blur ...

Neid? Ich könnte mir GTX 280 eine kaufen, tue es aber nicht. Ich könnte mir auch eine X2 kaufen, tue es aber nicht. Weil ich aktuell eh nichts zocke außer UT3. Erst wenn Clear Sky da ist, wird n neue Karte gekauft. Hast du eine X2 und eine GTX 280 live erlebt? Nein. Ich schon. Ich weiß, dass die Wahrheit zwischen den Benches von PCGH und CB liegt. Das sollte jeder wissen, der sich etwas mit der Materie beschäftigt - auch du.

Wie man eine Klasse definiert, darauf kommts an. Freilich ist die Karte eine Klasse für sich, und zwar im Bereich Multi-GPU drei höher als die GX2 und die HD3870X2. Mit Single-GPUs kann man diese nicht vergleichen. Die spielen nämlich nicht in einer anderen Klassse, die spielen ein anderes Spiel ;)

@ KLEMSI

Problematik nicht verstanden.

cYa
 
Wenn ich nicht irgendeinen wichtigen Test verpasst habe, kommt die zur Zeit stärkste GPU nach wie vor von nVidia, also haltet mal den Ball flach. Vor allem mit den Temperatur- und Leistungsaufnahmewerten bekleckert man sich nicht sonderlich mit Ruhm. Bei der GTX280 war das Geschrei groß, weil die ja angeblich so unaushaltbar laut ist - hier lässt man das gern mal unter den Tisch fallen.
Wer es sich leisten kann, baut sich 2*GTX280 im SLI zusammen und steckt sich nicht eine 4870X2 in den Rechner.
"Alles andere ist neid" halte ich in dem Zusammenhang übrigens für durchaus treffend.
 
AceBleiche schrieb:
2 x 280er Nvidia im SLI lassen auch diese ATI alt aussehen. Aber diese Version wird ja leider nicht in den Test mit einbezogen

Wie süß, hast dich jetzt extra registriert um diesen beitrag zu erfassen? Oder wolltest du nur nicht mit deinem alten acc schreiben?

Ich könnte auch sagen "nun 2x 4870x2 würden nvidia NOCH älter aussehen lassen, aber das wird ja nicht mit einbezogen" - aber so intelligent du bist würdest du sagen "aber 3x 280gtx wäre besser" (wobei das nicht 100% stimmen könnte) - ABER DANN würde ich sagen "3x 4870x2 schlägt alles" und du als nvidia fanboy hast verloren und wirst laut heulen :(

Also bin ich nicht gemein und sage: Kauf dir erstmal deine 2x 280gtx und alles wird gut

Gruß :rolleyes:
 
nochmal so kurz, die x2 ist kein "volkswagen".

wer mit seinem rechner hauptsächlich im inet ist oder office macht usw, hat mit sicherheit die falsche karte erwischt.


die x2 ist für leute, die maximale leistung wollen, dass was heutzutage machbar ist.
gamepower.

man muß dann kompromisse machen in bezug auf strom und lautstärke eben.

die x2 dinge die nicht perfekt sind, werden eben erst mit der nächsten generation gelöst, im moment gehts nur um extreme lesitung.

und das ist nun mal so, ich sag mal im durchschnitt aller seiten im inet usw ist die x2 50% schneller als ne GTX280.

das ist EXTREM viel.
und nochmal, wenn dann einer jammert, dass er in ner 30er auflösung mit max details und aa usw jammert, er hätte n microruckler erwischt.... dann wird eben runtergeschraubt.

und man ist immer noch viel schneller unterwegs, als mit ner GTX280.

ne GTX280 ist ne ganze klasse unterhalb ner x2.
 
Ah leute,
Die 280 ist die schnellste karte die es gibt so einfach ist das,was habt ihr davon wenn fraps 70-80 fps anzeigt wenn es gefuhlte 30-35 fps sind.Solange die kinderkrankheiten der multigpu karten nicht gehoben werden taugen sie einfach nix.
(Und ich habe selber eine 4870 -und ich bin ein ati fanboy)
 
Die 4870X2 ist die schnellste Karte auf dem Markt und für Besitzer von 30" TFTs sicher ein Pflichtkauf (+Wakü), aber für alle Anderen stellt sich die Frage ob man die Karte braucht und ob man die Nachteile in Kauf nehmen will.
Ich wart lieber und schau was NV mit der GT200b auf die Beine stellt. Denn meine aktuelle GF8800GTS 512 ist in meinen Augen schon das Maximum, was ich an Lautstärke ertragen will.
 
Wie immer das Chaos mit Dual-GPU-Lösungen! Zwar stärker als ihre Single-Konkurrenz, aber viel lauter und energiefressend(er). Bei jeder Generation trifft dieses Phänomän auf und jedesmal schreien die Menschen.

Irgendwie erinnert mich das an die alten V8-Boliden auf der Straße. Da gings auch um:
-mehr Hubraum :king:
-mehr Leistung :D
-mehr Verbrauch :mad:
-mehr Sound :freaky:

Das Ergebnis ist bei Grafikkarten und V8-Boliden das gleiche: Fahren sich extrem gut, aber an der Tankstelle (Stromrechnung) heult der Geldbeutel und das Gehör bei voller Dröhnung. Wer sich so etwas leisten kann, nur zu! Aber wehe hinterher heult jemand, über die Folgeschäden! :evillol:

Ergo:
Nichts neues im Gehäuse? Doch! Eine Heizung, die demnächst sogar Spiegeleier braten kann. Gratulation an diese "wieder" einmal völlig unnötige Kraftschleuder. Wer so eine für's Ego braucht hat das Prinzip nicht verstanden. Eine Geforce ab 8xxx oder vergleichbare Radeon 37xx reichen doch für die meisten Spiele aus - und das sag ich als 26" TFT Nutzer.
 
"Da man mit einer einzelnen RV770-GPU nicht ganz an die Leistung des GT200-Pendants auf einer GeForce GTX 280 heran kommt, schickt ATi nun also eine Dual-GPU-Karte ins Rennen, die auf gleich zwei Rechenkerne desselben Typs setzt. Sie soll die Performancekrone mit einem großen Knall von Nvidia zurück erobern."

Ich finde, dass sagt schon alles...
Nvidia könnte eine dual-core GPU mit dem GT200 Chip bauen und ATI läge wieder hinten
Außerdem kann mein Kumpel mit seinem System (2x2,66ghz, 4GB RAM, 9800GTX) Crysis alles auf hoch und mit einer Auflösung von 1280x1024 absolut ruckelfrei spielen, von daher..

_____________________
Wer Rechtschreibfehler findet, darf sie behalten
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
https://www.computerbase.de/forum/t...hysx-im-ueberblick.442949/page-3#post-4619912

Denke du meinst so etwas wie den Fastra bei NV: Du vergisst aber das es für 8GPUs kein CF gibt und ATI vor kurzen erst Close to Metal(CTM;CAL) eingestampft hat.

https://www.computerbase.de/2008-08/ati-gibt-cal-auf-und-konzentriert-sich-auf-dx11/

Also nicht mal so was wie Cuda würde bei deinem kleinen Supercomputer unterstützt werden...

Des weiteren ist der Phenom 9950 auch nicht besser geeignet für GPGPU als der 9850 weil er keinen höheren Hypertransport hat. Und das ist der einzige Grund warum ein Phenom bei so einem Supercomputer gebraucht wird, um die 8GPUs schnell mit der CPU kommunizieren zu lassen, der Takt spielt dabei fast keine Rolle.

MfG Kasmo

auweia. ja stimmt, die 4870x2 hat ja nur einen Crossfire-Steckplatz.
Damit ist eine Verbindung von 4 solcher Karten nicht möglich.
Das hab ich übersehen.

aber einbauen könnte man die doch trotzdem 4 Stk. für andere Zwecke (physikbeschleunigung, oder distributed computing)
 
Kunibert_KA schrieb:
Oha, bist du kein Mensch? Sind deine Freunde die Ruckler bei >60fps sehen Aliens?
Oha, da hab ich wohl das Weltbild von jemandem empfindlich gestört ...

Kunibert_KA schrieb:
Zur Info: Menschen sehen ab 16-18fps Bewegungen als flüssig. Nur bei sehr hohen Kontrasten kann eine höhere Frequenz von nöten sein.
Und alle paar Tage behauptet jemand, dass der Mensch bei noch weniger FPS alles flüssig sieht ... da ja alle Menschen exakt dasselbe Empfinden haben, gleich denken, gleich handeln und sowieso alle dieselben körperlichen Eigenschaften haben, passt eine Verallgemeinerung natürlich wie die Faust aufs Auge. :rolleyes:

Kunibert_KA schrieb:
Wenn du bei 60fps Ruckler siehst, wie wirkt dann Fernsehen (25fps - auch bei HDTV) oder Kino (24fps) auf dich?
Du übersiehst da etwas ... ich spreche von 60 FPS mit Multi GPU Karten, und im Fernsehen sind es 25 voll-, aka 50 Halbbilder, die Regelmäßig, ohne Ruckeln ausgegeben werden.
Des Weiteren erlebt man diese FPS nicht wie du hier jetzt wohl sagen willst interaktiv, wie einen Shooter am PC z.B., sondern eben passiv, oder steuerst du dein Fernsehen mit der Maus ?
Im Kino, wie du schon sagst, 24 Fps, sieht man bei schnellen Bewegungen ein Ruckeln, aber da du es nicht merkst, existiert es ja schlicht und einfach nicht, oder ?

Kunibert_KA schrieb:
Kannst du mir mal da bei deiner Mathematik helfen?
Wenn ein System wegen Microrucklern zwischen deinen 10 und 100fps schwanken würde wären das 55fps im Schnitt und nicht 60. Um auf 60fps im Schnitt zu kommen müssten die minFps 20 sein, oder die maxFps 110 ?
Schau mal auf die Uhrzeit meines Kommentares, ich bin da nicht gerade aufgestanden, ich war da noch wach, daher habe ich mir nicht die - zugegeben kleine - Mühe gemacht, alles mathematisch korrekt zu machen; das, was ich darstellen wollte ist aber trotzdem ersichtlich, oder ? Was wäre dir lieber: Wenn deine Spielgeschwindigkeit einer Achterbahnfahrt gleicht, oder einer Fahrt auf der Landstraße, wo man mal beim Kurven Fahren etwas langsamer wird, aber dann auf der Geraden konstant schnell, statt jede Sekunde immer vom Gas auf die Bremse zu rutschen und umgekehrt, oder eben kurz sehr schnell und danach kurz sehr langsam ist ?

Kunibert_KA schrieb:
Wieso sollte der Unterschied aber auch so groß sein? Wenn Schwankungen auftreten dann sind sie sehr selten in dieser Größenordnung. 10fps sind 16% der Durchschnitts FpS. Bei deiner Einzelkarte nimmst du für die minFps 25 an was 62% der Durchchnitts FpS sind.
Würde man das selbe für die MultiGPU-Karte annehmen dann hätte man 37,5 fps (60fps*62,5%), was wie oben geschrieben auf jeden Fall ruckelfrei sein würde.

Der Unterschied ist bei SLI/CF nunmal sehr häufig so groß, es gibt eben einfach relativ häufig Frame Drops (so zumindest bei der alten 3870 X2 und allen Multi GPU Lösungen mit 512MB VRAM oder weniger, ich muss zugeben, dass ich die neue nicht auch noch "testen" will, eventuell hilft da der größere VRAM schon ne ganze Ecke weiter) und diese fallen/fielen mir bei einer Multi GPU Karte einfach sehr viel stärker auf.
Und wie man in deiner Beispielrechnung auch schon sehen kann, kommt man mit den min fps auch langsam in den Bereich, wo selbst Leute, die weitaus weniger empfindlich sind, die Mikroruckler bemerken.
 
Weil so gerne PCGH kritisiert wird - bei hartware.de schneidet die Karte mindestens genauso mies, eher schlechter ab.

cYa
 
Rambo5018 schrieb:
Ich finde, dass sagt schon alles...
Nvidia könnte eine dual-core GPU mit dem GT200 Chip bauen und ATI läge wieder hinten
Außerdem kann ich mit meinem System (2x2,66ghz, 4GB RAM, 9800GTX) Crysis alles auf hoch und mit einer Auflösung von 1280x1024 absolut ruckelfrei spielen, von daher..

NVidia darf das ja auch machen. Das hat denen keiner verboten. Momentan hat AMD aber die schnellste Grafikkarte im Programm. Ist nunmal so.
Und ich spiele nicht auf 1280x1024, könnte also gerne etwas mehr Leistung gebrauchen. Die HD4870X2 könnte halbwegs reichen.
 
FredKune schrieb:
Und ich spiele nicht auf 1280x1024, könnte also gerne etwas mehr Leistung gebrauchen. Die HD4870X2 könnte halbwegs reichen.

In Crysis kann man CF und SLI vergessen, da gibt es nur eins: Eine hoch Übertaktete GTX 280, alles ander ist nicht brauchbar!
 
Zitat Hartware (Bench COD4): "Im ersten Praxistest folgt dann auch gleich die Ernüchterung. Bei hoher Bildqualität kann sich die 4870 X2 zwar an die Spitze setzen, aber durch die CPU-Limitierung von Call of Duty 4 liegen alle Top-Grafikkarten zu eng beieinander, um wirkliche Unterschiede zu spüren."

Jetzt meine frage. kann es sein dass die X2 eine brachiale Rechenpower seitens der CPU fordert. Denn die bei Hartware haben einen Dualcore ( @3,33 GHZ) genauso PCGH Dualcore @ 3,6 GHZ.

Bei anderen tests wo die X2 wesentlich besser abschneidet haben sie eine @ 4GHZ Quadcore. Mich würde mal interessieren wie die Skalierung bei Dualcore Quadcore und unterschiedlichen MHZ ist.

Zur x2 selbst. Kauft sich kaum jemand also kein Grund groß über Verbrauch lautstärke etc zu diskutieren und sich die Köpfe einzuschlagen


mfg
 
Zurück
Oben