Test Test: ATi Radeon HD 4870 X2

@Göschle

kannst so 600-650 Watt rechnen :) bissl mehr kann nie schaden,bei einer effizienz +80%
und die 12Volt schiene sollte in jedemfalle mehr als 30A haben(12v1,12v2,12v3 etc=gesamt 40 als bsp)


OFFTOPIC:

Lorans soviel Arbeit die kein Schw*** interessiert ,hättest es dir schenken können :).
CB und Toms UND PCGH und Hartware und und und und ...
philosophieren den ganzen Tag rum ;)

Ist das eine 4600?
Liegt Amd jetz bei Blizzard im Bett und und und und und...

Glaub die werden von Bild alle bezahlt :)



Slave

und du stehst auch auf der Gehaltsliste =)
 
n1, Lor4ns, war ein augenschmaus dein post ;)

Jo, sinnvoll wars net, lustig schon :D
 
Ein 600W Netzteil wäre bestimmt nicht schlecht aber ich kenne mich da nicht so aus. Wenn ich die mir kaufe brauch ich ein neues NT, 2 zusätzliche Lüfter und 2 neue Sata-Kabel (Die gehn zu flach übers Mainboard, also zu kurz, da passt die Graka nicht drunter)
 
BrOokLyN R!ot ³ schrieb:
hohohohoho Ich sehe nur noch ROT! :D:D:D

Nee mal im ernst euer Performance Rating müsst Ihr mir mal erklären , In allen Spielen ist die Kiste vorne nur in NV Programmierten Games mal so 10-15FPS hinter dem GT260 SLI. Wie ergibt sich das dann bitte das die GT 260 SLI vorne ist???

Gruss Jens
Das dachte ich mir auch schon ^^ Bis auf G3 und einpaar DX10 Spiele war immer Rot vorne aber CB wird sich dabei schon was gedacht haben ...

Etwas an den Treibern muss aber ATi noch feilen, denn stellenweise ist eine CF aus zwei einzeln HD4870er schneller als die X2 und das sollte nicht sein ;-) Zu dem sollen die endlich mal 4xAA in den Griff bekommen! Wenn die Karte so gut bei 8x abgeht muss das doch auch bei vierfach drinnen sein :-/ Und bringt endlich einen Treiber mit Powerplay für die einzel Karten :mad:
 
Lor4ns schrieb:
https://www.computerbase.de/forum/t...sst-die-konkurrenz-hinter-sich.425084/page-35

"nvidia kann einpacken, ich würd alle aktien verkaufen, der marktanteil wird einbrechen"

Ja, das liegt sicher an den behobenen Microrucklern und dem geteilten Speicher... oh, warte! :-P
--

Da hat er aber recht gehabt:

http://aktien.onvista.de/snapshot.html?ID_OSI=92472

Test der GTX 260 auf CB: 3. Juni
Test der GTX 280 auf CB: 16. Juni

Ein Schelm wer böses dabei denkt...:evillol:
Wobei der kleine Notebook-GPU-Unfall sicher mehr dazu beigetragen hat :eek:


Die 4870 X2 finde ich übrigens zu laut, genau wie alles, was über einer 4850 (grad noch erträglich) liegt. Was lauteres kommt mir nie wieder nach Hause.
 
Wie sind eigentlich die Maße der 4870X2? (Länge, Breite, Höhe) Das ist wichtig für mich!!! Könnte über kaufen und nicht kaufen entscheiden.
 
27 cm Länge, 2 Slots hoch, Standart (ATX)-Breite s. Artikel

edit:

Nach Überfliegen des Artikels+Comments hab ich mal son paar Kritikpunkte zusammengefasst (wenn ich was Vergessen haben sollte, bitte mit Angriff auf meine Person ;) ergänzen/berichtigen)

1. Kühlungsproblem:
- zu laut
- zu heiß
Die Hersteller (ASUS, MSI...) sollten einfach alternativ eine 3-Slot-Kühlung verbauen. 1x3-Slot sind immer noch weniger als 2x2(2 4870er CF).

2. Mikroruckler:
Wers wirklich mal erlebt hat und wens dann auch wirklich stört, soll einfach die Finger vonn der Karte lassen und nicht rumpöbeln.
Eine wirkliche Lösung lässt sich wegen AFR nicht finden.

3. Preis:
Wenn jemand unbedingt meint 420 Tacken sind zuviel für die Leistung dann soll er sich halt in einer niedrigeren Leistungsklasse umsehen. Mehr Leistungsvorsprung (in FPS) gab es noch nie für das Geld.
Problem sind die 2GB Speicher, könnte man 1 GB effektiv nutzen würde man die Karte sicher 50-70€ billiger kriegen.
 
Zuletzt bearbeitet:
27cm Lang steht doch im Test .. der Rest ist irrelevent da nicht über das PCB hinausreichend.
 
Könnt ihr vielleicht einschätzen, wie teuer diese Graka ende des Jahres sein wird? Vielleicht 300-350€?
 
Können wir bitte von Frameversatz sprechen und nicht von Mikrorucklern, denn das trifft den Kern des Problems mehr als das immer wieder verwendete Wort Mikroruckler.

Das Bild ruckelt nicht wirklich, die Frames werden nur Zeitversetzt von einander mit nicht gleichbleibenden Milisekunden-Abständen zum nächsten Bild ausgegeben, was einem Framversatz entspricht. Damit fällt praktisch jeder zweite Frame in ein "Loch". Es ist eher ein Jitter (Taktzittern) was die Empfindung eines Ruckelns im Auge des Betrachters auslöst.

Stark vereinfacht dargestellt:
F1 60ms > F2 10ms > F3 60 > F4 10ms usw.

Damit benötigt man eine viel höhere Framerate, um diese Problematik auszugleichen. D.h. eine MultiGPU-Karte muss immer mehr FPS-Performance aufwenden als eine SingleGPU-Karte, um das subjektive Empfinden (!) einer flüssigen Darstellung zu erzeugen.

Bei SingleGPUs tritt dieses Problem nicht auf. Ein fast gleichbleibender Zeitabstand der Frames zu einander wirkt selbst bei halber Framerate noch als ein flüssiges Bild.

Und wer jetzt behauptet, dass der Frameversatz kein Problem darstellt, der hat eine MulitGPU-Karte noch nicht in Aktion neben einer SinlgeGPU gesehen. Der Frameversatz ist ein ernstes Problem der MultiGPU-Karten und sollte endlich mit dem nötigen Ernst von den Herstellen angegangen werden. Sowohl von ATI als auch von nV. Diese Bananenharware können sie behalten.

Die 4780 X2 muss (!) 50% mehr Power bringen als die GTX280, um dieses Effekt auszugleichen. Mal mehr, mal weniger. Also fragt Euch mal, warum ATI die Karte so weit vor die GTX gebracht hat, obwohl dies zum heutigen Zeitpunkt garnicht notwendig gewesen wäre, oder glaubt ihr etwa, dass ATI erst durch die Testberichte erfahren hat, wie die Karte rumlärmt und mit welcher Verlustleistung sie um sich schmeisst. Es ging nicht anders.
 
Zuletzt bearbeitet von einem Moderator:
Mahagon Coral schrieb:
Und alle paar Tage behauptet jemand, dass der Mensch bei noch weniger FPS alles flüssig sieht ... da ja alle Menschen exakt dasselbe Empfinden haben, gleich denken, gleich handeln und sowieso alle dieselben körperlichen Eigenschaften haben, passt eine Verallgemeinerung natürlich wie die Faust aufs Auge. :rolleyes:
Ich habe nicht gesagt das geringe fps auf jeden Fall genug sind. Ich habe (und tue das auch weiterhin) bezweifelt das ein Mensch bei 60fps und mehr Ruckler sehen kann.
Bzgl der körperlichen Eigenschaften: ich denke du hast wie ich auch zwei Augen die aus den selben Zellen aufgebaut sind und die den selben physikalischen Gesetzen unterliegen?
Sicherlich ist es unterschiedlich wie Menschen Ruckler wahrnehmen und als wie störend sie diese empfinden, aber du kannst mir doch nicht ernsthaft erzählen wollen das du und andere einzelne Bilder bei mehr als 60fps unterscheiden können wenn die Mehrheit das ab 18fps nicht mehr kann? Dein Sehapparat ist 3-4 mal besser als derjeniger der der allgemeinen Menschheit zur verfügung steht?
Mahagon Coral schrieb:
Du übersiehst da etwas ... ich spreche von 60 FPS mit Multi GPU Karten, und im Fernsehen sind es 25 voll-, aka 50 Halbbilder, die Regelmäßig, ohne Ruckeln ausgegeben werden.
Des Weiteren erlebt man diese FPS nicht wie du hier jetzt wohl sagen willst interaktiv, wie einen Shooter am PC z.B., sondern eben passiv, oder steuerst du dein Fernsehen mit der Maus ?
Im Kino, wie du schon sagst, 24 Fps, sieht man bei schnellen Bewegungen ein Ruckeln, aber da du es nicht merkst, existiert es ja schlicht und einfach nicht, oder ?
Ruckeln entsteht wenn die Positionsänderung eines Objektes sehr groß ist oder der zeitliche Abstand zwischen dem ein Gegenstand an unterschiedlichen Positionen dargestellt wird so lang ist das wir keine kontinuierliche Bewegung mehr wahrnehmen.
Unabhängig vom Anzeigeverfahren bleiben es beim Fernsehen also 25 Bilder pro Sekunde die unterschiedliche Positionen darstellen können. Das Halbbildverfahren dient dazu das Flimmern zu begrenzen. Ist das selbe wie beim TFT oder der Röhre. Auch wenn ich 10fps habe werden eben 60 Bilder pro Sekunde oder mehr bei einer Röhre dargestellt. Dann eben wie beim Fernsehen ein und das selbe mehrmals bis ein neues fertig ist.
Was die Art des angesehenen angeht: Ich kann mir keine Mechanik vorstellen die dazu führt das sich die physikalisch-chemischen Vorgänge im Auge und Hirn durch die Art des betrachteten Gegenstands verändern.
Ich denke du zielst hier eher auf Verzögerungen der Reaktion des Spiels auf deine Aktionen ab. Diese haben aber nur zum Teil etwas mit der Anzeige zu tun. Dort geht es eher um die Latenz der Verarbeitung der Eingabe.
Mahagon Coral schrieb:
Der Unterschied ist bei SLI/CF nunmal sehr häufig so groß, es gibt eben einfach relativ häufig Frame Drops (so zumindest bei der alten 3870 X2 und allen Multi GPU Lösungen mit 512MB VRAM oder weniger, ich muss zugeben, dass ich die neue nicht auch noch "testen" will, eventuell hilft da der größere VRAM schon ne ganze Ecke weiter) und diese fallen/fielen mir bei einer Multi GPU Karte einfach sehr viel stärker auf.
Und wie man in deiner Beispielrechnung auch schon sehen kann, kommt man mit den min fps auch langsam in den Bereich, wo selbst Leute, die weitaus weniger empfindlich sind, die Mikroruckler bemerken.
Framedrops sind aber etwas anderes als Microruckler.
Microruckler meint das alternierende Wechseln zwischen zwei Abständen zwischen aufeinander folgenden Frames. Diese entstehen wenn der Treiber an beide GPUs (nahezu) gleichzeitig Frameberechnungen anstößt und diese dann eben auch (nahezu) gleichzeitig fertigwerden. Danach ist dann wieder eine längere Pause bis das nächste Doppelpack fertig ist. Der VRAM hat darauf keinen Einfluss. Der VRAM ist für 'längere' Framedrops mitverantwortlich wenn eben diese Voll ist bzw die benötigten Daten nicht enthält.

Ich möchte noch anfügen das dieses hier jetzt nicht zu hart werden soll. Ich finde es nur schlecht wenn Dinge behauptet werden die unmöglich oder sehr theoretisch sind. Wir sollten uns hier doch eher an der Realität und Fakten orientieren.
 
Hi

Alle Post habe ich jetzt nicht gelesen,
hab aber eine ganz einfache Frage dazu ( auch wenn das für einige lächerlich ist )

Warum ist eine X2 Schneller als 2 4870 im CF

Danke
 
Man, ich bin so froh 4 Jahre lang, bis mitte 2007 mit einer NV2MX400 gezockt zu haben. Das hat mich irgendwie relativ Immun gegen ruckler gemacht, und somit "immer her mit DUAL UND QUAD GPU-KARTEN!!!!"

Wollt ich mal los werden^^

Also... dieser übergroße Tennisball auf dem "Verbrauch,hitze,Kosten,µruckler(Frameversatz),etc" stehen wird ja hier eh von Post zu Post hin und her geworfen, dazu das dumm machen anderer Fanboy-poster... also bei Seite 6 hab ichs gelassen, soviel dünnes.... da reg ich mich echt nur auf und wie sich manche da so reinsteigern können, teilweise.... naja jedem seins....

Meiner meinung nach sollte ATI für diese DUALGPU Karten ne neue Spezifikation erfinden, damit dank neuer Namensgebung der Vergleich mit Crossfire bei X2 Karten wegfällt. Dank diesem Chip, worüber die GPUS besser kommunizieren können, macht sie dem normalen Crossfire theo überlegen, wenn er genutzt wird. Zudem vertrette ich die ansicht, wenn ein Bugatti mit einem(1) 1000PS Motor 400 fahren kann, und ein Audi mit 2x800PS 460km/h, haben beide entweder die selbe existenz rechte, oder garkeine. Wie man nun 400 fährt, ist scheiß egal, hauptsache man schafft es. gut, der 2x800PSer verbraucht mehr sprit, weniger kofferraum.... naja wers braucht. Dafür ist er wie gesagt 60km/h schneller.... und somit DER SCHNELLSTE WAGEN!!! Was die erwartung an den Wagen war, er sollte nie spritparend sein, oder viel Kofferraum geschweige Komfor liefern..

Das kann sich nun jeder selber auf GTX vs HDX2 überleiten...

Meiner meinung nach könnte man nur protestieren wenn 2x Audi mit JE 800PS(der eine zieht den anderen) gegen den Bugatti antretten. Weil dann sind es ZWEI(2) Autos gegen eins, DAS GEHT NICHT UND IST UNFAIR.

Ansonsten, ist es nur ein anderes Konzept und deshalb daseinsberechtigt, nicht mehr und nicht weniger als das andere.

Man sollte die X2-Karten-technologie umbennen damit man sie als eigenständige Karte mit 2 GPUS ansieht und nicht als zusammenschluss von einer HD4870 und noch einer HD4870, schon durch den sonderchip kann dies nicht vergleichen.

Bin mal gespannt wie alles wieder ausgelegt wird und auf meinen Post wieder die selben Antworten und Argumentationen kommen wie schon auf den restlichen 20 Seiten.

PS: Ich möchte meine meinung mit diesem Post keinem Aufzwingen oder ähnliches. Sind halt meine Gedanken dazu und gut, bin kein Fanboy von ATI oder NV, obwohl ich zugebe sympatien für ATI zu hegen, keine ahnung warum, is zumindest nicht so krankhaft wie bei manch anderen. gut, das wird jetzt wieder schon manchen reichen... aber hätten die NV-vertreter genau so argumentiert, wenn die GTX zu ATI und die X2 zu NV gehören würde und NV somit wieder die Performancekrone hätte?

Fragen über fragen...

Rechtschreibfehler dürfen behalten werden....

EDIT: mir kommt da grade noch ne eingebung zu thema vergleichen. Die Performance darf sowieso nicht verglichen werden(nach meinung einiger), aber Strom und Hitze? Zudem, wir sollten bei Grafikkarten vllt neue Kategorieren zum Thema Leistungsvergleich einführen. IDEE: Performanceranking Single-GPUS, Performanceranking DUAL-GPUS und Performanceranking-X_GPUS. ATI gewinnt 2 von 3 rankings=Leistungskrone?
 
Zuletzt bearbeitet:
Danke an alle Verfasser von Kommentatoren zu diesen Test. Die letzten 30min war äußerst amusant. Die einen machen sich über Mikroruckler und co. her und machen die Karte nur schlecht, wollen die negativen Punkte nicht wahr haben und ignorrieren sie.
Einzig die wirklich neutralen Kommentare bleiben unbeantwortet, da beide Fanlager mit deren Objektiviät leben können.

Danke an euch alle.:lol:^^

Kurz zu mir: natürlich bin ich ein Noob der keine Ahnung von nix hat. Nein ich bin kein Fanboy, höchstens zurzeit ein kleiner AMD/ATI Sympathisant, da ich immer für die eher unterlegene Firma bin. In meinem Rechner arbeiten aber ein Intel-Proz und eine Nvidia-Grafikkarte, da ich mir immer die zu diesem Zeitpunkt besten Artikel kaufe.

ps: bekommt diesen blöden Kommentar nicht in den falschen Hals.^^ Es ist schon spät und als Kind ist man dann übermüdet.

mfg MM
 
@Lor4ns: Sehr gut geschrieben, aber wir wussten schon vorher das Cosmic ein ATI-Fanboy ist ;) Bin mir allerdings sicher das man sowas ähnliches auch für seinen Natürlichen Gegenpol hier auf CB, Unyu, schreiben könnte :evillol:

Was ich allerdings EXTREM Feige von dir finde ist das du nicht die Courage hast das unter deinem eig. CB-Account zu schreiben, wer immer du bist, sondern dafür einen neuen erstellst :mad:.
Denn du bist mit Sicherheit kein Neuling auf CB, den sonst würdest du Cosmic nicht so gut kennen.
 
zig*zag schrieb:
Also wenn ich mir folgenden Link anschaue, bin ich so froh über Singlechip Lösungen!

http://www.pcgameshardware.de/aid,6...weist_Mikroruckler_auf_der_Radeon_HD_4870_X2/


Sowas total beknacktes? Das Ruckeln im Ruckeln? Die wundern sich das wenn man etwas mit 10-15fps spielt das es nicht SOOOO flüssig aussieht? Autsch... ey leute ehrlich mal AUUUUIAIAGIUIUGIuAUiFIUTIUU AUTSCH!!! Boar ey.... Ich würde die Szene gerne mal mit 30fps sehen wie da die microruckler aussehen, danke an psgamesNVware........

PS: zeigt doch mal bitte einer ein Video mit einer Singlekarte, dieser Szene und auch zwischen 10-15fps, zum besseren Vergleich fürs ungeschulte auge...

EDIT: Sorry, ging durch, hab mich leider doch aufgeregt^^
 
Zuletzt bearbeitet:
@COSMICPARTY: hab schon viele fanboys gelesen, aber du verdienst echt die krone. ATI - das gute, nvidia - das böse. Beschränkter gehts eigentlich nicht mehr.

@Lor4ns: hast du super zusammengefasst, sein fanboygesülze. Schade aber, dass du für deisen post einen extra account anlegen musstest, hättest dich ruhig zeigen können. Ich gehmal davon aus, dass du schon länger hier im forum dabei bist ;)
So hat das ganze einen etwas faden beigeschmack..
Der hardcore ATI-fanboy cosmicparty braucht sich aber nun nicht aufgewertet fühlen, denn peinlicher als dieses nvidia bashing gehts echt nimmer..
 
Es geht hierbei nicht um das schwammige... das ist normal bei den Frames, sondern achte mal auf das Hackeln im Sekundentakt. Ätzend! MultiGPU ist nach wie vor Beta und das bis es eine anständige Lösung gibt wird noch einiges an Artikel ins Land ziehen müssen. Ich erinnere mich da stark an das Texturflimmer Problem beider Hersteller.
 
Na bei 10 bis 15 Frames pro sekunde ist ja klar dass es ziemlich ruckelt. Kann ja sein, dass da Mikroruckeln ist, aber ich habe das noch nie live erlebt von daher kann ich das nicht beurteilen.
Könnte vielleicht mal jemand, der eine Dual-GPU Karte besitzt ein Video vom µruckeln machen und das irgendwo zum anschauen bereitstellen. Ich denke damit wäre vielen geholfen. Das von PCGH finde ich übertrieben in die Dramatik gezogen, wenn sie ein Video mit µruckeln mit 30FPS rein gestellt hätten wäre es sinnvoller gewesen.
Ich will hiermit keinesfalls das µruckeln schön reden und mir ist klar das µruckler vorhanden sind und man sich damit abfinden muss. Aber ich würde gerne mal ein Videl davon sehen.
 
Zurück
Oben