Test Test: ATi Radeon HD 4870 X2

zig*zag schrieb:
Es geht hierbei nicht um das schwammige... das ist normal bei den Frames, sondern achte mal auf das Hackeln im Sekundentakt. Ätzend! MultiGPU ist nach wie vor Beta und das bis es eine anständige Lösung gibt wird noch einiges an Artikel ins Land ziehen müssen. Ich erinnere mich da stark an das Texturflimmer Problem beider Hersteller.

Gut, das das irgendwie immer zu springen scheint, schein ich auch zu merken, aber was erwarte ich den bei 10-15fps? WENN ich das bei 30fps auch SO sehen würde, wäre es auf dauert vllt wirklich nervig, aber bei 10-15fps wundere ich mich über nix wenns mal hackt, da regt mich dieses schwammige mehr auf....^^

Ich hoffe du hast meinen Post dort nicht falsch verstanden, hab mich gegen PCGAMES aufgeregt, sollte aber alles korrekt rüber gekommen sein :P
 
@v4uen: dann pass du mit deinen Kommentaren auch besser auf. Du weist ja, wer jmd als ATI-Fanboy beschimpft wird schnell zum neuen NVIDIA-Fanboy (auserkoren).:p .
Deswegen musste jetzt noch zur Vervollständigung auf diverse NVIDIA-Fanboys eingehen.

Eines muss man aber beiden "Lagern" lassen. Sie wissen es, mich zu amüsieren.:D
 
Also wenn ich mir folgenden Link anschaue, bin ich so froh über Singlechip Lösungen!

http://www.pcgameshardware.de/aid,6...weist_Mikroruckler_auf_der_Radeon_HD_4870_X2/


Ich denke, dass diese niedrigen Frameraten ganz bewusst gewählt wurden, da hier das Problem erst richtig sichbar wird. In höheren FPS ist das Frameversatz-Problem nicht so stark auffällig und so eindeutig zu sehen. Gut zu sehen, wenn er von der zweiten Klippe springt.

Wenn man genau hinsieht, kann man erkennen, dass das Bild immer in einem festen Muster zu springen scheint, egal ob viele Polygone im Bild sind oder nicht. Und genau das ist der Frameversatz.

Richtiges Ruckeln entseht erst, wenn die Framerate ings. stark abnimmt und dann auch gleichbleibend und nicht wie hier zusehen in regelmäßigen Bildsprüngen trotz ausreichender Frameraten.
 
Zuletzt bearbeitet von einem Moderator:
ViperHawk schrieb:
Ja aber hallo.
Wie kann man eine einzelne GPU mit Zwei GPU messen das ist nicht Fair.
Und so sieht es aus wenn die 280 GTX im SLI arbeitet... das ist Fair

https://www.computerbase.de/2008-06/test-nvidia-geforce-gtx-280-sli/13/#abschnitt_3dmark_vantage


Wie wärs wenn du nicht nur 3dmurkse sondern auch Games in den Vergleich mit einbeziehen würdest? z.b. könnte ich auch sagen bei COD4 rockt die HD48X2 die GTX280erSLI in die Tonne...

Ansonsten, lies bitte meinen post auf Seite 20, will nicht nochmal erklären was ih von 1vs 2 GPUS halte, wenn es interessiert...

Edit: Soll ich jetzt anfangen das die 280erGTX-SLI gute 60W mehr braucht^^
 
Die ATi-Karten erledigen die Arbeit sowohl im H.264- als auch im VC-1-Codec wie gewohnt besser als die Nvidia-Exemplare.
Hmmm? Sicher? Dann ist doch das Diagramm falsch. Das zeigt nämlich die GTX 280 bei der VC-1-Wiedergabe fast doppelt so schnell vorne. :o
 
Pict schrieb:
Wieso sollte man auf die Antwort seitens NV gespannt sein ?
Entweder sie antworten nicht, oder mit einer art GTX 280 X2.

Seit der 3870 X2 und der 9800 GX2 gehts in dieser Beziehung abwärts.
Ich hätte mir gewünscht das NV und ATI von der 7950x2 gelernt hätten, aber das blieb ja offensichtlich aus. Mal abgesehen von Crysis, was eh Suboptimal ist wenn man darüber nachdenkt das ein Spiel realistische Anforderungen haben sollte, ist eine Multi GPU ineffizient.
Mikroruckler sind nur das kleinere Übel. Meistens wartet man einen oder 2 Monate bis die Treiberprobleme gelöst wurden um das Spiel endlich mal auf CF oder SLI Niveau zu spielen.

Für mich bleibt eine highend single GPU alle 2 Jahre die beste Lösung. Vor allem bei den ohnehin niedrigen Preisen jeglicher GPU`s im Highend Segment.


falsch eine highend gpu alle 2 jahre ist nicht clever.
eine mainstream / knapp unter highend karte jedes jahr ist günstiger.. zahlst etwa das gleiche und hast die gesamten 2 jahre gute performance (da die mainstream karte die du nach einem jahr kaufst ne ganze ecke schneller als die highend karte vom letzten jahr ist)

beispiel: es war cleverer sich ne 4870 bei release zu holen für 250€ und dann in einem jahr die dann zu kaufende karte in dem preis bereich für 250 als jetzt ne GTX 280 zu release für 500€ und in 2 jahren die nächste 500€ karte..
 
@ medic...Also ich kann von diesem Framesatz-Problem wie du es nennst bei 10-15 fps nicht von normalem Ruckeln unterscheiden. Das ist ja mein Prblem. Wenn es nicht auffällt bei einer bestimmten Framezahl wo is dann das Problem wenn die FPS konstant darüberliegen oder fällt das auch bei höheren Framezahlen auf.

ich will endlich Microruckler sehn die für mich als solche auch erkennbar sind. Ich leg mir doch kein CF/SLI zu nur ums mal zu sehen.
 
@Attila265: das kann man so auch nicht sagen. es war auch clever sich beim release eine 8800gtx für 500,- € zu holen und eineinhalb jahre lange eine absolute highendkarte im rechner zu haben und selbst nach 2 jahren immernoch im oberen mainstream dabeizusein, ohne noch einen cent für eine neue karte ausgegeben zu haben ;)
das kann man einfach vorher nicht wissen, wie sich der markt und die konkurrenz entwickelt... aber im großen und ganzen stimme ich dir schon zu...
 
Ich bin der gleichen Meinung. Ich hab noch nie µruckler gesehen und kaufe mir erst ein 4870x2, wenn ich microruckler gesehen habe.
 
Genau TigerRC und der rest von den Games Rockt dann auch in die Tonne.... Das ist ein Spiel wo sie abzieht UUaaahhh
 
ViperHawk schrieb:
Genau TigerRC und der rest von den Games Rockt dann auch in die Tonne.... Das ist ein Spiel wo sie abzieht UUaaahhh

Hörst dich so an, als ob du dich angegriffen fühltest? War so net gemeint sorry^^
Vllt hab ich dich auch falsch verstanden, aber wenn CB die 280erGTX-SLI wirklich mal getestet hat, warum steht sie dann wirklich net im Ranking? Wäre ja dann nicht die Hürde gewesen, sorry ich dachte die ganz zeit über das nur mal die 260erSLI getestet wurde, den 280erSLITest muss ich verpasst haben. Sicherlich ist die 280erGTXSLI auch noch in den meisten spielen vorne, und COD4 ist nicht das einzige für die HD48X2 das gut läuft, aber wie würdes im vergleich wieder zum P/L aussehen? Ic meine, Temps, verbrauch und Lautstärke nehmen sie sich ja nun nicht mehr viel, auch µruckler fallen als argument weg. Bleibt übrig das angesprochene P/L und ob man die X2 als 1Karte oder als DualGPU sieht, oder ob man wie ich sagt, 2x280erGTX müssten, da es 2 Karten sind, auch gegen 2 Karten antretten also 2xHD48X2. Für die dies anderst sehen, 2xGTX280 vs. 4xHD4870.
 
"warum steht sie dann wirklich net im Ranking?"
Tja das musst du CB Fragen ist aber schon öfters vorgekommen das sie nicht alle grakas drin haben.
Aber wenn schon dann aber zwei 9800 GX2 gegen zwei HD4870 Karten. dann ist es auch wieder etwas ausgeglichener.
 
Zuletzt bearbeitet:
ViperHawk schrieb:
"warum steht sie dann wirklich net im Ranking?"
Tja das musst du CB Fragen ist aber schon öfters vorgekommen das sie nicht alle grakas drinn haben.

Gut, da war vllt ein fehler meiner seits, für den ich mich entschuldigen möchte. Zumindest angenehm das sowas auch vernüftig auszudiskutieren geht ohne sich hier wie seite zuvor gegenseitig die hölle heiß zu machen. Wegen sowas brauch man sich ja net streiten, denke ich...
 
wenn man wirklich fair vergleichen will, darf man eh nur dual-gpu-karte gegen dual-gpu-karte vergleichen. zwei karten gegen eine ist imho auch nicht 100pro ok...
also was passen würde wäre 3870x2 vs. 9800gx2 vs. 4850x2 vs. 4870x2.
wobei letztere wohl eindeutig die schnellste ist.
interessant dürfte aber wohl der vergleich 9800gx2 vs. 4850x2 ausfallen ;)

alles andere (singel gpu, sli, cf) ist schon wieder durch die zahlreichen pros und kontras ne andere klasse... aber interessant find ich es trotzdem ;)
 
Kunibert_KA schrieb:
Ich habe nicht gesagt das geringe fps auf jeden Fall genug sind. Ich habe (und tue das auch weiterhin) bezweifelt das ein Mensch bei 60fps und mehr Ruckler sehen kann.
Es handlet sich halt bei Multi GPU Lösungen nicht um echte 60 FPS, eben aufgrund der Mikroruckler, und das kann man merken.
Der Mensch kann im Allgemeinen auch Unterschiede im ms Bereich merken, siehe Gewitter (Blitze). (Sollte ich hier ein falsches Verständnis haben, bitte eine Quelle geben, ich konnte da nicht viel auf die Schnelle finden)

Kunibert_KA schrieb:
Ruckeln entsteht wenn die Positionsänderung eines Objektes sehr groß ist oder der zeitliche Abstand zwischen dem ein Gegenstand an unterschiedlichen Positionen dargestellt wird so lang ist das wir keine kontinuierliche Bewegung mehr wahrnehmen.
Unabhängig vom Anzeigeverfahren bleiben es beim Fernsehen also 25 Bilder pro Sekunde die unterschiedliche Positionen darstellen können. Das Halbbildverfahren dient dazu das Flimmern zu begrenzen. Ist das selbe wie beim TFT oder der Röhre. Auch wenn ich 10fps habe werden eben 60 Bilder pro Sekunde oder mehr bei einer Röhre dargestellt. Dann eben wie beim Fernsehen ein und das selbe mehrmals bis ein neues fertig ist.
Was die Art des angesehenen angeht: Ich kann mir keine Mechanik vorstellen die dazu führt das sich die physikalisch-chemischen Vorgänge im Auge und Hirn durch die Art des betrachteten Gegenstands verändern.

Wenn ich mich recht entsinne, gab es bei der ganzen 24P Geschichte noch einen Unterschied, was die Bildausgabe anging, sodass eben wirklich Ruckler in langsamen(muss mich also korrigieren, habe irgendwie ne kleine geistige Blockade vorhin gehabt) Szenen entstehen können, dies hat allerdings zugegeben, nichts direkt mit dem Empfinden im Kino, sondern mit der - mehr oder weniger - aktuellen Fernsehersituation zu tun gehabt, auch da habe ich mal wieder was durcheinandergebracht :freak:
Ich konnte mich nur noch teilweise an diese Quelle erinnern und habe daher vergessen, dass das Problem nicht im Kino(in welchem ich die letzten Jahre nicht wahr), sondern erst daheim an einem nicht vollständig kompatiblen Fernseher auftritt.
Nunja, jeder macht mal Fehler, aber ich ganz besonders oft :freak:

Was das ganze restliche (auch mit PAL) am Fernseher angeht, ist mir gerade noch was aufgefallen ...
1. Es gibt in fast jeder Szene ständige Kamerawechsel, kaum noch wird die Kamera geschwenkt (zumindest bei fast allen Amerika-Produktionen), wodurch die "geringe" Vollbildzahl nicht wirklich auffällt ...
2.Wenn man das aber mal mit einer Eigenaufnahme in 60 fps vergleicht, sieht man einen Unterschied, aber nichts was einen wirklich stört.

Kunibert_KA schrieb:
Ich denke du zielst hier eher auf Verzögerungen der Reaktion des Spiels auf deine Aktionen ab. Diese haben aber nur zum Teil etwas mit der Anzeige zu tun. Dort geht es eher um die Latenz der Verarbeitung der Eingabe.
Stimmt, darauf wollte ich eher hinaus, (ich bin allerdings schlicht und ergreifend nicht besonders fähig, was ausführliche Diskussionen und Erläuterungen angeht, daher verwechsel/vermische ich häufiger etwas), Reaktionsverzögerungen und Inputlags sind beim Zuschauen absolut nicht von Interesse, beim Spielen aber schon, und da haben Multi GPU Setups ein Problem (das Prerender-Limit, welches sich mit jeder GPU erhöht, soweit ich weiß; deswegen gibt es unter XP, da kein höheres Prerenderlimit als 3 vorgegeben ist, wenn ich mich recht entsinne auch kein Crossfire X, [oder sind meine Informationen veraltet ?]), welches eben bei Spielen, bei denen man wirklich extrem schnell reagieren muss (Multiplayer Shooter), fatal sein kann (je höher es ist), egal wie schnell das Spiel was die FPS angeht läuft.

Kunibert_KA schrieb:
Framedrops sind aber etwas anderes als Microruckler.
Microruckler meint das alternierende Wechseln zwischen zwei Abständen zwischen aufeinander folgenden Frames. Diese entstehen wenn der Treiber an beide GPUs (nahezu) gleichzeitig Frameberechnungen anstößt und diese dann eben auch (nahezu) gleichzeitig fertigwerden. Danach ist dann wieder eine längere Pause bis das nächste Doppelpack fertig ist. Der VRAM hat darauf keinen Einfluss. Der VRAM ist für 'längere' Framedrops mitverantwortlich wenn eben diese Voll ist bzw die benötigten Daten nicht enthält.
Das ist mir klar, aber es geht mir auch um das Zusammenspiel beider Faktoren, also VRAM + Mikroruckler, wodurch dann Framedrops besonders übel auffallen. (eben dadurch, dass der volle VRAM z.B. für einen Framedrop auf sagen wir 35 fps verantwortlich ist und nun auch das Mikroruckeln wahrgenommen werden kann).
Beide Sachen alleine fallen nicht gerade stark ins Gewicht, bei 60 fps sind Mikroruckler eben für manche noch geradeso bemerkbar, für die meisten wohl nicht mehr; genau dasselbe kann man über framedrops sagen ... wenn die fps bei einer Single GPU auf ca. 35 fallen, merkt man zwar im Unterschied zu 60 eine Verlangsamung, das ist aber meist zu vernachlässigen, solange es eben nicht mit Mikrorucklern zusammenkommt ...
Dann wird es, zumindest meiner Meinung nach, zu einem ernsteren Problem.

Kunibert_KA schrieb:
Ich möchte noch anfügen das dieses hier jetzt nicht zu hart werden soll. Ich finde es nur schlecht wenn Dinge behauptet werden die unmöglich oder sehr theoretisch sind. Wir sollten uns hier doch eher an der Realität und Fakten orientieren.

Gut, es mag sehr theoretisch sein (und leider auch zum Teil etwas falsch), aber solange wir nicht alle die Karte selbst getestet und gesehen haben, können wir auf keine andere Ebene gehen, als eben die theoretische oder die vergleichende (beispielsweise halt Vergleiche zu älteren X2/GX2, diese haben aber nunmal im Vergleich ganz andere Probleme, wie zu wenig VRAM oder eine schlechtere Architektur für höhere AA settings).
 
@Tiger RC
Genau finde ich auch schön, kommt ja nicht oft vor leider:)


@Lübke
Das würde ich auch gerne sehen:freaky:
 
Hallöchen,

ich muss bei diesem ganzen Gesabbel über die blöden Mikroruckler auch mal meinen Senf dazu geben.

Ein SLI/CF hat das Ziel maximale Framraten zu erzeugen! Und nicht eine Highend-Karte durch
zwei Lowend-Karten zu ersetzen.

Beachtet man dies ist man ganz weit jenseits von 30 FPS und hier existieren keine Mikroruckler.
Ich habe mit meinem System jetzt schon viele Frametimings aufgenommen und nur saubere,
Einzelkarten identische Verläufe gehabt, mit maximalen 3ms Abweichung.

Und die sieht man auf keinen Fall-außerdem ist der Verlauf bei Singlekarten ähnlich "rau".

Wer kein Geld hat sich so ein unsiniges, stromverbrennendes System zu kaufen, der soll es lassen und weitehin auf seiner Krücke zocken. Mal ehrlich, bei diesem Hobby brauchen wir nicht über Strompreise zu reden! Highend oder eben nicht.

Alles Nachquatschen und Schlüsse ziehen, obwohl man selber keine Ahnung und Erfahrung
hat mit SLI/CF, wie scheinbar die Mehrzahl in diesem Thread hier, ist einfach kindisch und destruktiv.


Man gewinnt gerade zu den Eindruck, dass viele sich ihre aktuelle Hardware schöner reden wollen, weil sie zu geizig sind oder es anderen nicht gönnen das sie mehr Geld als sie selber verbrannt haben und ihnen zur Belohnung bei Zocken die Sonne aus dem A** scheint!

Die Zukunft wir eh Multi-GPU sein, allein schon wegen der Wärmeabfuhr.

Sammelt schon mal anti 280X2 Argumente!

mfg
 
Ich sage gleich, es kann sowohl 100% Falsch wie Richtig sein, aus neugier versucht zu rechnen und aus langeweile wirds gepostet^^

HD3870X2 für 150€, erbrachte Leistung= 100% P/L
HD4870X2 für 420€, erbrachte Leistung= 82% P/L
280erGTX-SLI für 2x330€, erbrachte Leistung= 62% P/L

Hab das aus den aktuellsten Test's genommen und kann sich sicherlich ändern, je nach Preis und treiber. Die 48X2 rendert 138% schneller bei 2560x""" (4AA,16AF) als die 38X2, die 280erGTXSLI 169%. Was ich den tests im ranking entnehmen konnte. hoffe das es richtig ist. Somit, NV hätte theo Leistungskrone, je nach sichtweise Dual und einzelkarte(trotz X2) sülz bla, und ATI P/L-Krone.

Meine Ansicht, hoffentlich hab ichs richtig gerechnet^^
 
Zurück
Oben