Test Test: PowerColor Radeon HD 6870 X2

Also wenn man keine 2 PCIe-Anschlüsse hat, wäre die Karte schon nicht schlecht. Aber mich schrecken die Mikrorückler hab.

Aber die 3 schnellste Karte für 350€, eventuell fällt noch der Preis ein wenig auf 300€, dann wäre es ja schon ein gutes Angebot, wenn man mit den nachteilen leben könnte.

Aber wenn ich überhaupt nochmal auf mehr als 1 GPU setzte, würde ich deutlich eher zu Nvidia greifen. AMD sollte wirklich langsam die Mikrorückler deutlich reduzieren.

Mir reicht noch total meine 5870er, damit ich die nächste Generation abwarten kann. Die Karte hat sich gelohnt.... naja auch dank der Konsolen. ^^
 
memphisray schrieb:
Mikroruckler-Problematik <-- Grafikeinstellungen runter, Problem gelöst!

Ja super Kompromiss, denn wer kauft sich auch schon für 350€ oder so eine Grafikkarte, um alles auf möglichst hohen Details zu spielen?








:freak:
 
Irgendwie hat PowerColor aber auch ein Händchen dafür, mit zunächst sehr kreativ und interessant anmutenden Eigenentwicklungen auf sich aufmerksam zu machen, um diese dann jedoch in schöner Regelmäßigkeit durch ärgerliche Detailmängel (insb. Stromverbrauch und Lautstärke) so zu verbocken, dass jeder, der sich vor dem Kauf informiert, am Ende doch einen Bogen drum macht...

Warum nicht mal ein im Kern schon gutes Produkt bis ins Detail zuende denken, PowerColor?
 
Zuletzt bearbeitet:
Es ist wirklich nur Lautstärke und Verbrau, was die Karte unattraktiv werden lässt.

Wer schonmal SLI oder CFX gefahren ist und das im High End Segment, der weiß das diese Mikroruckler nur in Benchmarks autreten (oder 2500er 16AA Einstellungen) denn mir kann hier keiner erzählen die 6990 scheiße ist wegen Mikrorukler und hat selbst ne 8800GT im PC.
Die selbes Game nicht mal auf 1024er gebacken bekommt.

Die Karten Spielen in Ebenen wo keine Single GPU ranreicht.
Deswegen ausser Konkurenz und nicht mit Single GPU`s zu vergleichen.
 
Nicht schlecht, wie diese 6870 x2 mit der teureren GTX 580 den Boden aufwischt :p :king:

Die Lautstärke im idle ist allerdings DER Grund, bloß die Finger davon zu lassen :rolleyes:

Und das Vram-Problem bei Metro 2033 darf man auch nicht außer Acht lassen ;) Wer weiß wie es in Zukunft aussieht bzgl. Vram-Usage.

Ansonsten bietet sie derart viel Leistung, das der Preis von 350 € durchaus angemessen erscheint, allerdings bekommt man für 70 € weniger bereits 2 einzelne 6870 ;), somit ist sie doch völlig überteuert :rolleyes:
 
Wenn jemand shooter mit einer Single GPU bei rund 20-40 FPS spielt kann getrost und ohne Bedenken zu einer Multi GPU Lösung greifen.
Die beschwerden über Microruckler von Leuten die kein Multi Gpu System haben kann ich nicht nachvoll ziehen.

Das was sich vor meinen Augen bei einer GPU ab spielt wenn sie am Limit mit 20-40 FPS rumkrepelt ist eine Optische gefühlte Katastrophe im Vergleich zu 60FPS im SLI oder CF da sind die MICRUCKLER harmlos gegen.
FPS unter 40 bei einer Karte sind Optisch schlimmer zu betrachten als Microuckler vom Spielerlebnis und Gefühl.

Aber jetzt kommen sowieso wieder schlaue Sprüche .
Ich schreibe das hier jetzt nicht weil ich der King sein möchte sonder nur weil es der Wahrheit entspricht wie ich das empfinde.
Habe hier durch mein SLI gut die Möglichkeit es zu testen und wer CF oder SLI heut zu tage nutzt möchte es auch nicht mehr missen.
Ich war früher auch ein ferfechter von SLI und CF und dafür schäme ich mich noch Heute die meisten Kinderkrankheiten sind behoben sicherlich ist noch eine menge verbesserungs potenzial vorhanden .
Ich persönlich würde aber 2*HD6950 empfehlen weil ich sie sie schon hatte und weiss das man mit ihren Reserven am meisten möglichkeiten hat .
Gut meine liesen sich zur 6970 flashen.
Aber 2GB sind unerlässlich in der Leistungsklasse da sich viele noch alte Spiele super aufpolieren lassen.
V Sync oder Fps Limiter sind auch noch gute Werkzeuge um die ach so verpönnten Micr zu minimieren oder aus zu merzen vorausgesetzt man merkt sie überhaupt..
MFG
 
Zuletzt bearbeitet:
Schau mal auf Post #65 und in meine Sig.

Endlich mal jemand der das ganze genau so sieht wie ich ;)
 
@Brutek
Ja es ist einfach so es gibt schon einige Games die eine GTX580 oder HD6970 Killen vor allem wenn man auf 2560*1440 setzt.
Bei Crysis 2 habe ich auch schon mal einen 4min In Game Frame Verlauf Gepostet hier bei CB mit einer Karte unspielbar mit 2 absolut Top und es konnten keine MICr gefunden werden in meinem Diagram mit Vsync 60 FPS.
Und das Spiel sah einfach nur schön aus in der Auflösung das nene ich dan auch Highend.
Solche Aussagen wie SLI oder CF ist nur zum benchen da da könnte ich kotzen.
 
Zuletzt bearbeitet:
@Visualist:

Sehe ich genauso!

Schon in Full HD ist es gar kein Problem eine GTX 580 in die Knie zu zwingen und daher bin ich mit meiner SLI-Lösung äußerst zufrieden;)
 
@Tremonia
Schon in Full HD ist es gar kein Problem eine GTX 580 in die Knie zu zwingen und daher bin ich mit meiner SLI-Lösung äußerst zufrieden
Ja habe ich auch gemerkt und deshalb muss ich mich auch schlapp lachen wenn leute schreiben lol hast ja nur nen popligen 1980*1080 TFT und fährst SLI.
Dabei denke ich mir ihr Trolls wenn es meine 2 Karten nicht packen in einer höheren Auflösung dann nutze ich FullHD.
Habe ich ältere Titel auf der Platte oder Titel die Genügend Reseveren stellen dan haue ich noch eine höhere Auflösung rein.
Mit Dual Lösungen hatt man viel Spielraum.
 
Das ist nicht ganz korrekt. Man kann LOD Bias per Inspector verschieben wie man möchte. Man sollte wenigstens erwähnen, dass es nur per externem Tool geht.
Im Treiber kann man übrigens´von "clamp" auf "allow" stellen und manches Spiel machts von allein
Hört man zum 1. mal, gibts da eine Liste von Games die das schaffen? Ansonsten ist das bei AMD viel besser gelöst, zwar nur unter DX 9 aber wenigstens automatisch.


Wir haben diesen Test mit verschiedenen Spielen und mittleren Frameraten wiederholt. Solange sich der mittlere Bereich oberhalb von 30 fps bewegt, ergibt sich ein fast ruckelfreies und ausgeglichenes Bild. Diese kleinen Unterschiede in der Bereitstellungszeit der Einzelframes fallen kaum ins Auge und stören auch nicht. Der Verlauf ähnelt schon fast dem einer Einzelkarte. Das hatten wir so eigentlich nicht erwartet.
Also das mit Tri-CF und weniger Microruckler glaube ich erst wenn ich das von anderen Quellen bestätigt bekomme, THG hat da schon so einige Hämmer gebracht. Des weiteren was wollt ihr denn mit 3x HD 6870 1GB. Das ist ja ein noch größerer Vram Krüppel als dieser hier. Tetris zocken und Zimmer heizen? Wenn das THG nicht erwähnt hat, dann kann man den Test sowieso vergessen...

aber mehr Grund-FPS fürs "flüssig"-Gefühl werden trotzdem notwendig sein, d.h. man verbrät einen Teil der zusätzlichen Leistung einfach dort, bevor man irgendwelche Einstellungen hochgedreht hat.
Laut meiner Rechnung ist die GTX 580 somit haus hoch überlegen, Grund FPS kannst du dir leicht ausrechnen indem du 30-50% der FPS von den Fake FPS abziehst.



THX @ Wolfgang, bei Crysis 2 steht ja jetzt dabei das das HD Textur Paket angewendet wird. Hätte mich schon gewundert wenn man diese gratis Bildqualitätsverbesserer nicht mittestet.

PS: Der Spieleparcours nähert sich der Perfektion, recht viel besser gehts nicht. Würd zwar wieder Crysis I rein nehmen, aber im großen und ganzen waren die Grafikkarten Tests hier noch nie besser. Bzw. du wirst immer besser. :daumen:
 
@ Visualist:

du sprichst mir aus der Seele. Deinen Beitrag unterschreibe ich sofort.



Und einmal mehr die Info an alle nervenden CF- / SLI- Meckerheinis:

mit konstanten 60 FPS (bei V-Sync: AN) gibt's keine spür- bzw. sichtbaren Mikroruckler mehr. UND: man kann CF z.B. mit 2 Mausklicks deaktivieren und mit 3 Mausklicks wieder aktivieren, ohne Neustart, SO WHAT ! :p

Über Grafikkarten, die bei 30-40 FPS rumdümpeln lach ich inzwischen nur noch :evillol:
 
@Kasmopaya
Soweit ich das ausprobiert habe auch nur DX9 Lod Bias was jetz aber in Mode kommt ist das FXAA mit DS.
Bei AMD musste mann doch bisher das LOD mit Radeon Pro anfassen oder hat sich diesbezüglich was geändert so hatte ich das bei meiner HD5970 und den 2 *HD6970 gemacht.

Hier ein link für dich bezüglich FXAA falls du es nicht schon kennst mit AMD und NV Karten nutzbar.
http://www.hardwareluxx.de/community/f14/fxaa-hack-amd-nvidia-intel-igp-826615.html
 
Zuletzt bearbeitet:
He, he, he da hab ich ja alles richtig gemacht als ich mir vor einer Weile zwei HD6870 Karten einzelen gekauft habe und diese im CF Modus nutze. ^^
Die Leistung wird ähnlich sein wie bei der HD6870X2 nu ne deutlich niedrigere Lautstärke und niedrigerer Stromverbrauch. :)

Die Idee von solch einer Multi GPU Karte finde ich nicht schlecht, allerdings scheitert die Umsetzung meistens. Ich verstehe nicht, warum man es nicht schafft vernünftige Lüfter zu verbauen die leise arbeiten und sind ordentliche Lüfter verbaut, dann sind diese trotzdem laut, weil man sich nicht um die Lüftersteuerung gekümmert hat. Schade.
 
solange das Problem mit den microrucklern bestehen bleibt, ist man mit einer single gpu karte, die gern auch 30% weniger fps bringen darf, IMMER besser dran. das spielgeschehen wirkt mindestens ebenso flüssig und man spart geld, strom und hat ne leisere karte.

und die user die absolut keine microruckler wahrnehmen können, merken auch den unterschied zwischen 30 und 40fps nicht, was auch wieder für das single gpu produkt spricht.

für mich sind alle dual gpu karten nur marketing hype ;)
 
digitalangel18 schrieb:
solange das Problem mit den microrucklern bestehen bleibt, ist man mit einer single gpu karte, die gern auch 30% weniger fps bringen darf, IMMER besser dran. das spielgeschehen wirkt mindestens ebenso flüssig und man spart geld, strom und hat ne leisere karte.

und die user die absolut keine microruckler wahrnehmen können, merken auch den unterschied zwischen 30 und 40fps nicht, was auch wieder für das single gpu produkt spricht.

für mich sind alle dual gpu karten nur marketing hype ;)

:lol: :hammer_alt: :rolleyes: - wie gut, daß sich CF / SLI-User eines besseren überzeugt haben ;)
 
Zurück
Oben