Test Test: AMD Radeon HD 6990

Primäradapter und Verbundener Adapter ist schon mal gut. Wie sind denn deine 3DMark-Ergebnisse? Daran sieht man ja relativ gut, ob eine oder zwei GPUs arbeiten.
 
Dann dürfte alles in Ordnung sein. Du brauchst aber ide CF-Profile. Hast Du die überhaupt installiert?
 
Naja der schnellste grafikchip bietet immerhin noch die 580 die zwischen 20-27 % langsamer arbeitet als die 6990.

Zudem µRuckler ftw--> faiL

alternate frame tech. is für die tonne.
 
Die Punkte stimmen soweit, Result , das war bei der ersten Installation leider noch nicht so, mich selbst verwirrt nur in GPU-Z wenn ich im Hintergrund mitlogge, geht bei der ersten der Takt auf 830 und bei der zweiten auf 500, deshalb kommt mir das komisch vor.
 
@StYleR

du bist von 2x HD5870 auf 1x HD6990 umgesteigen? :freak:

Meiner Meinung nach ist das 4D Shader Design der neuen 69XX FAIL. Die Mehrleistung wird eher über den Takt erreicht, aber auch die Effizienz scheint gelitten zu haben. Ein großer 5D Shader Chip wäre interessanter gewesen. Das was die 69XX besser macht, ist die Tessellationsleistung.
 
Zuletzt bearbeitet:
Das was die 69XX besser macht, ist die Tessellationsleistung

2 GB Ram pro Chip sind auch nicht zu verachten. Was nützt mir derbste Power wenn ich AA nicht zuschalten kann.

Frag mal kacktus, der hat sich drei von den Vram Krüppeln eingebaut und sich gewundert warum das alles nicht läuft :lol: Es hat überraschenderweise geruckelt :freak:
 
Kann man so und so sehen, gelohnt in dem sinne hat es sich für mich schon da ich es jetzt mit meiner Wakü einfacher habe ;) als mit den zwei vorher. Natürlich gibt es im Moment noch kein GPU Kühler und deshalb muss ich jetzt erstmal den Lärm wieder ertragen aber es geht, so schlimm wie ich es gedacht hatte ist es doch nicht. Sie ist etwas leiser als meine "alte" 9800GTX und somit für mich okay. Dazu muss ich aber sagen das wenn sie doch langes Benchen mal warm wird sieht es nicht mehr so gut mit der Lautstärke aus, jedoch schafft sie es schnell wie der runter zu regeln.

Zur Leistung muss ich sagen das ich etwas mehr erwartet hatte, da ich meist auch die selben Punkte wie im CB Test hatte wurde ich diesmal enttäuscht.
Mit meinem System schaffe ich 8690P (830), mit den beiden 5870er schaffte ich 8211P (900MHz). Bisher bin ich noch nicht so zufrieden ;)

Edit:
Hier ein Test von Hardwareluxx, die Punkte passen genau wie bei mir würde ich sagen, denke mal das passt soweit, hab halt im Moment wenig Referenzen!

3dmark2.jpg
 
Zuletzt bearbeitet von einem Moderator:
Du kannst auch gerne mal mit einer HD 5970er vergleichen- Ergebnis.
Hast Du die 6990er auch mit Wasser gekühlt.
Wie läuft bei Dir eigentlich Stalker Call of Pripyat ? (falls Du das Game hast)
 
Ja der Vergleich ist schon mal gut, ist der Test von dir? Wenn ja mit oder ohne OC auf 875MHz?
Ich habe leider noch keine Wakü darauf, gibt leider noch keine zu kaufen, ETA ist der 25.03.

Leider habe ich das Spiel nicht, müsste mal fragen ob ein Kumpel von mir das hat.
 
Der 3DMARK11er Test ist mit meinem System gemacht worden.. Die GrafKa war/ist vom BIOS aus übertaktet. Sehr deutlich bist der Abstand zur 6990er eben nicht.

Wegen Stalker frage ich nur, weil dort viele sogenannte Nachladeruckler auftreten. Ich weiß nicht genau, ob dies an einer schlechten Programmierung des Spiels liegt, oder ob möglicherweise die 1024 MB VRAM ursächlich sind.
Wenn ich gutes Angebot für die HD 5970 bekäme würde ich sie verkaufen und eine 6990er nehmen, allein wegen der 2048 MB VRAM.

Übrigens ist der neue 11.04er Treiber der beste, den es bisher für die HD 5970er gab.
 
Zuletzt bearbeitet von einem Moderator:
das ist ja mal ein monster... und auch genau so laut! :D
 
Und genial Schnell :P Lautstärke kann man immer irgendwie reduzieren doch Leistung Erhöhen ist nicht so einfach :P
 
Jo aber die ganzen langen Balken sagen bei ner Dual-Karte ja auch nur die halbe Wahrheit. Damits dort weiterhin "flüssig" aussieht braucht man entsprechend mehr Grundleistung, und von den theoretischen +70 % gegenüber einer einzelnen Karte bleibt auf einmal nicht mehr so viel übrig. Das war jedenfalls meine persönliche Erfahrung mit Crossfire, deshalb bin ich von der Sache nicht mehr so angetan. Einzelkarten liefern meiner Meinung nach in der Regel konstantere Frameverläufe (Stichwort Mikroruckler, und wenn man einmal anfängt sie wahrzunehmen dann ist es vorbei), zudem ist man weniger von Treiberoptimierungen und garnicht von CF-Profilen abhängig.

Bei einem einzigen Bildschirm verstehe ich die "Notwendigkeit" von so viel Rechenleistung einfach nicht. Ok man kann argumentieren, dass man eh so weit weg ist von 30 oder 40 fps, dass man keine Mikroruckler mehr wahrnimmt, aber wenn man mit zwei GPUs bei konstant 60 fps rummacht dann kommt eine GPU immernoch auf locker über 30. Als einzigen "sinnvollen" Einsatzbereich würde ich die Auflösungen sehen, die durch Eyefinity möglich werden, aber hier habe ich bisher nur zwei Extreme entdeckt: Entweder man ist so oder so am 60 fps Limit und die zweite Karte bringt garnix, oder man ist am 25-30 fps Limit und die zweite Karte hebt das zwar an auf 40-50 fps, aber dank Mikroruckler sind 30 fps auf einmal auch nicht mehr flüssig, zumindest nicht in jedem Spiel. D.h. Einstellungen weiter aufdrehn ist dann auch nicht...
Wenn man mal weggkommt von AFR oder es vernünftig hinkriegt und z.B. die Aufteilung des Bildes auf Hardwarelevel löst, also komplett treiber- und Profilunabhängig, und die Frameverläufe annähernd so wie bei einer einzelnen Karte erzeugen kann, ja dann kann man (mit mir) nochmal über Dual-GPU reden, ansonsten eher nein danke.
Ich weiß natürlich, dass es hier Leute aus beiden Lagern gibt (pro und contra-CF/SLI), daher nochmal ausdrücklich: es handelt sich dabei nur um meine Meinung und meine persönliche Erfahrung mit CF - ich will keine universelle Wahrheit verkünden ;)
 
Zuletzt bearbeitet:
Du sagst es
Weg von AFR
Das Problem ist nur das die andern Modi nicht soviel Leistung erbringen wie AFR
 
In der Theorie ist AFR ja auch super, wenn halt der Abstand Delta T zwischen zwei aufeinanderfolgenden Bildern immer nahezu gleich wäre, also:

Bild 1 (Grafikkarte A) - Delta T - Bild 2 (Grafikkarte B) - Delta T - Bild 3 (Grafikkarte A) - usw

real hat man aber je nach Spiel/Profil eher ein sehr kurzes Delta T zwischen Bild 1 und 2, sowie ein relativ langes Delta T zwischen Bild 2 und 3, dann wieder ein kurzes usw... Also beide Karten rendern schon irgendwie annähernd gleich schnell, nur fangen sie beide fast gleichzeitig an und sind auch beide fast gleichzeitig fertig. Ich weiß jetzt nicht wie schwer es wäre eine künstliche Verzögerung einzubauen, so dass die zweite Grafikkarte immer ungefähr in der Mitte zwischen Bild 1 und Bild 3 fertig ist, und nicht zu nah an 1 oder 3. Damit würde man jedenfalls diese gefühlt ungleichmäßigen Frameverläufe schon mal deutlich besser in den Griff bekommen. Bei Crysis und BC2 zB hatte ich trotz nur 25-30 fps keine Mikroruckler (zumindest nicht wahrgenommen), bei Dirt 2 dagegen sogar bei 60 fps am VSYNC Limit und bei GTA4 wars bei ~40 fps auch noch spürbar, also es hängt nicht nur mit der absoluten fps-Zahl zusammen sondern ist größtenteils abhängig davon, wieviel Abstand zwischen den einzelnen Frames liegt und ob sich der Abstand zwischen jeweils zwei aufeinanderfolgenden Bildern stark ändert.
 
Zuletzt bearbeitet:
einfach schlimm dass amd im größenwahn einfach um mehrere tage lang (bis release gtx 590) die beste graka haben muss. mikroruckler, enorm hoher stromverbrauch (oc profil 450 watt!!! die halbe com hat ein schwächeres nt), und mehr als 30cm länge und dann 600€ dafür zahlen!!! das gleiche gilt für die gtx 590 die spinnen die leute die so was bauen und noch mehr die die es kaufen!!! wenn man die leistung schon braucht dann kauft man 2 hd 6950 von msi im referenzdesign und flasht sie zur 6970. dann zahlt man 420€ und hat mehr leistung.
 
Also ich brauche diese absolute Leistung!
Soweit vorgetragen wird, die Karte sei laut, werde ich die Geräuschentwicklung des Lüfters durch eine Wasserkühlung eindämmen. Mit dem Stromverbrauch habe ich kein Problem, zumal mein NT 850 W zur Verfügung stellt. Außerdem kommt bei mir der Strom aus der Steckdose:freak:
@hill01,
finde ich gut, dass Du von vornherein mitteilst, dass Du nicht die universelle Wahrheit verkündest- wäre ja sonst ein Fall für den Psychiater. Da jeder für sich selber artikulieren darf, welche Leistung einer Grafikkarte er für angemessen hält, sage ich für meinen Teil, diese Leistung finde ich endlich mal herausragend; so sehr, dass ich sogar die 600 € hinlege;)
 
@HeinzNeu
Ich schreib das nur so explizit, da man bei manchen Posts schnell persönliche Meinung und Fakten vertauscht und ich will keinesfalls, dass meine Erfahrungen zum Thema CF als "Fakten" aufgenommen werden, zumal die Mikroruckler-Problematik ja schwer quantifizierbar ist und dem einen wohl auch mehr auffällt als dem anderen. Deswegen muss auch jeder selbst entscheiden, ob man ein Multi-GPU-System will oder nicht.
 
Zurück
Oben