Test Test: AMD Radeon HD 6990

Naja abwarten bald kommt Nvidia´s GTX590 mal sehen wie die sich gegen die HD6990 schlägt;)

P.S. das wird ein Kampf der Giganten xD
 
Die wird auf ähnlichem Niveau spielen, dass ist klar. Interessant wird nur, ob die auch solche sinnlosigkeiten ausgeliefert ist oder ob das Teil wirklich ernsthaft eingesetzt werden kann. Weil das ist meiner Meinung nach das Entscheidende, nicht die pure Leistung.
 
cob schrieb:
Das ist nicht so einfach wie du dir es vorstellst, gibt genug Test die das Gegenteil beweisen.
Zocke momentan Fallout 3 und man merkt den Unterschied von 60 auf 100 fps sehr deutlich, es spielt und fühlt sich flüssiger an, außerdem haben manche eng. einen Vorteil von mehr fps usw.

ich würde es einfach mal als Placebo effekt bezeichnen, allein der fakt zu wissen das mehr frames vorhanden sind lassen dich ein besseres spielgefühl erleben, ich würde mal gerne sehen wie man bei einem 60 Hz monitor einfach nur gefühlt sagen kann das es nun 60 frames oder 300 Frames sind ohne das die anzahl der FPS angezeigt wird , das geht schlichtweg gar nicht da man hardware technisch eingeschränkt ist.
 
kann man die 6990 auch im crossfire betreiben :D ??

so vier stück und beim crysis 2 zocken gehen dann die lichter in der nachbarschaft aus :) ...nee erlich aber das teil ist ne käufliche machbarkeitsstudie aber nix für den geistig gut funktionierenden endverbraucher.
 
Zuletzt bearbeitet:
McBash schrieb:
Und bitte hört auf mit den Microrucklern. Die hatte ich schon damals mit meinem 2x 4850 Gespann nicht mehr, weil die Treiber dahingehend gefixt worden sind.

Aber mann kann ja immer alles nachplappern was man irgendwo gelesen hat.

Du meinst eher getestet worden ist. :rolleyes:

Zitat: CB-Fazit
"Doch damit noch nicht genug der vor dem Kauf zu beachtenden Punkt. Auch mit den typischen Multi-GPU-Problemen hat die Karte erneut zu kämpfen. Zum einen muss für ein Spiel überhaupt ein Multi-GPU-Profil im Treiber vorhanden sein, damit es von der zweiten GPU profitiert (diesbezüglich leistet AMD mit den wöchentlichen Profil-Updates in letzter Zeit eine lobenswerte Arbeit!), zum anderen holen auch die Radeon HD 6990 die Mikroruckler ein. Angeblich wollte AMD das Thema (endlich) zum Launch der Radeon HD 6990 per Treiber angehen, doch schlussendlich sei die Priorität dafür, so unsere Quellen, nicht hoch genug gewesen – und nichts ist passiert."

Und nun kommst du daher und behauptest rotz frech und felsen fest, das deine zwei HD4850 keine MR kennen und AMD schon längst das Problem gefixt hätte ?
Du machst dir nur etwas vor.
Ich hatte auch mal zwei HD4850 und kann daher deine Behauptung zu 100% widersprechen.
Wenn dir die MR nichts ausmachen, bitte. Aber mir kommt so ein System nicht mehr in den Rechner.

Und ich kann diese ganzen Versprechungen seitens AMD nicht mehr hören. Alles nur heiße Luft und reine Hinhalte-Taktik. Wir werden uns darum kümmern blabla beim nächsten Treiberfix blabla. Nichts passiert und Ende.

Zum Test:
Die HD6990 ist genauso geworden wie ich es mir vorgestellt habe. Laut, stromhungrig und dann noch, dank Drosselung, eine schlechte Skalierung. Zudem mal wieder ein Treiberbug (Wen wundert es denn überhaupt noch ) im Spiel StarCraftII mit SSAA. Da sind 2 Einzelkarten deutlich besser aufgestellt und vermutlich auch deutlich leiser.

Vorteile sehe ich in der Bauform, die es einem ermöglicht, auch auf "nicht" High-End Boards mit nur einem PCIe mit 16 Lanes Anbindung, diese Karte ohne Flaschenhals zu betreiben.
Auch auf Boards, die nur SLI zulassen ist es ohne weiteres möglich diese Karte zu verwenden, da Crossfire intern abläuft.

Aber schon wegen den MR und den Treiberprofilen würde ich von solche Dual-Systemen die Finger lassen. Selbst wenn die HD6990 100FPS erzeugt, kann sie mit dem deutlich weicheren Framverlauf einer Singelkarte nicht konkurrieren.

Dazu noch diese aufwendige Kühllösung... :freak:
Für 600 Euro sollte man schon etwas deutlich besseres verlangen können als einen beigelegten Handwedel. Zumindest was die Effektivität angeht.
 
Zitat von aivazi:

nochmal an die leute die denken das mehr als 60 FPS vorteilhaft sind ^^ viele von euch vergessen scheinbar das gängige Monitore maximal 60 FPS darstellen können ergo machen nur dann diese zusätzlichen frames einen sinn wenn auch ein entsprechender Monitor mit einer höheren wiederholfrequenz vorhanden ist

Word !

Aber das kannste den Leuten noch 1000mal erzählen, die werdens immer und immer wieder ignorieren und sich stattdessen als obergeilen Pro-Gamer aufspielen, wenn sie behaupten, 100 FPS von 60 FPS auf einem 60 Hz-TFT-Monitor unterscheiden zu können :lol::rolleyes::freak:

Und nochmal zu den Mikrorucklern:

ich hatte bis vor kurzem eine HD 5970 (Dual-GPU) im Rechner:
Und auch das zum 1000. Mal: in keinem Spiel gab es störende Ruckler !

Warum nicht ? Weil die FPS in genügend hoch sind, um keine Mikroruckler erkennbar zu machen.

Getestete Spiele: Crysis, Risen, CoD MW 2 & Black Ops, Two Worlds 2, Avatar, Dirt 2
Bei konstanten 60 FPS (Crysis: 50 FPS) V-Sync: an gab es nicht den Hauch eines Mikrorucklers.

Also nochmal:
wenn FPS bei konstanten 60 und V-Sync an ist, dann -> keine Mikroruckler
(Der Einzige Nachteil mit V-Sync könnte "Mauslag" sein)

Allerdings: Ausnahmen bestätgen die Regel, je nach Grafikengine kann es trotzdem zu Problemen kommen, übrigens nicht nur bei Dual-GPU sondern genauso bei Single-PGU !

Aber warum schreibe ich das überhaupt ?
Jeder der immer gleich "Mikroruckler !" schreit, ist doch eh nur neidisch, daß er sich im Grunde keine 2. teure Grafikkarte (und das entsprechende Netzteil;)) leisten kann :p:evillol:
 
Zuletzt bearbeitet:
@Sidewinder9000

Im Prinzip ist es bei Microrucklern so ziemlich egal wie viele FPS ausgegeben werden, auch wenns 300 sind und zwischen zweien von ihnen z.B. 30ms liegen (was durchaus im Bereich des Möglichen bei MGPUs liegt) hat man einen wahrnehmbaren Microruckler im Spiel..

und nochmal - Mikroruckler und FPS stehen in keinem direkten Verhältnis!

bei Interesse kannst dir ja meinen Beitrag auf Seite 11 zur Gänze durchlesen..
 
@ Lukaner:

dann also nochmal:

da einem über 60 FPS auf einem 60 Hz Monitor nichts bringt:

Getestete Spiele: Crysis, Risen, CoD MW 2 & Black Ops, Two Worlds 2, Avatar, Dirt 2
Bei konstanten 60 FPS (Crysis: 50 FPS) V-Sync: an gab es nicht den Hauch eines Mikrorucklers.

Also nochmal:
wenn FPS bei konstanten 60 und V-Sync an ist, dann -> keine Mikroruckler
(Der Einzige Nachteil mit V-Sync könnte "Mauslag" sein)

Und jetzt du wieder :D
 
Was für ein Monster in allen Belangen.
 
schöner test! Danke an CB!
Die Karte ist absolut fail, mehr brauch man dazu nicht sagen.
Mal sehen was NVIDIA zu bieten hat mit der GTX590.
Ein test mit 2 GTX580, so als kleiner vergleich, was da noch von NV kommt wäre gut gewesen..........
 
Zuletzt bearbeitet:
Sidewinder9000 schrieb:
Word !

Aber das kannste den Leuten noch 1000mal erzählen, die werdens immer und immer wieder ignorieren und sich stattdessen als obergeilen Pro-Gamer aufspielen, wenn sie behaupten, 100 FPS von 60 FPS auf einem 60 Hz-TFT-Monitor unterscheiden zu können :lol::rolleyes::freak:

Und nochmal zu den Mikrorucklern:

ich hatte bis vor kurzem eine HD 5970 (Dual-GPU) im Rechner:
Und auch das zum 1000. Mal: in keinem Spiel gab es störende Ruckler !

Warum nicht ? Weil die FPS in genügend hoch sind, um keine Mikroruckler erkennbar zu machen.

Getestete Spiele: Crysis, Risen, CoD MW 2 & Black Ops, Two Worlds 2, Avatar, Dirt 2
Bei konstanten 60 FPS (Crysis: 50 FPS) V-Sync: an gab es nicht den Hauch eines Mikrorucklers.

Also nochmal:
wenn FPS bei konstanten 60 und V-Sync an ist, dann -> keine Mikroruckler
(Der Einzige Nachteil mit V-Sync könnte "Mauslag" sein)

Allerdings: Ausnahmen bestätgen die Regel, je nach Grafikengine kann es trotzdem zu Problemen kommen, übrigens nicht nur bei Dual-GPU sondern genauso bei Single-PGU !

Aber warum schreibe ich das überhaupt ?
Jeder der immer gleich "Mikroruckler !" schreit, ist doch eh nur neidisch, daß er sich im Grunde keine 2. teure Grafikkarte (und das entsprechende Netzteil;)) leisten kann :p:evillol:


Stimmt
weil es sie nicht gibt kann man sie nachweisen :)
Und Misteriöser Weise nur bei MGPU :freak:


Du hast echt 0Plan von der Materie oder?!
Die rendern AVR, sprich ein Bild nach dem anderen, das kann NIE 100% Synchron sein
Daher kommt das
Aber Obermacker wie du wissen NATÜRLICH das wir kein AVR mehr benutzen und du was ganz neues und schnelleres entwickelt hast :freak:
 
@Sidewinder

is doch gut für dich wenn du bei dir keine MR bemerkt hast. Das einzige worauf ich hinweisen wollte, ist dass das auftreten von Mikrorucklern nicht direkt von den frames per second abhängt. Sie können bei 20, 30, 45, 60 und 1000 FPS auftreten... egal mit wie viel Hz der Monitor läuft.

Ich glaub wir reden aneinander vorbei..
 
aivazi schrieb:
Nochmal an alle wer denkt dass mehr als 60 fps auf einem 60Hz monitor etwas nutzen der liegt FALSCH!!!, fakt ist der Monitor kann nicht mehr anzeigen als er kann (die "Lautstärke" wurde von mir dem Wahrheitsgehalt des Posts angeglichen)

Nur, weil Du hier so herumbrüllst, wird Deine Aussage nicht viel richtiger!
Natürlich kann ein 60Hz-Monitor nicht mehr Bilder pro Sekunde darstellen als eben diese 60 frames. Allerdings ist die Schlussfolgerung, dass eine mehr Bilder darstellende Graka hier nichts bringt, falsch. Gerade für Zocker von Egoshootern ist es wichtig, dass die angezeigten Bilder möglichst aktuell sind. Da entscheiden Millisekunden.
Nehmen wir also an (da leicht zu rechnen), man hat einen 60Hz-Monitor und kann jedoch 120 fps berechnen lassen. Dann werden zwar immernoch 60 Bilder dargestellt. Diese sind jedoch alle halb so alt wie die bei 60 fps.

Nicht, dass ich das brauchen würde in dem Bereich. Aber bringen tut es eben doch etwas.


@topic: Die Leistung der Karte ist schon beeindruckend, aber Strombedarf, Lautstärke und Preis machen dieses Gerät für mich absolut zum Nogo. Freue mich schon auf die 7xxx-Serie in 28nm, bei der ich dann sicherlich wieder zuschlagen werde.
 
mikroruckler kann man nur wahrnehmen, wenn sie auch im wahrnehmbaren bereich liegen, heißt wenn wir davon ausgehen das man pro sekunde 60 bilder wahrnehmen können kann es nicht sein das wir mikroruclker wahrnehmen obwohl die wiederholfrequenz des bildschirmes bei über 1000 hertz liegt da es unserem auge egal ist was zwischen dem ersten wahrgenommenen frame und dem zweiten wahrgenommenen frame passierte

@ über mir ^^
es geht darum das einige leute hier behaupten mehr frames wahrnehmen zu können als gegeben sind und das ist schlichtweg falsch, und deiner aussage möchte ich auch nciht widersprechen da das spiel geschehen auch abhängig davon ist wie aktuel die gerenderten frames sind
 
Zuletzt bearbeitet:
@feardorcha: Deine Erläuterung ist nicht, schlecht, wenn du allerdings noch in [ms] und nicht in [Hz] argumentierst, wird es noch einleuchtender.
 
Ist halt sowas wie ne 1000 RR BMW laut unbequem säuft aber halt sau schnell. Geiles teil halt mit vernunft hat das nix zu tun.
 
Zuletzt bearbeitet:
Noch ein Hinweis. Gerade Nutzer, die VSYNC aktivieren um Tearing-Effekte zu vermeiden, benötigen mehr als 60fps. Wenn die Framerate darunter liegt sieht man 2 mal ( ~33ms bei 60Hz ) das gleiche Bild ( da die Grafikkarte halbfertige Bilder nicht ausgibt, sondern erst im nächsten Zyklus ) und es kommt zu Lags.

Die ganzen Latenzen addieren sich bei Multiplayerpartien

[ Ping + Grafikkarte + Monitor + Mensch + Maus ]. Da ist es schon von Vorteil wenn man einiges in der Kette eliminiert bzw. optimiert. Auch wenn der Mensch hier sicherlich der größte Posten ist.
 
Zurück
Oben