Test Test: AMD Radeon HD 6990

sondern nur bei bestimmten Spielen auftritt, eher von einer fehlenden Treiberoptimierung gesprochen werden sollte.
Da hab ich ein gutes Argument dagegen das diese These(die ich mir auch am Anfang gedachte habe) komplett widerlegt.
1. Ist SC II(und auch die anderen Titel die einbrechen sind top) ein top PC only Titel, bei dem AMD sowieso schon bei der Entwicklung mit dabei war
2. Müsste schon längst ein Treiber da sein der diesen Umstand beseitigt, ist ja klar ein Dorn im Auge von AMD, am Anfang wollten sie gar kein AA frei schalten(verspätet und nur wegen dem Druck) weils ihnen wohl peinlich ist.
3. Ich rechne damit das das für alle Zeiten so sein wird, auch mit dem Teil 2 und 3. Ist das der Fall -> Architektur fail.
4. Macht das aber nix, wie man sieht hat man dafür mehr Vram verbaut und zeigt Fermi am Schluss die Rücklichter. Fermis Architektur Schwäche lautet hier 1,5GB Vram und ist min. genau so schlimm. Erst mit 2x3GB Vram sieht Cayman hier wieder die Rücklichter und die wird es wohl nicht geben.
5. Ist jede Game-Engine anders, da spielt alles mit rein die ganze Architektur der GPU, kann gut sein das SC II 1D Shader besonders gut liegen? Ist aber wie gesagt Spekulation... Die Fakten liegen auf dem Tisch. Das teilweise heftige einbrechen von Cayman war einer der Hauptgründe für meine GTX 580. Warum das so ist, ist wie immer Wurst.
 
Zuletzt bearbeitet:
Leistung an sich in Ordnung, Mikroruckler und andauerndes Profile warten ein NoGo, da zur Zeit aber kaum was da ist, was die Leistung auch fordert ohne groß rummodden zu müssen, ist für mich warten angesagt, mal schauen wie es im Herbst aussieht.
 
Die Karte ist eben nur was für Testlabors und Leute mit zuviel Geld für Spielereien. Leistungsmäßig tuns wieschon gesagt auch zwei 6970 und das wie beim Vorgängermodell mit Sicherheit noch etwas besser.
 
Bitte schlagt mich! :D


AMD Radeon HD 6990

Crysis @ 2560x1600 @ 8xAA/16xAF = 34,6 FPS



tssss... Es gibt Leute bei denen das in Ihren Augen ruckelt... Und ich meine keine "MicroRuckler"


:freak:
 
Zuletzt bearbeitet:
müsste die 5970 nicht günstiger werden, wenn der nachfolger draußen ist ?
kostet bei alternate bis zu 800€ oder so.
 
AMD cheated bei der Tess-Leistung im Treiber zur HD 6990.

http://www.golem.de/1103/81952-4.html

Diese Kernfunktion von DirectX-11 steht nun im Treiber standardmäßig auf "AMD Optimized", weil die AMD-GPUs tendenziell schwächere Tessellationsleistungen als die Nvidia-Bausteine besitzen.

Golem zeigt das anhand eines eigenen Bench mit Heaven 2.0.
Und kitguru zeigt es unbewust auch in seinem Stone Giant Test.
Die 6990 ist hier mehr als doppelt so schnell, obwohl das garnicht sein kann mit weniger Takt.
http://www.kitguru.net/components/graphic-cards/zardon/amd-radeon-hd6990-review/7/

3D Center hat auch was dazu.
http://www.3dcenter.org/news/2011-03-08
 
rightguard schrieb:
müsste die 5970 nicht günstiger werden, wenn der nachfolger draußen ist ?
kostet bei alternate bis zu 800€ oder so.

Warum, würdest du sie dir kaufen? Ich kenne Leute die wollen ihre vergebens für 300 Euro loswerden.
Da kannst du ja die GTX 580 gegen halten und daher lohnt sich das imo garnicht mehr mit dem Geschäft.

Zum Thema Cheat. Was AMD mit ihren Tools wie Fusion auslöst, nämlich Fehler, konnte man ja schon zur Genüge bestaunen.
 
Zuletzt bearbeitet:
Aber der Stromverbrauch ist wirklich nett. HD 6990 im Quad-CF im AUSUM Mode mit 2x 450Watt= 900Watt(oder 2x500Watt also 1kWatt) nur für die GPUs -> dann noch das restliche System high End +OC, sind wir bei einem 1500Watt NT. -> und wie viel gibt es davon? Netzteilhersteller sollten mal langsam in die Pushen kommen, die hinken zur Zeit hinterher. :lol:
Erst recht wenn man davon ausgeht das GTX 590 noch mehr frisst.
Ein einziges, dafür recht günstig: http://geizhals.at/deutschland/a439201.html

AMD cheated bei der Tess-Leistung im Treiber zur HD 6990.
AMD schmeckt es wohl überhaupt nicht das die GTX 580 so abgeht in Sachen Tessellation. ->schlechte Verlierer mehr sage ich dazu nicht. :evillol:
 
Zuletzt bearbeitet:
conehead7 schrieb:
Oh sorry, ich meinte das im Sinne von 2x 6990. :)

Jo... :)

Crysis ist halt mieß programmiert...

schade eigentlich...
 
Zitat von John Carmack

Bitte schlagt mich!


AMD Radeon HD 6990

Crysis @ 2560x1600 @ 8xAA/16xAF = 34,6 FPS



tssss... Es gibt Leute bei denen das in Ihren Augen ruckelt... Und ich meine keine "MicroRuckler"

Meine Hand macht schon eine Ausholbewegung :D

Im Ernst:

34,6 FPS ist beeindruckend, aber viel entscheidender sind die Frameverläufe ;) Denn die entsprechen eher dem tatsächlichen Spielgeschehen.

Es läuft in der Praxis bei dieser Auflösung nur eben nicht permanent mit 34,6 FPS, sondern öfters auch mal weniger. Stichwort "minimum FPS".

Auch ist diese gewählte Benchmarkszene bei Crysis WH bei weitem kein "worst case Szenario", im Gegenteil, es passiert eigentlich nichts - kaum Gegner K.I., nur eine größere Explosion und genau da gibt es einen massiven FPS-Einbruch, immer und mit jeder Grafikkarte, zumindest auf "Enthusiast"-Einstellungen + AA.

Einen wirklich großen Schritt hat man erst dann gemacht (hoffentlich mit der nächsten Graka-Generation, wenn es eben keine FPS-Einbrüche mehr gibt, denn daraus resultiert übrigens auch ein stockendes bzw ruckelndes Bild.

*EDIT*

Was ich noch vergessen hab:

Wer meint, das über 30 FPS flüssig sind, der hat noch nie mit 60 FPS bei V-Sync: ein gespielt, dann weiß man erst, was wirklich flüssig ist ;)
 
Zuletzt bearbeitet:
bei 34fps darfst du aber keine schnellen weiten Schwenks machen...
 
Bei 34 FPS brauch man nur mal "seitlich gehen", auch strafen genannt (Taste A + D :D).

Und zum Vergleich strafe mal bei konstanten 60 FPS (V-Sync: ein), das ist perfekt butterweich, bei 34 oder 45 FPS ist es das eben nicht. Und: nein, bei 60 FPS kann man keine Mikroruckler sehen, wer was anderes behauptet, hat noch nie Multi-GPU getestet.
 
Zuletzt bearbeitet:
60Hz ist mir noch zu unruhig, aber ab 72-75 wird's akzeptabel. Ein Grund warum ich niemals mit einem 60Hz Panel klarkommen würde.

Man merkt schon deutlich einen Unterschied zwischen 60Hz und 75Hz nur beim Fenster verschieben.
 
Zuletzt bearbeitet:
Da muss man schon sehr gute Augen haben...:freak:
Hab mal spaßhalber nen 120Hz-Monitor getestet und keinerlei Unterschiede festgestellt.
(Und ja ich habe sehr gute Augen)
 
Zurück
Oben