Test Test: AMD Radeon HD 6990

@GreatEvil

Wo habe ich in diesem Zusammenhang von meinen Moderatorenrechten Gebrauch gemacht?
Meinen Hinweis hätte jeder x-beliebige User geben können.
Die Sachlage hätte sich nicht geändert.
 
Die HD6990 wurde anfangs auch für 715€ gelistet und man kann davon ausgehen, dass die GTX590 nochmal mehr Leistung bringen wird als die HD6990. In Sachen Preis-Leistung werden die sich nichts schenken und beide abgrundtief abstinken.
 
Release ist doch eh erst am 22. oder?
Deshalb ist auf diesen Preis eh gesch.....


btw, grüner Lack ist sowieso immer teurer als roter Lack gewesen.
 
@Haudrauff
ich habe das nur für die Kasperl der vorigen 19 Seiten geschrieben um Klarzustellen, was ein untopischer Preis ohne passender Leistung ist.
 
icedpingu schrieb:
Was mich ein bisschen jetzt mittlerweile bei CB nervt, ist, dass sie noch immer die gleichen Spiele, im gleichen DX-Modus testen. Wieso werden nicht aktuellere Titeln in den Test miteinbezogen? (z.B. Bad Company 2: Vietnam, Dead Space 2, die Crysis 2 Demo (auch wenn es nur eine Demo ist, trotzdem würds mich interessieren), etc.)

Wenn die gleichen Spiele über einen längeren Zeitraum getestet werden, sind die Ergebnisse unterschiedlicher Tests vergleichbar.

hill01 schrieb:
Ja die Frameverläufe sehn ja eigentlich superkonstant bzw. um einen konstanten Faktor größer als bei den Einzelkarten aus.

Mikroruckler kann man nur darstellen, wenn die Frametimes gemessen werden und aus deren Kehrwert die Framerate abgeleitet wird. Das wird hier auf CB aber nicht so gemacht (nicht dass ich wüsste).
 
Wo ist der Test mit 2, 3, 4, 5 Monitoren?
Niemand gibt 600,- € für eine Grafikkarte aus und spielt dann in FullHD!
 
Wenn dann 3 und 5, niemand spielt auf ner geraden Anzahl Bildschirme :) (außer man steht auf Rahmen genau im Zentrum des Geschehens)
Aber stimmt schon, die Karte schreibt geradezu nach hohen Auflösungen, denn für ödes Full-HD gibts vernünftigere Lösungen.

@HomerJSi:
ich erinnere mich dunkel daran, dass CB auch schon Frameverläufe gezeigt hat, auf denen man die Unregelmäßigkeit der CF/SLI Systeme sehen konnte. Ob dabei Zeitdifferenzen einzelner Frames oder die daraus errechneten FPS dargestellt waren weiß ich allerdings nicht mehr. Wenn man einzelne Frames betrachtet macht natürlich die Darstellung der Zeitdifferenz zum nächsten Frame mehr Sinn.
 
Zuletzt bearbeitet:
Vanilla2001 schrieb:
Ja genau, trotzdem kommen dann immer wieder Leute die meinen, dass das Auge keine 60Hz wahrnehmen kann. Trotzdem bekam man früher bei 60Hz Kopfschmerzen. Schon allein diese Tatsache, sollte einen doch mal zum grübeln bringen.

Das liegt am Interlace-flimmern.
Bei der Braunischen-Röhre, werden bei hohen vertikalen Auflösungen keine Vollbilder dargestellt, sondern nur Halbbilder.
Somit werden satt 60 nur noch effektiv 30 Bilder/Sek. dargestellt.
Es ist zwar richtig, dass das menschliche Auge, ab 24 Bilder, dies als flüssig wahrnimmt. Aber dies gilt nur mit voller Sehstärke und Farbwahrnehmung. Also in Farbe und Bunt. :D

Die Rezeptoren(Stäbchen) für Hell und Dunkel sind aber viel schneller und genau da setzt das Interlace-Flimmern an, da immer eine Hälfte des Bildschirms Schwarz ist.
Dieser schnelle Wechsel von Hell und Dunkel machen die Augen extrem schnell müde, da sie sich anpassen wollen und kaum nachkommen.
Die Folge sind Kopfschmerzen und Verlust der Sehkraft.

Das gilt natürlich auch für Vollbilder, da ja dort auch kurz der Bildschirm schwarz wird bis das nächste Bild aufgebaut wird. Dies ist aber nicht so lange wie beim Interlace-Modus. Deshalb werden Vollbilder auch als deutlich angenehmer wahrgenommen.
Besser ist noch die 100Hz-Technik bei Fernsehgeräten, die ein noch deutlich (angenehmeres) Bild darstellen können.

Also das Menschliche Auge kann sehr wohl Unterschiede schneller als 24 Hz wahrnehmen, aber du selber kannst es mit deinem Geist nicht erfassen.
Aber deine Augen werden überlastet.
 
Zuletzt bearbeitet:
Ich glaube, da verwechselst du was. Ich wäre niemals auf die Idee gekommen meinen Röhrenmonitor nicht non-interlaced zu betreiben.

Außerdem bezweifele ich auch dass irgendein Mensch komplette 24Hz im gesamten Blickfeld erfassen oder verarbeiten könnte. Darum geht es ja auch nicht. Es geht um die Differenzen. Und die sollten so glatt / smooth wie möglich ineinander übergehen.

Mein Auge hat keine Abtastrate die ich mit meinem Monitor syncronisieren könnte.
 
Garnicht gut das kaufen wenige wenn es welche kaufen wollen sie nur ein bisschen "Leben" in ihr stillen Gamingplatz schaffen.

66dB ?! knappe 90 °C und dazu 120 Watt mehr als eine die 580(die ja eh schon oft genug nieder gemacht wird wegen dem verbrauch)

Dazu noch die ganzen scheiße Mgpu-Probleme ojee..

Normal war es immer so das die DuelGPU-Versionen kühler leiser und ärmer im verbrauch waren als 2x Einzelkarten.Aber diesmal ist vollkommen anderst- warum? Test anschauen =) Also wenn man schon MGPU will dann sollte man auf 2 Einzelkarten grifen z.b GTX570 Sli und nicht sowas hier..

Einfach nur schwachsinn nur weil AMD es nicht schafft mit SGPUs Nvidias Sgpus zu übertrumpfen müssen sie gleich sowas auf den markt werfen..

Zudem 25% Mehrleistung naja für ne DualGPU gerade nicht toll... 2009 waren es 40-50% zwischen 5870 und HD5970 nimmt immer mehr ab.

Z.b ich hab in Crysis 1920x1080 49,7 fps avg ohne af/aa.die 6990 schafft bei trubitar 59 fps mit den selben einstellungen... ca um die 20% mal ehrlich schlimmer gehts nicht.

Fail :(

Das schlimmste ist eh für so wenig mehrleistung soviel Stromverbrauch und soviel mgpu probleme.
 
kaktus1337 schrieb:
Normal war es immer so das die DuelGPU-Versionen kühler leiser und ärmer im verbrauch waren als 2x Einzelkarten.Aber diesmal ist vollkommen anderst- warum?
Sie verbraucht selbst mit dem OC Bios 60 Watt weniger -_-. Wie soll das leiser oder kälter werden, wenn die Hitze konzentrierter Auftritt ? Man hat statt 2 Lüftern nur einen.
 
Oh sry nicht auf die wattage von der 6970 geschaut.

Trotzdem brutal wie viel Watt heutige High-end grakas fressen.

Während bei den CPUs die Wattage immer eig konstant im highend geblieben ist siehts bei den grakas anderst.

Sonst immer 294W Jetz 350-400.
 
Das ist doch normal. Wenn man RechenLeistung braucht, geht es nun mal nicht ohne elektrische Leistung. Für alle anderen die sich über die Leistungsaufnahme aufregen, gibts die kleineren Karten, mit entsprechend weniger Rechenleistung. Es kommt doch auf den Einsatzfall an und ich glaube nicht dass diese GK in einem Office-PC der Buchhaltung eingesetzt wird. Ich versteh solche Kommentare immer nicht.

Die Hersteller versuchen natürlich die Rechenleistung nach oben zu schrauben. Das muss ja auch sein, unsere Software verschlingt ja schneller Hardware als diese beschleunigt werden kann.
 
Ich habe jetzt auch eine HD6990 in meinem Rechner, hatte vorher zwei HD5870 CF, jetzt fällt mir auf das GPU-Z Crossfire als disabled anzeigt, alle anderen Reviews steht da aber "Enabled", wo liegt bei mir der Fehler?

f6b.png
 
Was zeigt denn Nvidia Inspektor an?
Könnte sein, dass es ein "auslesefehler" ist von GPU-Z und erst ne neue version erscheinen muss.

Hast du denn die erwartete Leistung in z.b. 3D Mark 11?

Wie ist deine persönliche subjektive meinung zur Lautstärke? Wirklich so heftig, wie man sich vorstellt bei 66+ dezibel? :P
 
StYleR schrieb:
I alle anderen Reviews steht da aber "Enabled", wo liegt bei mir der Fehler?

f6b.png

Ich hatte das mit meiner ersten HD 5970 auch. Leider war der PLX-Chip defekt. Der Händler hat sie nach einer Woche Gebrauch wieder zurück genommen.

@all,
weiß jemand von Euch, ob es schon vernünftige alternative Lüftkühlsysteme wie z.B. den Accelero Xtreme für die 6990 gibt ?
 
@StYleR
Hast du denn die Crossfire-Optionen im CCC? Sollte sowohl unter "Gaming" als auch "Performance" vorhanden sein... und schau mal im CCC bei Hardware, ob es da ne "Secondary Card" gibt und ob die "linked" oder "deactivated" ist.
 
@hill01, bei Information/Hardware habe ich nur "Primäradapter" und dann "Verbundener Adapter" stehen.

@HeinzNeu, na Top, neu und schon defekt.
 
Zurück
Oben