Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Test: AMD Radeon HD 6990
- Ersteller Wolfgang
- Erstellt am
- Zum Artikel: Test: AMD Radeon HD 6990
DerKleine49
Banned
- Registriert
- Jan. 2008
- Beiträge
- 3.358
he, hahaha das ist die AMD HD6990 zu NV590 für 840,-€ ein Schnäppchen:
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/18062-nvidia-geforce-gtx-590-erstmals-gelistet-fuer-840-euro.html
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/18062-nvidia-geforce-gtx-590-erstmals-gelistet-fuer-840-euro.html
DerKleine49
Banned
- Registriert
- Jan. 2008
- Beiträge
- 3.358
@Haudrauff
ich habe das nur für die Kasperl der vorigen 19 Seiten geschrieben um Klarzustellen, was ein untopischer Preis ohne passender Leistung ist.
ich habe das nur für die Kasperl der vorigen 19 Seiten geschrieben um Klarzustellen, was ein untopischer Preis ohne passender Leistung ist.
icedpingu schrieb:Was mich ein bisschen jetzt mittlerweile bei CB nervt, ist, dass sie noch immer die gleichen Spiele, im gleichen DX-Modus testen. Wieso werden nicht aktuellere Titeln in den Test miteinbezogen? (z.B. Bad Company 2: Vietnam, Dead Space 2, die Crysis 2 Demo (auch wenn es nur eine Demo ist, trotzdem würds mich interessieren), etc.)
Wenn die gleichen Spiele über einen längeren Zeitraum getestet werden, sind die Ergebnisse unterschiedlicher Tests vergleichbar.
hill01 schrieb:Ja die Frameverläufe sehn ja eigentlich superkonstant bzw. um einen konstanten Faktor größer als bei den Einzelkarten aus.
Mikroruckler kann man nur darstellen, wenn die Frametimes gemessen werden und aus deren Kehrwert die Framerate abgeleitet wird. Das wird hier auf CB aber nicht so gemacht (nicht dass ich wüsste).
Fulminictus2
Cadet 1st Year
- Registriert
- Mai 2009
- Beiträge
- 15
Wo ist der Test mit 2, 3, 4, 5 Monitoren?
Niemand gibt 600,- € für eine Grafikkarte aus und spielt dann in FullHD!
Niemand gibt 600,- € für eine Grafikkarte aus und spielt dann in FullHD!
CD
Rear Admiral
- Registriert
- Mai 2010
- Beiträge
- 5.733
Wenn dann 3 und 5, niemand spielt auf ner geraden Anzahl Bildschirme (außer man steht auf Rahmen genau im Zentrum des Geschehens)
Aber stimmt schon, die Karte schreibt geradezu nach hohen Auflösungen, denn für ödes Full-HD gibts vernünftigere Lösungen.
@HomerJSi:
ich erinnere mich dunkel daran, dass CB auch schon Frameverläufe gezeigt hat, auf denen man die Unregelmäßigkeit der CF/SLI Systeme sehen konnte. Ob dabei Zeitdifferenzen einzelner Frames oder die daraus errechneten FPS dargestellt waren weiß ich allerdings nicht mehr. Wenn man einzelne Frames betrachtet macht natürlich die Darstellung der Zeitdifferenz zum nächsten Frame mehr Sinn.
Aber stimmt schon, die Karte schreibt geradezu nach hohen Auflösungen, denn für ödes Full-HD gibts vernünftigere Lösungen.
@HomerJSi:
ich erinnere mich dunkel daran, dass CB auch schon Frameverläufe gezeigt hat, auf denen man die Unregelmäßigkeit der CF/SLI Systeme sehen konnte. Ob dabei Zeitdifferenzen einzelner Frames oder die daraus errechneten FPS dargestellt waren weiß ich allerdings nicht mehr. Wenn man einzelne Frames betrachtet macht natürlich die Darstellung der Zeitdifferenz zum nächsten Frame mehr Sinn.
Zuletzt bearbeitet:
P
Pickebuh
Gast
Vanilla2001 schrieb:Ja genau, trotzdem kommen dann immer wieder Leute die meinen, dass das Auge keine 60Hz wahrnehmen kann. Trotzdem bekam man früher bei 60Hz Kopfschmerzen. Schon allein diese Tatsache, sollte einen doch mal zum grübeln bringen.
Das liegt am Interlace-flimmern.
Bei der Braunischen-Röhre, werden bei hohen vertikalen Auflösungen keine Vollbilder dargestellt, sondern nur Halbbilder.
Somit werden satt 60 nur noch effektiv 30 Bilder/Sek. dargestellt.
Es ist zwar richtig, dass das menschliche Auge, ab 24 Bilder, dies als flüssig wahrnimmt. Aber dies gilt nur mit voller Sehstärke und Farbwahrnehmung. Also in Farbe und Bunt.
Die Rezeptoren(Stäbchen) für Hell und Dunkel sind aber viel schneller und genau da setzt das Interlace-Flimmern an, da immer eine Hälfte des Bildschirms Schwarz ist.
Dieser schnelle Wechsel von Hell und Dunkel machen die Augen extrem schnell müde, da sie sich anpassen wollen und kaum nachkommen.
Die Folge sind Kopfschmerzen und Verlust der Sehkraft.
Das gilt natürlich auch für Vollbilder, da ja dort auch kurz der Bildschirm schwarz wird bis das nächste Bild aufgebaut wird. Dies ist aber nicht so lange wie beim Interlace-Modus. Deshalb werden Vollbilder auch als deutlich angenehmer wahrgenommen.
Besser ist noch die 100Hz-Technik bei Fernsehgeräten, die ein noch deutlich (angenehmeres) Bild darstellen können.
Also das Menschliche Auge kann sehr wohl Unterschiede schneller als 24 Hz wahrnehmen, aber du selber kannst es mit deinem Geist nicht erfassen.
Aber deine Augen werden überlastet.
Zuletzt bearbeitet:
Vanilla2001
Commander
- Registriert
- Juli 2008
- Beiträge
- 2.734
Ich glaube, da verwechselst du was. Ich wäre niemals auf die Idee gekommen meinen Röhrenmonitor nicht non-interlaced zu betreiben.
Außerdem bezweifele ich auch dass irgendein Mensch komplette 24Hz im gesamten Blickfeld erfassen oder verarbeiten könnte. Darum geht es ja auch nicht. Es geht um die Differenzen. Und die sollten so glatt / smooth wie möglich ineinander übergehen.
Mein Auge hat keine Abtastrate die ich mit meinem Monitor syncronisieren könnte.
Außerdem bezweifele ich auch dass irgendein Mensch komplette 24Hz im gesamten Blickfeld erfassen oder verarbeiten könnte. Darum geht es ja auch nicht. Es geht um die Differenzen. Und die sollten so glatt / smooth wie möglich ineinander übergehen.
Mein Auge hat keine Abtastrate die ich mit meinem Monitor syncronisieren könnte.
_EverGreen_
Lt. Commander
- Registriert
- Sep. 2009
- Beiträge
- 1.490
Garnicht gut das kaufen wenige wenn es welche kaufen wollen sie nur ein bisschen "Leben" in ihr stillen Gamingplatz schaffen.
66dB ?! knappe 90 °C und dazu 120 Watt mehr als eine die 580(die ja eh schon oft genug nieder gemacht wird wegen dem verbrauch)
Dazu noch die ganzen scheiße Mgpu-Probleme ojee..
Normal war es immer so das die DuelGPU-Versionen kühler leiser und ärmer im verbrauch waren als 2x Einzelkarten.Aber diesmal ist vollkommen anderst- warum? Test anschauen =) Also wenn man schon MGPU will dann sollte man auf 2 Einzelkarten grifen z.b GTX570 Sli und nicht sowas hier..
Einfach nur schwachsinn nur weil AMD es nicht schafft mit SGPUs Nvidias Sgpus zu übertrumpfen müssen sie gleich sowas auf den markt werfen..
Zudem 25% Mehrleistung naja für ne DualGPU gerade nicht toll... 2009 waren es 40-50% zwischen 5870 und HD5970 nimmt immer mehr ab.
Z.b ich hab in Crysis 1920x1080 49,7 fps avg ohne af/aa.die 6990 schafft bei trubitar 59 fps mit den selben einstellungen... ca um die 20% mal ehrlich schlimmer gehts nicht.
Fail
Das schlimmste ist eh für so wenig mehrleistung soviel Stromverbrauch und soviel mgpu probleme.
66dB ?! knappe 90 °C und dazu 120 Watt mehr als eine die 580(die ja eh schon oft genug nieder gemacht wird wegen dem verbrauch)
Dazu noch die ganzen scheiße Mgpu-Probleme ojee..
Normal war es immer so das die DuelGPU-Versionen kühler leiser und ärmer im verbrauch waren als 2x Einzelkarten.Aber diesmal ist vollkommen anderst- warum? Test anschauen =) Also wenn man schon MGPU will dann sollte man auf 2 Einzelkarten grifen z.b GTX570 Sli und nicht sowas hier..
Einfach nur schwachsinn nur weil AMD es nicht schafft mit SGPUs Nvidias Sgpus zu übertrumpfen müssen sie gleich sowas auf den markt werfen..
Zudem 25% Mehrleistung naja für ne DualGPU gerade nicht toll... 2009 waren es 40-50% zwischen 5870 und HD5970 nimmt immer mehr ab.
Z.b ich hab in Crysis 1920x1080 49,7 fps avg ohne af/aa.die 6990 schafft bei trubitar 59 fps mit den selben einstellungen... ca um die 20% mal ehrlich schlimmer gehts nicht.
Fail
Das schlimmste ist eh für so wenig mehrleistung soviel Stromverbrauch und soviel mgpu probleme.
Sie verbraucht selbst mit dem OC Bios 60 Watt weniger -_-. Wie soll das leiser oder kälter werden, wenn die Hitze konzentrierter Auftritt ? Man hat statt 2 Lüftern nur einen.kaktus1337 schrieb:Normal war es immer so das die DuelGPU-Versionen kühler leiser und ärmer im verbrauch waren als 2x Einzelkarten.Aber diesmal ist vollkommen anderst- warum?
_EverGreen_
Lt. Commander
- Registriert
- Sep. 2009
- Beiträge
- 1.490
Oh sry nicht auf die wattage von der 6970 geschaut.
Trotzdem brutal wie viel Watt heutige High-end grakas fressen.
Während bei den CPUs die Wattage immer eig konstant im highend geblieben ist siehts bei den grakas anderst.
Sonst immer 294W Jetz 350-400.
Trotzdem brutal wie viel Watt heutige High-end grakas fressen.
Während bei den CPUs die Wattage immer eig konstant im highend geblieben ist siehts bei den grakas anderst.
Sonst immer 294W Jetz 350-400.
Vanilla2001
Commander
- Registriert
- Juli 2008
- Beiträge
- 2.734
Das ist doch normal. Wenn man RechenLeistung braucht, geht es nun mal nicht ohne elektrische Leistung. Für alle anderen die sich über die Leistungsaufnahme aufregen, gibts die kleineren Karten, mit entsprechend weniger Rechenleistung. Es kommt doch auf den Einsatzfall an und ich glaube nicht dass diese GK in einem Office-PC der Buchhaltung eingesetzt wird. Ich versteh solche Kommentare immer nicht.
Die Hersteller versuchen natürlich die Rechenleistung nach oben zu schrauben. Das muss ja auch sein, unsere Software verschlingt ja schneller Hardware als diese beschleunigt werden kann.
Die Hersteller versuchen natürlich die Rechenleistung nach oben zu schrauben. Das muss ja auch sein, unsere Software verschlingt ja schneller Hardware als diese beschleunigt werden kann.
S
StYleR
Gast
Ich habe jetzt auch eine HD6990 in meinem Rechner, hatte vorher zwei HD5870 CF, jetzt fällt mir auf das GPU-Z Crossfire als disabled anzeigt, alle anderen Reviews steht da aber "Enabled", wo liegt bei mir der Fehler?
Darkseth88
Fleet Admiral
- Registriert
- Nov. 2010
- Beiträge
- 16.938
Was zeigt denn Nvidia Inspektor an?
Könnte sein, dass es ein "auslesefehler" ist von GPU-Z und erst ne neue version erscheinen muss.
Hast du denn die erwartete Leistung in z.b. 3D Mark 11?
Wie ist deine persönliche subjektive meinung zur Lautstärke? Wirklich so heftig, wie man sich vorstellt bei 66+ dezibel?
Könnte sein, dass es ein "auslesefehler" ist von GPU-Z und erst ne neue version erscheinen muss.
Hast du denn die erwartete Leistung in z.b. 3D Mark 11?
Wie ist deine persönliche subjektive meinung zur Lautstärke? Wirklich so heftig, wie man sich vorstellt bei 66+ dezibel?
S
Scriptkid
Gast
StYleR schrieb:I alle anderen Reviews steht da aber "Enabled", wo liegt bei mir der Fehler?
Ich hatte das mit meiner ersten HD 5970 auch. Leider war der PLX-Chip defekt. Der Händler hat sie nach einer Woche Gebrauch wieder zurück genommen.
@all,
weiß jemand von Euch, ob es schon vernünftige alternative Lüftkühlsysteme wie z.B. den Accelero Xtreme für die 6990 gibt ?
S
StYleR
Gast
@hill01, bei Information/Hardware habe ich nur "Primäradapter" und dann "Verbundener Adapter" stehen.
@HeinzNeu, na Top, neu und schon defekt.
@HeinzNeu, na Top, neu und schon defekt.
Ähnliche Themen
- Antworten
- 242
- Aufrufe
- 35.084
- Antworten
- 356
- Aufrufe
- 114.568
- Antworten
- 9
- Aufrufe
- 796
- Antworten
- 93
- Aufrufe
- 11.589
- Antworten
- 56
- Aufrufe
- 13.162