Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Test: AMD Radeon HD 6990
- Ersteller Wolfgang
- Erstellt am
- Zum Artikel: Test: AMD Radeon HD 6990
fox40phil
Rear Admiral
- Registriert
- Okt. 2008
- Beiträge
- 5.885
Wenn das OC-BIOS aktiviert ist, wird die Radeon HD 6990 dann sogar noch lauter – 73 Dezibel ist aktuell ein Rekordwert! In dem Fall hilft es eigentlich nur noch, den Rechner in einen anderen Raum zu stellen.
made my day! wie "geil" ist das denn bitte xD
voll gut, dass man mit der Karte Crysis auf 2560x1600 + full AF & AA spielbar läuft! 2 davon und man könnte wohl mit Eyefinity (3 Monitore/Beamer + Full AF / AA) zocken?!
naja Leistung hat ihren Preis...wie überall^^
Thx für den Test! noch mal den Rest lesen und das Fazit
dunkelbunter
Commander
- Registriert
- Juni 2008
- Beiträge
- 2.587
Zählt das jetzt eigentlich unter "Machbarkeitsstudie"? Brachiale Leistung, Leistungsaufnahme dafür geht eigentlich noch, Preis ist irrelevant darüber zu sprechen oder negativ aufzuführen.. Lautstärke und Kühlerkonstruktion überdenkbar, dann gleich Doppel oder Tripleslot zum Launch oder Wakü und dann gibts eigentlich nichtsmehr zu meckern! Herrliche Karte, aber nicht für mich, schaue mich im max 250€ Rahmen um und da habe ich meine 6950@6970 und bin mehr als zufrieden!
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Ich behaupte mal das der Vram Verbrauch nahe 2GB liegt, daher sind das die ersten Karten die das Setting mit den "Fake 30 FPS" packen, nur möglich durch die 2GB in der Referenz. 2x HD 6970 2GB schaffen sogar 37FPS.Nach vielen vielen vielen Jahren wurde nun Crysis (Warhead) so richtig geknackt. Würde ich ehrlich gesagt gern mal sehen wenn das Game in 2560 vollkommen Ruckelfrei läuft.
Lächerlich, eine HD 6970 2GB ist teilweise schneller als eine GTX 580 bzw. nur ganz knapp dahinter, man braucht schon eine GTX 580 3GB um von überlegen zu reden. Noch dazu weist du ja was passiert wenn man eine spot günstige HD 6950 2GB frei schaltet -> fast GTX 580 Niveau.Auch erstaunlich, dass man bei amd mittlerweile schon eine dual gpu karte braucht, um ueberhaupt mal mit Nvidia mithalten zu koennen
Die Toxic ist deutlich besser, in quasi allen Bereichen, darum liegen die Ares auch noch auf Halde rum und die 2 Toxic Modelle sind ausverkauft:Pesönlich fände ich fast eine ARES(die ziemlich im Preis gefallen ist)attraktiver
http://geizhals.at/deutschland/a524974.html
http://geizhals.at/deutschland/a534358.html
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Erstaunlich, wie die Lautstärke auf GTX 480 Nieveau, bzw. jenseits davon, kaum in den Kommentaren kritisiert wird, obwohl es Anfang 2010 noch heftigste Kritik gegeben hat. Als ob ein Sinneswandel stattgefunden hat.
Zum Produkt bleibt nur festzustellen, das man eine wunderbares Benchprodukt erschaffen hat. µRuckler als unwichtig abzustempeln zeugt nur wiederholt vom geringen Interesse AMDs an der Zufriedenheit des Kunden. Gibt nunmal wichtigeres als ein Produkt das man sinnvoll nutzen kann. Schade das man diesen Weg geht und die Fans dem noch zujubeln, vollkommen egal was noch passiert.
Zum Produkt bleibt nur festzustellen, das man eine wunderbares Benchprodukt erschaffen hat. µRuckler als unwichtig abzustempeln zeugt nur wiederholt vom geringen Interesse AMDs an der Zufriedenheit des Kunden. Gibt nunmal wichtigeres als ein Produkt das man sinnvoll nutzen kann. Schade das man diesen Weg geht und die Fans dem noch zujubeln, vollkommen egal was noch passiert.
rumpel01
Fleet Admiral
- Registriert
- März 2006
- Beiträge
- 26.686
Raucherdackel schrieb:Da sich höherer RAM-Takt bei GDDR5 signifikant auf die Leistungsaufnahme der Karten im Idle auswirkt (kann jeder selber mit einem handelsüblichen Verbrauchsmessgerät überprüfen), sind die Idle-Leistungsaufnahme Tests zu Ungunsten von AMD falsch, sofern die 300MHz stimmen sollten.
Wie beim letzten Mal wurde bereits darauf hingewiesen, und das lässt sich auch aus dem Text entnehmen, wenn von 2500Mhz GDDR5-Takt die Rede ist, sind damit die DDR-Taktraten gemeint, wodurch 300Mhz "realen" 150Mhz entsprechen. Die Taktraten stimmen daher.
Dass Du dies seinerzeit trotz mehrfachen Hinweis nicht erkannt und stattdessen mit Vorwürfen und Unterstellungen garniert hast, war, wie erläutert das Problem.
B
boxleitnerb
Gast
An dem Test stört mich etwas, dass man Zeit mit Sub-HD Auflösungen und 1xAA/1xAF verwendet hat. Bei solchen Monstern und MGPU generell sollte der Parcour ab 1080p 4/16 losgehen.
Eller
Lt. Commander
- Registriert
- März 2007
- Beiträge
- 1.563
Ich verstehe nur eins nicht, wieso setzt AMD bei so einer (logischerweise) hohen Abwärme noch auf diese dumme Radial-Kühlung.
Für den Preis hätte ich schon ein paar neue Innovationen in Sachen Kühlung erwartet.
Nvidia hat es doch schon gut vorgemacht mit seiner "Vapor Chamber", nicht perfekt, aber ein lobenswerter Anfang.
Für den Preis hätte ich schon ein paar neue Innovationen in Sachen Kühlung erwartet.
Nvidia hat es doch schon gut vorgemacht mit seiner "Vapor Chamber", nicht perfekt, aber ein lobenswerter Anfang.
DvP
Admiral
- Registriert
- März 2001
- Beiträge
- 9.564
Hat doch die 6970 auch. Hier im Test wurde nichts mehr erwähnt, denke aber nicht, dass die Weggefallen ist:Eller schrieb:Nvidia hat es doch schon gut vorgemacht mit seiner "Vapor Chamber", nicht perfekt, aber ein lobenswerter Anfang.
"Der Dual-Slot-Kühler auf der Radeon HD 6970 macht einen mächtigen und schweren Eindruck, wobei er die komplette Vorderseite der Karte belegt. Das Kernstück des Kühlers ist ein Kupferblock inklusive Vapor-Chamber, der direkt auf der Cayman-GPU platziert ist."
Tja und wie wurde bei der GTX580 schon über die Limitierung der CPU diskutiertJolly91 schrieb:Klar, er läuft mit 3,8ghz, aber warum keine 4,5ghz, werden doch möglich sein, wen er bremmst, macht es den Test nicht ganz sinnvoll, immerhin könnten es statt 30FPS auch 35 sein
Es sei gepriesen ! AMD hat die GTX480 nachgebaut ! So laut, so hungrig, so ... upps, nur viel schneller
Über den Stromverbrauch beschwert man sich bei diesem Monster genauso wie über den Spritverbrauch eines Porsche bei 275km/h im Verhältnis zu einem Fiat Punto: gar nicht.
Mit Rücksicht darauf, dass Nvidia stets ohne Sinn und Verstand Produkte auf den Markt klatscht, die technisch nicht innovativ und vernünftig sind, hat AMD die dahingehende Bescheidenheit und Seriösität mit der 6990 abgelegt. "Auf Deibel komm raus" wurde hier brachial agiert, 375W zu Beginn und für die Megafreaks mit fetten Netzteilen dann noch den 450W-Modus. Klasse ! So ein Geschäftsgebaren hätte ich bisher ausnahmslos Nvidia zugetraut, keine Frage. Endlich sind beide Hersteller gleichermaßen unseriös, weshalb die Leistungen auch verglichen werden können. Ich hatte von Anfang an die 6+8pin=300W-Marke sofort geglaubt, weil AMD/ATI bisher immer seriös agiert hat. Die 2900XT und die 4870X2 waren für mich "im Rahmen". Als ich das mit den 8+8=375W gesehen habe bin ich rückwärts vom Stuhl gefallen und lag 5 Minuten besinnungslos da: eine Welt war zusammengebrochen. AMD wird unseriös ! ENDLICH ! Und das wird noch mit 450W getoppt. Ich träume !
Tja, wenn es um Highend geht sind sowieso nur Bekloppte (wie zB ich) relevant. Und bitteschön: wen interessiert der Stromverbrauch bei einer Dual-Karte ?! Jetzt geht es noch 3-4 Wochen, dann sind vermutlich die ersten Wasserkühl-Platinen da und ich kenne 2 Freunde, die sich so eine Karte dann sofort holen. Bzw. wenn das Weihnachtsgeld reinschneit gleich 2 davon.
Hallelujah ist das ein schöner Tag !
Über den Stromverbrauch beschwert man sich bei diesem Monster genauso wie über den Spritverbrauch eines Porsche bei 275km/h im Verhältnis zu einem Fiat Punto: gar nicht.
Mit Rücksicht darauf, dass Nvidia stets ohne Sinn und Verstand Produkte auf den Markt klatscht, die technisch nicht innovativ und vernünftig sind, hat AMD die dahingehende Bescheidenheit und Seriösität mit der 6990 abgelegt. "Auf Deibel komm raus" wurde hier brachial agiert, 375W zu Beginn und für die Megafreaks mit fetten Netzteilen dann noch den 450W-Modus. Klasse ! So ein Geschäftsgebaren hätte ich bisher ausnahmslos Nvidia zugetraut, keine Frage. Endlich sind beide Hersteller gleichermaßen unseriös, weshalb die Leistungen auch verglichen werden können. Ich hatte von Anfang an die 6+8pin=300W-Marke sofort geglaubt, weil AMD/ATI bisher immer seriös agiert hat. Die 2900XT und die 4870X2 waren für mich "im Rahmen". Als ich das mit den 8+8=375W gesehen habe bin ich rückwärts vom Stuhl gefallen und lag 5 Minuten besinnungslos da: eine Welt war zusammengebrochen. AMD wird unseriös ! ENDLICH ! Und das wird noch mit 450W getoppt. Ich träume !
Tja, wenn es um Highend geht sind sowieso nur Bekloppte (wie zB ich) relevant. Und bitteschön: wen interessiert der Stromverbrauch bei einer Dual-Karte ?! Jetzt geht es noch 3-4 Wochen, dann sind vermutlich die ersten Wasserkühl-Platinen da und ich kenne 2 Freunde, die sich so eine Karte dann sofort holen. Bzw. wenn das Weihnachtsgeld reinschneit gleich 2 davon.
Hallelujah ist das ein schöner Tag !
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Mr_Blonde
Ist mir neu, das nur weils MGPU ist, andere Regeln zu gelten haben. 6990 erhebt den Anspruch High-End zu sein, exakt so wie die GTX 480. Einziger Unterschied (IHV mäßige ausgeklammert) sind die minderwertigen fps und die notwendigen CF Profile der 6990.
Die Mars, Ares, usw. Ausrede, das es ein Sondermodell ist, kann nicht gelten wenn das dick und fett AMD steht.
Ist mir neu, das nur weils MGPU ist, andere Regeln zu gelten haben. 6990 erhebt den Anspruch High-End zu sein, exakt so wie die GTX 480. Einziger Unterschied (IHV mäßige ausgeklammert) sind die minderwertigen fps und die notwendigen CF Profile der 6990.
Die Mars, Ares, usw. Ausrede, das es ein Sondermodell ist, kann nicht gelten wenn das dick und fett AMD steht.
Zuletzt bearbeitet:
BlackCore900
Commodore
- Registriert
- Jan. 2009
- Beiträge
- 4.676
und wo ist die HD5970???? , also wenn man den Test macht dann richtig , wir wollen ja sehen ob die HD5970 und die HD6990 einen riesen Unterschied machen.
Lächerlich, eine HD 6970 2GB ist teilweise schneller als eine GTX 580 bzw. nur ganz knapp dahinter, man braucht schon eine GTX 580 3GB um von überlegen zu reden. Noch dazu weist du ja was passiert wenn man eine spot günstige HD 6950 2GB frei schaltet -> fast GTX 580 Niveau.
Die HD 6970 ist eher auf GTX 570 Niveau. Durchschnittlich sit die GTX 580 10% (oder mehr) schneller.
Bei den Single-GPUs ist nVidia schon klar vorne. Jetzt müssen sie aber mal bei Dual-GPU nachlegen, was sie wohl bei GF100 aus Brandgefahr unterlassen haben
So wieder nVidia bei Kühlsystem dazugelernt hat (GTX 500 Serie), nehm ich an, dass sie ihre Dual-GPU Lösung auf ein ertäglich lautes Maß reduzieren können.
Ich würd gern mal sehen, was die HD6990 zu Furmark sagt :]
PS: Eine GTX 580 @3GB ist ein tick langsamer als eine normale GTX 580 (siehe CB-Test). Offenbar macht ein großer Speicher einige Probleme.
Siehe: https://www.computerbase.de/2011-02/test-2x-geforce-gtx-580/4/#abschnitt_performancerating
Z
Zilpzalp
Gast
Viel zu schlecht. Teurer als zwei Einzelkarten, nicht mehr Leistung als diese, sehr laut. Absolut schlecht, die Karte.
Gandalf2210
Commodore
- Registriert
- Mai 2010
- Beiträge
- 4.166
nettes ding, aber ohne wakü bzw. einem Wohnort in trans Sibirien nicht wirklich alltagstauglich
Erinnert mich irgendwie an die MARS
Erinnert mich irgendwie an die MARS
MadMax007
Lt. Commander
- Registriert
- Jan. 2007
- Beiträge
- 1.248
Ich finde die Karte krass, nichts für mich, aber der Begriff " Machbarkeitsstudie" ist wohl nicht ganz falsch
Mich wunderts immer wieder warum die Radeon Karten in Starcraft II beim aktivieren der Kantenglättung so einbrechen. Ist es das Spiel, oder der Treiber? Ist ja auch bei den Single-Karten so.
Das es Lautstärke und Stromverbrauch satt gibt war ja klar, einzig unverständlich ist warum am Mikroruckler-Problem nichts gemacht wurde.
Mich wunderts immer wieder warum die Radeon Karten in Starcraft II beim aktivieren der Kantenglättung so einbrechen. Ist es das Spiel, oder der Treiber? Ist ja auch bei den Single-Karten so.
Das es Lautstärke und Stromverbrauch satt gibt war ja klar, einzig unverständlich ist warum am Mikroruckler-Problem nichts gemacht wurde.
Ähnliche Themen
- Antworten
- 242
- Aufrufe
- 33.781
- Antworten
- 356
- Aufrufe
- 113.738
- Antworten
- 9
- Aufrufe
- 792
- Antworten
- 93
- Aufrufe
- 11.335
- Antworten
- 56
- Aufrufe
- 13.019