Test Test: AMD Radeon HD 6990

die karte kann nicht gesund sein. klar ist sie die aktuell schnellste, aber nicht bei dem verbrauch - die stromgesellschafften freuts. :D
 
könnte auch das Netzteil sein, welches kurz vorm Abbrennen ist :)
 
2 GPUs , ein Mini-Futzi-Klein-Baby-Lüfter ?
Sinnfrei pur!

Krank, dass die Karte mehr als 3 mal so viel frisst, wie mein ganzer Rechner unter Vollast.
Klar, 4GB Speicher und hohe Taktraten.

Ist aber nix neues am IT-Markt, neue Technologien wären besser, als alles einfach vollzustopfen.
 
Bullet Tooth schrieb:
Wie kommst du denn da drauf? Normalerweise sollte die Luft hinter Graka angesaugt werden und Richtung Gehäuseende durch die Kühlkörper der Graka transportiert werden. Verstehe deinen Gedankengang nicht.

Ist bei der HD6990 aber anders, da der Lüfter ja in der Mitte des PCBs sitzt. Hat den Vorteil, dass beide GPUs direkt mit kühler Luft versorgt werden können, aber eben auch den Nachteil, das die Hälfte der heißen Abluft im Gehäuse verbleibt. Kenne das noch gut von meiner GTX295 Rev.2. Da wurden die Kabel in der Nähe des Abluftkanals richtig warm.

@topic: ziemlich gute Leistung, aber aufgrund der Einpreisung momentan vollkommen sinnfrei. Ein CF-fähiges Board sollten die meisten potenziellen Interessenten doch haben. Und dann kommen zwei HD6970 eben billiger.
Bin mal auf die GTX590 gespannt.
 
Übertriebenst, aber leider auch nur für Enthusiasten erschwinglich.
 
Eine Karte mit ordentlich Wumms, jedoch auf Kosten der Laustärke. Wenn man aber nur auf 1680x1050 spielt, ist die Karte natürlich überdimensioniert. Solche Karten sind für Auflösungen jenseits von Full HD geschaffen und diesesmal wird der Karte auch ausreichend vram zur Seite gestellt.

Ich bin gespannt was nVidia als Konter bringen wird, weil die GF 110 ist auch nicht für Sparsamkeit bekannt. Wird anscheinend ein knappes Rennen zwischen der HD 6990 und der gtx 590. Wir werden sehen wer den lautesten, ehm, längsten hat :D

Btw: 2x ne HD 6950 kaufen, Shader freischalten und den Takt auf 830 anheben et viola die selbe Power wie die einer HD 6990 und noch Geld gespart. Ach, leiser sollte es auch sein und falls nicht, einfach 2 gescheite Kühler mit dem gesparten Geld kaufen :)
 
Zuletzt bearbeitet:
TheSlider schrieb:
die karte kann nicht gesund sein. klar ist sie die aktuell schnellste, aber nicht bei dem verbrauch - die stromgesellschafften freuts. :D
Ach, wer wirklich den Aufpreis zu einer einfachen 6970 zahlt, der hat auch noch 100€ mehr, für die er dann ein Jahr täglich 7 Stunden spielen kann.^^
 
Nun würde ich jedoch noch gerne den zweiten von mir angesprochenen Punkt bzgl. der Microruckler von den Leuten beantwortet haben, welche sich mit dem Thema wirklich auskennen (ich zitiere mich ausnahmsweise mal selbst):

feardorcha schrieb:
Was die Microruckler angeht, so habe ich noch nicht ganz verstanden, wie diese zustande kommen. Wenn diese aus der Schwankung dieser zeitlichen Differenzen zweier aufeinanderfolgender Bilder resultieren, so sollte doch mit steigender fps-Zahl neben den absoluten Zeitabständen zwischen zwei Bildern auch deren Schwankung sinken.
Sprich:

25 fps -> ~40 ms (+/-10ms)
50 fps -> ~20 ms (+/- 5 ms)
100 fps -> ~10 ms (+/- 2,5 ms)
200 fps -> ~ 5 ms (+/- 1,25 ms)

Wie hoch die Schwankungen der Latenzzeiten genau ausfallen, weiß ich nicht. Angenommen, die Größenordnung träfe zu, ist dann meine Einschätzung richtig? Von der Logik her müssten diese ja in prozentualem Verhältnis zur durchschnittlichen Latenzzeit stehen oder gibt es da einen technikbedingten Faktor, der diese Microruckler nicht mit dieser Proportionalität "schrumpfen" lässt?

Wie schon richtig angesprochen, spielt ja auch das Verhältnis von Monitorfrequenz zur Bildwiederholrate der Graka eine große Rolle. Wenn diese 60 [Hz] / 59,9 [ms] ist, wird beim 60sten Bild ein Bild "zweimal" gezeigt, was ja einem Microruckler gleichkäme. Hier würden allerdings nicht nur Dual-GPUs betroffen sein.

Gruß,
fear
 
Zuletzt bearbeitet:
Da kann man besser zwei GTX560TI verbauen.

Wenn Nvidia schlau ist, legen sie in Sachen Leistung nur ein wenig drauf und achten hauptsächlich nur auf eine gut akzeptable Lautstärke, somit wird die ATI nur von Fanboys gekauft.

Alle anderen Enthusiasten gehen nach NVidia, selbst bei 50€ Mehrpreis.
 
wie erwartet: schnell und ohrenbetäubend laut. wenigstens im idle hätten sie aber die lüftersterung entschärfen und die karte sehr leise machen können, schade.
da die meisten dieser karten wohl ohnehin nach kurzer zeit nen wasserkühler spendiert bekommen, dürfte das aber zu verkraften sein.
freu mich schon auf die megagam€r kiddies, die dann hier rumfragen, wo man denn nen leiseren kühler herbekommt :evillol:
 
Metro @ max details mit 50 fps das is doch mal ne Ansage .

Und Stromverbauch is im verhältniss zur mehrleistung absolut ok.
Naja wakü ist halt pflicht weil die lautstärke unter last mit standard kühler absolut nicht geht.
 
sehr sehr gut
hammer, was heute schon möglich ist. ich bin mir sicher, dass in 4 jahren diese leistung in normalen notebooks möglich ist.
das gebashe hier mit hohen stromverbrauch und fail ati verstehe ich nicht. nvidia würde immo niemals diese leistung erreichen selbst mit 25% mehr stromverbrauch als diese dual lösung.
ich bin echt gespannt, ob die ati 7870 auf einem chip die gleiche leistung erreichen kann ende des jahres bzw nächstes jahr
der grafikmarkt wird sicherlich nicht mehr so stark anwachsen wir bisher, dafür sind die casual gamer zu umsatzstark und diese pfeifen für gewöhnlich auf realismus
ich besitze noch eine 8800GT und komm damit sehr gut aus. viel gespielt wird eh nicht mehr wie im alter von 16. für Half Life 2 Episode 3/ Black Mesa Source würde ich mir vllt mal was neues anlegen.
 
hm auf den frameverläufen sieht man doch eigentlich kaum mikroruckler oder lieg ich jetzt falsch?
 
aivazi schrieb:
das ist nicht ganz richtig ^^, da bei dem 120 fps rechner die frames immer um 8,3 milisekunden aktueller sind

edit: stell dir einfach vor das bei dem 60 fps rechner das zweite bild das zweite ist welches gerechnet wurde aber beim 120 fps PC wird an der zweiten stelle nicht das zweite sondern das dritte bild rausgegeben weshalb der 120 fps nutzer einen vorteil hat

V-sync mit 60fps, wenn der Rechner diese 100% halten kann, ist besser als 120fps. Mit Vsync ist jedes Bild aktuell + die reaktionszeit vom Monitor. Mit 120fps kann es passieren das der Monitor nicht das aktuelle sondern das 8ms alte Bild anzeigt, was bedeutet das du mit mehr fps eine höhere latenz bekommen kannst. wo ist da dann bitte der vorteil?

Du kannst sagen das diese Zwischenbilder 8ms neuer sind, kannst sie trotzdem nur alle 16ms sehn. Damit landest du dann 8ms in der Vergangenheit.
 
So AMD, jetzt durftet ihr euch mit diesem Monster ein bisschen austoben, aber nun ist auch wieder gut! Husch husch, alle Energie in die HD7XXX gesteckt und eine Karte entwickelt, die zur Effizienz zurückkehrt und trotzdem dabei eine gute Figur macht! nVidia hat eine Karte, die 5 Frames mehr bringt? Drauf geschi..., seid wieder stolz auf Eure Leistung-pro-Watt-Bilanz. Das ist es doch was euch oft ausgemacht hat!
 
Wieder ein Ding, dass die Welt nicht braucht!
Doch wozu das alles?
Wenn jemand schon bereit ist, so viel Geld auszugeben, nur um mal Crysis (halbwegs) flüssig zu spielen,
dem sollte auch klar sein, dass er das für weniger Geld mit zwei einzelnen 6970lern hinbekommen hätte.
Und selbst das ist irrsinnig. Mit so etwas gibt man nur vor seinen Freunden an.
"Schaut her, ich hab mal eben um die 600€ rausgeschmissen und treib meine Stromrechnung in die Höhe".
Ne, Vielen Dank AMD. So ne Karte zu produzieren zeugt eher von einem pubertierenden Jugendlichen als von einem Chipunternehmen.
Der letztlich erhöhte C02 Ausstoß ist dabei noch gar nicht erwähnt.
 
Ich hatte zwar schon damit gerechnet, dass auch diese HD 6xxx Karte wieder ordentlich untergeht, aber dass sie so dermaßen schlecht ist!?! goil!

Ehrlich, schaut Euch mal noch andere Tests auf gamestar & co. an, AMD hat mit der 6990 wohl die schlechteste Karte der jüngeren Unternehmensgeschichte rausgebracht!
 
Nochmal zu den MicroRucklern...
Ich hab hier mal eine Skizze gemacht, die MEINEM Verständnis entspricht. Und es wäre schön, wenn man mein Verständnis berichtigt oder bestätigt, so dass evtl. andere aus meiner Skizze eigenes Verständnis ziehen können.

Die Skizze zeigt einen Zeitstrahl. Jeder Punkt steht für ein ausgegebenes Bild. Die Blauen für Single-GPU und bei M(ulti)GPU repräsentiert grün bzw. rot je eine GPU.

microruckler.jpg


Bei der realen MultiGPU ist der Zeitabstand zwischen grün-zu-rot deutlich geringer als bei einerm "einfachen" 60fps-Bild und der Zeitabstand zwischen rot-zu-grün ist deutlich größer als bei "einfachem" 60fps-Bild.
Dieser große Abstand ist dann als "Mikroruckler" wahrnehmbar obwohl jede GPU für sich mit 30fps arbeitet, richtig ?!

Also unterm Strich, nach meinem Verständnis, sind mir Mikroruckler solange EGAL, solange die zeitliche Grenze des vom menschl. Auge Wahrnehmbarem partiell NICHT unterschritten wird.

(kleiner Fehler in der skizze, was ">33 ms" angeht, aber ich denke das Prinzip wird klar)
 
Zuletzt bearbeitet:
@Nichtgamer:
Naja, mit zwei 6970ern gibt auch vor seinen Freunden an und treibt die Stromrechnung in die Höhe. Der Vergleich hinkt... :rolleyes:
 
Zurück
Oben