Test Test: AMD Radeon HD 6990

feardorcha schrieb:
Natürlich kann ein 60Hz-Monitor nicht mehr Bilder pro Sekunde darstellen als eben diese 60 frames. Allerdings ist die Schlussfolgerung, dass eine mehr Bilder darstellende Graka hier nichts bringt, falsch. Gerade für Zocker von Egoshootern ist es wichtig, dass die angezeigten Bilder möglichst aktuell sind. Da entscheiden Millisekunden.
Nehmen wir also an (da leicht zu rechnen), man hat einen 60Hz-Monitor und kann jedoch 120 fps berechnen lassen. Dann werden zwar immernoch 60 Bilder dargestellt. Diese sind jedoch alle halb so alt wie die bei 60 fps

ok, deiner these nach rendert ein PC welcher mehr frames in der sekunde generieren kann in die zukunft des spiel geschehen ?? :freak:

das kann ich mir eigentlich nur so vorstellen ein PC der 30 fps in der sekunde produziert und einer der 60 frames rendert unterscheidet sich eigentlich nur in der hinsicht das der rechner der 60 frames rendert in der lage ist zwischen frames zu berechnen welche dem 30 frame rechner fehlen ^^

wenn das einer versteht dann ist er gut xD
 
@aivazi: Du denkst falsch herum. Je geringer die Latenzen umso aktueller die Daten. Je mehr Latenz du in der Kette hast umso älter ist das Bild was du vor dein Gesicht bekommst.
 
Was mir grad beim betrachten der zur Gehäusefront liegenden Öffnung, ...
https://pics.computerbase.de/3/3/5/3/7/13-1080.3923422551.jpg
... des "30,5 cm Riegels" in den Sinn kommt ist die Frage:
Was passiert eigentlich mit den davor liegenden HDDs wenn die von der 2. GPU mit ca. 90°C "versorgt" werden?

Ok, ok, war ne retorische Frage... aber ernsthaft, sollte AMD da nicht irgendein Warnhinweiß für DAUs anbringen? :D
 
Vanilla2001 schrieb:
@feardorcha: Deine Erläuterung ist nicht, schlecht, wenn du allerdings noch in [ms] und nicht in [Hz] argumentierst, wird es noch einleuchtender.

Okay, dann nochmal ausführlich:

Monitor (60 Hz) stellt 60 Bilder pro Sekunde dar. Daraus resultiert ein durchschnittlicher Abstand der Bilder von etwa ~16,6 ms. Kann meine Grafikkarte jedoch 120 fps berechnen, haben diese einen durschnittlichen zeitlichen Abstand von ~8,3 ms. Davon wird natürlich nur jedes zweite Bild dargestellt.
Dadurch erhalte ich also keineswegs ein flüssigeres Bild, sondern ein aktuelleres.
Das ist aber, wie gesagt, für das Gros der Nutzer völlig irrelevant und interessiert lediglich die Extrem-Zocker.

Was die Microruckler angeht, so habe ich noch nicht ganz verstanden, wie diese zustande kommen. Wenn diese aus der Schwankung dieser zeitlichen Differenzen zweier aufeinanderfolgender Bilder resultieren, so sollte doch mit steigender fps-Zahl neben den absoluten Zeitabständen zwischen zwei Bildern auch deren Schwankung sinken.
Sprich:

25 fps -> ~40 ms (+/-10ms)
50 fps -> ~20 ms (+/- 5 ms)
100 fps -> ~10 ms (+/- 2,5 ms)
200 fps -> ~ 5 ms (+/- 1,25 ms)

So gesehen dürften die Microruckler bei steigender fps-Zahl für das Auge unsichtbar werden. Auch, wenn sie noch messbar sind.

aivazi schrieb:
ok, deiner these nach rendert ein PC welcher mehr frames in der sekunde generieren kann in die zukunft des spiel geschehen ?? :freak:

OMG!
Sorry, aber wie kommt man aus meinem Post zu dieser verquerten These?!
Stell Dir vor, Dein Kontrahent bei MW2 hat 30 fps, Du aber 60 fps.
Das würde bedeuten, dass er (nicht in die Zukunft, sondern) im Durchschnitt 16,6 ms aktuellere Bilder erhält. Das bedeutet, er sieht in der Regel schneller, dass jemand um die Ecke kommt oder eine Handgranate geflogen kommt. Das ist (für den Pro-Gamer, der entsprechende Reflexe hat) ein Vorteil.
Verstanden?
 
Zuletzt bearbeitet:
Wenn jetzt noch VSYNC dazu kommt, und die Grafikkarte schafft nur 59,999fps, stellt man bei dem 2 Bild nochmal das erste dar. Durch Tripple-Buffering kann man den Effekt etwas kompensieren. Aber man hat trotzdem immer mal zwischen den Frames unterschiedliche Framezeiten ( mal dauert der Wechsel 16.67ms, mal 33ms ) Wenn du dabei einen schnellen Schwenk machst, wird das mehr als deutlich.
 
ja verstanden, die argumentation mit den milisekunden war verständlicher als mit den frames^^
 
whoa lol.. Die Lautstärke ist ja mal absoluter Fail.. Ich denk jeder der sich das kauft wird mit dem gedanken spielen nen besseren VGA Kühler drauf zu basteln.. 66-73 dezibel ist ja abartig.

Die dauerschmerzschwelle soll ja bei 85 dezibel liegen, und die karte ist da nichtmehr weit von entfernt.
 
Auch wenn ich mir die Karte nie zulegen würde, frage ich mich:

Was bewegt einen "FÜNÜNÜ Undervolter" oder einen "MIMIMI Underclocker" überhaupt auch nur einen Blick auf die Karte zu werfen oder auch noch was im Forum dazu abzusondern?

So'n 3-Liter-Lupofahrer ist auf einem Ferraritreffen einfach falsch. :D

Schicke Karte, die aber nur zuammen mit einem THX Soundsystem geliefert werden sollte.
Unglaublich was alles geht, wenn man nur einfach mal unvernünftig sein darf :evillol:
 
feardorcha schrieb:
Nur, weil Du hier so herumbrüllst, wird Deine Aussage nicht viel richtiger!
Natürlich kann ein 60Hz-Monitor nicht mehr Bilder pro Sekunde darstellen als eben diese 60 frames. Allerdings ist die Schlussfolgerung, dass eine mehr Bilder darstellende Graka hier nichts bringt, falsch. Gerade für Zocker von Egoshootern ist es wichtig, dass die angezeigten Bilder möglichst aktuell sind. Da entscheiden Millisekunden.
Nehmen wir also an (da leicht zu rechnen), man hat einen 60Hz-Monitor und kann jedoch 120 fps berechnen lassen. Dann werden zwar immernoch 60 Bilder dargestellt. Diese sind jedoch alle halb so alt wie die bei 60 fps.

Das ist so nicht richtig....wenn du 120fps an einem 60hz monitor anliegen hast bekommst du exakt die gleichen verzögerungen weil jedes 2. Bild nicht dagestellt wird.
 
Wieder mal interessant sich die SC2 benches anzusehen.

Könnt ihr von CB euch mal die Engine und die diversen einstellmöglichkeiten auf AMD/nVidia karten genauer ansehen in diesem Game ?

Ich meine das fällt doch einem "blinden" auf das entweder die Engine total seltsam "funktioniert" so ein bisschen CPU-Limit hier und ein bisschen GPU-Limit dann in den höchsten settings oder so ähnlich (was meiner Meinung nach ebenso wenig Sinn macht).
Oder aber die Treiber sind ungefähr um +-100% unterschiedlich auf diese Engine optimiert - dann finde ich es aber fragwürdig SC2 noch immer im Benchmark parcour zu belassen. ODER aber die Treiber liefern ungleiche Bilder was dann evtl. doch die sehr seltsamen SC2 Benchmarkwerte erklärt ?

Jedenfalls, bitte bitte CB seht euch SC2 mal bitte genauer an.
 
Wums schrieb:
Das ist so nicht richtig....wenn du 120fps an einem 60hz monitor anliegen hast bekommst du exakt die gleichen verzögerungen weil jedes 2. Bild nicht dagestellt wird.


das ist nicht ganz richtig ^^, da bei dem 120 fps rechner die frames immer um 8,3 milisekunden aktueller sind

edit: stell dir einfach vor das bei dem 60 fps rechner das zweite bild das zweite ist welches gerechnet wurde aber beim 120 fps PC wird an der zweiten stelle nicht das zweite sondern das dritte bild rausgegeben weshalb der 120 fps nutzer einen vorteil hat
 
Zuletzt bearbeitet:
@aivazi: Mein Gott, jetzt hat ers... Ich bin stolz auf feardorcha ;)
 
Zitat von Shorkien:

Stimmt
weil es sie nicht gibt kann man sie nachweisen
Und Misteriöser Weise nur bei MGPU


Du hast echt 0Plan von der Materie oder?!
Die rendern AVR, sprich ein Bild nach dem anderen, das kann NIE 100% Synchron sein
Daher kommt das
Aber Obermacker wie du wissen NATÜRLICH das wir kein AVR mehr benutzen und du was ganz neues und schnelleres entwickelt hast

Ja - man kann automatisch "sehen", was man messen kann, is klaaaar :rolleyes:

Meßbare Klangunterschiede bei Lautsprechern kann man natürlich auch jederzeit raushören. (Ironie: aus)

Messbar ist alles, ob man's sieht/hört/fühlt steht auf einem ganz anderen Blatt.

Entscheidend ist, was man letztendlich auf dem Monitor sieht, oder schaust du beim spielen irgendwelche Messtabellen oder Frametimes an ? genau - nein.

Ob man einen "Plan" von der Materie hat oder nicht:
Wenn man meint, es besser wissen zu müssen - von mir aus.

ICH lasse mich jedenfalls nicht von irgendwelchen "Meßtabellen" beeindrucken und mache lieber den Praxistest , indem ich diverse Spiele mit Dual-GPU teste.
 
Vanilla2001 schrieb:
@aivazi: Mein Gott, jetzt hat ers... Ich bin stolz auf feardorcha ;)

hehe die milisekunden habens mir angetan xD ^^ ergo ist es sinnvoller bei egoshootern die grafikquali so niedrig wie möglich zuschrauben und sehr viele frames zu generieren und mit den passenden reflexen die gegner nieder schießen ^^
 
Woher stammt die Karte des "Herstellers mit drei Buchstaben" zum Testen für CB?
Nividia war bei der GTX580 so freundlich und hat sie CB zur Verfügung gestellt. Nur muss ich es bei der HD6990 überlesen haben woher diese kommt.
 
Zuletzt bearbeitet:
DVD_ schrieb:
Was mir grad beim betrachten der zur Gehäusefront liegenden Öffnung, ...
https://pics.computerbase.de/3/3/5/3/7/13-1080.3923422551.jpg
... des "30,5 cm Riegels" in den Sinn kommt ist die Frage:
Was passiert eigentlich mit den davor liegenden HDDs wenn die von der 2. GPU mit ca. 90°C "versorgt" werden?

Ok, ok, war ne retorische Frage... aber ernsthaft, sollte AMD da nicht irgendein Warnhinweiß für DAUs anbringen? :D

Wie kommst du denn da drauf? Normalerweise sollte die Luft hinter Graka angesaugt werden und Richtung Gehäuseende durch die Kühlkörper der Graka transportiert werden. Verstehe deinen Gedankengang nicht.

@Topic: Meine Fresse was für eine Leistung und die Skalierung sieht bei optimierten nicht nVidiaspielen auch sehr gut aus. Ansonsten naja DualGPU was will man erwarten? Ein Stromsparwunder? Einen Leisetretter? Und noch 45° unter Last? Nee, ist den Käufern eh egal, davon werden eh nur ganz wenige Grakas verkauft werden. Das einzige was uns diese Graka zeigt ist, was die zukünftige 7970 ungefähr Leisten kann, und das ist einiges.

Edit:@SPawn_999: Sapphire muss nicht dabei stehen, weil es auf den Bildern zu sehen ist.
 
Ist es eigentlich möglich, per Treiber den CF-Verbund aufzuheben und nur einen der beiden Chips zu verwenden?
 
rew2 schrieb:
gibt es irgendwie ein video das die lautstärke zeigt?^^

NordicHardware.se hat einen kurzen Run, ab 15:20min.
> Link


Zuerst zeigen sie eine Asus GTX 570 DirectCU II zum Vergleich unter Last (?!) und dann die 6990.

Beim Umschalten auf 3D Mark hört man richtig fieses, lautes Spulenfiepen, aber mag auch sein das hier der TFT schuld ist, ... klingt aber eher wie Spulenfiepen. *grusel*
 
Zuletzt bearbeitet: (Links berichtigt)
Zurück
Oben