Test Test: ATi Radeon HD 5970

bruts schrieb:
Ajooo, für Dark Age.. reicht auch noch deine 260GTX. :evillol: ;)

DAoC ? Aber nicht ,wenn Anna wieder zergt :) Liegt glaub nicht nur an der Graka.

An den Rest: Nix verstanden, was ich damit meinte. Aber das macht nix. Wissen heisst ja nicht umbedingt verstehen.
Der Rest ist wäre zu OT
 
Kompliment an AMD. Freu mich für die.
Allerdings sollten die auch mal Manpower in die Beseitigung des Microruckler Problems investieren. NV ist da schon etwas weiter.
Jetzt kann AMD auch endlich mal Geld verdienen (so die Karten denn lieferbar sind)

Ich bin mal gespannt wie sich der komplett neu entwickelte Chip von NV Anfang kommenden Jahres so macht.
AMDs Variante ist ja eher ein "aufgebohrter" Vorgänger.

Es bleibt spannend. AMD ist zurück. (schon seit der 5870)

Hoffe nur das die auch in absehbarer Zeit mit neueren CPUs Intel mal wieder das Wasser reichen können.....
Ich brauch was schnelleres für AVCHD Video schnitt. Mein Phenom II X4 940 BE @ 3,6 GHz ist da schon am Ende.

Allerdings glaube ich nicht das ich meine GTX285 die nächsten Monate ausmustern muss... ;)
 
eine schöne karte, nur muss man sich eingestehen dass man mehr erwartet hätte wenn man sich ansieht was das 5850 CF gespann leistet zum günstigeren preis... :(

irgendwie bin ich ettäuscht!

wie seht ihr das ?

LG
 
buntstift23 schrieb:
....... Flaschenhals war gestern... Pimpenttenhals ist die Zukunft ...

Tut mir Leid, aber jemanden der Pipette so lächerlich ausschreibt, kann ich nicht ernst nehmen.

Während ATI mittlerweile das Portfolio, der neuen Generation im Leistungsbereich komplett vorgestellt hat, fragt man sich wie lange NVIDIA sich noch Zeit lassen kann. Die Preise werden fallen und die Karten immer attraktiver, während die Grünen sich wohl auch noch das Weihnachtsgeschäft entgehen lassen.

Wenn NVIDIA meint, in GPGPU ist mehr Kohle zu holen, ist das schön und gut, aber ich vermisse die Konkurrenzsituation aus dem letzten Jahr, mit Preiskampf und Entwicklung neuer Modelle, nur um den anderen eins reinzuwürgen. Jetzt muss man ein bisschen länger warten, wenn man nich will, dass die Grafikkarte in 4 Monaten die Hälfte kostet.
 
Die Worte die HT4U gefunden hat sind teilweise wirklich erbärmlich.
Sie hängen sich an der schlechten Lieferbarkeit auf, jammern über die Voltage Tweaks, AMD tut dies AMD tut das, das ist echt der Hammer.
Die Karte ist schneller als alle anderen und ist etwas schneller als ein SLI aus 2GTX285, verbraucht deutlich weniger und trotzdem wird gemeckert.
Und die ständigen Mutmaßungen Nvidia habe mehr gegen µruckler getan wurden niemals bewiesen, anhand von Frametimes überprüft oder sonstiges. Ich hab von den "Verbesserungen" nie was mitbekommen. Bewegen sich die FPS unter 35 dann ruckelts genauso rum wie bei ATI.
 
Zuletzt bearbeitet:
Nojo, wenn man etwas mit Tabellenkrams rumspielt und paar Generationen und Zuwächse vergleicht, kann und wird ein Single Fermi (GTX380 ??) so bei 90-95% der FPS einer 5970 sein.
Dann warte ich doch lieber und spare mir Microruckeln in der 5. Generation. Und ja, ich hatte eine GTX 295 und 4870X2 und ich weiß wovon ich rede und sie sind defintiv spürbar ;) Mal mehr, mal weniger.

Desweiteren ist die Karte nicht wirklich innovativ. Es ist letztens Endes eine ver4fachung der Prozessoren ( 4870 >160, 5870 >320, 5970 >640) und auch nicht so viel einfallsreicher als NV. DX11 und SM5.0 und 40nm sind ein gutes Kaufargument, wohl aber nicht in dieser Konfiguration und zu dem Preis.

Da kann eine GTX 3XX ruhig 350€ ,- kosten, wenn sie in diesen FPS Regionen regiert und einfach die "besseren" Single GPU-FPS liefert.

So und nun viel Spaß allen erfolgreichen Käufern dieses Monsters :)
Ich hoffe ich hab auch bald mal wieder ein neues Spielzeug...
 
Schaffe89 schrieb:
Und die ständigen Mutmaßungen Nvidia habe mehr gegen µruckler getan wurden niemals bewiesen, anhand von Frametimes überprüft oder sonstiges. Ich hab von den "Verbesserungen" nie was mitbekommen. Bewegen sich die FPS unter 35 dann ruckelts genauso rum wie bei ATI.

Ich hab zu dem Thema nur folgendes gefunden, jedoch fehlt ein direkter Quervergleich zu älteren Treibern als auch zum Verhalten von Crossfire bzw. "X2" Karten.
https://www.computerbase.de/2009-01...95/21/#abschnitt_mikroruckler_auf_der_gtx_295

Edit: Das ist der verlinkte Originalartikel auf den Bezug genommen wird bzw. auf dessen Werte verwiesen wird wenn man bei der GTX295 die Verbesserung erklärt. Leider gibts hier noch keine Grafiken aber die Frametimes zeigen es schon deutlich:
https://www.computerbase.de/2008-01...7/#abschnitt_das_multigpuproblem_mikroruckler

Edit2: Die abstände in den die Frames gezeigt wurden verhielten sich (vor der Optimierung bei nVidia) zwischen 4 Frames folgendermaßen:

CoJ:
41 ms, 62 ms, 12 ms, 51 ms.

Jericho:
55 ms, 20 ms, 56 ms, 20 ms.

In dem neueren Test des Sachverhalts stellte man bei CoJ dann fast nurmehr ein Pendeln der Frametimes zwischen 30ms und 40ms fest. Das würde schon für eine deutliche Verbesserung sprechen. Worst Case war dann Crysis, wo sich das Pendeln zwischen 18ms und 47ms bewegt hat, was aber immer noch besser ist als das Worst Case Verhalten vor der Optimierung. Natürlich sollte man das anständig nachtesten mit dem gleichen Setup, gleicher Szene und gleichen Framerates. Aber nachvollziehen kann man es mit gutem Willen auch so ;)


@ Naennon
Da kann man doch gleich einen Herrn aus der Praxis fragen ;-) Ist dir bei ähnlichen Framerates ein Unterschied der Mikroruckler zwischen 4870X2 und GTX295 aufgefallen oder kannst du diese Aussage auch nicht bestätigen?
 
Zuletzt bearbeitet:
buntstift23 schrieb:
Ist dir Bewust wie gering der Leistungsunterschied zwischen i5/i7 und einem Q9650 ist? 3% im Durchschnitt. .......

aha. Genau deswegen sind die bei Realitätsfernen Spieletests die i5 und i7 immer so weit vorne.

Und mit der 5970 wird das bisher Realitätsferne wieder etwas realer. Das wirst du bei nächsten Testsystem schon feststellen. ;)

Zum Rest des Posts sag ich lieber nix :rolleyes:
 
@Fetter Fettsack: Stimmt, aktuell steht NV von der Leistungsaufnahme ganz sicher nicht besser da. Aber, auch wenn die 5970 eine Dual GPU Karte ist, bis jetzt kannte der Verbrauch nur den Weg nach oben, Mitte 2005 waren wir nach bei ca 50-60W (ja, Single GPU), die 8800GTX und die 2900 haben dann schon deutlich die 100W Marke gesprengt (die 2900 jenseits von Gut und Böse). Jetzt sind wir bei 170W Single GPU und 300W Multi GPU, wo soll das zukünftig hingehen?
Enthusiastenkarte oder nicht, höher darf´s eigentlich nicht mehr gehen, es müsste allmählich sogar mal deutlich runter. Und zwar bei NV und ATi.

Ja, dass es von der Warte der Sinnmäßigkeit her bei derartigen Wattzahlen nicht gutaussieht, ist vollkommen richtig. Allerdings sehe ich die Sache von dem Standpunkt her, dass diese Karten erstens mit recht niedriger Stückzahl gefahren werden und der absolute Teil des Stromverbrauchs von Grafikkarten dieses Typs daher "vernachlässigbar" gering ist und zweitens eher als Prestigeobjekt dienen (hier Herstellerseitig bezogen), um so irgendwelchen Unbedarften eine ATI schmackhaft machen zu wollen, man will ja schließlich, dass sich die Kasse füllt und das tut sie ja bekanntlich nur in den mittleren und unteren Segmenten. Insofern halte ich es zumindest für verständlich, dass solche Produkte auf den Markt gebracht werden.

Dass die Hersteller sich möglichst bemühen sollten, die Wattzahlen ins Bodenlose zu drücken (um mal ein wenig polemischer zu werden :D ), ist für mich eine Selbstverständlichkeit und ich bin froh, dass du das ähnlich siehst. Zumal es sich ohne Zweifel angenehmer zocken lassen würde, wenn man aufgrund einer hochgradig forcierten Effizienz und daraus resultierenden niedrigen Temperaturen in Verbindung mit einer durchaus potenten Leistung (die 4770 [ja, ich weiß, die hat ein Problem mit der Speichertaktung im Idle], 5750 und 5770 sind ein guter erster Schritt in diese Richtung, wie ich finde) auf die monotone Dauerbeschallung eines Lüfters mit 75mm oder weniger Durchmesser, der mit 1000rpm+ dreht, verzichten kann.

Allerdings besteht natürlcih das "Problem", dass es natürlich immer jemanden gibt, der sich in den Kopf setzt, mit einem zu entwickelnden Spiel jede Hardware zu überfordern. Das wiederrum nehmen die Grafikkartenhersteller zum Anlass, zu versuchen, als erster Geräte rauszubringen, die ein flüssiges spielen ermöglichen. Und der Kreis dreht sich weiter....
 
Hier sind wie immer Leute unterwegs... Herzlichen Glückwunsch!

Limitiert schon saumäßig, so ne 4-GHz-Quad-Krücke. Und die Plattform erstmal! Schließlich hat man mit Triple-Channel aufm 1366 viel mehr Speicherbandbreite, womit sich die lahme Karte die fertig gerenderten Texturen und Geometrien auch viel schneller ausm Ram holen könnte! Außerdem is die Karte ja sowieso Schund, da sie immernoch Mikroruckler hat.

Ich sach euch ma was: Wenn ich von meinem 19er TFT mit 1280x1024@75Hz (inGame) in das selbe Spiel bei nem Kumpel wechsel, der ne 4870 X2 und nen 24er TFT mit 1920x1080@60Hz (inGame) hat, dann hab ich auch Mikroruckler! Und zwar derbst!

Zum Test: find ich gut gemacht, besonders aber Alleinstellungsmerkmale einer Dual-GPU-Karte ggü. einer Zweikartenlösung wären nochma interessant gewesen.
 
Schaffe89 schrieb:
Und die ständigen Mutmaßungen Nvidia habe mehr gegen µruckler getan wurden niemals bewiesen, anhand von Frametimes überprüft oder sonstiges. Ich hab von den "Verbesserungen" nie was mitbekommen. Bewegen sich die FPS unter 35 dann ruckelts genauso rum wie bei ATI.

Ich glaubi ch habe mal irgendwo nen Frameverlauf gesehen, wo afaik schon ein Unterschied zu sehen war, so als würden die Schwankungen bei der Dual GPU der neuen Generation bei Nvidia irgendwo begrenzt, sowohl nach oben als auch nach unten. Wüsste nun aber nicht mehr genau wo.

DvP schrieb:
Wenn das so wäre, warum verbraucht dann ein CF Gespann aus 5850 nur 2W mehr im Idle? Ist doch vollkommen unlogisch und da schaltet sich keine GPU ab, von dem Abgesehen, dass da noch einige zusätzliche Komponenten dazu kommen bei 2 separaten Karten. Meinst du nicht?
Das hat nichts mit meinen zu tun, HT4u.net hat es doch - wie geschrieben - getestet.
Die 2. GPU wird in einen S1 Schlafmodus geschaltet. In gewissen Situationen hat das wohl nicht ganz geklappt, und da lag eine höhere Verlustleistung an.

Es ist ja nicht nur die GPU die zweimal vorhanden ist, auch der Speicher ist zweimal da, andere Komponenten sind zweimal vorhanden, sowie zusätzliche, welche den Crossfire Betrieb Regeln, vielleicht sogar eine Schaltung für das Schlafenlegen der 2. GPU selbst.
 
Zuletzt bearbeitet:
Naennon schrieb:
d wird ein Single Fermi (GTX380 ??) so bei 90-95% der FPS einer 5970 sein.

Das bezweifele ich stark.
Allerdings würde ich auch keine X2-Karte kaufen, egal wie schnell sie ist.
@Schaffe89: ht4u ist mir ebenfalls schon als AMD-feindlich aufgefallen. Beispiel:
Zitat aus deren GTX295-Test bzgl. Lautstärke:
"Genau das trifft heute auch auf die GTX 295 zu, die aufgrund ihrer elektrischen Charakteristika und dem engen Raum quasi zwangsweise ein Radaubruder ist. Mit bis zu 2000 rpm geht der Lüfter ans Werk, was einen deutlich vernehmbaren Rauschteppich ergibt, der auf dem offenen Teststand unter Last durchaus störend wahrnehmbar war - da hilft auch nicht, dass eine Radeon 4870 X2 noch lauter werden kann.
Zitat aus dem HD5970-Test über die Laustärke:
"Die Lautstärke ist zumindest unter Last unbrauchbar - für eine solche Enthusiastenkarte aber wohl gleichgültig"
Wohl gemerkt, die HD5970 ist weniger laut, dabei wird aber kein Wort verloren wie bei der GTX295 (deutlich wahrnehmbar, aber leiser als HD4870 X2). Objektivität=0
 
Zuletzt bearbeitet:
Die Wert sind beeindruckend, aber man darf eben nicht vergessen, dass es ne Multi-Gpu-Karte ist.
Ich schätze, dass NVidias Delixe Single-GPU-Karten nur knapp darunter, wenn nicht gar gleichauf liegen werden.
 
Witzig witzig......hier beschwert man sich darüber das der Core2 Quad zu langsam wäre und man einen I7 nehmen sollte und bei ht4u beschwert man sich in den Kommentaren das der i/ zu langsam wäre und lobt den 4GHz C2Q hier auf Computerbase.

Mein Fazit dazu: Egal was genommen wird es ist IMMER das falsche, bzw. das Spiel das solche Karten benötigt und auslasten kann muss erst noch geschrieben werden.

DvP schrieb:
Wenn das so wäre, warum verbraucht dann ein CF Gespann aus 5850 nur 2W mehr im Idle? Ist doch vollkommen unlogisch und da schaltet sich keine GPU ab, von dem Abgesehen, dass da noch einige zusätzliche Komponenten dazu kommen bei 2 separaten Karten. Meinst du nicht?
Nur zu dumm das du offenbar des lesens des verlinkten ht4u Tests nicht mächtig bist, denn dann wäre dir sicherlich auch der Multimonitor Test aufgefallen: http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5970/index12.php

Oh Schreck...plötzlich ist die HD 5970 mit einer HD 5850 fast gleich auf. Wie geht das denn wenn die zweite nicht in Tiefschlaf versetzt wird?
 
milamber! schrieb:
Ich glaubi ch habe mal irgendwo nen Frameverlauf gesehen, wo afaik schon ein Unterschied zu sehen war, so als würden die Schwankungen bei der Dual GPU der neuen Generation bei Nvidia irgendwo begrenzt, sowohl nach oben als auch nach unten. Wüsste nun aber nicht mehr genau wo.

Hab ich oben verlinkt und zusammengefasst ;-)

milamber! schrieb:
Es ist ja nicht nur die GPU die zweimal vorhanden ist, auch der Speicher ist zweimal da, andere Komponenten sind zweimal vorhanden, sowie zusätzliche, welche den Crossfire Betrieb Regeln, vielleicht sogar eine Schaltung für das Schlafenlegen der 2. GPU selbst.

Leider waren vorhin die Bilder bei Test auf HT4U irgendwie nicht verfügbar, aber ich sehe es mir mal an. Ich bleibe aber dabei, dass die Ersparnis dennoch größer sein müsste, zumal die eine GPU in einen S1 geht und bei der anderen Lösung beide am Laufen bleiben und mit 2 Karten mehr Komponenten doppelt sind als bei einer + der PCI-E Port ja auch aktiv ist was sich bei dem CB test noch mehr bemerkbar machen sollte, wenn das ganze System gemessen wird ;-) Aber wenn es funktioniert oder funktionieren würde, sollte die Verlustleistung noch etwas niedriger sein und das würde ich dann (wie in meinem Wunsch erwähnt) massiv positiv finden :rolleyes:

@ wadenbeisser
Auf deine Meldungen kann ich echt verzichten...
 
Hab irgendwie (subjektiv) größere Erwartungen an die Karte gestellt. Ist halt ne Dual-GPU-Karte, die in ein bis zwei Jahren auch in die Knie gehen wird und dann Mikroruckler-Probleme kriegt.

Irgendwo hat allerdings n Vorposter gemeint, dass diese nicht gemessen werden/wurden. Finde auch, dass das nicht gut ist. Man könnte ja aus den Frametimes die FPS berechnen und zum Beispiel die Varianz/Standardabweichung der FPS als Maß für Mikroruckler nehmen (nur so'n Gedanke).

Sonst haben halt Multi-GPU-Karten den Mythos/Makel der Mikroruckler an sich haften - für mich (mangels Nachvollziehbarkeit) nicht gerade n Kaufanreiz.

mfg Homer
 
Zuletzt bearbeitet:
@ HomerJSi

Ich hab die Infos von CB zu dem Thema ein paar Posts weiter oben verlinkt und auch ein kleines Bisschen zusammengefasst:
https://www.computerbase.de/forum/threads/test-ati-radeon-hd-5970.661284/page-11#post-6944074

Ist aber nach Aussagen aller Tester auch ein sehr subektives Phänomen, ob, ab wann und wie stark es stört. Wie man sieht, kann man den Effekt aber auch messen.
Ähnlich wie bei Framerates generell oder bei Bildwiederholraten. Manche konnten bei 75, manche sogar bei 60hz vor dem Schirm sitzen und anderen haben bei 85hz noch immer einen Rappel bekommen ;-)
 
Ja da sieht man sehr schön die Mikroruckler, die müssten sich in nem Streuungsmaß (Varianz oder Sigma) schön niederschlagen. Das Problem ist dann aber vermutlich, dass mit nem Streuungsmaß niemand was anzufangen weiß.
Gerade weil Mikroruckler subjektiv sind, wäre es sinnvoll, diese mit einer Messung einzufangen.
Allerdings die Frage, wie sehr sich dadurch der Benchmarkaufwand vermehrt
 
5970 = 2 x 5850?
Wer soll die dann kaufen, wer so irre ist weit über 500€ zu blechen um sich Crossfire antun zu dürfen...;), der zahlt auch noch mehr und nimmt gleich 2 x 5870 für die maximale Leistung.
Und alle halbwegs vernünftig denken Zeitgenossen lassen von so einem ultrateuren Crossfirekrüppel eh die Finger.
 
DvP schrieb:
@ wadenbeisser
Auf deine Meldungen kann ich echt verzichten...

Nichts für ungut aber wer auf ein Posting hin antwortet und sich den darin verlinkten Test nicht durchließt ist selbst schuld. Auch das fehlen der Bilder zieht nicht, da es sogar im Text kommentiert wurde.
Als interessanten Umstand mag man festhalten, dass die Leistungsaufnahme im Multi-Monitor-Betrieb hier praktisch nicht ansteigt. Die AMD-Umsetzung, die GPUs als Master-Slave-Varianten auszustatten und den Slave im Idle-Betrieb nur in den S1-Zustand zu versetzen, scheint sich hier auszuzahlen. Zwar wird auch hier die Taktrate erhöht, da die zweite GPU beim Idle aber in den Schlafzustand geschickt wird, spart dies an dieser Stelle offenbar wieder Energie ein.
Ergänzung ()

holdrio schrieb:
5970 = 2 x 5850?
Wer soll die dann kaufen, wer so irre ist weit über 500€ zu blechen um sich Crossfire antun zu dürfen...;), der zahlt auch noch mehr und nimmt gleich 2 x 5870 für die maximale Leistung.
Und alle halbwegs vernünftig denken Zeitgenossen lassen von so einem ultrateuren Crossfirekrüppel eh die Finger.
Jein......die GPUs haben die Taktrate der 5850 aber die Anzahl an Recheneinheiten von der HD 5870...ein Mix aus beiden sozusahen.
 
Zurück
Oben