Test Quad-CrossFire: Zwei Radeon HD 5970 mit gleich vier GPUs im Test

Kasmopaya schrieb:
SGSSAA und Eyefintiy gibts plötzlich nicht mehr?

SGSSAA und Eyefinity haben aber nichts mit Batman zu tun. Und sie haben vor allem nichts mit der Masse zu tun.
Es wurde nie behauptet, das zusätzliche Karten mit mehr als 1GB VRAM generell keinen Sinn ergeben, jedoch ALLE Karten mit so viel VRAM auszustatten ist vollkommen überflüssig für aktuelle Anwendungen.

95-98% der Kunden kommen mit 1GB VRAM optimal aus, von daher ist dein ständiges herum geschreihe bezüglich VRAM Limitierung und Flaschenhals nur hysterische Wichtigtuerei.

Ich sehe weder hier noch hier irgendwelche Gründe für eine Grafikkarte mit 2 GB, auch nicht bei SSAA.
Nix nirgends, nicht ein einziges Spiel das davon tatsächlich profitiert.

Kasmopaya schrieb:
Des weiteren bestätigen mich die Hersteller-> Fermi min. 1,5GB Vram, damit ist wohl klar das 1GB Vram nicht mehr ausreicht und mehr habe ich auch nicht gesagt.
Damit schon die 2. Bestätigung nach der HD 5700 (mid)Serie die mit 1GB Vram gestartet wurde.:p Von dem her ist hier gar keine Diskussionsbasis mehr weil das Thema schon lange vom Tisch ist...:D
Die Hersteller bestätigen dich mit was? Das zukünftige Spiele ggf. mehr als 1 GB Speicher brauchen? Dafür das du den blödsinn schon seit Jahren? herunter betest - wenn ich bedenke das es mal Grafikkarten mit weniger 4MB und weniger gab, war es ja nur eine Frage der Zeit das irgendwann auch mehr Speicher als 1GB verbaut wird.

Das ist keine Kunst mein Freund, du bist wie ein Uri Geller, der jeden Tag den heiligen Abend prophezeit, und am 24.12. dann tatsächlich eimal recht behält.

Kasmopaya schrieb:
Von dem her ist hier gar keine Diskussionsbasis mehr weil das Thema schon lange vom Tisch ist...:D

:D

Es gab nie eine Basis, weil bei normalen Gebrauch generell gar kein VRAM Problem bestand.
Aber troll ruhig weiter.
 
Danke für den Test! Nice one...schön zu sehen was technisch machbar ist - jenseits von Sinnhaftigkeit und Alltagstauglichkeit...würde mir mehr von diesen Tests mit "extremen" Settings wünschen.

Mich wundert am Meisten dass die Hersteller die Mikro-Ruckler immer noch nicht im Griff haben...und dass schon nach einiger Entwicklungszeit...evt. wird hier eben keine Priorität gelegt...verständlich bei dem kleinen Umsatzvolumen...wird dann wohl dann eher vom Marketing-Budget gespeist :D

Unter dem Strich vergeht einem dann schnell die Freude an so einem System, selbst mit sehr dickem Geldbeutel... Nun ja, gibt ja genügend potente Alternativen zu einer Dual-GPU-Karte...für jeden was dabei...
 
alle reden von Umweltschutz und Klimaerwärmung und hier werden mal eben 529Watt durchgeballert^^

Danke für den Test ist echt interessant!
 
Kasmopaya schrieb:
Des weiteren bestätigen mich die Hersteller-> Fermi min. 1,5GB Vram, damit ist wohl klar das 1GB Vram nicht mehr ausreicht und mehr habe ich auch nicht gesagt.
Da darf man nicht nach gehen. Die Hersteller haben auch ne 8800GT mit 256MB RAM verkauft obwohl von vorne herein klar war, das es extrem zu wenig ist. (Hatte die 8800GTS320 ja schon gezeigt). Es werden ja auch 9600GT mit 2GB oder ne 8500GT mit 1GB verkauft. Muss nicht zwingend sinnvoll sein. ;)
Ein Fermi mit 1,5GB zeigt eigentlich nur das 768MB nach Meinung des Hersteller zu wenig sind.

1GB ist momentan Minimum bei ner neuen Karte im gehobenen Bereich, das sollte klar sein. Man kann leicht Situationen kreieren, wo 1GB nicht mehr ausreichen.
 
Naennon schrieb:
1200 Euro Schrott....

es reicht doch eine 5870 oder GTX 285 ?!
Bei meiner Auflösung (5760x1080) hab ich schon mit einer 5970 zu kämpfen bei vielen Spielen (nein nicht mit
μ-Rucklern ;)
 
Catalyst 9.11 (Dirt-2-Hotfix) könnt ihr mal den Test wiederholen mit einen aktuellen Treiber das wäre Sinvoll
 
Schade .. selbst 4x von den 5870 reichen nicht für Crysis @ max (und damit meine ich 2560x1600 AA/AF voll aufgedreht).

Ob es Nvidia hinkriegt :rolleyes:
 
Ich denke mal 4Rechenkerne mit 4x2GB dürften sehrwohl ausreichen um Crysis auf der Auflösung @16AF 4AA darstellen zu können

Unterschied zwischen 4x/8x/16x sieht man auf der Auflösung eh nicht bzw bei Crysis muss man sowieso suchen um mal was zu finden zum glätte
 
Zwischen der GTX 285 mit 1GB und 2GB liegen auf 2560x1600 nur 1 FPS.
Was soll sich da für das Quad SLI großartig ändern? Es ist bei den Frames doch eh nicht spielbar.
Das hier am VRAM gekratzt wird mag ja sein, aber an der Spielbarkeit hätte sich jedoch nichts getan, und die 2GB wären überflüssig.
 
Na dann benutzt man als Bench mal ein Game das in diesen Regionen spielbar ist und nicht immer nur das dämliche Crysis. AOC z.b.
 
Mehr VRAM braucht man bei höheren Auflösungen und besser aufgelösten Texturen. Dh. neuren Texturen.
Diese kommen meist mit neueren Engines. Natürlich brauchen Spiele der UT3 Engine oder Cry1 nicht spontan weil 2010 ist, mehr Ram.

DX11 engines werden uns schon zeigen, das 1 GB nichtmehr befriedigend ist, sofern man HighEnd will, was bei einer QuadSli/Krüppelfire Karte anzunehmen ist.

Und ob 4x 8x 16x ... Ob jemand den Unterschied erkennt oder nicht - Die GPUs berechnen die Positionen der Pixels ja mit den schon vorleigenden Daten erneut, daher steigt dort der VRAM-Bedarf nicht wirklch an.


@fall-out07: Eher nicht. Ich kenn das nur, das man das irgendwie "spürt" weil das Bild ab und an unsauber läuft, weis nicht wie man das am besten beschreibt, aber per Video ist das wohl als nicht Spielender, nicht zu sehen.
 
buntstift23 schrieb:
Und ob 4x 8x 16x ... Ob jemand den Unterschied erkennt oder nicht - Die GPUs berechnen die Positionen der Pixels ja mit den schon vorleigenden Daten erneut, daher steigt dort der VRAM-Bedarf nicht wirklch an.
Der VRAM-Bedarf steigt gewaltig, schließlich muss das AA in einem Buffer gespeichert werden :rolleyes:
 
Zurück
Oben