Test ATi Radeon HD 3870 X2 im Test: AMDs ersehnter Griff nach den Sternen

@ Realsmasher

Ich kenne die Methode von ForumLuxx ... man muss hier aber modifizieren, wenn man nicht ändert, klappt CF auch nicht bei Gothic 3 - darum geht es mir ;)
Ich brauche mich nicht um die Krone zu fürchten - ich habe eine Radeon und mir kommt wegen den VRAM-Bugs auch keine 8000er in den Rechner!

cYa
 
Genau Realsmasher! So ist es!

@Maddin

CoD 4 läuft und S.T.A.L.K.E.R läuft auch. In den Test's testen sie ja die Spiele.

@y33h@ sowas von lächerlich. Wegen Gothic 3 holst du dir keine X2? :lol:


Mal zur 9800 GX2
Grafikkartenhersteller warnen vor der Wärme: http://www.pcgameshardware.de/?article_id=631099
Die 9800 GX2 wird so scheiße. :lol:

Man wird das ein spaß die 9800 GX2 zu kritisieren.
 
Zuletzt bearbeitet:
@ Rush|

Ich zocke kein Gothic 3, also ist es mir persönlich schei*egal, wie schnell das auf welcher Karte rennt :lol:
Ich werde Turok und Assassins Creed zocken - die X1900XT packt zumindest Turok locker.

cYa
 
Rush| schrieb:
Man wird das ein spaß die 9800 GX2 zu kritisieren.

langsam wirds echt peinlich...man muss sich schon schämen. könnt ihr euren fanboy krieg nich persönlich austragen und müllt nich das forum zu. der o. g. satz zeugt echt von Reife. Wahrscheinlich kein RL und das Hobby #1 im Forum seine Meinung loswerden und die leute anzupöbeln...
Wenns möglich ist in zukunft mal wieder konstruktives bringen, danke :rolleyes:
 
y33H@ schrieb:
Ich kenne die Methode von ForumLuxx ... man muss hier aber modifizieren, wenn man nicht ändert, klappt CF auch nicht bei Gothic 3 - darum geht es mir ;)

WO ist da bitte das Problem ?

Sind wir alle unbedarfte Lemminge die Karten im Wert von 600DM oder mehr kaufen, aber unfähig und auch nur kurz mit dem Thema auseinander zu setzen ?

Möglich das es solche Leute gibt, aber was kümmern die MICH ?

Ich kann mit einer X2 CF aktivieren und davon profitieren genau wie jeder andere auch der nicht mit Scheuklappen durch die Forum-Lande läuft.



Ich kanns echt nicht verstehen. Von jedem Hinz und Kunz hier wird Overclocking im großen Stil betrieben, aber wenn man mal eine Datei umbenennen muss gibts nen Aufstand.

So langsam hab ich die Vermutung das hier viele nichtmal wissen wie das geht, weil sie entweder den Spieler Ordner nicht finden oder die exen wegen fehlender Dateiendungen nicht erkennen :o
 
im übrigen hab ich mal die nfs.exe (need for speed pro street) in bioshok.exe umbenannt ein performance sprung von 45 % ;) respekt hab alles auf hoch gestellt 4xAF 1400x1050 80 - 100 frames. nur mal ein beispiel was treiber optimierung ausmacht.


ein kleiner anhang ;) X2 Ownage
 

Anhänge

  • 3dm06rec.jpg
    3dm06rec.jpg
    219,8 KB · Aufrufe: 500
@Lübke und willi42

Stimme dir 100% zu, wenn DX 10 eine Treibersache wäre, dann hätte sich was bei der 2900XT tun müssen, es hat sich aber sogut wie gar nix verändert. In einzelnen Games stieg die Leistung leicht, aber im großen und ganzen fast gar nicht.

"ich geb's zu. Ich bin aus eigenen Erfahrungen enttäuscht von Crossfire und will es wirklich runterreden, um Anderen diese Erfahrungen zu ersparen." --> bei mir das Gleiche und zufällig benutzt X2 und GX2 den Schrott.
Die GF 9 GX2 wird ein noch größerer Schrott da sie ja noch teurer ist :freak: + Microruckler + fehlender SLi Unterstützung. :rolleyes:

Bei den Grafikkarten ist ja beim Takt noch ewig Luft nach oben, bei einer GTX ist Stock @ 575MHz, glaub eher das DUALCORE Karten bald Standard werden und dafür braucht man kein SLi und CF -->Gott sein dank... (Die Programmierer müssen "nur" auf Dualcore programmieren :freak:, ist ja bei den CPUs auch kein Problem :freak: :lol:)

Werd jetzt dann bald mal Gothic 3 anfangen, weil es endlich spielbarer und bugfreier geworden ist und so werden es sehr viele gemacht haben, auf die Patches gewartet haben, um vernünftig Gothic zu zocken...

@Phossi

Hab meine GTX seit dem 02.2007 und habe verdammt viel games gezockt, auch lange genug um festzustellen, ob mit der Zeit der VRam voll wird, nebenbei ist fast immer FRAPS gelaufen. Fazit habe noch nie bemerkt wie die Frames gesunken sind mit der Zeit oder ruckelig wurde. Nicht mal bei neuen games wie Crysis, Witcher oder Call of Duty 4 sind die Frames mit der Zeit gesunken.

Allerdings hat ein Kumpel von mir eine 88GTS 320, da kann ich bestätigen das der VRAM viel zu klein ist, das liegt aber nicht am Bug sondern die Karte ist einfach Schrott(habe ihn gewarnt aber er war zu stur)... Das Leute mit der 640 Probleme haben kann ich mir nicht vorstellen, habe ja auch nicht recht viel mehr VRAM. Bei der GT und neuen GTS ist der Bug doch gar nicht vorhanden, das sind G92er? wenn doch Quelle, Link bitte.

Habe eine Meldung gelesen das der Bug schon lange, durch ein Treiberupdate behoben wurde...

Rate allen die einfach nicht mehr länger warten können oder wollen und mächtig Leistung(DX 9) wollen, sich einfach mal die X2 zu bestellen und schauen ob man mit den Microrucklern, oder sonstigen Nachteilen zurechtkommt, wenn ja dann ist doch allen OK wenn nicht könnt ihr sie ja innerhalb von 2 Wochen zurückschicken, ohne Angabe von Gründen und ihr bekommt 100%ig euer Geld zurück

Mit der 3870 bis zur nächsten Architektur zu überbrücken ist aber stressfreier ;)

PS: Das die Karte nicht so genial in DX 10 abschneidet, ist gar nicht mal so schlimm: Vista ist eh noch Schrott, also was solls :lol:
 
Eine GTX mit 768 Mb voll zu bekommen ist schwierig, die 320er dagegen ein leichtes. Von Seiten nV gabs nie ein Statement zu den G92 wegen dem VRAM-Bug, "dank" der GT/256 werden wir aber damit bald wieder konfrontiert bzw. werden es schon, die ersten Benches sind katastrophal (*Link*) :D Der Bug ist zudem nicht behoben, sondern nur die Speicherverwaltung- und Kompression wurde verbessert - das verzögert aber nur den Bug, nach zu lesen in den CB-News.

cYa
 
Kasmopaya schrieb:
Rate allen die einfach nicht mehr länger warten können oder wollen und mächtig Leistung(DX 9) wollen, sich einfach mal die X2 zu bestellen und schauen ob man mit den Microrucklern, oder sonstigen Nachteilen zurechtkommt, wenn ja dann ist doch allen OK wenn nicht könnt ihr sie ja innerhalb von 2 Wochen zurückschicken, ohne Angabe von Gründen und ihr bekommt 100%ig euer Geld zurück

Richtig, man sollte es einfach selbst testen. Es geht hier ja nicht darum, was andere davon halten, denn genau das brauch einen ja nicht zu interessieren. Viel mehr sollte man schauen, wie gut man selbst damit klar kommt und dementsprechend auch zu urteilen, ob man die Karte letzten Endes behalt oder lieber nicht. Und das finde ich so toll an dem Deutschen 14-Tage Rückgaberecht :lol:.
 
@y33H@

Die Benchmarks werden in viel zu kurzer Zeit aufgenommen, als das hier der Bug schon greifen könnte + natürlich sind die Benchmarks extrem schlecht wenn eine mit 320Mb schon abstürtzt beim Start dann sollte das die 256Mb Version auch tun. Das die Karte anscheinend nicht abstürtzt und die Benchmarks durchlaufen ist ein Wunder, vielleicht ein Zeichen und ich kanns fast nicht glauben!
 
@ Kasmopaya

Wundert mich teils auch - die GT/512 hat sich u.a. in Oblivion bei vollem VRAM reproduzierbar mit nem Bluescreen verabschiedet.
Die 320 Mb bekommt man auch in einem 2min Bench voll, zB bei Crysis. Die 256er ist totaler Schrott, mit AA bricht die sowas von weg ...

Oder war dein Post dezent ironisch?

cYa
 
@y33H@

Mach die Karte bitte nicht besser wie sie ist, die 320 kackt bei den meisten spielen nicht nach 2 min. ab, sondern hat von haus aus zu wenig VRAM und startet erst gar nicht.(vorallem DX10 hier wird ja viel mehr VRAM gebraucht)


Wenn du ein GT/512 in Oblivion zum Absturz bringst, dann waren die Einstellung sowieso zu hoch eingestellt. Die 512Mb Ram sind für die Leistung der Karte genau richtig. Wie man am Benchmark schön sieht greifen die 1GB Ram erst wenn die FPS eh schon unspielbar waren, als noch genug Ram da war. Bei der GTS(g92) allerdings...

Benchmarks haben allerings nix mit dem VRAM Bug zu tun, die zeigen unter anderem die Effizienz der Speicherverwaltung, aber nicht Langzeittests um den Bug erkennen zu können.

Ich kenne keinen einzigen außer 320er Benutzer, die sich über den Bug beschweren, ergo ist er weg, bzw. irrelevant oder ausgebessert (G92), bis mir jemand das Gegenteil per Link beweisen kann. ;) Selber schuld, wer sich eine Karte mit 320Mb kauft, da kommt der Bug gerade recht. :D


MfG Kasmo
 
Zuletzt bearbeitet:
@ Kasmopaya

Ich bin hier wohl derjenige, der am meisten den VRAM-Bug verteufelt und anprangert - immer und überall :daumen:

Starten tut die 320er, nur stürzt sie gerne dann wieder ab ... die G92er haben imo für ihre Power auch zu wenig VRAM, vor allem aber zu wenig Bandbreite. Benchmark haben mE auch was mit dem Bug zu tuen, nur ITW bricht der erst so richtig aus!

Wie man an PT Boads und CoH DX10 sieht, bringen 1024Mb einiges, auch oberhalb von 30Fps und ich gehe davon aus, dass sich das so fortsetzt.

Der Bug wurde bis heute nicht behoben und wird es sicher auch nicht mehr, nV schweigt den tot.

cYa
 
Grade fällt es mir auf: Das die X2 in DX 10 schlechter abschneidet, könnte am VRAM liegen, da ja bei CF nur jeweils 512MB!! :freak: benutzt werden können. Bin mir ziemlich sicher wenn es eine 2x1GB Version geben sollte, das die DX 10 FPS genau so gut skalieren, wie DX 9!!(warum bin ich da nicht früher drauf gekommen) :rolleyes:
 
Naja, die RV670 verlieren 10-30% bei vollem VRAM im Vergleich zur selben GraKa mit mehr VRAM, das habe ich *hier bei meinem Review* getestet. 30% klingen vll viel, bei einer Gf8 sind es aber gerne mal 50-70%, also mehr als das Doppelte. Leider kenne ich kein Tool, welches unter Vista den Speicherverbrauch ausliest, aber bei Crysis und CoJ liegt ein Verbrauch von mehr als 512Mb nahe, schließlich wollen beide unter XP und DX9 gerne mal weit über 400Mb und gerade CoJ mit dem Enhancement Pack (bessere Texturen!) dürfte locker 600-700Mb wollen. Aber es ist wohl eher so, dass manche DX10 Titel den Radeons schlicht nicht behagen bzw. die HDs im selben Game mit DX9 auch schon schlechter sind als die Geforce.

cYa
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
@Lübke und willi42

Stimme dir 100% zu, wenn DX 10 eine Treibersache wäre, dann hätte sich was bei der 2900XT tun müssen, es hat sich aber sogut wie gar nix verändert. In einzelnen Games stieg die Leistung leicht, aber im großen und ganzen fast gar nicht.

"ich geb's zu. Ich bin aus eigenen Erfahrungen enttäuscht von Crossfire und will es wirklich runterreden, um Anderen diese Erfahrungen zu ersparen." --> bei mir das Gleiche und zufällig benutzt X2 und GX2 den Schrott.
Die GF 9 GX2 wird ein noch größerer Schrott da sie ja noch teurer ist :freak: + Microruckler + fehlender SLi Unterstützung. :rolleyes:

Bei den Grafikkarten ist ja beim Takt noch ewig Luft nach oben, bei einer GTX ist Stock @ 575MHz, glaub eher das DUALCORE Karten bald Standard werden und dafür braucht man kein SLi und CF -->Gott sein dank... (Die Programmierer müssen "nur" auf Dualcore programmieren :freak:, ist ja bei den CPUs auch kein Problem :freak: :lol:)

Werd jetzt dann bald mal Gothic 3 anfangen, weil es endlich spielbarer und bugfreier geworden ist und so werden es sehr viele gemacht haben, auf die Patches gewartet haben, um vernünftig Gothic zu zocken...

@Phossi

Hab meine GTX seit dem 02.2007 und habe verdammt viel games gezockt, auch lange genug um festzustellen, ob mit der Zeit der VRam voll wird, nebenbei ist fast immer FRAPS gelaufen. Fazit habe noch nie bemerkt wie die Frames gesunken sind mit der Zeit oder ruckelig wurde. Nicht mal bei neuen games wie Crysis, Witcher oder Call of Duty 4 sind die Frames mit der Zeit gesunken.

Allerdings hat ein Kumpel von mir eine 88GTS 320, da kann ich bestätigen das der VRAM viel zu klein ist, das liegt aber nicht am Bug sondern die Karte ist einfach Schrott(habe ihn gewarnt aber er war zu stur)... Das Leute mit der 640 Probleme haben kann ich mir nicht vorstellen, habe ja auch nicht recht viel mehr VRAM. Bei der GT und neuen GTS ist der Bug doch gar nicht vorhanden, das sind G92er? wenn doch Quelle, Link bitte.

Habe eine Meldung gelesen das der Bug schon lange, durch ein Treiberupdate behoben wurde...

Rate allen die einfach nicht mehr länger warten können oder wollen und mächtig Leistung(DX 9) wollen, sich einfach mal die X2 zu bestellen und schauen ob man mit den Microrucklern, oder sonstigen Nachteilen zurechtkommt, wenn ja dann ist doch allen OK wenn nicht könnt ihr sie ja innerhalb von 2 Wochen zurückschicken, ohne Angabe von Gründen und ihr bekommt 100%ig euer Geld zurück

Mit der 3870 bis zur nächsten Architektur zu überbrücken ist aber stressfreier ;)

PS: Das die Karte nicht so genial in DX 10 abschneidet, ist gar nicht mal so schlimm: Vista ist eh noch Schrott, also was solls :lol:

Also bitte du bist von der X2 enttäuscht weil dein 4000+ Prozessor limitiert. Schonmal mit nem 3200 Q6600 gezockt das geht die ab und auch mal in höheren auflösung gezockt? Gerade da punktet CF SLI
 
Zuletzt bearbeitet:
@y33H

WOW, ein ausführlicher und interessanter Artikel. Es ist aber schon spät, werde morgen erst zum Lesen kommen, was ich bis jetzt gesehen habe ist einfach top, weiter so.


Das die Radeons in DX 10 schlechter skalieren, ist mir auch schon aufgefallen, aber die 512MB die effektiv genutzt werden können, sind auf jeden Fall viel zu wenig im DX 10. Wie du schon sagtest 600-700Mb in hohen Qualitäts Modi, bei aktuellen Titeln kommt das ganz gut hin und um so mehr es wird umso schlimmer ist der Leistungverlust, bis zum Absturz. Für eine teure High end Karte ist es inakzeptabel, das der VRAM so klein ist, das gilt auch für die 88GTS 512. Da sind wir wieder bei den Nachteilen von CF und SLI.....

Kenne nur einen "Video Memory Watcher" den PCGH immer auf der DVD hat und der geht nur unter XP oder?

@Nille1234

:eek: Ich bin von CF und SLI enttäuscht, nicht direkt NUR von der X2, die ich selber noch nicht getestet habe, nur mein Nachbar(er hat sie zurück geschickt, wegen Microruckler)

Wie kommst du auf 4000+? Hab einen pseudo X2 6000+ am laufen @ 3GHz.
Hab vor kurzem noch einen A64 3800+(2004 gekauft) gehabt mit der GTX und Bioshock auf Vista 64 in DX 10 auf 1600*1200 max. Quali bei min. 35FPS gelaufen. Ob das beim CPU abhängigen CF oder SLI auch noch möglich gewesen wäre?
Zocke bis auf Crysis alles in 1600*1200(teilweise auch 2048x1536) @ max. details und wenn möglich +AF.

CF und SLI punkten nur bei Leuten die ua. zu viel Geld haben. Die Nachteile überwiegen einfach.

MfG Kasmo
 
Zuletzt bearbeitet:
Ob das beim CPU abhängigen CF oder SLI auch noch möglich gewesen wäre?

cf braucht nicht mehr cpu power wie eine einzelkarte mit gleicher Leistung. keine ahnung wieso immer wieder was anderes behauptet wird.

Rein technisch ist das schon garnicht möglich, außer cf würde nutzlose berechnungen für die CPU in Auftrag geben, was DX aber garnicht zulässt.(bei ogl weiß ichs nicht)

edit : ausnahme sind ungleichmäßige frames im sinne der microruckler, aber gerade das wollen wir ja nicht.
 
Zurück
Oben