Test ATi Radeon X1900 XTX und X1900 CF im Test: Der Angriff auf die GeForce 7800 GTX 512

snaapsnaap schrieb:
wieso wird bei allen tests nur noch auf 1280 getestet? k beim 06er ists klar aber wieso net mehr auf 1024 bei dem 05er und den games`??
Dies hat zweierlei Gründe.
Erstens kann man soclhe GEschosse mit 1024x768 nicht mehr auslasten, selbst wenn man AA und AF hinzuschaltet.
Zudem, wer spielt mit einer solchen Grafikkarte in 1024x768? Ich behaupte mal, sogut wie keiner.
 
snaapsnaap schrieb:
wieso wird bei allen tests nur noch auf 1280 getestet? k beim 06er ists klar aber wieso net mehr auf 1024 bei dem 05er und den games`??

Weil bei so niedrigen Auflösungen die Grafikkarten nicht richtig gefordert werden. Dafür muss man keine High-End-Karte haben, um in 1024 zu zocken. Die Tests sollen ja das Potenzial der Karten aufzeigen und wenn sie nicht gefordert werden sind die Unterschiede einfach verschwiedend gering.
Davon abgesehen haben viele zuhause mittlerweile TFTs, die als native Auflösung 1280x1024 haben. Und Interpolation sieht mal richtig scheisse aus. Deswegen die höheren Auflösungen.

Zur Karte selber:
Ich persönlich hatte mir davon mehr erhofft. Und auch wenn ATi damit die schnellere Karte baut bin ich trotzdem nicht überzeugt. Seit der X1k-Reihe sind mir die ATi-Chips einfach zu heiß und zu stromhungrig. Auch wenn ich jetzt vom Image her ATi sympathischer finde, sind die aktuellen NVidia-Karten die besseren Gesamtpakete, wie ich finde. Sehr gute Leistung mit annehmbarer Kühllösung und moderatem Stromverbrauch.

X1900? Satz mit 'X'...war wohl nix...
 
danke für die ausführliche und super test.
ich weiss nicht mehr welche karte ich in zukunft kaufen soll, da andauernd neue grafikkarten rauskommen :)
 
@Wolfgang
Wer testet den 3dmark 05 mit 1280....:freak: (Die mit der Gekauften Version)
Die Grafikkarten werden doch mit 1600 voll ausgelastet!:mad:
Bitte testet doch wieder mit 1024, 1280 ist ohne Perspektive!:rolleyes:

Mfg stefan
 
die cb-tester sind der meinung, dass 10*7 die aktuelle generation unterfordert. und dem ist ja auch so.
leider verliert man so die vergleichbarkeit zumindest beim 3dmark - selbst kann man eben nur mit 1024 testen.

insgesamt siehts für ati derzeit schlecht aus. nvidia hat die migration zu 90nm noch vor sich. der g71 könnte mit dem gemunkelten takt von bis zu 700mhz (>100mhz plus gegenüber gx512) und den vermuteten 32 shadern (1,5x g70) der x1900 ganz schön dampf machen.
da hilft dann auch keine XTXxX.
mal sehn was im performance mainstream in nächster zeit so kommt.
 
Wenn ne X1900XT emuliert wird ist der Speicher dann genauso schnell wie der von der XTX.

Oder ist die Karte also auch der Speicher identisch mit der CF Karte
wenn dem so wäre warum wurde dann nicht die CF Karte als X1900XT benutzt:confused_alt:

Ansonsten klasse Review,
 
Zuletzt bearbeitet:
ah der schrei nach dem mainstream der interessiert mich eigenltich auch eher als so was gigantisch teures

was ich hier mal anmerken möchte ist das der launch der karte mal vorbildlich ist :D
 
Ich bete dass die 7900 noch im Februar kommt :) Die 7900 hat sicher 150MHZ mehr oder sogar 200....zumindestens wärs alles mitm 90nm Prozess möglich. Bin sehr gespannt auf so ein Ultra-Highend Ding :)

Hoffentlich gehts vor der Cebit ab:grr:
 
Sollten die Screens für die Spiele nicht "R580" heißen anstatt "R520" oder wurden die Screens mit den alten Karten gemacht???
 
eine 8pipe lösung wäre interessant für den mainstream markt
vll der angekündigte rv560?
der dürfte schon was reissen in dem marktbereich
 
akuji13 schrieb:
@sebbekk

Du solltest dich nicht allzuweit aus dem Fenster lehnen,es ist noch garnicht solange her da hat sich Nv keinerlei Gedanken bezüglich Stromverbrauch und Lautstärke gemacht.

;)
Wie schon gesagt, ich bin keines Wegs ein NV-Fanatiker. Zu Zeiten einer 9800 Pro hab ich viel von ATi gehalten und die FX von nVidia wäre für mich ein Alptraum gewesen. Ich finde das gut, was für meine Bedrüfnisse gut ist und das hat nichts mit Markenverbundenheit zu tun.

akuji13 schrieb:
Und wie schon damals bei Nv sage ich auch hier: Schwachsinn.

Wer sich eine HighEnd Karte und HighEnd Prozessor zulegt,sollte nicht anfangen sich über Stromverbrauch und Preise zu Beschweren.
Eine 1900 XTX braucht weniger Saft als ein SLI System mit 2x7800 GTX und bringt je nach Spiel mehr Leistung.
Wo ist also das Problem? Normal wäre mehr Leistung=mehr Stromverbrauch.
Aber die Lautstärke ist nun mal recht stark an den Stromverbrauch gekoppelt. Darf man sich als HighEnd Konsument kein leises System wünschen? Aber ich kann hier nicht wirklich mitreden, weil ich mir ohne hin keine so teure Grafikkarten leisten würde.

akuji13 schrieb:
Ebenso wenig wie die Betriebslautstärke.
Unter Win ist die Karte 3 DB lauter als eine 7800 GTX 512...diesen Unterschied hört niemand.
Wer ihn doch hört,dürfte auch Stimmen aus dem Waschbecken hören.
Wikipedia schrieb:
Bei mittleren und hohen Pegeln und Frequenzen wird ein Schalldruckpegel-Unterschied von 10 dB in etwa als doppelte Lautstärke wahrgenommen. Unterschiede von 3 dB sind deutlich hörbar. Kleinere Schallpegelunterschiede sind meist nur bei direktem Vergleich erkennbar.
Quelle: http://de.wikipedia.org/wiki/Schalldruckpegel

akuji13 schrieb:
Zum Lastgeräusch: Einige hier haben ein 7800er SLI Gespann und ertragen auch das.
Die fast genauso laute 6800 Ultra haben wir auch überstanden.
Scheinbar spielen einige ohne Ton.
Ich jedenfalls vermag selbst die lauteste Karte mit Kopfhörern oder mit Lautsprechern im Betrieb nicht zu hören.
Möchte garnicht wissen wer beim spielen alles sein 7.1 Anlage aufdreht.
Liegt vielleicht auch daran, dass die Stimmen aus dem Waschbecken so laut sind. :rolleyes: Und es gibt halt Leute, die mit ihrem PC auch arbeiten und das vorzugsweise ohne Kopfhörer oder aufgedrehter Anlage.
 
@akuji13
Weil die gratis Version vom 3dmark 05 mit 1280 läuft wenn man einen TFT hat:stock:

Weiß jetzt irgend jemand ob die xt und die xtx mit gleichem Speicher sprich 1.25 ausgeliefert werden?

Mfg stefan
 
@Wolfgang
Wer testet den 3dmark 05 mit 1280.... (Die mit der Gekauften Version)
Die Grafikkarten werden doch mit 1600 voll ausgelastet!
Bitte testet doch wieder mit 1024, 1280 ist ohne Perspektive!

Natürlich testen die wenigsten den Mark05 in 1280, eben weil man den Test dafür kaufen müsste. Zugegebenermaßen ist das etwas blöd, ändert aber nichts daran, dass die GRafikkarten in 1024 nicht richtig ausgelastet werden (und das fängt dann auch langsam im Mark05 an). Und 1280x1024 ist zur Zeit wohl die meistbenutzte Auflösung.

Oder ist die Karte also auch der Speicher identisch mit der CF Karte
wenn dem so wäre warum wurde dann nicht die CF Karte als X1900XT benutzt
Der Speicher wurde natürlich auch auf das Niveau einer X1900 XT heruntergetatktet;) Somit dürfte die Performance identisch sein. Und das mit der Master-Karte...ist mir auch eingefallen, aber leider erst, als ich alle Benhcmarks bereits fertig hatte:D Die Ergebnisse waren aber identisch.

Sollten die Screens für die Spiele nicht "R580" heißen anstatt "R520" oder wurden die Screens mit den alten Karten gemacht???
Aus Zeitgründen wurden die Bilder alle mit einer X1800 gemacht. Ändert aber nichts am Ergebnis, die Bildqualität ist zu 100 Prozent identisch.
 
Ich finde bei Spielen sollte immer bei 1280*1024 gebencht werden. Im 3D Mark jedoch sollte die Standarteinstellung einfach beibehalten werden. Aber trotzdem sind die Tests sehr gut ausgefallen obwohl manchmal ATI nen vorteil hatte wegen irgendwelchen Optimierungen?
 
also, jetzt muss ich auch mal was dazu ablasen...

Thema TEST: mal wieder CB-Like, das Non-Plus-Ultra! Weiter so, ihr seit die Besten!

Thema Benchmarks: also ich finde, dass man die SLI- bzw. CrossFire-Benchmarks vielleicht extra machen sollte, da meiner Meinung nach sonst die Übersicht aufgrund der eh schon großen Anzahl an Vergleichs-Grafikkarten noch mehr leidet... also mein Wunsch: Mehr-GPU-Benchmarks vielleicht in einem separaten Abschnitt...

Thema SLI/Crossfire: so, dass nVidia da die Nase vorne hat, scheint mir mehr als klar. Man erinnere sich noch einmal ein paar Jährchen zurück, da gab es mal eine nicht zu verachtende 3D-Pionierfirma namens 3DFx. Jene wurde von bekannter aktueller Grafikschmiede mit kleinem n aufgekauft und einige Techniken wurden übernommen. Zu diesen Techniken gehört auch SLI. So. Dass nVidia etwas an dieser Technik geändert hat, will ich hier auch gar nicht bezweifeln, aber da nVidia eine Technik übernommen hat, welche früher auch schon 1A funktioniert und ATi ihr Gegenstück (höchstwahrscheinlich) selbst entwickelt hat (und somit einiges hinter nV ist), wundert mich nicht wirklich!
Ausserdem ist für "halbwegs normale" Menschen ein SLI-/Crossfire-System mit High-End-Karten sowieso uninteressant...
 
das stimmt
durch die ganzen dual gpu benches wurde es etwas unübersichtlich
eine deutliche farbabstufung würde wohl schon reichen

zu cf: ist klar dass die nicht so weit sind, immerhin hatte sli nen jahr lang reifen können
am anfang sah sli auch net rosig aus, mittlererweile ja ganz passabel
 
wenn ich mal was anmerken dürfte:

100€ mehr für die xtx, nur weil der chip 25mhz mehr macht und der Ram auchn bissl hochgeschraubt wurd?

Ich bitte euch ... bzw ich bitte ATI
 
Zurück
Oben