Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Test: ATi Radeon X1800, X1600 und X1300
- Ersteller Wolfgang
- Erstellt am
- Zum Artikel: Test: ATi Radeon X1800, X1600 und X1300
E
exuser0815
Gast
riDDi schrieb:wenn nvidia nicht die winkelabhängigkeit aus ihren karten raustreibern kann, dann hat ati das eindeutig bessere af.
hab mal ein ani-gif angehängt, für alle die meinen "ich seh da keinen unterschied"
erstes bild 7800, zweites x1800 - falls hinsehn UND lesen zu viel auf einmal ist ^^
oh, jetzt seh ichs auch!
bei ati fehlt der zaun rechts, man wie grauenhaft und peinlich sowas X-D
riDDi schrieb:wenn nvidia nicht die winkelabhängigkeit aus ihren karten raustreibern kann, dann hat ati das eindeutig bessere af.
hab mal ein ani-gif angehängt, für alle die meinen "ich seh da keinen unterschied"
erstes bild 7800, zweites x1800 - falls hinsehn UND lesen zu viel auf einmal ist ^^
Kann es wohl sein das das Bild von HL² ist wenn ich mich nicht irre? war es nicht so das die HL² engine für ATI Grafikkarten Optimiert wurde?
perfekt!57
Commodore
- Registriert
- Feb. 2003
- Beiträge
- 4.207
@ dukeP4EE
"dies ist mein leistungsbild:
Frage: ist 1600x1200 4AA/16AF spielbar?
UT 2004: GTX--> Ja , x1800XT --> Ja
AoE 3: GTX--> Ja , x1800XT --> Nein
SC3: GTX --> Nein , x1800XT --> Ja
Earth 2160: GTX--> Nein ,x1800XT --> Nein
Far Cry: GTX --> Ja , X1800XT --> Ja
HL2: GTX--> Ja , X1800XT --> Ja
Doom3: GTX --> Ja , X1800XT --> Nein
Riddick: GTX --> nein ,X1800XT --> Nein ( 1280x1024 4AA/16AF : GTX--> Ja, X1800 >nein
Fear: GTX --> Nein, X1800XT --> Jein
Fable: GTX --> Ja , X1800XT--> Nein
I2: GTX --> Ja, X1800XT --> Nein
CoD2 Demo!!!: GTX --> Ja , X1800XT --> Ja
BF2: GTX --> Ja , X1800XT --> Ja
Quake 4: GTX --> Ja, X1800XT --> Nein
Pacific Fighters: GTX --> Ja, X1800XT --> Nein
Fazit: 1600x1200 4AA/16AF spielbar?
GTX: 11 von 15 Games
X1800XT: 7 von 15 Games"
Das finde ich Klasse: Einfach gemessen (wirklich selber gemessen ) und leidenschaftslos die Fakten dargestellt.
.
"dies ist mein leistungsbild:
Frage: ist 1600x1200 4AA/16AF spielbar?
UT 2004: GTX--> Ja , x1800XT --> Ja
AoE 3: GTX--> Ja , x1800XT --> Nein
SC3: GTX --> Nein , x1800XT --> Ja
Earth 2160: GTX--> Nein ,x1800XT --> Nein
Far Cry: GTX --> Ja , X1800XT --> Ja
HL2: GTX--> Ja , X1800XT --> Ja
Doom3: GTX --> Ja , X1800XT --> Nein
Riddick: GTX --> nein ,X1800XT --> Nein ( 1280x1024 4AA/16AF : GTX--> Ja, X1800 >nein
Fear: GTX --> Nein, X1800XT --> Jein
Fable: GTX --> Ja , X1800XT--> Nein
I2: GTX --> Ja, X1800XT --> Nein
CoD2 Demo!!!: GTX --> Ja , X1800XT --> Ja
BF2: GTX --> Ja , X1800XT --> Ja
Quake 4: GTX --> Ja, X1800XT --> Nein
Pacific Fighters: GTX --> Ja, X1800XT --> Nein
Fazit: 1600x1200 4AA/16AF spielbar?
GTX: 11 von 15 Games
X1800XT: 7 von 15 Games"
Das finde ich Klasse: Einfach gemessen (wirklich selber gemessen ) und leidenschaftslos die Fakten dargestellt.
.
hm schaut euch doch mal den test an http://www.guru3d.com/article/Videocards/262/12/
habe den link gerade von einem kollegen bekommen ..
habe den link gerade von einem kollegen bekommen ..
Tekkno_Frank
Commander
- Registriert
- Aug. 2005
- Beiträge
- 2.342
fanaticNS schrieb:hm schaut euch doch mal den test an http://www.guru3d.com/article/Videocards/262/12/
habe den link gerade von einem kollegen bekommen ..
** Please read - I mislabeled the X1300 Pro as X1300 XT in our charts. So when you see 1300 XT (does not exsist) it is the X1300 Pro.
Das heißt, dass die XT aus Versehen so bezeichnet wurde und eigentlich die Pro ist.
Der Test sagt außerdem, dass die gelieferte XT defekt war und der Test somit als preview zu sehen ist. Der endgültige Test wird mit einer richtigen nachgeliefert.
Murphies law hit me... the card was broken. DRAMA!
1800 XT from our article benchmarks as our sample simply was not functioning properly
over the upcoming days this article will be updated with power consumption results and GPU temperature. Once a new functional X1800 XT board comes in we'll post a full article on that card. We are not finished with testing at all. Consider this to be a preview.
Die Seite ist neben CB meine Lieblingsseite.
Gruß
Zuletzt bearbeitet:
riDDi schrieb:wenn nvidia nicht die winkelabhängigkeit aus ihren karten raustreibern kann, dann hat ati das eindeutig bessere af.
hab mal ein ani-gif angehängt, für alle die meinen "ich seh da keinen unterschied"
erstes bild 7800, zweites x1800 - falls hinsehn UND lesen zu viel auf einmal ist ^^
Alter Hut...
Franky-Boy
Lt. Junior Grade
- Registriert
- Jan. 2005
- Beiträge
- 397
sauron888 schrieb:@duke:
Die X1K serie hat die EINDEUTIG bessere IQ, da können selbst nVidia fanatiker nix dagegen sagen.
Eventuell bin ich als Brillenträger etwas im Nachteil, doch ich verweise auf folgende Screenshots von Computerbase:
G70: https://pics.computerbase.de/1/3/7/1/4/71-1080.895627446.jpg
ATI: https://pics.computerbase.de/1/3/7/1/4/56-1080.1696664810.png
Tut mir leid, aber ich sehe keinen großen Unterschied. Der Fehler im Zaun bei ATI ist sicherlich ein Treiberbug, welcher noch behoben wird.
Es kann durchaus sein, dass bei anderen Spielen bzw. Situationen im Spiel ATI leichte Vorteile hat, doch kann man wohl kaum von einer eindeutig besseren Bildqualität sprechen, bestenfalls von einer marginal besseren Qualität.
Ich kaufe mir nur dann eine neue Graka, wenn diese wesentlich schneller ist oder dank neuer Features eine eindeutig bessere Bildqualität liefert. Bei dem Umstieg von der X800XT auf die 7800GTX konnte man dank SM 3.0 und TSSAA noch davon reden, doch bei G70 vs. R520 definitiv nicht.
Ich sage es nochmal: die beiden Boliden schenken sich nicht viel. ATI hat ein wirklich tolles Produkt auf die Beine gestellt und endlich SM3.0, TSSAA und verbessertes AF geliefert. Ein "G70-Killer" ist die Karte aber bei weitem nicht.
Ciao Frank
Zuletzt bearbeitet:
Takama
Lt. Junior Grade
- Registriert
- Sep. 2005
- Beiträge
- 472
"Die jetzt ausgelieferten X1800-XL-Karten basieren im übrigen noch auf einer älteren Version des R520-Chips, welcher keine größere Steigerung der Taktraten über die default-Taktung der Radeon X1800 XL von 500/500 MHz zuläßt ..." Zitat 3dCenter.org
lol, ATI scheint seine Kunden zu mögen Kein Kommentar
lol, ATI scheint seine Kunden zu mögen Kein Kommentar
der r520 ist keine komplette neuentwicklung sondern ein redesign mit lediglich effizientem threading, transparenz-aa, avivo und hier und da verbesserungen im p/v shader sowie dem sm3.0. dass der r520 keine neu entwicklung ist sieht man daran dass er noch immer 16 sogenannte pipelines hat. noch immer 6 vertex shader gleichzeitig berechnet. kurz um der r520 ist wie schon der r420 keine neu entwicklung.
law
Lt. Junior Grade
- Registriert
- Mai 2004
- Beiträge
- 462
Naja, jede Karte (ATI/NVidia) hat so eine Tücken.
Gemeinsam haben sie einen exorbitanten Preis!
Aber wenn man sich die Fakten als durchschnittlicher Spielefan betrachtet, dann muss man feststellen, dass die Einführung der "neuen" ATI Karten keine wesentlichen Neuerungen gebracht haben.
Klar, das Topmodell kann der 78GTX entgegenhalten, aber die schwächeren Modelle bringen kaum was, dann greift man doch besser zu einem Vorgängermodell aus dem Hause ATI/NVidia?!
Weil ich meine GraKa nur zum Spielen brauche (im Office würde es auch ein Uraltmodell tun), würde ich mir aufgrund des rasanten Preisverfalls niemals ein Highend Produkt kaufen
Gemeinsam haben sie einen exorbitanten Preis!
Aber wenn man sich die Fakten als durchschnittlicher Spielefan betrachtet, dann muss man feststellen, dass die Einführung der "neuen" ATI Karten keine wesentlichen Neuerungen gebracht haben.
Klar, das Topmodell kann der 78GTX entgegenhalten, aber die schwächeren Modelle bringen kaum was, dann greift man doch besser zu einem Vorgängermodell aus dem Hause ATI/NVidia?!
Weil ich meine GraKa nur zum Spielen brauche (im Office würde es auch ein Uraltmodell tun), würde ich mir aufgrund des rasanten Preisverfalls niemals ein Highend Produkt kaufen
Accuface
Captain
- Registriert
- Dez. 2003
- Beiträge
- 3.581
jetzt hab ich mich 2 Monate geduldet und nun sehe ich das die x1800 nicht so der burner ist wie ich dachte, wollte mir eigentlich die 1800xl kaufen aber wenn ich das P/L verhältnis sehe, dann greife ich zur 7800gtx da ich keine 600 euro ausgebe für paar frames mehr, und die 6800gtx ist für den gleichen preis wie die x1800xl schneller. Ausserdem will ich auch noch mal übertakten und nich schon am limit sein wie bei der ATI, ich schätze das man aus der 7800xl noch was rausholen kann um an eine x1800xt ranzukommen und somit wieder 150 euro spart.
Ausserdem fiel mir ATI immer negativ auf, aufgrund treiberbugs und Problemen ohne ende, ich sag nur BF2 oO
Ausserdem fiel mir ATI immer negativ auf, aufgrund treiberbugs und Problemen ohne ende, ich sag nur BF2 oO
Sepheta
Lt. Junior Grade
- Registriert
- Aug. 2004
- Beiträge
- 416
was ist das denn für ne Versager Karte?!
Und dafür so lange gewartet?
Okay, gebe ja zu das die Qualität gestiegen ist und man bei hohen Auflösung 16x12 mit AA4x ziemlich aufholt....aber in meinen Augen braucht man bei so hohen Auflösung kein AA mehr.
Und dafür so lange gewartet?
Okay, gebe ja zu das die Qualität gestiegen ist und man bei hohen Auflösung 16x12 mit AA4x ziemlich aufholt....aber in meinen Augen braucht man bei so hohen Auflösung kein AA mehr.
Thor1el
Cadet 2nd Year
- Registriert
- Sep. 2004
- Beiträge
- 19
snaapsnaap schrieb:wer sich so ne karte leisten wird wird sich wohl eh ne wakü holen und dann geht die sicher nochma mehr ab und ich denk keiner wird mit der auf 640x480 und optimierungen spielen oder? sondern auf 1600x1200 mit AA und AF und wenn sie dann mehr geht als ne gtx mit besserer bildquali dann ist sie ihr geld wert
Hallo
Jetzt mal ehrlich, ich versau doch nicht meine Gute Performance durch eine 1600x1200
Auflösung. Und mal ehrlich ob du jetzt 1280x1024 oder 1600x1200 einstellst, macht ja
wohl fast, bis gar kein unterschied.
kain_of_Dead
Cadet 3rd Year
- Registriert
- Dez. 2004
- Beiträge
- 34
BL@CKM@N schrieb:LOL, ich versteh ehrlich gesagt nicht, warum jetzt immernoch irgentwelche NVIDIA - Anbeter hoffen oder glauben zu können, dass die 7800er besser sei.
Ihr müsst mal gleiches mit gleichen vergleichen. Ich mein die X1800 XT wird, wenn dann minimal teurer auf den Markt kommen als ne Nvidia. Das wiederrum ist auch berechtigt denn sie ist in allen Punkten überlegen. Sowie in niedrigen wie auch hohen Auflösungen. Außerdem zoggen die meisten nunmal auf 1280 x 1024 und höchsten AA und AF, bei Highend - Shootern.
Ich weiß jetzt versucht mir gleich wieder irgentein NVIDIA Futzi mir was an die Birne zu kloppen von wegen, ja die meisten Spielen aber bei 1024 x 768 etc....
Da werde ich antworten STIMMT, blos is mir es einfach mal schnuppe ob ich bei 1024 mit so einer Karte auf 100 oder 110 FPS zogge?!?!
Der Trend geht einfach mal auf höhere Auflösungen und somit ist man mit der ATI am längeren Strang.
Die einzigen Abzüge die man machen muss ist die Lautstärke, Stromverbrauch, sowie Hitzeabgabe. Von den ist wohl die Lautstärke das größte Übel.
Dennoch: ATI hat gewonnen, das ist eindeutig. Dennoch würde ich auf den R580 warten der im Januar kommt. Dieser wird dann warscheinlich auch 2x 7800 GTX hinter sich lassen und wieder kühler und effizienter laufen.
Grüße
Blackman
Hmmm eh dir ihren R580 haben hat Nvidia wieder eine schnellere.
Seh es ein ATI hängt hinter her die kriegen so schnell nicht mehr die kurve ausserdem geht schon das gerücht um das nvidia schon am G80 chip arbeitet.
Genau wie Crossfire das der müll des jahres die karten werden nie syncron laufen wie im sli modus.Und wen ich höre uh ha X1800 mit 16 pips.omg.
Ati muss sich wen schon sehr ranhalten wen sie die kurven kriegen wollen.
Mehr kann ich momentan nicht dazu sagen.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 1.815
- Aufrufe
- 237.357
- Antworten
- 360
- Aufrufe
- 94.234
- Antworten
- 767
- Aufrufe
- 195.743
- Antworten
- 655
- Aufrufe
- 230.458
- Antworten
- 34
- Aufrufe
- 13.679