Test Test: ATi Radeon X1800, X1600 und X1300

wazzup schrieb:
pwned! würde ich sagen :daumen: :p
schauen wir uns das hier noch mal etwas genauer an, 2x nV knapp schneller und 2 ATi, hochgerechnet auf alles sind beide gleich schnell. Solche argen Aussetzer wie bei AoE 3 kann man nur auf Treiber-Bugs zurück führen (sind ja auch nur Betatreiber).
 
wie du auch weißt sind die 7800gtx karten noch mit dem 78.03 getestet worden und nicht mit dem neuem 81.84 der noch ein ganzes stück schneller sein soll
 
canada schrieb:
Ersten haben nV und ATi 3 oder mehr Entwickler Teams die unabhängig von den anderen Arbeiten, dadurch ist ewährleistet, wenn sich bei dem einen etwas verzögert die anderen nicht betroffen sind, daher ist deine Aussage schlechthin nur Spam.
Desweiteren was hast du gegen 16Pipe?! ATi hat doch gezeigt das man mit 16Pipe genauso viel erreichen kann wie mit 24, also wo ich dein Problem, ich wurde zugar ne 8Pipe GraKA nehmen wenn sie die Leistung hat! Auch hier wieder einach nur Spam von deiner Seite. Und über Crossfire reden wir erst garnicht => Spam ...


Weist was ich dazu sagen einfach nur kinder mit 16 die ihren com von mutti haben.

Weiss nicht was daran spam ist erst üblegen dan schreiben.


Mein erstes baby war ne voodo also -.- Ausserdem steh ich auf qualität daher ist nvidia mal besser Ati ist nur für schnelligkeit.
Etweder quali oder schnelligkeit was würdest du da bevorzugen.
 
riDDi schrieb:
tut sie nicht!
das gesamte system verbraucht ca. 200W, lies doch mal richtig!
Hab mich da vielleicht etwas unverständlich ausgedrückt: 200W stehen im CB-Artikel. Das meinte ich auch.
man kann von ca. 90W für graka und cpu ausgehen, das restliche system knappst hier und da das ein oder andre watt noch ab.
Beweis?
Ich habe mal was von ca. 89 Watt für die CPU und ca. 90 Watt für die Graka gelesen. Wie du auf 90 Watt für beide kommst, ist mir nicht ganz klar...
weil ein netzteil aber bei maximallast keine stabilen spannungen liefert und durch die transformation ein gewisser teil der energie verloren geht (wirkungsgrad) kann man von ~400W ausgehen, die man schon haben sollte. ein gutes 350W wirds in den meisten fällen aber weiterhin tun! probleme kriegt man nur, wenn die einzelnen komponenten die 5- und 12V-lane jeweils zu stark belasten.
Das sehe ich anders. Das CB-Testsystem besteht aus einem Athlon64 4000+. Wenn ich mich nicht irre, werden AMD-Prozzis aber über die 3,3 und 5V-Leitung versorgt, hier ist also Combined Power entscheidend. (Link: http://www.computer-greenhorn.de/netzteile.htm)
Selbst ein gutes Netzteil wie zB das Enermax EG651AX-VH(W) liefert gerademal 200 Watt Combined Power und das bei einer Angabe als 550 Watt-Netzteil. So nah an der Leistungsgrenze könnte es nach Stunden des Dauerdaddelns eng werden.
 
ich muss sagen das ati schon ein ordentliches produkt präsentiert.
bleibt nur zu hoffen das sie bald auch mit der verfügbarkeit mithalten können.
ich werde mir wohl evtl. die x1800xl zulegen, wenn sie einen angemessenen preis hat.
das der lüfter nicht all zu leise ist stört mich da nicht so, da ich eh auf nen silentlüfter eines drittanbieter hoffe. die performence geht auch in ordnung. vor allem da ich mehr wert auf qualität setze. und das war schon die letzten jahre immer ati´s revier. wer ne karte für max frames sucht, wird mit sicherheit zu nvidia gehen.
abschließend kann man sagen das ati zumindest zu nvidia aufgeschlossen hat.

cya


BuRNeR
 
Der_MOB schrieb:
http://www.driverheaven.net/reviews/r520reviewxvxv/index.htm

Hier gibts einen Test der auch die 81.84 Treiber für NV berücksichtigt.


dieser Test bestätigt nur wieder, das jede Karte ihre Stärken und schwächen hat, nur glaube ich das bei z.B COD2 die 512MB den vorteil gebracht haben !

aber noch immer keine begründung für mich von NV auf ATI zu wechseln, und vor allem nicht mehr wie 250,-€ für eine Graka auszugeben !

wenn die Games kommen, mit denen ich bei meiner 6800GT in den Ruckelbereich komme, werden Karte wie die 7800GTX oder x1800 bereits überholt sein !

und dann bekomme ich ( November 2006 ) bereits Besseres für meine 250,-€ !

Der einzige grund mom die Graka zu wechseln ist für mich die Texturleistung mit 256MB Grakaram !
konnte den unterschied gerade bei COD2 sehen, ich hatte die 6600GT mit 128MB und mein kumpel eine 6600 mit 256MB, und er bekam mehr texturen wie ich !
Und auch bei Fear konnte er mehr sehen wie ich, obwohl ich den schnelleren Chip hatte !

Und nochmal zu ATI, ich finde es gut, das die nun entlich auch ihre Kunden mit PS3.0 und HDR verwöhnen !

aber mal erlich, beide "neuen" Karten 7800 & x1800 sind nur aufgewärmter kaffee!!

Nv hat seine Karte nur optimiert, und ATI hat nur eine Technik integriert die längst überfällig war !

aber so richtig neues gibt es nicht von beiden !!!
 
Zuletzt bearbeitet:
mal n bild von der 6600GT und der 6800GT !
 

Anhänge

  • Grakas 003.JPG
    Grakas 003.JPG
    93,8 KB · Aufrufe: 562
NVFANBOY schrieb:
dieser Test bestätigt nur wieder, das jede Karte ihre Stärken und schwächen hat, nur glaube ich das bei z.B COD2 die 512MB den vorteil gebracht haben !

aber noch immer keine begründung für mich von NV auf ATI zu wechseln, und vor allem nicht mehr wie 250,-€ für eine Graka auszugeben !

wenn die Games kommen, mit denen ich bei meiner 6800GT in den Ruckelbereich komme, werden Karte wie die 7800GTX oder x1800 bereits überholt sein !

und dann bekomme ich ( November 2006 ) bereits Besseres für meine 250,-€ !

Der einzige grund mom die Graka zu wechseln ist für mich die Texturleistung mit 256MB Grakaram !
konnte den unterschied gerade bei COD2 sehen, ich hatte die 6600GT mit 128MB und mein kumpel eine 6600 mit 256MB, und er bekam mehr texturen wie ich !
Und auch bei Fear konnte er mehr sehen wie ich, obwohl ich den schnelleren Chip hatte !

Und nochmal zu ATI, ich finde es gut, das die nun entlich auch ihre Kunden mit PS3.0 und HDR verwöhnen !

aber mal erlich, beide "neuen" Karten 7800 & x1800 sind nur aufgewärmter kaffee!!

Nv hat seine Karte nur optimiert, und ATI hat nur eine Technik integriert die längst überfällig war !

aber so richtig neues gibt es nicht von beiden !!!



sehe ich genauso, im grunde reicht eine 9700/9800 (PRO), eigentlich holt man sich nur eine neue Grafikkarte, wenn ein höheres in der Zahl DX von MS rauskommt. Für DX 8 gab es von ATI eigentlich nur die 8500er Serie, für DX 9 die 9xx serie, dann die x8xx serie und jetzt noch die neue xxx00 serie ! hält sich lange diese dx9. mir egal, ob 9 oder 9b,9c, alles fast das gleiche, und auf shader 3 sch... ich momentan. Das nächste DX kommt bald, ich versprechs euch, dann wird shader 3X kommen. Die XBOX 360 kann ja DX 10(Next), dieser GPU ist für PC Karten noch vorbehalten und word erst mal in konsole verbaut. Da wird ordentlich Geld gemacht. Also, wer eine DX 9 Karte hat ,ich sag mal mit 8pipes und 256 bit Speicher ala 9xx serie oder 5900FX , soll warten bis nächstes Jahr. Zb. Win VIsta hat die neue DX Schnittstelle mit drin, und das kommt bald. So müssten es doch die meisten user sehen, wenn man mal überlegt und ehrlich ist.
lg mosly (Patrik):freaky:

würd mich auf meinungen auf den text von mir freuen
 
Zuletzt bearbeitet:
Ich kann nicht sagen, dass ich das 100pro weiß, aber der ATI R500 bietet kein DX10 sondern Unified Shader, was zwar ein Feature von DX10 ist, aber ob auch die ganze Feature Liste integriert ist, wurde ja nicht gesagt.
Die Unified Shader von DX10 werden gerne als Shader Model 4.0 bezeichnet, nicht als 3X oder 3.X

Außerdem kauft man sich keine Graka, wenn ein neues DX draußen ist, sondern, wenn die Leistung nicht mehr reicht und zwischen 9800 Pro und 7800 GTX/X1800 XT ist ein deutlicher Unterschied. Aber das muss jeder für sich entscheiden. Geschmäcker sind halt verschieden.

Außerdem ist die R500 ein consol-only Grafikchip. Das ist ne komplett andere Architektur. Der R6x0 wird sicher anders aufgebaut sein. Die werden sich sicher ähnlich sein, aber nicht zu sehr. Die Anforderungen von Konsolen sind schließlich anders, als die von PCs.

Und glaubst du wirklich, dass sich jeder gleich Windows Vista anschafft, wenn man noch nicht alles über das OS weißt? Schließlich weiß man ja auch nicht, ob auch die heutigen Spiele von Unified Shader Architektur profitieren werden.
 
Der G70 von Nvidia ist doch auch ein consol-only Chip.Die PS3 hat ein Nvidia Chip nur das er auch auf der Basis des G70 ist.Also nicht nur ATI hat einen consol-only Chip für die Xbox 360.
 
Zuletzt bearbeitet:
und jetzt soll ja auch noch PS4.0 unterstützung in DX9e kommen !
 
sauron888 schrieb:
Das stimmt.
Unifed Shader ist keine vorgegebene Spezifikation zu SM4/DX10. Und das wichtigste fehlt dem R500:
Geometryshader

Hat denn die 7800 GTX den Geometryshader ?
Würd mich mal interessieren
 
@ Mosly & NVFANBOY

Bin deiner Meinung. Mein Bild sieht auch noch gut aus. Es müssen nicht immer 1600x1200 sein. Kann man nicht die Produkte mit SM3 an einer Hand abzählen?
- - -
Lautere Karten mag ich überhaupt nicht. Na ehrlich mal, lernen die Hersteller denn nicht dazu?

Hoffentlich werden die "alten" Modelle nicht wieder so schnell abverkauft und werden etwas preiswerter. So knapp unter 200€, nen guter, leiser, kühler 800/850er für AGP und man kann mal drüber reden. Ich hab echt noch keine Lust alles auf 939 und Konsorten umzumodeln.

ICH habe noch NICHTS von Preisen gelesen? Kann das sein? Oder hab ichs überlesen?

Danke
 
@ -NachtschatteN-

Ja stimmt, jetzt wo du's sagst, so genau hab ich mir den hinteren Teil vom Bild nich angesehen, ich hab mehr auf das im Vordergrund geachtet. Wenn man weiß worauf man achten soll sieht man schon nen sehr erheblichen Unterschied.
 
@NVFANBOY
Das Shader Model 3.0 ist bei DirectX 9c das höchste der Gefühle. Mehr kommt erst mit DirectX 10.

@DeViLcRy
o__O
G70 ein concol-only-Chip? oO Wie kann das ein consol-only-Chip sein, wenn der für den PC erschienen ist? -.-
Der RSX der PS3 ist doch stark verschieden. Bei den Demo-Systemen hat man doch zwei G70 im SLI laufen gelassen. Das können doch nicht die gleichen GPUs sein.
Es gibt kein DX9le. Nur a,b,c oder so ähnlich. oO
 
Es dauert noch über ein Jahr bis Windows Vista kommt, jetzt schon darauf zu warten, bis das neue DX10 mit Vista zusammen kommt find ich etwas hart. Das bedeutet, über ein Jahr lang keine neue Graka kaufen und wer weiß wie gut die Spiele dann auf Vista laufen wenns draußen ist. Ich denke aber eher daß DX10 vor Vista kommt.
 
Zurück
Oben