x1900XT vs x1800XT - Prognosen

Aber das mit der Lautstärke ist auch sowas für sich!Denn wer bitte Hat wenn man Spielt

alles auf Lautlos gestellt,sodass man di Karte hört?Keiner also das mit Der Lautstärke

dürfte die wenigsten interressieren.Halt nur die die einen SilentPc haben wollen wäre das

vieleicht ein "kleines" Contra.Ich rate dir zur ebenfalls zur ATI 1900 oder X1800 beide sind

gut.Gründe haben die Anderen ja schon gegeben.
 
@D3r J3n$
Der Punkt der Bildqualität spricht natürlich klar für ATI, aber wenn ich ehrlich bin, sehe ich keinen offensichtlichen Unterschied zwischen den Beiden. Wie es da bei der 7ten Generation aussieht weiß ich nicht, aber wenn einem bei den ganzen ATI vs. Nvidia-Vergleichen immer ein speziell präpariertes Standbild vor die Nase gehalten wird, um den Unterschied zu erkennen, finde ich es doch ein wenig hinfällig.
So ähnlich sehe ich es mit AA. Nimmt man wieder ein Standbild, wo man gerade eine ungünstige Schräge hat, dann fällt einem der Unterschied natürlich sofort auf. Setzt man sich jetzt aber an den PC und spielt das Spiel in bewegten Bildern, ist es so ziemlich egal, ob nun mit oder ohne AA. Wie gesagt: Das ist meine Meinung!
Wie man sich jetzt vielleicht denken kann, spiele ich ohne AA und meistens auch ohne AF.
Bei Oblivion bleibt mir da aber auch gar keine andere Wahl. Und so wird es früher oder später allen gehen, die eine ältere Grafikkarte besitzen. Dann hilft nur deaktivieren oder neue Grafikkarte.
 
Zuletzt bearbeitet:
->teXcor<- schrieb:
Ich rate dir zur ebenfalls zur ATI 1900 oder X1800 beide sind

gut.Gründe haben die Anderen ja schon gegeben.

Ja, danke! Also momentan (noch isses ja nicht soweit :D) denke ich dass die x1900XT dann das beste sein wird für mich. Kostet zwar noch nen Zacken, aber dafür wird sie wohl (hoffentlich) auch lange herhalten. Mal sehen was noch passiert :p

@YoWoo: dass die CPU-Preise gleich bleiben werden hab ich grade erst gesehen, das ist ja klasse! Dann hast du natürlich recht, ein AM2-System wäre in diesem Fall sinnvoller, muss ich halt dann noch 1 GB RAM dazuholen, aber das passt schon
 
Wenn Du Dich tatsächlich für eine 1900xt entscheidest (was eine gute Wahl ist),
dann solltest Du mal nach der HIS 1900xt Iceq3 Ausschau halten. Die hat nämlich
den neuen, besseren und deutlich leiseren Kühler drauf!
Eine Dual-Core CPU halte ich ebebnfalls für eine vernünftige Wahl.
 
D3r J3n$ schrieb:
sollte zu nv greifen.die karten verbrauchen weniger strom und sind ein wenig leiser.

allgemein sage ich aber dass ich es absolut widerlich finde dass nvidia immernoch denkt dass es nur auf die performance ankommt und nicht auf die bq.diese ganzen optimierten treiber und das texturflimmern ist fürn a.grade bei so teuren karten sollte die bq doch wohl besser sein oder?wenn man das texturflimmern senken will dann muss man im treiber die höchste einstellung wählen was mal wieder nen grossen performanceeinbruch mit sich bringt.die ati hat schon bei normalen einstellungen ne bessere performance und eine deutlich bessere bq als die nvidia karte bei höchsten bq einstellungen.
also grafikfans sollten ati nehmen und geschwindigkeitsfanatiker sollten weiterhin bei nv bleiben.
ich will den nv usern ja nichts nur kann ich nvidias bq einfach nx abgewinnen bei der hohen preisklasse


Waehrend hier anscheinend noch tief geschlafen wird, sind wenigstens bei 3DCenter ein paar aufgewacht, was die ach so tolle Bildqualitaet bei ATi betrifft:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=291789
 
vor kurzem verbaute ich eine 1900xt und hab' mir mal, eben wegen diesem Thema die
Mühe gemacht die Bildqualität zwischen meiner 6800er und der Radeon zu veregleichen.
Es ist schon so, dass die Radeon einen Tick besser filtert als die Geforce. Das Bild bei
Doom3 sah einfach 'ne Spur "aufgeräumter" aus und die anisotrope Filterung funktionierte
auch in den verschiedensten Winkeln. Die Nvidia Karte trübte da teilweise ein oder zeigte
verschwommene Texturen. Auch bei der Kantenglättung sehe ich leichte Vorteile bei der
1900xt. Insgesamt nicht allzu dramatisch, aber gerade für den High End Bereich vielleicht
nicht unwesentlich.
 
kisser schrieb:
Waehrend hier anscheinend noch tief geschlafen wird, sind wenigstens bei 3DCenter ein paar aufgewacht, was die ach so tolle Bildqualitaet bei ATi betrifft:
wer behauptet die bq sei bei ati superklasse der hat nicht genau hingesehn. es flimmert definitiv auch. die standard-qualität, die nvidia liefert liegt da allerdings nochmal n ganzen zacken drunter und darum geht es.
hab selbst meine erfahrungen mit nv40 und r420 gemacht, noch bevor die flimmerproblematik an die kleine große glocke gehängt wurde, genauer gesagt eine kleine partie ut2004 auf dem nv40, onslaught-modus, mit dem gigantischen goliath, der sich schwerfällig über die rote steinwüst schleppt unterwegs zu heldenhaften taten, da fällt plötzlich der blick auf den boden vor dem gefährt der wahl... sandsturm? ameisen? unterfilterung?
nunja, blackscreen-bug sei dank bin ich die karte eh losgeworden und auf r420 umgestiegen.
da ist mir das flimmern das erste mal in serious sam tse aufgefallen. es ist einfach wesentlich subtiler und lässt sich - im gegensatz zur nvidia-lösung - fast ganz abschalten...

die problematik für mich ist dabei jetzt folgendes: was ati derzeit baut ist imo unter aller sau... transistormonster, die mit einer erschreckenden regelmäßigkeit verbrauchsrekorde aufstellen, dafür aber mit hq-af und wenig flimmern der nvidia-technik etwas voraus haben.
nvidia gelingt es dagegen transistoren einzusparen und somit auch wesentlich weniger strom zu verbrauchen, was in kühleren und leiseren grafikkarten resultiert.

und wem soll man jetzt sein geld in den rachen werfen?
 
Zuletzt bearbeitet:
Nun ja: Also ich war einer von denen die zeimlich früh eine 6800GT gekauft hatten. Vorher hatte ich eine Radeon9800.
So ca. 10 Minuten nach dem Einbau fiel mir die flimmernde Darstellung der NVidia-Karte auf - egal ob mit oder ohne Optimierungen!
Natürlich war es so, dass viele Nvidianer das völlig anders gesehen haben... ;) Es soll ja sogar Leute gegeben haben, die ihre 6800Ultra als "leise" empfunden haben.
Was solls, ich habe zumindest eine Sehstärke von 120% auf beiden Augen und einen guten Röhrenmonitor. Der Unterschied in der Bildqualität war sofort spürbar, mittlerweile soll es ja so sein, dass man unter der HighQuality-Einstellung eine bessere Darstellung bei NVidia bekommt - früher war das aber nicht so.
Zumindest war die 6800GT ganze 4 Tage in meinem Rechner bis ich - aufgrund der Bildqualität - die Nase voll hatte. Ich bin weder überempfindlich, noch habe ich dafür eine Lupe benutzt. Und gegen NVidia hatte ich erst Recht nix.
Die Radeon 800XT-PE - meine nächste Karte - war dann trotz aktiver Optimierungen von der Bildqualität her wieder einwandfrei (bis auf das winkelabhängige AF).
Und nun mit der X1900XT ist es einfach herlich bei Oblivion keine Matschtexturen mehr bei 45° Winkeln zu sehen. Gerade bei solchen Spielen fällt das HQ AF sehr stark auf. Und das aktivierte AA bei HDR kostet mich nicht mehr als ein paar Prozent und sieht fantastisch aus.

Noch mal zu dem Thema Flimmer: Wenn manche dieses Flimmern nicht sehen sollten, dann heißt es nicht, dass es nicht da wäre. Ich kann nichts zu der neuen "HighQuality" Einstellung sagen, da es damals nicht so implementiert war wie heute. Aber wenn die 7000er Serie keine "bessere" Bildqualität hat wie die 6000'er Serie (unter Quality), dann ist das nach meinem eigenem Ermessen keine gute Bildqualität.

Hier sind mal ein paar Threads von früher:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=169238
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=172917
(P.S. die verlinkten Videos zeigen das Geflimmere recht deutlich)
http://www.3dcenter.org/artikel/g70_flimmern/


Ansonsten ist mir der geringe Stromverbrauch und die Lautstärke bei NVidia natürlich symphatisch. Der Grund warum ich zu der X1900XTer gegriffen habe war:
- der Preis: 420€ gegenüber 500€+ für eine GTX
- die Bildqualität
- durchsichtige Treiberpolitik
- bessere Videoausgabe
- höhere Shaderleistung
- Performanter bei AA+AF

Die Lautstärke habe ich mit dem Accelero in den Griff bekommen. Bleibt als bei den negativen Punkten nur noch der hohe Stromverbrauch und die hohen Temperaturen.
Jeder muss für sich selber abwägen, was ihm wichtiger ist.
 
Zuletzt bearbeitet:
thereal_KrONos schrieb:
Ergänzung:

Pro:
Avivo
<<Overclocking ohne Garantieverlust gibts auch bei Nvidiakarten (vor allem 7900GT)>>
<<Die Sache mit den Shaderintensiven Spielen musst du noch belegen. Ich sehe das nämlich mal wieder anders :D ... neutral.>>

Kontra:
Performance ohne AA und AF

wollte da mal fragen:

verliert meine karte die garantie wenn ich sie nicht mehr als 10% oce?

das würde ja bedeuten dass ich meine karte von standart 625/750(1500) ohne garantieverlust auf 685/825(1650) takten kann

das wären dann die 10%
 
Zuletzt bearbeitet:
kann mir denn keiner antworten?
 
aha und wie siehts bei ATI aus?
verliere ich bei meiner karte die garantie?
 
Ich hatte vor einiger Zeit ATi extra eine Mail geschrieben, um zu erfahren, was es für Folgen hat, wenn man die Grafikkarte mittels Overdrive im CCC übertaktet. Die Antwort war zusammenfassend: Wenn man Overdrive zum OC´en benutzt, dann geht die Garantie nicht flöten, auch nicht bei den X1800 / X1900 Karten, wo Overdrive einem wesentlich mehr Spielraum nach oben gibt als z.B. bei der X800er Serie. Bei der X1800 / X1900 Serie sollte man am besten die Taktraten automatisch durch Overdrive bestimmen lassen.

Seitdem bin ich guter Dinge, dass mir eigentlich nichts passieren kann, falls die Graka mal abrauchen sollte. Das wäre ja ein Unding, wenn ATi selbst ein OC-Tool in seine Treiber einbaut (was ja mit Overdrive der Fall ist), man damit aber sofort die Garantie verlieren würde. Einen entsprechenden Warnhinweis gibt es ja nicht bzgl. Garantie, nur dass das System während der Taktbestimmung instabil oder einfrieren könnte.

Die Frage ist natürlich, wie ATi überprüfen will, mit welchem Programm / Tool man seine Karte übertaktet hat? Schreibt sich da was ins BIOS oder wie?

Wenn jemand andere Infos hat, nur her damit. Jedenfalls stand auf der ATi Seite einst selber bei den FAQ´s, dass man durch Overdrive seine Garantie nicht verliert. Das war aber noch zu Zeiten einer 9800 Pro als Overdrive eingeführt wurde und bezog sich auch auf eine solche Karte. Warum man nichts mehr dazu zu X800 / X1800 / X1900 Karten findet, who knows...
 
Zuletzt bearbeitet:
naja das ist ja nicht schlecht!

dann müsste ich ja eigentlich meine garantie noch haben!
 
Wobei man sag,dass das mit den vom CCC ermitelten Taktraten nicht wirklich die besten

sind!Ich habe das mal gemacht und 3D Mark06 durchrauschen lassen.Die Folge der

ermittelten Taktraten, Noch am Anfang freezed der Rechner ohne Overdrive:Wunerbar!

Das ist bei jeder Karte anders aber wenn man Glück hat dann sollte man es denke ich auch

nutzen so lange die Karte net die Gara verliert!a!Also immer rann!
 
Also ohne Overdrive sollten die Taktraten auf Normalniveau liegen und es keine Freezes geben? Dass es mit Overdrive zu Freezes kommen kann, steht ja auch in dem Pop-Up Fenster, das man bekommt, wenn man die Taktraten ermitteln läßt. Deswegen sollte man sich immer langsam herantasten, bis die Kiste stabil läuft. Jedenfalls hat mir Overdrive 689 / 797 MHz vorgeschlagen, ich habe mal runde 690 / 800 MHz daraus gemacht, und es ging seither 1a.
 
@Wolfenstein:

Gebe dir vollkommen Recht!Das ist dann halt das Beste,sich langsam

heranzutasten.Dann läuft die Karre stabil.
 
Zurück
Oben