Highend ATI vs. nvidia

Status
Für weitere Antworten geschlossen.
Crysis ist sehr stark Nvidia optimiert, aber ein flüssiges durschpielen mit 1920x1200 mit 4xAA und 16xAF bezweifle ich mit einer GTX280, denn da komme ich mit meiner GTX285 OC und meinem Q9550 @ 3.7GHz schwer an meine Grenzen, und da laufst es auch nicht wirklich flüssig.
 
Dass Crysis sehr stark Nvidia optimiert ist, halte ich für ein Gerücht. Denn eine HD4870 schlägt eine GTX260 und die HD4890 ist gleich auf mit der GTX275.
 
Gerade nach dem Beitrag des "Schaffe89" sind mir einige Gedanken hochgekommen.

Schon erstaunlich, ich werde dafür abgestraft, wenn ich in bisher einen einzigen Fred, dem Launchartikelfred zur ersten HD5 über deren Filterqualität mecker, bzw es anprangere das hier praktisch nichts getan wurde.

Auf der anderen Seite wird immer und immer wieder damit geworben, das AMDs "Default Texturfilter" minmal besser sein soll als Nvidias "Default Texturfilter".
Abartig könnte man meinen.

Aber es kommt noch besser, wenn man sich mal klar macht was ein "Default Texturfilter" sein soll.
Defaultmäßig steht im Treiber "Anwendungsgesteuert". (Negativer LOD-Bias steht im übrigen auf Allow und nicht auf Clamp)
So, wir müssen also zu den Anwendungen gehen, zwecks Filterung. Defaultmäßig ist dort nicht 16xAF eingestellt. Ich werfe mal übliche Settings wie "bilinear" oder "trilinear" in den Raum. So, wer filtert jetzt ohne anrühren jeglicher Schalter bei diesen Settings besser? Und wollen wir wirklich darüber disskutieren, ist das so spannend?

Bei einer BQ Diskussion wirkt es auch arg seltsam, mal abgesehen von der obigen völlig absurden Einstellung, nur auf einen Punkt zu schauen.

Man muss alles sehen:
D3D11
SGSSAA und wann es nutzbar ist
Filterqualität
AA-Kombatibilität
AAA-Qualität
...
D3D10(+)
OGSSAA samt Hybride und wann sie nutzbar sind
Downsampling und wann es nutzbar ist
Filterqualität
AA-Kombatibilität
TAA-Qualität
GPU-PhysX
...

Der Versuch BQ auf einen Punkt, auf den obig genannten völlig absurden Punkt, kommt mir mit jeder Zeile unsinniger vor. Ich nehme an es war nicht das letzte Mal, wo derartig argumentiert wird.
Mal abegsehen davon, das einige Punkte, wie die 8xMSAA Liebe oder die CFAA Liebe aufeinmal zugunster "mieser" Geometrieglättung des SGSSAA gewichen sind, das ist ein weiterer seltsamer Punkt.
Geht es tatsächlich um Qualität, oder nur um einen Vergleich, einen Vergleich der ruhig völliger Quatsch sein kann? Die Signatur des "Vladez" erinnert mich daran.
 
SH501 schrieb:
Und wenn der Fermi erscheint und schneller ist,wird sich das NVIDA mehr als gut bezahlen lassen.Wahrscheinlich wird da jedes % Mehrleistung gegenüber der 5870 direkt 15 Euro Aufpreis kosten.
Bei Lautstärke und Stromverbrauch dürfte eh der Zug für NVIDIA schon abgefahren sein.

Ach, und das weißt du alles so genau?

SH501 schrieb:
Na und? Was jucken mich die Mid Range Karten?

Wir reden hier über die Top Produkte der jeweiligen Hersteller.

Und wann kommen die Mid-Range Karten? Genau, nach den High-End Modellen.




ICh bin gespannt, wann die Nvidias launchen werden, und ob die Mid-Range Karten im März verfügbar o.Ä. sind

P.S.: Fanboy schreibt man mit Y ;)
 
united3000 schrieb:
Ach, und das weißt du alles so genau?



Und wann kommen die Mid-Range Karten? Genau, nach den High-End Modellen.




ICh bin gespannt, wann die Nvidias launchen werden, und ob die Mid-Range Karten im März verfügbar o.Ä. sind

P.S.: Fanboy schreibt man mit Y ;)

3 Milliarden Transistoren,dazu Stromanschlüsse für 300 Watt Leistung zeigt,das die Karte keine Strromsparkarte wird. Dementsprechend muss viel gekühlt werden,was der LAutstärke nicht gut bekommt.
Reine Logik.

Die Mid Range karten sollen im März kommen. Sollen. Das heisst nicht das die auch dann auch vorhanden sind. Zudem kann man auch einen Paperlaunch machen und 3 Monate später die Midrange Karten vorstellen. Selbst wenn man bis dahin noch keien High End Fermi kaufen konnte,war die High End Karte vorher da.

Keine Frage,ist noch viel Spekulation dabei, aber aktuell spricht wenig für Fermi Karten Anfang Dezember im Handel.
Klar, ein Paperlaunch wird es geben. Denn wenn man im Weihnachtsgeschäft schon nichts verdienen kann, dann muss man wenigstens daür dorgen,das die Leute keine ATI Karte kaufen. Also verspricht man Lieferbare Karten im Dezember aber da wird nichts kommen.

Aber viele werden warten, weil sie denken, in 1 Woche kommt die Karte und auf die Woche kommts nicht an. So wird das dann bis wohl März durchgezogen.
 
Die Stromanschlüsse lassen nur wage Vermutungen zu. Beispielsweise gibt es Karten mit 1x 6-Pin, die aber unter 75 Watt ziehen (HD5750) und daher nur aus dem Slot versorgt werden können und es gibt Karten, die 1x 6-Pin + 1x 8-Pin haben und satte 370 Watt statt den spezifizierten 300 Watt ziehen (HD4870 X2).
 
SH501 schrieb:
3 Milliarden Transistoren,dazu Stromanschlüsse für 300 Watt Leistung zeigt,das die Karte keine Strromsparkarte wird. Dementsprechend muss viel gekühlt werden,was der LAutstärke nicht gut bekommt.
Reine Logik.

Die 300 Watt Angabe bezieht sich auf die GX2 die ebenfalls noch kommen soll.
Ich verstehe nicht warum das bis jetzt jeder falsch versteht ?
Auch soll sich der Stromverbrauch des kommenden Fermi in etwa des Verbrauchs der GTX285 oder drunter befinden welche sich dann mit 2x6Pin PCIe begnügen würde.
 
Ich würde auch noch ein wenig abwarten bis sich die Preise einpendeln, kannst auch warten bis die 300 von NVidia kommt, die werden aber sicher um einiges Teurer als die ATI Karten.

Fanboys hin oder her, die Nvidia Karten werden am schluss sicher ein bischen schneller aber dafür auch um einiges teurer als die ATI Karten
 
Wenn man hier schon das Thema Bildqualität anschneidet in Bezug auf das Bildflimmern. So kann ich jetzt mit deutlich Gewissheit sagen das ATI nicht gerade augenschonend mit ihren Usern umgeht.

Ich Habe jetzt meine GTX285 verkauft und mir meine Ersatzkarte die HD4670 eingebaut.
Nun tun mir die Augen nach 1 Stunde weh und ich muss mich erst wieder an das Bild der ATI-Karte gewöhnen.
 
Die Flimmerei nervt halt, wenn man NVs HQ gewöhnt ist.
 
Vladez schrieb:
ja sie nervt, das stimmt.
Aber man kann doch nicht sagen, dass man davon Augenschmerzen bekommt, so schlimm ist das nun auch nicht :rolleyes:

Also wenn ich anfangen muss mir die Schläfen zu reiben und gezwungen bin immer wieder Wegzusehen denke ich schon das ich das sagen darf ! :rolleyes:
 
Seid mir nicht böse, aber es ist schon recht amüsant sich das hier durchzulesen!

Wenn man sich eine Grafikkarte von NVIDIA oder ATi kauft, sympathisiert man natürlich zuder Einen oder der Anderen. Der Eine kauft lieber gleich ATi, weil er einfach überzeugt davon ist, der Andere eben NVIDIA, aus gleichen Beweggründen!
Seine Sympathie aber wegen dem etwas besseren AF, Stromverbrauch, oder gleich "Augenschmerzen" zu rechtfertigen, ist echt genial!
Die eine Firma hat der Anderen sicher einige Vorteile - aber auch Nachteile. Jeder hat seine Gründe, warum er zu einer der beiden Marken greift.
Sind wir aber doch mal ehrlich: Keiner wartet jetzt auf die neue NVIDIA Generation, nur weil deren AF "besser" ist?! Wenn wir die Möglichkeit hätten, würden wir uns ständig eine andere GPU kaufen - sowohl von ATi, als auch von NVIDIA!

Nichtsdestotrotz freue ich mich auf weitere Beiträge hier - so wird es im Forum nie langweilig :)

Einen guten Wochenstart euch allen und eine gute Nacht!

Gruß
ultra
 
nVidia und ATI haben beide Stärken und Schwächen, das ist klar. Ich selbst bin eigentlich mehr ein nVidiafan, auch wenn ich schon einige ATIs hatte. Die BQ fand ich bei NV aber eigntlich immer besser, jedoch habe ich nice Augenschmerzen von ATIs bekommen....
 
:kotz: ATI

Ich kann zu ATI nur sagen, dass ich leider Besitzer von mehreren ATI Karten (X700, X800 GTO, X1800GT, HD 4870) war.

- Keine hat die Garantiezeit überlebt, bzw das erste Jahr (ungetaktet versteht sich).
- Ati hiehlt es nicht für nötig, sich um die ständigen Treiberabstürze zu kümmern.
+Preis (Grund s.o.)
+Sromverbrauch

:) NVIDIA

Von NVIDIA hatte ich auch mehrere Karten, die alle noch Leben (GF 4 TI, G80, G92, GTX 260).
Treiberabstürze sind mir bisher noch nicht untergekommen.

Warte auf die GT 300 Chips oder nimm die GTX 295
 
Zuletzt bearbeitet:
Die GTX295 zu nehmen macht absolut keinen Sinn, ich hatte genauso gedacht und meine GTX295 ging dank hochfrequenten Piepston wieder zurück und das Austauschmodel auch, zumal die GTX295 von Haus aus schon sehr viel Lärm macht. Vorher hatte ich einen XFX 8800 GTX verbaut.

Ich entschied mich am Anfang auch wegen dem Flimmern etc.. für die GTX295, muss nun aber eingestehen das mir mit der 5870 noch kein Flimmern aufgefallen ist (Crysis,Risen, WoW,Divinity 2 alles in 1920x1200).

Selbst den Geschwindigkeitsunterschied habe ich nicht bemerkt, ich kann mit der Radeon alles flüssig spielen und das bei weniger Stromverbrauch und niedriger Lautstärke.

Wenn es jetzt eine neue Graka sein soll, gibt es keinen Grund eine GTX295 zu kaufen.
 
Schaffe89 schrieb:
Ja ist halt ein einziges Trauerspiel.

Ja das was ATI ihren Kunden zumutet ist wirklich ein einziges Trauerspiel.

Nein ich bin kein Fanboy nur weil ich über meinen Erfahrungen diesbezüglich ATI und Nvidia berichte und es eben nicht immer so optimal für diverse ATI-Anbeter klingt.

Ich hatte von Anfang an nur ATI-Karten.
Angefangen mit der 8500LE, 9800XT, X800Pro ,X1950Pro ,HD4850 ,HD4870X2.
Ab der 4000er Serie stieg ich dann auf einen LCD-Monitor um. Da bemerkte ich das es doch einen gravierenden Unterschied zwischen dem 60Hz des LCDs und den 100 Hz meines alten CRT-Monitors besteht. Das Bild war zwar richtig scharf aber es flimmerte leicht was sich nicht gerade positiv auf meine Augen ausgewirkt hat. Leider war der alte CRT nicht mehr zu gebrauchen und ich musste mich Wohl oder Übel mit der neuen LCD-Technik anfreunden.

Letztes Jahr war es besonders schlimm mit meinen Augen. Da haben schon meine Arbeitskollegen und Kolleginnen auf meine müden Augen mit den tiefen Rändern hingewiesen.

Dann habe ich die HD4870X2 wegen diverser MR-Probleme verkauft und mir die GTX285 besorgt.
Und gleich als ich sie in Betrieb genommen habe viel mir dieses ruhige und schonende Bild auf was sie erzeugte.

Daraufhin wurden meine Augen besser und die Ränder deutlich reduziert.
Und nun jetzt als ich die HD4670 wieder eingebaut habe plötzlich brennen meine Augen wieder wie früher !
Ich vermute mal das die Kombination von LCD-Monitor + HD4000er zu diesem Leiden geführt hat.
Aber bei der Nvidia-Karte war dieses Problem nicht mehr vorhanden.


Vielleicht bin ich einfach nur zu überempfindlich aber das ändern nichts an der Tatsache das ich schon aus gesundheitlichen Gründen wohl keine ATI-Karte mehr kaufen werden.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben