Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
gf3 und4 hatten ne deutlich bessere filterung als die radeon 8500 mit ihrem krüppel af
mit der gf5 (auch bei ati) fing das "rumoptimieren" an, da würde ich beiden herstellern eine grottige qualität bescheinigen. wobei das af sich dem der ati annähert(nicht mehr winkelunabhängig, etc.), aber ati hatte immerhin schon ein gedrehtes msaa muster
seit der gf7 ging bei nv das geflimmere los während die x1800 mit nahezu winkelunabhängigen af auftrumpfte
mit der gf8 hat nv noch einen draufgelegt. man kann fast von einem gleichstand sprechen, der abstand zu ati ist aber wirklich klein
Merkwürdig, das die bei 3DCenter das anscheinend etwas anders sehen und den AF der FX sogar als Referenz nehmen.
Vor allem in den Videos sieht man deutlich, das sie damit so falsch nicht liegen können.
man kann fast von einem gleichstand sprechen, der abstand zu ati ist aber wirklich klein
Wenn man sich die "Lupen"-Analysen von 3DC ansieht, dann hat die ATi besseres Transparenz-AA und das MSAA ist einen Tick besser, beim AF ist hingegen nV überlegen.
Hängt wohl davon ab, was einem wichtiger ist.
Also ich muss zu der Debatte mal sagen, dass ich mich beim Zocken auf den Gegner und das Geschehen konzentriere und mir nicht die Detailgenauigkeit und Sauberkeit der Texturen anschaue. Das müsste dann schon wirklich übel aussehen, dass mir das ins Auge fällt...
Hinzu kommt, dass man das meiste ohne einen direkten Vergleich ohnehin nicht wirklich gut erkennt. Das Ganze ist in meinen Augen ein Punkt, der etwas zu übertrieben beäugt wird. Natürlich sollten die Texturen ordentlich sein, aber wenn jetzt der eine Anbieter die Texturen etwas anders darstellt, ist das nicht gleich ein Beinbruch.
@evader
streit nenne ich das weil hier manche einfach einen hersteller als referenz sehen und der nächste wieder den anderen
die welt ist aber nicht schwarz-weiss
jop das winkelabhängige af kam erst mit dem nv40
nichts desto trotz war es beim nv20 deutlich besser, eben durch das ganze "optimieren" zu der zeit
da wurde doch unterfiltert und teilweise bilinear gefiltert wo es nur geht
und 3dc sieht das af der fx bestimt nicht als referenz, höchstens mit blick auf die winkelabhängigkeit
referenz in sachen af ist immer noch die gf3 bzw. mittlererweile wieder die gf8
die fx hatte im gesamten betrachtet ne schlechte bildqualität (genauso wie die ati karten zu der zeit)
natürlich gab es auch treiber wo die ganzen "optimierungen" nicht aktiv waren, aber das kann ja kein beurteilungsmaßstab sein
na ja....der streit wird wohl nie enden^^....ich meine jeder sollte seine eigene meinung haben....nd es ist doch egal ob nvidia oder ati besser ist ....hauptsache is doch das gescheite games rauskommen nd das die beiden hersteller geile grafikkarten entwickeln!!
Ich hoffe es stimmt und keiner kann mir hier sagen, dass man die dreifache Leistung nicht ausnutzen kann! Niemand! Denn man kann garantiert zwei dieser Grafikkarte schon aufs Limit auslasten.
Das bekannteste Beispiel wäre wohl Crysis in 1920x1200 mit allen Filtern und höchsten Einstellungen unter Vista logischerweise...
Noch interessanter wäre sowas natürlich bei einem 30 Zoller mit 2560x1600 Auflösung. Ich kann zwar nur schätzen, aber ich glaube im Schneegebiet werden zwei dieser Grafikkarte keine 40 FPS erreichen
Und 60 FPS brauche ich als Minimum, damit ich keine Mauslags oder sowas habe.
Solch eine Grafikkarte wird nur für Leute nichts sein, die mit eine "Kinderauflösung" von 1280x1200 oder sowas spielen
Nein ist es nicht
Ich meine nicht die Monitorbedingen Mouselags. Wenn ich sehr viel Schnick-Schnack aktiviere, habe ich zwar eine gute Grafik und für das Auge ist alles sehr flüssig, doch Mouselags bestehen trotzdem. Das heißt, dass wenn ich die Maus nach links schiebe, dann geht der Cursor nicht sofort nach links, sondern zerzögert die Bewegung um zu viele Millisekunden.
Bei normalen maximalen Details und ohne besonderen Schnick-Schnack ist alles flüssig und ohne Mauslags.
Das extreme Beispiel kannst du bemerken, wenn du die höchsten Einstellungen mit VSync (Vertikale Synchronisation) anmachst.
Trotzdem, auch die 9800GTX wird nicht hardwarelastige Spiele auf bester Grafik unter 1920x1200 packen und auf 2560x1600 erst recht nicht, aber diese Auflösung nutzen ja die wenigsten.
es gibt sehr wohl einen unerschied, sage nur framedrop. is halt was anderes wenn man onlineshooter spielt wo man auf hohe frames angewiesen ist. da ist es ein unterschied wie tag und nacht wenn der framedrop zwischen 120 und 70 frames ist anstatt zwischen 80 und 30 frames.
aber den wird ein gelegenheitzzocker nie bemerken und auch nicht wissentlich davon profitieren. und mit den dpi´s liegst du ebenfalls falsch
Ach Jungs, müsst ihr ein völlig veralteten Thread eigentlich weiterhin mit völlig blödsinnigen Diskussion zumüllen? wo er doch von anfang an eigentlich ziemlicher Müll war... reich doch langsam.
Falls ihrs nicht gemerkt habt, der g92 ist längst draußen, heisst nicht 9800 GTX und hat auch nicht die 3fache Leistung einer 8800 GTX. Blubb, wenn wunderts bei der Quelle....
Ich hoffe ihr habt eure Schwimmflügelchen mit, denn ihr dürft, denk ich mal, gleich eine Runde planschen. Have fun!
aeh falls du es nicht gemerkt hast,hier hat schon alles seine Richtigkeit und du bist auf dem Holzweg ....
Die fragliche Karte wird "9800GTX" heissen, soll aus zwei G92 Chips bestehen und ist noch nicht draussen(angeblich zur Cebit).
Dreifache Leistungsfaehigkeit kann ich mir nicht vorstellen,wo sollte mehr als das Doppelte an Leistung bei zwei Chips herkommen? Also rein theoretisch gar nicht moeglich , praktisch kann man meist froh sein wenn man 50% mehr leistung hat.
Es sei denn die GPU`s sind keine normal getakteten G92 bzw ueberhaupt erstmal G92. Wenn der naechste HighEnd CHip (G100?) in zweifacher Ausfuehrung auf der Karte waere , dann rueckt 3 fache Leistung in den Bereich des Moeglichen .... oder es sind mehr als zwei Chips auf der Karte ....QuadSLI mit zwei DualGPU Karten gibts eh schon, warum nicht eine Quad Core Grafikkarte als Knaller zur Cebit...
Aber ich vermute es wird die normale SingleSlot SLI Karte wie alle anderen auch von der Sorte (3870X2,7900GX2 usw). Wird voellig reichen um die 3870X2 auszustechen, mehr soll die Karte gar nicht erreichen ..... zur Cebit wissen wirs was dahinter steckt
Hey! Dieser Thread ist vielleicht alt aber nicht verblödet. Ist nämlich mein Werk.
Heute wissen wir das der G92 nicht im geringsten diese Leistung erzielt.
Der G92 wurde hier wohl mit dem GT200 alias G100 verwechselt.
Der wird mit hoher Wahrscheinlichkeit diese Leistung bringen.
Bis zum Sommer wird der G92 trotzdem der stärkste Chip bleiben.
das die 9800gtx aus 2 g92 bestehen soll hab ich au noch nie gehört...laut nvidia heißt der chip g100..lediglich die 9800GX2 soll aus 2 g92 chips bestehn^^