2900XT bei D3D10 mit AA&AF deutlich mehr Leistung als 8800er GTX / Ultra?

mr5

Banned
Registriert
Feb. 2005
Beiträge
1.041
So wie es aussieht, ist die Leistung der ATI 2900XT bei D3D10 mit 4xAA und 16xAF deutlich besser als bei D3D9!

Auch die Midirange/Lowrange-Karten zeigen ähnliches Verhalten.

Getestet die 2900 XT: https://www.computerbase.de/artikel...t.648/seite-31#abschnitt_call_of_juarez_d3d10
Getestet die GTS 320: https://www.computerbase.de/artikel...t.671/seite-22#abschnitt_call_of_juarez_d3d10
Getestet 2600&2400XT: https://www.computerbase.de/artikel...t.671/seite-22#abschnitt_call_of_juarez_d3d10

Schaut euch mal bei 1600x1200 4xAA/16xAF die FPS an:

ATi Radeon HD 2900 XT 18,5 Bilder/s
Nvidia GTS 320 nur 10,1 Bilder/s
!

Die 8800er GTX/Ultra ist laut CB aufgrund eines Bugs der Testsoftware nicht getestet worden.


Fazit: Wenn man die deutlich schlechtere Leistung der 8800er 320er GTS bei 3D10D zur besseren Leistung der ATI 2900Xt bei 3D10D betrachtet, und zu der deutlich schlechteren Leistung der 8800er 320er GTS die Mehrleistung der 8800er GTX hinzurechnet, müsste die 8800er GTX und die 2900er XT unter 3D10D gleiche Leistung aufweisen!

Schaut mal hier: https://www.computerbase.de/artikel...t.648/seite-31#abschnitt_call_of_juarez_d3d10

Aufgrund eines Bugs konnte die GTX nicht mit der 2900er XT mit Kantenglättung verglichen werden. Wenn man aber mal betrachtet, wie gut die Leistung mit Kantenglättung der 2900XT im Vergleich zur Leistung ohne Kantenglättung der 8800er GTX steht, müsste man sogar annehmen, dass unter 3D10D die Leistung mit Kantenglättung bei der 2900XT sogar deutlich besser ausfällt als die der 8800er GTX-Karte.

Was meint Ihr dazu?

PS: Frage an Computerbase: Wann wird das Testergebnis unter 3D10D mit 4xAA und 16xAF der 8800er GTX nachgeliefert? Wäre sicherlich hochinteressant
 
Zuletzt bearbeitet:
LOOOL

sorry, aber wenn ich mir die Links anschaue, die du aufgelistet hast, da kann ich einem Lachen nicht entweichen.

Das mit dem, dass die ATi Radeon HD 2900 XT 18,5 Bilder/s und die Nvidia GTS 320 nur 10,1 Bilder/s ! habe soll, wo steht das? Zugegeben ich bin NVIDIA Fan Boy aber die Leistungen von NVIDIA sind ja laut den Links, wo du behauptest ATI sei besser ist NVIDIA deutlich besser.

mfg
Tobi
 
@mr5
Nichts für ungut, aber du scheinst da nicht ganz durchzublicken. Schau dir das ganze noch mal in Ruhe an. Wenn du dann Schlüsse ziehst, so vergiss nicht, dass eine Grafikkarte mit Vista-System zur Zeit langsamer ist. Vergiss auch nicht, dass 320 MB Speicher der GeForce 8800 GTS bei 1600x1200 durchaus limmitieren. Deswegen musst du die GeForce 8800 GTS und nicht die GeForce 8800 GTS 320 nehmen oder bei kleinerer Auflösung vergleichen, da wo der Speicher weniger ins Gewicht fällt.
 
das ist doch pech für NV wenn sie so eine karte rausbringen!!Wie kann man auch ein oberklassekarte mit 320mb anbieten:eek:.Und wenn die dann in Test verglichen wird ääää man soll doch die 640mb nehmen.
 
ach ja nochwas.

was hat eigneltich deine Überschrift mit deinem Beitrag dazu zutun???

mfg
Tobi

ps: wenn 8800er GTX/Ultra laut CB aufgrund eines Bugs der Testsoftware nicht getestet worden sind, warum behauptest du dann sie seien schlechter als die ATI Reihe, was sowieso nicht stimmt.
 
Tobi41090 schrieb:
ps: wenn 8800er GTX/Ultra laut CB aufgrund eines Bugs der Testsoftware nicht getestet worden sind, warum behauptest du dann sie seien schlechter als die ATI Reihe, was sowieso nicht stimmt.
Sowas haben wir auch nie irgendwo geschrieben, denn es stimmt einfach nicht ;)
 
aber mr5 behauptet das:

Fazit: Wenn man die deutlich schlechtere Leistung der 8800er 320er GTS bei 3D10D zur besseren Leistung der ATI 2900Xt bei 3D10D betrachtet, und zu der deutlich schlechteren Leistung der 8800er 320er GTS die Mehrleistung der 8800er GTX hinzurechnet, müsste die 8800er GTX und die 2900er XT unter 3D10D gleiche Leistung aufweisen!

mfg
Tobi
 
CB: Die Demoversion liegt uns in einer frühen Betavariante vor, die leider noch einige Bugs beinhaltet. So kann auf nVidia-Karten kein MSAA verwendet werden, was ein Applikationsfehler ist und von den Entwickler in einem zukünftigen Patch behoben wird.
https://www.computerbase.de/artikel...t.648/seite-31#abschnitt_call_of_juarez_d3d10

Ich habe eure Aussage jetzt so verstanden, dass Ihr die 8800er mit MSAA nicht getestet habt aufgrund dieses Bugs.

Wenn das nicht so ist, warum wird nicht unter 3D10D mit AA und AF nicht die Leistungswerte der 8800er GTX oder Ultra gemessen/veröffentlicht ?

Wäre doch hoch interessant welche Leistungen unter 3d10d die 8800er GTX/Ultra mit Kantenglättung bringt.

Im 3D10D Modus ist die 8800er 320er GTS ist mit Kantenglättung deutlich schlechter als die 2900er XT, deutlich schlechter als im 3D9D Modus.

Was ich meine ist, dass wenn die 2900er XT unter 3D10D mit Kantenglättung deutlich an Performance gewinnt als im 3D9D Modus, wäre doch davon auszugehen, dass die 2900er Xt unter 3D10D im Vergleich zur 8800er GTX/Ultra deutlich besser da steht als im 3D9D-Modus.

Ein Vergleich mit der 8800er GTX/Ultra Karte ist doch dann sehr wichtig!

Warum fehlen dann die Leistungswerte der 8800er GTX/Ultra unter 3D10D wenn kein Bug eine Messung verhindert?



.
 
Zuletzt bearbeitet:
Also ehrlich, viele beschweren sich über den hohen Stromverbauch der 2900er XT :p:p:p!

Die 2900er braucht ca. 30 Watt mehr, das sind nur ca. 10% !!

Das ist doch wirklich absolut lächerlich!


Das ist genauso, als wenn ein 760i Fahrer (17L/100km) sagt, dass er schon alleine wegen dem hohen Benzinverbrauch niemals einen 600er Benz fahren würde (18,5L/100km). Wenn Du Strom sparen willst, kauf Dir ein Motherboard mit einem Grafikchip onboard :D.


Die ATI sind sogar in 65 Fertigung und sind im Gesamten schlechter.

Und genau das könnte nicht stimmen, unter 3D10D! Aber keiner bemerkt dies - find ich bisschen komisch!
 
Zuletzt bearbeitet:
hmm es sind 40W

ja und im CF sind das dann schon 80W. Da kann man sich dann z.B einen Quad Core kaufen.

mfg
Tobi
 
Tobi,

sag mir bitte, wieviel Prozent der User besitzen 2 High-End-Karten? 1% oder 0,5%?

Ob Du 2x 8800er GTX oder 2X 2900er XT Karten betreibst, der Stromverbrauch ist bei beiden Karten ziemlich hoch.

Bei 2x 2900er XT sinkt der Mehrverbrauch sogar unter 10% gegenüber 2x 8800er.


So wie sich manche über den Stromverbrauch der 2900er XT aufregen, könnte man meinen, dass die 2900er Xt 50% mehr Strom braucht.

Der Mehrverbrauch der 2900Xt beträgt real gesehen aber nur ca. 10% und ist damit eher unerheblich. Das ist Fakt.

PS: 80 Watt? Rechne mal es sind nur 40 Watt.
 
Zuletzt bearbeitet:
mr5 schrieb:
Tobi,

sag mir bitte, wieviel Prozent der User besitzen 2 High-End-Karten? 1% oder 0,5%?

Ob Du 2x 8800er GTX oder 2X 2900er XT Karten betreibst, der Stromverbrauch ist bei beiden Karten ziemlich hoch.

Bei 2x 2900er XT sinkt der Mehrverbrauch sogar unter 10% gegenüber 2x 8800er.


So wie sich manche über den Stromverbrauch der 2900er XT aufregen, könnte man meinen, dass die 2900er Xt 50% mehr Strom braucht.

Der Mehrverbrauch der 2900Xt beträgt real gesehen aber nur ca. 10% und ist damit eher unerheblich. Das ist Fakt.

PS: 80 Watt? Rechne mal es sind nur 40 Watt.


am besten sind die user mit 3 festplatten im raid und sonstigen schnickschnack und regen sich dann über 30 watt mehr auf :D am besten noch nebenbei TV, Aufladegeräte und sonst was im standby laufen lassen ^^
 
ok wenn du meinst. Ich denke, dass dieser Thread geschlossen werden kann.

mfg
Tobi

ps: es sind 40W im Crossfire/SLI und 30W im Einzelbetrieb pro Stunde, was man bei NVIDIA einspart.
 
Tobi41090 schrieb:
ps: es sind 40W im Crossfire/SLI und 30W im Einzelbetrieb pro Stunde, was man bei NVIDIA einspart.

Watt pro Stunde? :daumen: Das sind die Besten!
 
jetzt mal im Ernst: Würdest du dir ne Graka kaufen, die mehr braucht aber weniger Leistet als eine andere?

mfg
Tobi
 
Es sieht aber so aus, als ob die 2900er unter 3D10D fast genauso viel oder sogar mehr leistet als die 8800er GTX/Ultra.

Wenn das der Fall ist, würde ich eine preiswertere Grafikkarte 2900er XT der 8800er GTX vorziehen.
 
ähm, ohne mir den test jetzt anschauen zu wollen...ati hat doch ein architektur prob und deshalb müssen die doch auf cheat AA zurückgreifen, statt echtes AA was die GK schneller macht :-o schon mal daran gedacht ?
 
:mussweg::utminigun::n8::mussweg::utbiorifle:
Accuface schrieb:
ähm, ohne mir den test jetzt anschauen zu wollen...ati hat doch ein architektur prob und deshalb müssen die doch auf cheat AA zurückgreifen, statt echtes AA was die GK schneller macht :-o schon mal daran gedacht ?

Und wenn man sich ganz fest konzentiert und dabei auf die HD2900XT schaut kann man in die Zukunft schauen was in denn spielen passiert:hammer_alt::pcangry::alien_alt::headshot::mussweg::utripper::utbiorifle::heul:
 
Zurück
Oben