2900XT bei D3D10 mit AA&AF deutlich mehr Leistung als 8800er GTX / Ultra?

Accuface schrieb:
ähm, ohne mir den test jetzt anschauen zu wollen...ati hat doch ein architektur prob und deshalb müssen die doch auf cheat AA zurückgreifen, statt echtes AA was die GK schneller macht :-o schon mal daran gedacht ?

Ich wüsste nicht, dass Computerbase davon etwas erwähnt hat, bei den Tests, bei den Leistungsschaubildern. Berichtigt mich wenn ich irre. :freak:


Frage an Computerbase: Stimmt das mit dem Fake AA oder nicht?







.
 
Wiso Fake ??? Es ist eine andere Technik die Kanten zu glatten und nichts anderes.Sagt mal streubt ihr euch davor neue oder andere Technik zu bekommen ?Nur weil es nicht von NV kommt ,so siehts auf jedenfall aus!Und das ist Fakt. ist ATI Cheater Team? Was passiert wenn NV so eine Technik einführt??Wielange ist Anti-Aliasing schon intigiert in unseren Grakas?!Es wird schon mal zeit das was neues kommt was die GPU`s entlastet und denn gleichen oder in die richtung geht wie zum z.B.das AA ,vieleicht müssen wir garnicht immer nur schnellere GPU`s haben die Hersteller können sich auch mal mühe mache neues einzubinden .Was unter umständen den GPU entlasten könnte bla bla bla u.s.w.Oder wie sieht ihr das??


Gab es schon mal solch ein Thema wegen 2 Graka ??Manche sollten es mal aus der NEUTRALEN sicht zu beobachten,
Es gibt immer 3 gesichtspunkte Freund ,-Feind,-Neutral.
So wie hier auf ATI rumgehakt wird sind hier ca.90%Feind =NV freund.
 
Dazu sage ich nur eins... ohne die ganzen Fanboys würden im ganzen Forum etwa 80% weniger Beiträge stehen.

gruß
monkey

ps. Warten wir mal Crysis ab und vergleichen dann die Leistung.
 
Genau :p.Was für spiele sollen eigentlich noch für DX10 kommen außer UT??
 
mr5 schrieb:
Warum fehlen dann die Leistungswerte der 8800er GTX/Ultra unter 3D10D wenn kein Bug eine Messung verhindert?
.
Wir haben leicht aneinander vorbei geredet. Ich hatte die neue Version von dem COJ-Benchmark im Kopf, du die alte.
Bei mder alten geht kein MSAA auf einer GeForce-Karte, bei der neuen aber schon :)

Frage an Computerbase: Stimmt das mit dem Fake AA oder nicht?
Das normale MSAA ist identisch wie auf einer GeForce 8 oder rRadeon X1000.

Es gibt einen einzigen Treiber (8.43.2), der aber nur für die Presse verfügbar ist, bei dem Anstatt SSAA beim AAA MSAA verwendet wird (bzw. von Spiel zu Spiel unterschiedlich), dessen Ergebnis etwas schlechter aussieht als bei normalen AAA. Mit Fakre hat das aber absolut nichts zu tun.
 
richtig fake is das net, aber ich umschreibe das halt so, da die Karte mit der neuen technik nicht wirklich geglättet werden, sondern nur unscharf gemacht werden, was der ATI zu leistungsprüngen verhilft und was viele online Test nicht erwähnen das kein echtes AA verwendet worden ist, und dann jeder denkt es wäre mit AA so eine Leistung der ATI machbar.
@Namenlos04321 bitte vorher informieren was ATI und den neuen Modus angeht dann brauch man nicht soviel Unsinn posten :evillol:
 
iron_monkey schrieb:
Dazu sage ich nur eins... ohne die ganzen Fanboys würden im ganzen Forum etwa 80% weniger Beiträge stehen.

gruß
monkey

ps. Warten wir mal Crysis ab und vergleichen dann die Leistung.

Wie Recht du hast.

@Topic:

Sicherlich gehören eine 8800GTX und eine HD2900XT zu den High-End Grafikkarten auf dem Markt. Unter Last hat die 2900XT laut CB 20% mehr Stromverbrauch, im Idle dann nur 6%.
Nimmt sich demnach also fast gar nichts
 
was heist unsinn?Ist das eine neue Technik um die Treppchen weg zu gekommen oder nicht ??
 
Also, das ne 2900xt mehr performance mit AA/AF hat als die 320MB variante ( die im übrigen im mainstreambereich ist) ist klar, da hängt die 640 die 320 schon deutlich ab. Aber schneller als ne 8800gtx oder gar ultra... träum weiter. Hab schon so einige tests gesehen, und da hat die 2900xt ne chance gegen die 8800gts 640 gehabt, und auch teilweise überboten, aber gegen ne 8800gtx kaum land gesehen.
Zum Stromverbrauch: Warum sollte ich ne graka kaufen, die gleiche leistung hat, aber mehr strom braucht. Und wenns nur 10% sind. Sie sind da.
 
Namenlos04321 schrieb:
was heist unsinn?Ist das eine neue Technik um die Treppchen weg zu gekommen oder nicht ??

Ja tolle Technik, ich mache einfach das Bild unscharf und schlecht, dann habe ich mehr Frames. Echt geil.
 
Omg was für einen absoluten Müll labert ihr hier ?

Sry. Aber jedem das seine, das ganze höhrt sich nach .....

"a: Mein auto ist das beste
b: nein, meins is viel viel besser"

.... an.

Sucht euch nen Benchmark zwischen der 8800GTX oder Ultra und ner HD 2900XT. Und dann seit ihr zufrieden.

So nochmal, Stromverbrauch ist ein aktueller wichtiger Punkt...... 30 oder 40 Watt sind laut meiner meinung ne GANZE MENGE, zur erinnerung nen GANZES Notebook läuft teilweise nur mit zb. 28-80 Watt......

Preis ist ein guter Ansatzpunkt.....
Was fast die gleiche Leistung hat, wie das Konkurrenzprodukt aber weniger kostet wird gekauft.... , aber mir 30W mehrverbrauch..... ka, weiß net......

Achja bin immer Ati-fan gewesen aber steig jetzt auf Nvidia um, weils halt teilweise lohnt.
Laut meiner Ansicht hängt Ati etwas mit ihren Grakas hinterher..... ich mein hat ja lange gedauert bis die was der 8800ern entgegenzusetzen hatten.... und da hat nvidia schon fast die nächsten gpu's draußen....

Wenn net bald was kommt.....

Und um zum Anfang des Threats zurückzukommen.
Man darf Grafikkarten zwar vergleichen, aber wie schon gesagt.... aus einem oberen Mainstream Produkt ( 8800gts 320mb) Rückschlüsse zu ziehen auf die Highend Grafikkarte von Nvidia, geht einfach nicht.
 
Der Mehrverbauch beträgt ca. 30 Watt bei 100% Vollast.

Dass der Mehrverbrauch gegenüber einer 8800er GTX völlig unerheblich ist, will ich beweisen.


Mal angenommen, man spielt jeden Tag ca. 3 Stunden und das ein ganzes Jahr lang.

Das wären 3 Stunden x 365 Tage = 1095 Stunden im Jahr in denen die 2900Xt bei Vollast läuft.

30Watt Mehrleistung 1095 Stunden lang.

Das wären also 30 x 1095 = 32850 Wh (Wattstunden), die die ATI-Karte mehr an Strom pro Jahr verbraucht.

Hört sich ja viel an 32850Wh.

Nun zu den Mehrkosten:

1 Kilowattstunde (kwh) kostet ca. 15 Cent.

Wie die Meisten bestimmt wissen ist 1kWh = 1000wh.

Das heisst man benötigt ca. 33 kwh mehr pro Jahr das wären 33x0,15 Cent = 4,95 Euro.

Für ca. 5,- Euro braucht die 2900er XT mehr Strom pro Jahr als die Nvidia 8800GTX. Wie viel!! :freak:

Dass heisst, das wenn die mittlere Lebensdauer einer Grafikkarte 2 Jahre beträgt, man Mehrkosten von ca. 10 Euro durch den etwas höheren Stromverbrauch hat, vorausgesetzt man spielt jeden Tag 3 Stunden.

Wenn die 2900XT vergleichbare Leistung unter 3D10D bringt, spart man also bei der 2900er XT richtig Geld, denn die 8800GTX ist ja 150,- Euro teurer. Man müsste also ca. 30,- Jahre mit der 8800er GTX spielen, dass man den höheren Anschaffungspreis durch den etwas besseren Strombedarf wieder wettmacht.

PS: Na dann viel Spass 30 Jahre mit der 8800er GTX :D.


.
 
Zuletzt bearbeitet:
Was sagt uns das? Eine 2900xt ist völlig unrentabel unter Last im Vergleich zur 8800GTS. Achso, bin leidenschaftliche WoW Zocker, da heisst das schon was! Gruss
 
@pcfreakc16: Dem stimme ich zu, deswegen ziert ja auch eine 8800er GTS 640MB meinen Rechner :D.


Also nochmal eine Frage an Computerbase:
Wenn Ihr Leistungstestsvergleiche veröffentlicht, und die guten Leistungswerte der ATI-Karte mit Kantenglättungsfunktion nur deswegen erziehlt werden, weil hier mehr Unschärfeglättung als reale Kantenglättung betrieben wird, sind doch alle Leistungswerte, zumindest unter 3D10D (darum geht es ja hier im Thread) glatte Augenwischerei!

Stimmt das oder sehe ich das falsch?
 
Nochmal uns zum hundersten Mal:
Das AA ist KEIN Blur auf einem R6x0. Wer zum Teufel setzt hier solche gerüchte ins Umlauf?
Das einzige geblure das es auf dem R600 gibt sind die CFAA-Modi, ansonsten gibt es kein Blur.

Und NEIN, EATM ist auch KEIN Blur.
 
Dann wäre das soweit geklärt, die deutlich bessere Leistung der 2900Xt unter 3D10D gegenüber der 8800er GTS 320MB ist also Fakt.

Nochmal eine letzte Frage an Computerbase: Wann werden die Leistungstests mit Kantenglättung unter 3D10D für die 8800er GTX und Ultra nachgereicht? Das wäre doch hochinteressant!

Danke für die Mühe im Voraus.
 
GeForce 8800 GTS 320MB ist ja auch billiger. Also was soll dieser Vergleich?

Im Übrigen kannst du nicht von einem einzigen Spiel auf die Leistung der Grafikkarte schließen, schon gar nicht von einem auf 3D10D gepachten Spiel. Da musst du schon ein paar verschiedene Spiele nehmen. So lange es keine "echten" 3D10D Spiele gibt , sind die Benchmarks kaum Aussagekräftig und zeigen nur das es eben funktioniert.

PS: OpenGL-Spiele sehen eh natürlicher aus und haben meist mehr Atmosphäre :p
 
Zuletzt bearbeitet:
Klar gibt es schon länger ein echtes 3D10D-Spiel.

Flight Simulator X!

Warum werden eigentlich die Karten nicht mit Flight Simulator X getestet?
 
Der DX10 Patch für dieses Spiel kommt erst Ende des Jahres raus.
 
Wie schon vorgerechnet ist der Stromverbrauch defacto irrevelant und nur so als Nebenbemerkung, CB ist eigentlich fast die einzige Testseite, die auf einen solchen hohen Stromverbrauch kommt.;)
 
Zurück
Oben