Test ATi gegen Nvidia: 14 Grafikkarten verschiedener Baujahre im Vergleich

- Warum eine 6800, keine GT? Die war doch das Konkurrenzmodell zur XL?
- Welche Werte sind alle in das Performancerating eingeflossen? Auch die "0" (kein SM3, Treiberprobleme)?
Nunja, wir können nur das Testen was da ist. Und eine 6800 GT war es leider nicht. Und zu deiner zweiten Frage: Auch die Ergebnisse mit "0" fließen entsprechend ins Rating ein.

Ich glaube die Grafiken zur Temeperatur wurden vertauscht!!
Was meinst du genau? Für mich siehts gut aus.

Allerdings habe ich da noch eine Frage. Ist die HD 3870 nicht vertreten, weil sie der HD 2900 XT von der Leistung her zu ähnlich wäre? (Bei AA und AF dürfte sie ja eigentlich schneller sein).
Ja, das ist ein Grund. Zudem haben wir zum beispiel die GeForce-9-Serie ja auch übersprungen

wuarum wurde der quadcoreprozessor wieder auf 3,2 GHz runtergetaktet????
Nunja, ich habe mir gedacht, dass ich generell eh nicht so shcnell bei dem Test ins CPU-limit laufe, weswegen die 800 MHz mehr ziemlich unnötig sind. Eine X1650 Xt wird es nicht so wirklich interessieren, welche CPU eingesetzt wird.

In dem Test vom 4. Juli liegen in der Leistungsaufnahme zwischen der GTX 285 und der 4890 unter Last ca. 40 Watt und gerade einmal einen Monat später liegen zwischen beiden ca. 60 Watt. Und das bei gleichem Testverfahren.
Da werden wahrscheinlich zwei verschiedene Sachen reinspielen. Erstens, haben wir für den Test in Bioshock eine andere Aufölösung genutzt (1680x1050 anstatt 2560x1600). Zudem haben wir das SPiel im D3D9- anstatt im D3D10-Modus gestartet. Es sind also andere Anforderungen, wo unterschiedliche GPUs anders reagieren können.

Warum kann CB nicht einfach mal ohne AA testen?
Ist ja nicht so, als hätten wir das nicht gemacht.

Wie können dann die D3d9 Karten im Test Ergebnisse ausgeben? Eine X1800XT bspw. hat nur Direct3d 9 Techlevel.
Das war ein Copy and Pate Fehler, der sich eingeschlichen hat. Ist korrigiert =)
 
Vielen vielen Dank für diesen Test, denn es wird leider immer der Vergleich zu älteren Modellen vernachlässigt. Diese Gesamtübersicht ist echt klasse.
 
Quintessenz für mich nach diesem interessanten Test ist es, dass man also alle 2 1/2 bis 3 Jahre spätestens die Karte erneuern muss, sonst isses aus.

Mal ganz lustig, die alten Generationen neu erleben zu dürfen. :)
 
Ich find das gerade sehr lustig - hab vorgestern noch mit ner x1950 auf nem 24" Team Fortress 2 gezockt mit allem auf hoch, bis auf AA und AF - und dann kommt der Test.

Die ollen alten ATI Karten bringen es heute auch noch :)
 
Tja, mit der X1900er Reihe hatte ATi damals die Hosen an:D

Hatte selber eine xt1900 es war aber die abgespeckte mit 256mb bis Ende 2008.

Dark Messiah of Might & Magic, Gothic 3, Stalker SOC ist alles spielbar gewesen, lediglich bei STalker fand ich die Performance schon arg zäh obwohl nur auf 1024*768 ohne AA,aF aber dafür höchste Details. Auch wenn Ati zukünftig wohl nicht wirklich Nvidia schlagen wird sollten/werden Sie doch ihr gutes P/L verhältnis beibehalten.

Wenn ich an die Zeiten von 6600gt und Xt1650,
denke... 200 euronen für solche 128 Bit Blender zu verlangen:rolleyes:
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Nunja, ich habe mir gedacht, dass ich generell eh nicht so shcnell bei dem Test ins CPU-limit laufe
Ist dennoch passiert. Das obere Feld wird eindeutig in einigen Fällen erheblich limitiert.
z.B: CoD5, 1680, 1xAA, 1xAF, man beachte 8800 GTS 640 und GTX 285.

Das untere Feld wird dafür erheblich vom VRAM limitiert, ausgleichen tut es sich dennoch nicht.

btw, nach neuesten Erkenntnissen ist eine 7900 GT besser als eine 7900 GTX, zumindest in WoC. ;)
 
KAOZNAKE schrieb:
Weiß ja nicht welchen Test du gelesen hast, aber die 2900 ist eine der leisesten Karten im idle und auch leiser als die 285 :watt:
Aso, ich dachte schon 46dezibel sind leise. :rolleyes:
Hab das ganze ein wenig gerundet, aber man kann die 4890 noch schlechter da stehen lassen, wenn du willst. Sie ist im Idle 2db lauter, verbraucht aber im Idle 8 Watt weniger. Dh. über die Jahre hat sich die Kühlung verschlechtert! Einige halten die 2900XT für schlecht oder "epic fail" wie du so schön sagst. Was ist dann erst eine Grafikkarte die Jahre später auf den Markt kommt und noch einen oben drauf legt? :lol:



wie einer von ATI im Interview sagte, es war der falsche Fertigungsprozess und wenn sie gewusst hätten, das der 65nm Prozess schon vor der Tür steht, hätten sie den mitgenommen.
Und dann hätte sich die 2900XT weiter verzögert weil neuer Fertigungsprozess + neue Architektur = Supergau (war einfach eine Ausrede)


Jetzt siehts besser aus, bis auf den teilweise etwas höheren idle-Stromverbrauch.
doppelter Stromverbrauch...

MfG Kasmo
 
da könnte man doch glatt behaupten, dass die Treiberpflege auf Dauer betrachtet bei ATI besser ist. meine alte X1900GT schlägt sich auch heute noch ganz gut im Zweitrechner.
 
Das hat nichts mit den Treibern, sondern viel mehr mit der Architektur zu tun. Zumindest im Falle der X1900.
 
Hallo zusammen,

@ .p0!$3n.

Ich bin absolut deiner Meinung. Für mich hat sich bisher - seit ich die 8800 GTS 640 habe - kein zwingender Grund ergeben hinsichtlich der Neuen Kartengenerationen, der einen Neukauf rechtfertigen würde.

Für mich Persönlich ist eine Grafikkarte vor allem dann Lohnend, wenn die Leistung in etwa Doppelt so hoch ist, wie die der vorhergehenden Karte. Früher war es durchaus auch Gesetz, daß eine Neue Kartengeneration ca. das doppelte an Leistung gegenüber der Vorgeneration bringt.

Dieses Gesetz ist aber seit den Nachfolgern der 8800 GTS 640/GTX nicht mehr gegeben bzw. nicht mehr existent. Auch bei den ATI Karten nicht mehr seit der 3000er Generation, vielleicht sogar schon seit der 2900 XT bei ATI.

Da ich bis jetzt noch jedes Spiel mit allen Schaltern auf Optimum Spielen konnte - mit der Karte in meinem Profil - kam ein weiterer Grund für mich hinzu, keine Neue Karte zu Kaufen, eigentlich ist dies der triftigste Grund, weshalb ich nicht mal einen Kauf nur erwogen habe. Selbst Crysis konnte bis zum Level 7 auf "High" mit 2 x AA Spielen.

Vielleicht wird es ja bei der kommenden Kartengeneration Ende des Jahres endlich mal wieder soweit sein, daß gegenüber der vorhergehenden Generation eine in etwa doppelte Leistung gegeben ist. Meiner Meinung nach hat speziell Nvidia hier Nachholbedarf, denn gegenüber der G80 GPU-Chipgeneration tritt Nvidia meiner Meinung nach gewaltig auf der Stelle.

Auf der anderen Seite bestätigt die Aktualität der G80 8800 Gts640/GTX-Karten wohl auch, daß Nvidia mit dieser Generation wohl durchaus einen Magischen Wurf gelandet hat. Dumm und dämlich werden sie sich auch daran verdient haben, vor allem da ATI mehr als ein halbes Jahr nichts auch nur annähernd Leistunsfähiges respektive zu dieser GPU zu bieten hatte. Allerdings hat Nvidia sich dann mehr oder minder auf ihren Meriten ausgeruht, meiner Meinung nach.

So long....
 
NVidia hat ja generell so gut wie nichts weiterentwickelt.
Die haben den G80 ein klein wenig modifiziert und dann als G92(b) verkauft.
Den haben sie dann einfach hochskaliert und als G2XX verkauft.

Bei AMD hat sich wenigstens was getan, auch wenn es größtenteils nur das Aufholen der Rückstände war.

Der Upgrade-Grund für mich wird jetzt der VRAM sein.
Die neuen 4890 mit 2048MB GDDR5 bringen einem schon eine ganze Menge.
Das wird dann wohl gekauft, aber erst nachdem die Generation HD5XXX vorgestellt wurde.
Denn zumindest den Preisverfall will ich noch mitnehmen. Wenn die Preise passen, dann könnte es auch direkt eine DX11 Karte werden und es ist erstmal wieder Ruhe.
Aber das die mit 2048MB und auch noch Displayport kommen werden... Zum Launch unwahrscheinlich.

Grüße vom:
Jokener
 
Warum sollte NV etwas tun, wenn ein Shrink des G80 reicht bzw. eine 3 Jahre alte 8800 GTX noch heute eine HD4850 in Schach hält?
 
Der Konkurrenz voraus zu sein hat noch nie geschadet.
Und zu Beginn hat NV diesen Vorteil durchaus gehabt, mittlerweile aber schon länger nicht mehr.
Und trotzdem haben sie keine neuen Produkte rausgebracht, die besser sind als die aktuellen ATI Karten.
Des weiteren wird ATI bei DX11 wieder einen Vorsprung haben, wie schon bei DX10.1.

Und das was NV gemacht hat reichte ja eben NICHT aus.
Die haben sehr ordentlich Marktanteile verloren, so sieht es nämlich aus.

Und um mal zum Topic zurückzukommen:
Die 8800GTX kostete 600€, die 4850 150€. Die 8800GTX hat diverse Nachteile gegenüber der 4850. Und von der Rechenleistung her kommt sie nur gegen die kleinste stock-4850 an, die man kaufen kann.

Aber egal... Die Leistungsentwicklung ist lächerlich, wenn man sich die Preisentwicklung zu Gemüte führt.

Grüße vom:
Jokener
 
Hallo zusammen,

@ y33H@

Ich gebe dir durchaus Recht bzw. bin im Großen und Ganzen absolut deiner Meinung, mit einer Einschränkung.

Auch die 8800 GTX muß man meines Wissens nach etwas Übertakten, damit sie die zumindest mit einer Radeon 4850 gleichzieht, wobei sie diese wohl Übertaktet in den meisten Aspekten stehen lassen dürfte sogar.

Ansonsten muß man klar Sagen, daß ATI mit der 4000er Seite große Marktanteile gewonnen bzw. sogar zurück gewonnen hat. Und so etwas kann Nvidia ja wohl kaum Gefallen. Insofern ist alleine dies ein gewaltiger Grund bzw. sollte er es sein, damit Nvidia nachzieht.

Das haben sie aber bis Heute nicht, respektive speziell im Verhältnis zur G80 GPU. Die meisten seitdem erschienen Chips waren Die-Shrinks in kleinerem Herstellungsprozeß. Mir kann wirklich keiner erzählen, daß Nvidia da nicht einen weiteren großen Wurf gelandet hätte, wenn sie es denn nur gekonnt hätten.

Wie gesagt, alleine schon wenn man sich die zurückeroberten Marktanteile von ATI mal anschaut, habe ich den Eindruck, daß Nvidia sich auf ihren Meriten, welche sie sich durch die G80 Architektur erarbeiteten, schlicht ausruhten! Für mich ist bei Nvidia ein gewisser Stillstand seit der G80 GEneration zu Sehen. Das ist jedenfalls meine Persönliche Meinung.

So long....
 
Schöner Test, zwar leicht Sinnbefreit aber durchaus lesenswert. :D
Ist schon eindrucksvoll wie sich die Leistung der Grafikchips vervielfacht hat.
Seht gut finde ich ebenfalls, das ihr einen NICHT übertakteten potenten CPU gewählt habt. Somit kann beinahe jeder die Ergebnisse am eigenen PC mit ähnlicher Hardware nachvollziehen.
 
Zuletzt bearbeitet:
Was ich auch noch toll gefunden hätte, wenn die theoretischen Daten mit dabei gestünden hätten. Anschließend hätte man dann ja mal sehen können, wie diese mit den realen Werten übereinstimmen.
 
Luxmanl525: Du siehst einen Stillstand bei Nvidia? arbeitest du da in der Entwicklung ? woher weisst du das?

Ich weiss nur, dass in den nächsten Monaten der Gt300 kommen soll und es wird sich zeigen wer dann die Nase vorne haben wird. Aber still stehen tun sie mit Sicherheit nicht, dass ihr immer damit kommen müsst das ein Unternehmen sich auf ihre Lorbeeren ausruht, so ein Blödsinn ihr wisst doch garnicht was hinter den Kulissen abgeht. Zumal es y33H@ schon gesagt hat, Nvidia hat es nicht wirklich nötig gehabt was super neues zu bringen.

Aber jetzt haben sie es nötig und das wird der GT300 sein.
 
Hallo zusammen,

@ Whoozy

Meine Güte, daß man auch alles bis ins kleinste Haarklein ausführen muß! Natürlich sehe ich einen Stillstand von Nvida von der G80-GPU Generation bis eben zum jetzigen, dem Heutigen aktuellen Zeitpunkt. Was denn sonst?

Und dies ist absolut gegeben, wenn man bedenkt, daß eine praktisch 3 Jahre alte Karte immer noch Locker mit den aktuellen Karten mithält!

Und eine kleine Bemerkung zu dem kommenden GT300, das weiß doch absolut keiner, ob das ein wirklicher Fortschritt wird. Und du auch nicht. Dabei gehe ich jetzt mal dezent davon aus, daß du auch nicht in der Entwicklungsabteilung bei Nvidia dein Geld verdienst *lach*. Ich kann mich noch gut an die Radeon 2900 XT erinnern, die ja auch als geradezu sensationeller Wurf vorfabuliiert wurde, bevor sie überhaupt auf dem Markt war. Was dabei rauskam, wissen wir ja alle.

So long.....
 
Zurück
Oben