Bericht Vorschau: nVidia GeForce FX5900 Ultra

@93
Ob nVidia oder ATi auf Intel oder AMD schneller ist, hängt doch in erster Linie von den Treibern ab. Ist ein Treiber besonders auf Intel und gewisse Spiele optimiert, so ist klar, dass sich hieraus ein Vorsprung ergibt. Ich weiß nicht, wie Treiber optimiert werden, aber es ist durchaus möglich, sogar sehr wahrscheinlich, dass die jeweiligen erweiterten CPU-Befehlssätze hierfür genutzt werden. Da die Optimierung in der Regel noch anwendungsbezogen ist, so ist es doch nur eine Frage der Zeit, wenn es schneller wird. Neue Treiber werden kommen und dann sieht es wieder anders aus.

Allgemein hab ich den Eindruck, dass nVidia bei gängigen Benchmarks eher auf Intel Pentium 4 optimiert ist. Bei ATi hat man dagegen sowohl auf Intel als auch auf AMD optimiert. Bei einem Test wie den von dir angesprochenen "PRAETORIANS 1.0" kannst du dir sicher sein, dass hier erstmals mit gleichen Bandagen gekämpft wird. Weder ATi noch nVidia haben hier spezielle Treiberoptimierungen.


Wie Review geschrieben, kann nVidia in erster Linie durch anwendungsbezogene Optimierungen zulegen – fehlen diese, so hat ATi die Nase vorne.
 
Ach noch was: Derzeit sieht es so aus, als würden die Treiberentwickler zuerst auf Pentium 4 optimieren: d.h. wenn eine Karte auf einem P4 mit Optimierung schon deutlich unterlegen ist (hier haben unter Garantie beide Hersteller erstklassige Arbeit geleistet), so kommt es auf einer AMD Plattform eher darauf an, was sie ohne Optimierung vollbringen können.
 
@Tommy Ja da ist auch was drann, bei Nvidia gab es mal beim OpenGL-Karteinreiter im Treibermenü den Eintrag CPU-Befehlserweiterungen nutzen oder so ähnlich zum aktivieren (gibt es dein Eintrag noch?) Soll wohl für Intels SSE, als auch AMD 3DNow! II was bringen, die bei PCGH haben aber gebencht und festgestellt das ohne der Option die Karten ein bisi schneller rennen - vielleicht bremst/stört der Abarbeitungsaufwand dieser Erweiterungen-Nutzung in der GPU irgendwie mehr als er bringt. Wegen den Treibern, naja da müsste man theoretisch bei jedem neuen Treiber den ganzen Test nochmal wiederholen woviel kann sich ändern, ist eben echt dumm bei 2 Karten die von NAtur aus so eng beieinander liegen diese irgendwie "auseinanderzubenchen" quasi :)
 
Mal ne dumme Frage:

Bei Deto FX sieht man ja zum teil bei Screens dass man die GPU Temp auslesen kann. Ist das Menu nur sichtbar wenn man ne FX hat oder wie ?
 
@103

Ja, nur wenn man ne FX hat ist das Menü sichtbar.
 
ich habe mich anfänglich auch von dem test auf tomshardware täuschen lassen. aber nun zeigt sich das welch entscheidender anteil der treiber ausmacht. ati hat mit dem neuen treiber nicht nur gleichgezogen sondern sogar nvidia leicht überholt.
für mich zählen sowieso nur die aktuellen spiele und nicht die tests wie 3dmark die sowieso aufgrund von optimierungen total verfälscht werden.
bin mal gespannt wie es in der aktuellen graka schlacht weitergeht =)
 
nVidia go home and make a better job !!!

War das deutlich?
 
Also ich verstehe die ganze Diskussion nicht. Das ATI und Nvidia zur Zeit die gleiche Performance bringen, ist doch das Beste was dem Kunden momentan passieren kann. So gibt es schneller Preissenkungen und beide Hersteller werden weiter hart arbeiten, um den anderen zu übertreffen.
Kann doch jeder selbst entscheiden, ob er sich ne Nvidia oder ne ATI holt. Beim Spielen wird man eh keinen Unterschied feststellen können, ein paar FPS mehr, wer sieht sowas?
 
Ich frage mich ernsthaft, wo die ganzen Leute sich die Kohle her holen für so nen scheiss. Habe mir ne günstige MX 440 GF4 geholt und bin zufrieden!
 
Danke für das Lob und für die Kritik bis hierhin. :-)
Ich kann euch versichern, dass ich bis auf den Fehler in der Tabelle (die musste ich dreimal machen, weil unser CMS mich da ein wenig geärgert hatte, und beim dritten Mal war ich schon etwas genervt, deswegen die Flüchtigkeit mit 0,13µ bei der R9800) eigentlich bislang nichts zurücknehmen kann oder will.
Ich bin mir durchaus bewusst, dass unsere Ergebnisse stark von vielen bisherigen Tests abweichen, aber da die Karte in einigen synthetischen Benchmarks durchaus die Leistung erbrachte, die sie rechnerisch erbringen sollte und der 44.65er Treiber die Probleme mit dem Thermal Management gefixt hat, bezweifle ich ehrlich gesagt, daß die Karte nicht in Ordnung war.

Viele Benchmarks, die wir bei Computerbase benutzen, werden von den großen US-Amerikanischen Seiten gar nicht genutzt oder sind ihnen schlicht überhaupt nicht bekannt. Dort wird vielmehr noch Quake3 gebencht, und das im offensichtlich Optimierungsanfälligen und wenig aufwendigen Quake3-Standardtimedemo. Alice und RtCW verwenden beide mehr, größere und detailliertere Texturen als Quake3 und fordern von daher auch mehr von der Grafikkarte, als ein simples Grafikgerüst 4000mal in der Sekunde über den Bildschirm zu jagen, aber wer braucht das? Und wer braucht 4xFSAA in 1600x1200 (ja, wir haben es auch mitgebencht)?

Dass die FX5900u in Q3 schneller ist, sollte jedem, der die Specs liest klar sein. 20% mehr Texelfüllrate, 6GB/s höhere Speicherbandbreite, relativ undetailierte Grafik -> was soll da noch bremsen?

Und wieviel Prozent _auch_ ATi in (FSAA/)AF-Benches durch ungerfragt bilineare Texturfilterung ausser Stage 0 hinzugewinnt, ist im Artikel beschrieben.

Wenn es uns möglich gewesen wäre, die Optimierungen beider Chips gleichmäßig abzuschalten, hätten wir euch gerne ein "apple-to-apple"-Vergleich präsentiert. Da das nicht so einfach möglich war (Besserung ist in Sicht!!), ist es nicht fair, nur bei einer Karte die Optimierungen abzuschalten.

Wer gerne sehen will, wie die FX5900u haushoch gewinnt, dem wurde sicher schon mit den ganzen "vorselektierten" Benches geholfen, die es seit ein paar Wochen beim amerikanischen und auch deutschsprachigen, kommerziellen Wettbewerb gibt. Ausserdem sieht man doch eindeutig an UT2003, in welchem wir noch die Demo benchten, was sich demnächst eventuell auch ändern wird, wie stark die FX5900u sein kann, wenn die Treiber entsprechend abgestimmt sind (und ich rede hier nicht von Cheats, da bislang trotz offensichtlicher Optimierung noch keine Verringerung der Bildqualität in diesem Game nachgewiesen werden konnte [Ja, ich habe den Test von 3DCenter gelesen aber die fehlenden Texturen am Boden konnte ich mit keiner FX nachvollziehen]).

Demnächst stehen ein paar Tests mit FX5900 (ohne ultra) Karten auf dem Programm. Ob diese nun besser abschneiden, wird sich zeigen.
 
@111
Arbeiten? *fg*
War das jetzt ein Flame-Versuch? *g* Ich frag mich auch immer warum die Leute BMW und Mercedes kaufen - ein günstiger Fiat Panda fährt doch auch!
 
@113

Weil BMW einfach besser ist ;-)

Es geht net nur ums rumtuckern sondern am Spass beim Fahren, und wie BMW schon immer der richtigkeit behauptet hat "Freude am fahren" stimmt das auch :-)

Mercedes is schrott ;-)

Jeder kauft sich das was er will, ich kauf mir halt keinen ATI Schrott (Aus meiner sicht ;-)) mehr da ich nur schlechte Erfahrungen gemacht hab, auch wenns schon lange her ist.
 
Klar Mercedes ist Schrott, genauso wie ATI, Intel und so weiter und so fort... *rolleyes* ich würde mit deinen Aussagen etwas sorgfältiger umgehen, gleich von "Schrott" zu reden könnte etwas Einseitigkeit hervorrufen... Eine Meinung ist die eine Sache... Polemik die andere.
 
CB 4 ever!

wollte das nur mal klar machen hier ;) in den Tests die #1 :)
 
Beim ukgamer test ist erstaunlich, dass die asus 5900 ( mit standart takt ) die von werk aus übertaktete gainward schlägt.
Und übrigens sehe ich dort die 5900 Ultra als Sieger !
 
1. Die FX5900 Ultra kostet einen Batzen mehr Geld als eine R9800Pro
2. Les dir nochmal genau das Fazit auf UKGamer durch:

"The 5900s we saw today are pretty standard performers. That's their problem, being standard. When you pay in excess of £300 you want more than just standard, you expect to open the box, install the card and be blown away by it's speed when you turn the graphical detail up. Out of all the FX 5900s we saw today, none really did that."

Die FX5900 Ultra ist sicherlich in dem Test KEIN Sieger, wenn sie andauernd Benches gegen eine R9800 Pro verliert. ;)
 
Zurück
Oben