Test Test: GeForce 180.47 in fünf Spielen

w0mbat schrieb:
Das ist eine PR Aktion von Nvidia die leider von CB und vielen anderen Seiten mitgetragen wurde. Die Karten, die Spiele und die Treiber kamen von Nvidia. 4 der 5 Spiele sind TWIMTBP Titel und so neu dass AMD sein Treiber noch nicht optimieren konnte. Settings etc. wurden von Nvidia vorgeschrieben, so dass es die Nvidia Karten in das beste Licht rückt.

Ich dachte bis jetzt das CB neutral wäre, aber das ist jetzt leider wiederlegt worden. Wie man so eine PR Aktion mittragen kann ist mir nicht klar, dadurch verliert man jegliche Glaubwürdigkeit.

Zudem wir die BQ nicht überprüft, was bei jedem AMD Treiber mit überdurschnittlichem FPS-Zuwachs ja schon fast Standard ist.

Das gibt einen fetten Minuspunkt und CB muss schnellstens reagieren um nicht viele Kunden zu verlieren. Oder ist das vielleicht nicht das erste Mal?


rofl, wer bitte ist denn Kunde von CB?

die ati f@nboys sollten ma die Bälle flachhalten hier....
 
Terrordrome schrieb:
die ati f@nboys sollten ma die Bälle flachhalten hier....

Sprach der Nvidia Fanboy? Oder wie kommt es, dass Du anderen den Mund verbieten möchtest? Wenn jemand seine Meinung kund tut und er dabei sachlich bleibt ist es seine Sache ob er CB in den Himmel lobt oder in die Niederhöllen verwünscht. :p

Aber von anderen für sowas als Fanboy tituliert und dumm angemacht zu werden ist eigentlich unter CB Niveau, evtl. solltest Du einmal darüber nachdenken warum Du w0mbat für diesen Post angehst. ;)
 
ne ich bin kein fanboy, wenn ich was neu kaufe dann das, was momentan die meiste Leistung hat. Ist mir egal ob ati/nv/intel/amd, hatte alles schon.

aber wenn man sich hier so manche Kommentare durchliest, könnte man meinen, das da teilweise Tränen fliessen wenn ati (oder nv, ist bei den fanboys da ned anders) als schwächer dargestellt wird, was ja bei diesen 5 Spielen unmissverständlich auch so ist.
 
Unyu schrieb:
Demnach muss, sofern die Aussage davor keine Lüge war, die X1950 XTX deutlich zugelegt haben, während die 8800 GTX abgebaut hat.

Klar, du willst ne Karte der letzten Generation von Nvidia gegen einer der drittletzten Generation von Ati antreten lassen. Und wer den Unsinn nicht als objektiv ansieht, den bezeichnest du als Luegner.


Nein, du hast es nicht verstanden, wahrscheinlich hast du den kompletten Kontext missachtet und dich auf meinen Post gestürzt. Es gibt noch mehr drastische Verbesserungen, der grobe Rest sind irrelevante +-1%.
Aber bitte, nächste Mal poste ich 20 Bilder, um ja nicht in den Verdacht zu kommen etwas böses zu wollen.

Ok, dann mal ganz langsam, damit auch du das verstehst. Deine geposteten Bilder sagen ueberhaupt nichts aus. Es fehlt ein Vergleich mit anderen Qualitaetsstufen. Waeren Bilder zu finden, die zeigen, das 8xQ relativ zu anderen mehr an Performance zulegt, haettest du Recht. Da diese jedoch nicht existieren ist die Aussagekraft gleich Null.
 
Terrordrome schrieb:
aber wenn man sich hier so manche Kommentare durchliest, könnte man meinen, das da teilweise Tränen fliessen wenn ati (oder nv, ist bei den fanboys da ned anders) als schwächer dargestellt wird, was ja bei diesen 5 Spielen unmissverständlich auch so ist.

Tränen halte ich jetzt etwas für übertrieben und evtl. geht es den Leuten auch nicht um ATI sondern eher um die Art und Weise wie Nvidia die Sache angegangen ist. Denn die Fachleute hier wissen ganz genau, dass es nur eine Momentaufnahme ist, welche so vom Marketing herbeigeführt wurde um im Weihnachtsgeschäft nicht als Underdog dastehen zu müssen.

Letzten Endes ist noch nicht einmal geklärt wie Nvidia dieses Leistungsplus erreichen konnte, Fakt ist allerdings, dass der unbedarfte Leser durch den Test an diesen 5 Spielen Vorgegaukelt bekommt, dass das Nvidia Produkt das überragende der beiden ist, was so im eigentlichen nicht der Wahrheit entspricht.

Ist halt wie bei der Wahl, vor der Wahl bekommt man als Wähler Honig ums Maul geschmiert und Versprechen ohne Ende und nach der Wahl hört man von den Politikern nur, was geht mich mein Geschwätz von gestern an.
 
ich warte immer noch auf Screenshots, auf denen Unyu mir beweist, das AI Standard einen gravierenden Bildqualitätsunterschied zu Off aufweist. Das wurde damals im A.I. Thread im 3Dcenter-Forum wirklich totdiskutiert und kaum einer konnte wirklich gravierende Unterschiede feststellen - abgesehen davon, das A.I. Off seit dem R6xx eh nicht mehr A.I. Off ist, da die Filteroptimierungen drinnen bleiben - gleich wie bei nVidia.

Edit:

Übrigens denke ich, das mit dem 8.12 noch keine großen Schritte in den momentan getesteten Games zu erwarten sind - dafür ist die Zeit einfach zu kurz. Wahrscheinlich wird erst mit dem 9.1 wieder ein Schritt nach vorne gemacht. Natürlich wird der 8.12 dann nur mäßig gegen die GTX-Karten abschneiden, unter den ATi-Anhängern gibt es das große unbegründete Heulen und die nVidia-Anhänger sehen sich bestätigt. Naja, mal schauen was die Zukunft bringt.
 
Zuletzt bearbeitet:
Unyu schrieb:
Fakt ist, das AMD durch AI Rechenarbeit spart.

Genau wie Nvidia durch Treiberoptimierungen Rechenarbeit spart. Wozu soll die Graka was berechnen, was ich nachher sowieso nicht sehe?

Unyu schrieb:
Fakt ist, das AMD vor 2 Jahren noch etwas besser war.

Erläuterung? Bei der Bildquali? Treiberoptimierung? CPU-bauen? ;)

Unyu schrieb:
Fakt ist, das exakt diese Punkte bei der GF7 massiv kritisiert wurden, nur weil AMD alles geschickt im AI verbaut ists scheinbar legitim.

Fakt ist, dass NVIDIA bei der "Optimierung" der G7 so sehr geschludert hat, das das schlechte Bild sogar MIR aufgefallen ist. Ziel war letztendlich, bei den Benches vor ATI zu stehen. Was ja auch hervorragend funktioniert hat. Aber bei der G8 haben sies deutlich besser gemacht, da hat die massive Kritik wenigstens was genützt.

Bezüglich AI warte ich immer noch auf den schlagenden Beweis, das man mit AI-off ein wesentlich besseres Bild bekommt. Was du nicht liefern können wirst,weils nicht der Fall ist. EINZIG das Flimmern (welches ICH nicht sehe), kann man VERMUTLICH beheben, wobei ich selbst da nicht dran glaube. Wenn, ist es mit Geschwindigkeitseinbußen verbunden, die in keiner Relation zur "verbesserten" Bildqualität stehen. Im schlimmsten Fall verliert man evtl. sogar noch an Bildquali.

Ja, ich wünsche mir auch, das AMD da nachbessert, allerdings nicht bei AI, sondern bei der Filterqualität (mit der ICH absolut zufrieden bin) im Allgemeinen. Der Rest ist mir Wumpe.

Unyu schrieb:
Lieber eine X1950 XTX als eine 8800 GTX?
Nein, deine Aussage ist sehr pauschal. Wo sind denn heute die HD3 und HD2?

Die G8 kömma (momentan) außen vorlassen, aber zu allem anderen gibts auf 3Dcenter nen schönen Test, der sagt eigentlich alles. Wo HD3 und HD2 stehen, kann ich dir leider nicht sagen, aber ich glaub 3Dcenter plant in Zukunft noch weitere solcher Test, schau ma mal ;)

y33H@

Schon klar, aber soll ich mir die Avg. Werte für 2560 und 1680 jetzt selber ausrechnen oder wie? ;)

Die Diagrammverläufe in jedem Spiel ähneln sich ja stark, da hätte doch auch eines gelangt, dafür aber die avg. Werte von allen Auflösungen bitte.

Ich bleib dabei: Schön anzuschauen ja, wirklich sinnvoll nein. Wenn, dann nicht in der Menge. Einzig bei Fallout 3, wo die 4850 wirklich mal anders abgeht, kann man sowas bringen, aber selbst dann bleiben meine Aussagen bestehen.

Shorty Sinn des Problems nicht verstanden, noch mal ab, alle Kommentare lesen :stock:
 
Zuletzt bearbeitet:
Der Test an sich ist gut.
Doch solangsam scheint sich da was raus zu Kristalisieren.
Oder hab ich da was falsch Verstanden?

Die Optmimierung zwischen Spiele und NVidia ist schon sehr überwiegend.
Dann die sache mit Software und Hardware kaufzwang.
Wenn ich CoD4 und CoD5 sehe fällt mir folgendes ein:
Warum muss ich für Far Cry 2 unbedingt Dual Core und 8800er und so besitzen?
Wenn CoD doch beweist das alte Hardware noch garnicht ausgelastet ist.
Beziehungsweise nur bedingt. Man sieht ja an CoD was man mit Codes machen kann.
So langsam ärger ich mich das ich Intel und NVidia fanatiker bin.
Zu dem Test fällt mir nur ein das es traurig ist wie dem User hier was vorgegaukelt wird, vonwegen grössere engines werden benötigt und dicke Hardware muss gekauft werden.

AMD und ATI tun mir langsam leid. Ich glaube die haben es eher verdient. Denn das Potenzial braucht nur die richtige Finanzierung um auszubrechen.
Solange NVidia und Intel so wie bei der Formel1 den Cash-Daumen drauf haben geht das aber nicht.
Habe nie einen AMD gehabt aber auf nen P4 ne 9800pro mit "256bit" speicheranbindung.
Hab mal geschrieben glaube ich, das ATI nich gut ist weil diese Karte keine 10 MHz übertaktung mitgemacht hat.
Vielleicht lieg ich ja Falsch, aber ich hab das gefühl das man uns was erzählen will.
 
das alles ist doch ein ständiges hin und her. Amd hat auch schon ne ganze Zeit lang die Nase vorne gehabt, zu Zeiten des Athlon 64. Da hatte Intel keine Chance damals. Zu Zeiten der 9800Pro hat auch Ati die Nase vor Nvidia gehabt. Seit dem Disaster der HD2xxx Serie hat sich Ati doch jetz wieder gefangen.
 
Big Bang 2 auf dem Prüfstand Geforce 180.48 WHQL

Fazit: Geforce 180.48 WHQL

Die in den Release Notes propagierten Performance-Gewinne bei Assassin's Creed, Far Cry 2 und Race Driver Grid sind tatsächlich vorhanden - bei Letzterem zeigen sich jedoch gewisse Unterschiede bei der Bildqualität. Alle anderen getesteten Titel werden minimal beschleunigt oder laufen zumindest gleichschnell. Hinzu kommen die neuen Physx-Features und die X58-SLI-Unterstützung. Ein kleiner Kritikpunkt ist die nach wie vor nicht optimale Bildqualität unter Open-GL.

http://www.pcgameshardware.de/aid,6...r_im_Benchmark-Test/?article_id=667888&page=1
 
zumindest entstehen bildqualitätsunterschiede mit dem neuen treiber...

ob besser oder (eher) schlechter kann man nicht sagen. von der logik eher letzteres, aber man kann es nicht wirklich sagen, da die bilder zu klein sind und sie evtl. in bewegung anders aussehen.

mfg
 
Warum werden die Games nicht mit max. AA/AF getestet`? Wenn ich mir eine neue Graka kauf dann MUSS diese alle Spiele mit max. Einstellung abkönnen (auser Crysis).

Spiele auf 1900er Aufösung mit Max. Details wäre wirklich ma ne Idee. Vieleicht dazu dann gleich ein Vergleich Bildqualität (vor allem aktuell zieht es bei meiner 8800gtx oc mit Q16X AA mir die Socken aus, da geht gar nix mehr, sieht aber nach meinem Augenmaß nicht besser aus als meine alte ATI, unterhalb von Q8x sieht es bei meiner nV ja grausam aus :( )
 
Zuletzt bearbeitet:
naja man sollte halt ähnliche quali settings für ati + nvidia machen, ansonsten fällt ein vergleich doch etwas schwer aus..
 
es geht nur einfach mal nicht, das sich ein hersteller die besten spiele rauspickt, wo er gut aussieht und bei den webseiten das dann auch noch bestimmt, womit getestet wird.
das das nun z. zt. ein teil der aktuellen spiele ist, ist ja toll, aber nicht allgemeingültig.

aber genau danach sieht es jetzt aus.

mfg
 
das wäre eher eine "auge um auge, zahn um zahn" taktik... bringt nix...
wenn, dann müsste ati in diesem fall mit einem performancetreiber punkten, der bei sehr vielen spielen markante verbesserungen mit sich bringt..und nicht nur bei 4-5...
das wäre dann sowas in der art: was die können können wir auch...und noch besser..
 
ich will nicht mehr Performance zu lasten der Bildquali - mir reicht die ATI Power vorn und hinten

Undercover zeigts doch wieder, ATI hat satte Rohleistung (ne 4850 512MB, 256Bit für 130Euro schneller wie eine 280er für 350Euro mit 1GB und 512Bit!) NV hockt sich jetzt bestimmt wieder hin, und versucht das Bild auf erträgliche Werte runterzubrehen um noch Frames zu holen!
 

Ähnliche Themen

Zurück
Oben