Test Test: GeForce 180.47 in fünf Spielen

styletunte schrieb:
Undercover zeigts doch wieder, ATI hat satte Rohleistung (ne 4850 512MB, 256Bit für 130Euro schneller wie eine 280er für 350Euro mit 1GB und 512Bit!) NV hockt sich jetzt bestimmt wieder hin, und versucht das Bild auf erträgliche Werte runterzubrehen um noch Frames zu holen!

Es tut einem wirklich in den Augen weh so einen Unsinn zu lesen. :(
 
Numrollen schrieb:
Vieleicht dazu dann gleich ein Vergleich Bildqualität (vor allem aktuell zieht es bei meiner 8800gtx oc mit Q16X AA mir die Socken aus, da geht gar nix mehr, sieht aber nach meinem Augenmaß nicht besser aus als meine alte ATI, unterhalb von Q8x sieht es bei meiner nV ja grausam aus :( )

Das deckt sich mit der Aussage aus dem Test der 2900XT: (seitdem gab es IMO keinen Vergleich mehr bezüglich dem AA der Konkurrenten)

"Der 8xAA-Modus ist ATi auf dem R600 sehr gut gelungen und sieht ohne Zweifel besser als nVidias 8xQAA aus. Selbst das 16xQAA muss sich anstrengen, um an das acht-fache AA auf dem R600 heranzukommen."

https://www.computerbase.de/2007-05/test-ati-radeon-hd-2900-xt/6/#abschnitt_aa_kontrolliert

Prinzipiell hat sich ja seitdem nix mehr geändert.

@foenfrisur: NFS:U ist anscheinend besch**** programmiert, also kein wirklicher Maßstab.

@styletunte: Ich *glaube* er meinte nicht unbedingt die Rechtschreibung...
 
Hi,

zu dem Thema möchte ich nur diesen Link hinzufügen.

"http://www.tweaktown.com/articles/1660/nvidia_forceware_180_47_analysis_xp_vista/index.html"

Hier wird der alte Treiber mit dem neuen verglichen, auf gleichen Systemen.

Die Programme sind teilweise die gleichen wie hier auf CB, die Spiele sind
Aktuelle aber nicht die aktuellsten wie in diesem Test.

Man kann durch die Werte erkenne das der Treiber selbst nichts besonderes ist,
sonst hätte der Treiber auch diese Spiele dementsprechend beschleunigt.

Daher kann man auf eine extrem gute Optimierung des Treibers auf diese besagten Spiele
bei Nvidia zurückführen, wobei die Spiele selber schon auf die Hardware von NV optimiert sind.

Bleibt nur die Erkenntnis das man auf ATI warten muss und bis dahin Tee trinken ;-)

hallo41
 
KAOZNAKE schrieb:
@foenfrisur: NFS:U ist anscheinend besch**** programmiert, also kein wirklicher Maßstab.

ach ja...stimmt ja...wie alle spiele, wo die 4870 mal schneller ist, als die 260er...
man kann ja mal was vergessen ;)

mfg
 
KAOZNAKE schrieb:
Genau wie Nvidia durch Treiberoptimierungen Rechenarbeit spart. Wozu soll die Graka was berechnen, was ich nachher sowieso nicht sehe?
Korrekte Shaderreplacements siehts du nicht, verständlich. Wenns nicht korrekt läuft, gibts eben kein AA oder Details fehlen. Ok, könnte man per neuen Treibern fixen.
Das der Kram mit dem Texturfilter unter einem Hut steckt ist scheisse und im folgenden gibts du zu, das du dir einen besseren Texturfilter bei AMD wünscht, demnach siehts du einen Unterschied.
Warum sollte ich dir dann etwas beweisen, was du selbst siehts? (HQ [deutlich] besser als AI-on)

KAOZNAKE schrieb:
Erläuterung? Bei der Bildquali? Treiberoptimierung? CPU-bauen?
Bei der Texturfilterung.

KAOZNAKE schrieb:
Fakt ist, dass NVIDIA bei der "Optimierung" der G7 so sehr geschludert hat, das das schlechte Bild sogar MIR aufgefallen ist. Ziel war letztendlich, bei den Benches

vor ATI zu stehen. Was ja auch hervorragend funktioniert hat. Aber bei der G8 haben sies deutlich besser gemacht, da hat die massive Kritik wenigstens was genützt.
Mag alles sein, Optimierungen waren eben in, seit Jahren.
Damals hats sehr gut geklapppt, massive Bashwellen und schwups, die AF Qualität wurde massiv verbessert. Mit HQ hat sich keiner gescheut die GF7 zu benchen.

KAOZNAKE schrieb:
Ja, ich wünsche mir auch, das AMD da nachbessert, allerdings nicht bei AI, sondern bei der Filterqualität (mit der ICH absolut zufrieden bin) im Allgemeinen. Der Rest ist mir Wumpe.
Na da haben wir es doch.
Mit AI-off gibts die Filterqualität, die mit AMDs Hardware möglich ist. Mehr wäre wünschenswert aber hacken wir erst mal auf AI rum:
Weil AMD alles in AI reinpackt, testet niemand mit AI-off. Folglich ist das eine Bevorteilung AMDs, aufgrund schrottiger Auswahlmöglichkeiten.

KAOZNAKE schrieb:
"Der 8xAA-Modus ist ATi auf dem R600 sehr gut gelungen und sieht ohne Zweifel besser als nVidias 8xQAA aus. Selbst das 16xQAA muss sich anstrengen, um an das acht-fache AA auf dem R600 heranzukommen."

https://www.computerbase.de/2007-05/test-ati-radeon-hd-2900-xt/6/#abschnitt_aa_kontrolliert
Diese Beurteilung wurde imho nicht aufgrund eines breiten Spektrums abgegeben.

"Somit hat sich die Position zwischen ATi und Nvidia bezüglich des Anti-Aliasings nicht geändert. Bis zu dem herkömmlichen acht-fachem Anti-Aliasing (8xQAA, MSAA) liegen beide Konkurrenten gleich auf. Je nach Winkel sieht mal die eine und mal die andere Implementierung besser aus, einen Vorteil kann sich aber keiner der beiden Kontrahenten erkämpfen. "
https://www.computerbase.de/2008-06/test-nvidia-geforce-gtx-280-sli/5/#abschnitt_aa_kontrolliert


GreatEvil schrieb:
Klar, du willst ne Karte der letzten Generation von Nvidia gegen einer der drittletzten Generation von Ati antreten lassen. Und wer den Unsinn nicht als objektiv ansieht, den bezeichnest du als Luegner.
Les doch bitte mal meine Beiträge, du hast mich übrigens als Lügner bezeichnet, guck noch mal nach deinem ersten Post.
08/2006 X1950 XTX
11/2006 8800 GTX

Ja die X1950 XTX ist etwas älter, aber nach deiner Auffassung hat sie deutlich zugelegt, weils ja eine AMD Karte ist. Gleiche Generation gilt nicht, es gibt keine gleichen Generationen. Die GF7 war auch ein halbes Jahr vor der X18xx am Start, die X850 deutlich nach der GF6, die HD2 etliche Monate nach der GF8 ....
 
Zuletzt bearbeitet:
Unyu schrieb:
Les doch bitte mal meine Beiträge, du hast mich übrigens als Lügner bezeichnet, guck noch mal nach deinem ersten Post.
08/2006 X1950 XTX
11/2006 8800 GTX

Ja die X1950 XTX ist etwas älter, aber nach deiner Auffassung hat sie deutlich zugelegt, weils ja eine AMD Karte ist. Gleiche Generation gilt nicht, es gibt keine gleichen Generationen. Die GF7 war auch ein halbes Jahr vor der X18xx am Start, die X850 deutlich nach der GF6, die HD2 etliche Monate nach der GF8 ....

Ich hab dich als Dummschwaetzer bezeichnet und nicht als Luegner. Und so wie du versuchst meine Aussagen zu verdrehen und dir Sachverhalte zurechtzubiegen beweisst du nur, das ich Recht habe.

Ausserdem gehts hier nicht um 3 Monate die zw. besimmten Grakas liegen. Du versuchst die letzte Generation von Nvidia Karten (die noch Hauptumsatzbringer sind) gegen Karten zu stellen die 3 Generationen alt sind und seit Ewigkeiten nicht mehr verkauft werden.

Such dir meinetwegen ne Karte aus, die du gegen ne GF7 oder ne GF6 stellen willst und dann vergleichen wir weiter.
 
Die GF7 und GF6 juckt mich heute nicht mehr, warum sollte ich die vergleichen? Weil AMD mit neueren Spielen dank SM2 (spart gegenüber SM3 massiv Arbeit) oder mit den 1/2 Jahr älteren X18xx die höhere Shaderleistung vorweisen kann?

Eben gings noch um Treiber. Dann bring doch mal ein Besipiel aus den letzten 2 Jahren. :rolleyes: (... Falls es dir entgangen ist, mit der GF8 gabs eine deutlichen Architekturwandel.)
Bitte mit ordentlichem Review, hast du sicher zu Hand, wie ich seit 10 Posts von dir fordere.

Ich verstehe nur eins nicht: 3 Monate älter ist unfair, aber GF7 vs HD2 ist fair? Und du schimpfst mich Fanboy? :lol:
 
Zuletzt bearbeitet:
GreatEvil schrieb:
Ausserdem gehts hier nicht um 3 Monate die zw. besimmten Grakas liegen. Du versuchst die letzte Generation von Nvidia Karten (die noch Hauptumsatzbringer sind) gegen Karten zu stellen die 3 Generationen alt sind und seit Ewigkeiten nicht mehr verkauft werden.

Unyu schrieb:
Ich verstehe nur eins nicht: 3 Monate älter ist unfair, aber GF7 vs HD2 ist fair? Und du schimpfst mich Fanboy? :lol:

Ach und bitte zeig mir den Post wo ich dich hier nen Fanboy nenn. Oder hast du dir da wieder nur was zurechtgebogen?
 
Du hast mich diskreditierst.
Solange du nur Fetzen aus meinen Posts pickst und keinerlei Ansatz zur Diskussionsbereitschaft zeigst, dazu zählt auch beantworten von Post, ist hier Schluss.
 
Haha...ihr seid doch alle Fanboys. :D

Ich hoffe S3 bringt irgendwann den Wunderchip um euch ruhig zu stellen. Obwohl dann vielleicht erst recht das Gezanke los geht.

Im Übrigen gibt es auch Dinge, für die es sich lohnt zu streiten. ;)
 
Unyu schrieb:
Du hast mich diskreditierst.
Solange du nur Fetzen aus meinen Posts pickst und keinerlei Ansatz zur Diskussionsbereitschaft zeigst, dazu zählt auch beantworten von Post, ist hier Schluss.

na endlich ende ;)

mfg

p.s.
fehler sind dick geschrieben^^
 
langsam wirds kindisch.
euer thema war, wie lange die beiden hersteller ihre alten karten mit immer neuen treibern unterstützen. und das ist wohl etwas off topic hier.
im übrigen machen das beide hersteller individuell, je nach dem wie present die alten generationen noch sind. ich verlange ja auch nicht, dass nv noch neue treiber für die gf2 entwickelt, nur weil ich noch eine habe. es wäre ja auch sinnfrei, da noch teure entwicklung zu betreiben.

und jetzt bitte btt.
thema ist eigentlich der neue forceware 180.47, allerdings inzwischen ist das thema, ob cb und andere diesen test so hätten betreiben und veröffentlichen dürfen, oder ob sie sich vllt von nvidias marketingabteilung haben instrumentalisieren lassen.

fakt ist wohl, dass die marketingabteilung bei diesen neuen spielen einen massiven vorsprung ihrer karten gesehn haben und diesen marketingtechnisch ausnutzen wollten.
der vorsprung ist in diesen(!) spielen auch zur zeit tatsächlich gegeben.

jetzt kann man spekulieren, dass ati mit der treiberentwicklung nur hinterher hinkt und mit kommenden treibern wieder mehr oder minder gleichziehn kann. ich halte das jedenfalls für realistisch.
 
Lübke schrieb:
thema ist eigentlich der neue forceware 180.47

Ist der neue nicht eigentlich der 180.48, welcher ja offiziell veröffentlicht wurde? Wäre nun interessant ob sich der 180.48 in der Spieleleistung dieser 5 Spiele vom 180.47 welcher zum testen verwendet wurde, unterscheidet.
 
So, jetzt muss ich auch mal meinen Senf dazugeben!;)

Am Anfang des Threads wurde gefragt warum gerade diese fünf "Toptitel" auf NV-Karten um einiges besser läuft! Ganz einfach, weil diese für NV-Karten optimiert sind, egal wieviel Geld die da rein stecken, ATI hat die gleiche Chance sowas zu machen, warum die das nicht machen weiß wohl keiner, am Geld liegts bestimmt nicht! Es gibt genauso Titel für ATI-Karten die besser darauf laufen! Hab mir jetzt nicht den ganzen Thread durchgelesen, war mir zuviel Arbeit!:D

Warum die das machen, ist doch klar, die wollen ihre Hardware unters Volk bringen, genauso wie ATI, da ist keiner besser was das angeht!

Wenn ATI halt weniger Geld in die Werbung steckt ist das deren Problem!

Trotztdem verstehe ich nicht die "ATI-Besitzer", erst kaufen und hoch loben wie toll und superschnell die sind, und jetzt sich aufregen weil NV neue Treiber raus bringt, wie ATI neue Treiber veröffentlicht hat, mit besserer Performance, hat sich auch kein NV-Bestizer aufgeregt!;)
 
@die.foenfrisur: Wie du vielleicht schon mitbekommen hast, bin ich durchaus für die "Roten", in meinem Rechner steckt ne 3870 + 5000+ BE ;), das wird sich in Zukunft auch nicht ändern (mit der roten Farbe).

Aber wenn ich was von sekundenlangen Slowdowns lese, dann ist das Spiel scheiße programmiert und taugt nicht als Bench. Zitat Gamestar:

"Und selbst auf einer modernen Maschine kommt es immer wieder zu plötzlichen Rucklern, was sich entsprechend negativ auf die Lenkpräzision auswirkt. Hier haben die Programmierer schlichtweg versagt."

Achja, hier schlägt ne 4850 ne GTX 280:

https://www.computerbase.de/2008-07...e-gtx-260-sli/13/#abschnitt_rainbow_six_vegas

16x12 8xAA/16AF

;)

Unyu schrieb:
Das der Kram mit dem Texturfilter unter einem Hut steckt ist scheisse und im folgenden gibts du zu, das du dir einen besseren Texturfilter bei AMD wünscht, demnach siehts du einen Unterschied.
Warum sollte ich dir dann etwas beweisen, was du selbst siehts? (HQ [deutlich] besser als AI-on)

Die Verbesserungen wünsch ich mir für Leute wie dich, damit die nix mehr zu meckern haben ;)
Ich zitier mich nochmal selber, in Fett, damit dus auch siehst:

KAOZNAKE schrieb:
Ja, ich wünsche mir auch, das AMD da nachbessert, allerdings nicht bei AI, sondern bei der Filterqualität (mit der ICH absolut zufrieden bin) im Allgemeinen. Der Rest ist mir Wumpe.

Wie soll ich auch bitte einen Unterschied sehen? Ich hab nur einen PC (OK und Laptop), aber beide mit ATI-Grafik :D
Da müsst ich mir noch nen zweiten PC mit ner G8 anschaffen und den daneben stellen, aber ich hab auch noch anderes zu tun, als nach Flimmern im Bild zu suchen.
Insofern bist du mir immer noch den Beweis schuldig:

AI: on<AI: off

Unyu schrieb:
Bei der Texturfilterung.

Aha. Vor zwei Jahren war AMD besser bei der Texturfilterung. Lass mal sehen, die 2900XT (R600) kam am 14. Mai 07 (Test auf CB). Du meinst also den Vorgänger? Den R5X0?

Dann lass mich mal was zitieren aus dem Test der 2900XT:

"Bei dem 16-fachen anisotropen Filter sieht das Bild des R600 in weiten Teilen ruhiger als das Ergebnis vom R580 aus"

und beim R520 (direkter Vorgänger des R580) heißt es:

"Als wir den Quality-Modus aktivierten, trauten wir unseren Augen – oder eher gesagt dem AF-Tester – nicht: Der R5x0-Chip bietet wieder eine winkelunabhängige Filterung, was es bei ATi noch nie und bei nVidia seit dem NV35 nicht mehr gegeben hat! [...] Dafür müssen wir ATi nach den deutlichen Verschlechterungen der Texturfilterung in letzter Zeit ein großes Lob aussprechen!"

Wenn also der R520 besser als seine Vorgänger war, der R580 keine Verbesserungen bot und der R600 geringfügig verbessert wurde, kann ich nur sagen:

Fakt widerlegt.

Unyu schrieb:
Mit HQ hat sich keiner gescheut die GF7 zu benchen.

Klar, sonst hat man ja auch voll das miese Bild gehabt. Ich bin kein Bildquali-Fetischist wie du, aber selbst mir ist das aufgefallen, das will was heißen.

Unyu schrieb:
Na da haben wir es doch.
Mit AI-off gibts die Filterqualität, die mit AMDs Hardware möglich ist. Mehr wäre wünschenswert aber hacken wir erst mal auf AI rum:
Weil AMD alles in AI reinpackt, testet niemand mit AI-off. Folglich ist das eine Bevorteilung AMDs, aufgrund schrottiger Auswahlmöglichkeiten.

Beweise? Hab ich nicht behauptet, leg mir bitte keine Worte in den Mund und verdreh sie auch nicht.
Nochmal ein Zitat aus dem Test der 2900XT:

"Deaktiviert man nun auf beiden Grafikkarten sämtliche Optimierungen des anisotropen Filters, dreht der G8x regelrechte Kreise um die Konkurrenz. Während die Texturen auf dem G8x nur selten flimmern, keine Bugwellen mehr sichtbar sind und gleichzeitig bis in den letzten Winkel mit allen eingestellten Samples gefiltert werden, bekommt man von ATis R600 bei A.I. Off nicht eine so gute Qualität geboten. Die etwas schlechtere Winkelunabhängigkeit fällt prinzipiell kaum auf, der trilineare Filter ist ebenfalls sehr gut, die Texturen sind aber weiterhin unruhig. Während nVidia dieses Problem mit dem G8x beinahe ausgelöscht hat, hat ATi das Flimmern zwar angepackt, aber ist schlussendlich nicht weit genug gegangen.

AI: off BRINGT REIN GAR NICHTS, deswegen wirds auch nicht getestet oder von irgendeinem geistig gesunden Meschen verwendet.

Das Problem scheint also eher Hardwarebedingt zu sein, wobei ich kein Problem sehe und alle (außer dir und yeehah vielleicht) anderen anscheinend auch nicht. Jedenfalls bin ich zufrieden und wenns verbessert wird, auch gut. Aber mit AI hat das rein gar nichts zu tun, also braucht man in der Richtung auch keine Auswahlmöglichkeiten.

Unyu schrieb:
Diese Beurteilung wurde imho nicht aufgrund eines breiten Spektrums abgegeben.

Das sieht Numrollen anscheinend anders, er hat ja auch ne 88GTX (der im Review zur 29XT auch die schlechteren AA-Ergebnisse bestätigt wurden) und keine GTX280.
Ob jetzt von G80 auf G92 was am AA geändert wurde weiß ich jetzt aber nicht, bei der 88GT steht dazu nix im Review. Von G92 auf GT200 scheint sich ja nix getan zu haben.


Noch was in eigener Sache: Ich bin zwar AMD-Fan, trage aber noch lange keine rosarote Brille. Nicht alles ist perfekt was AMD an Produkten liefert (Stichwort PP2.0) und ich gestehe der Konkurrenz auch gern zu, das sie was besser kann als meine favorisierte Firma. :eek: (z.B. die Filterqualität)
Ich empfehle dir deshalb, die grüne Brille auch mal abzusetzen ab und zu, vielleicht merkst du dann was. Nämlich das alle, die sich ne GTX260/280 für 200-350€ geleistet haben, sich mal dicke bei AMD bedanken dürfen. Sonst wärs nämlich so wie mit der 88GTX, jahrelanges Schröpfen der Gamer durch NVIDIA.
Ich bin mir durchaus auch im klaren, das AMD es in vertauschten Rollen ähnlich gemacht hätte und vielleicht auch in Zukunft machen wird, in dem Fall bedanke ich mich schon mal im Voraus bei NVIDIA für die Konkurrenz ;)

@Lübke: Ich glaub kaum, das sich da allein was mitm Treiber reissen lässt, schließlich hat die GTX260 (216) vor allem hardwareseitig nen kleinen Vorteil. Und knapp war das Rennen zwischen der GTX 260 (ohne 216) und der 4870 vorher auch schon, auch ohne optimierte Spiele. Vor allem der spitzenmäßige Einführungspreis konnte die Leute halt sofort überzeugen, grad wenn man die GTX260 im Vergleich gesehen hat.
Aber ich glaube auch, das sich die Situation mit der Zeit verbessert und spielbar sind die Games eh alle ohne Probleme. Ich mein hallo? Mit ner 130€ Graka auf 1920x1200 4xAA/16AF spielbare fps? Da hätte vor einem Jahr jeder "n Mord begangen" ;)

@Übersoldier: Da ATI zu AMD gehört und du sicherlich auch mitbekommen hast, das AMD grad alles andere als schwarze Zahlen schreibt, könnte man schon zur Vermutung gelangen, das es doch einfach nur am Geld liegt.

Und die ATI-Besitzer regen sich nicht auf, das NVIDIA hier schneller ist. Das ist überhaupt kein Thema und bevor man mit diskutieren möchte, sollte man vielleicht wenigstens ein bischen querlesen.

Es geht um die Art und Weise, wie den CB-Lesern von CB ein Test als unabhängiger Test verkauft werden sollte (wurde), der offensichtlich von NVIDIA eingefädelt wurde. Siehe dazu Bjorn3D, Hardwareluxx und andere. 4 oder 5 Tests mit gestellter Hardware (nicht erhältliche OCte GTX260), Software (teilweise ebenfalls noch nicht raus, L4D) und nicht öffentlichem Treiber.
Die Schelte wurden akzeptiert, es gab ne Entschuldigung, Sache geklärt-->abgehakt
 
Zuletzt bearbeitet:
Übersoldier75 schrieb:
Trotztdem verstehe ich nicht die "ATI-Besitzer", erst kaufen und hoch loben wie toll und superschnell die sind, und jetzt sich aufregen weil NV neue Treiber raus bringt, wie ATI neue Treiber veröffentlicht hat, mit besserer Performance, hat sich auch kein NV-Bestizer aufgeregt!;)

Das lässt sich psychologisch ganz einfach erklären.

Die eine Gruppe (ATI-Fanboys/Besitzer) waren durch diesen Artikel maßlos enttäuscht. Auf einmal war sogar die 9800gtx+ schneller als die so hoch gelobte 4870. Aus blinder Verzweifelung entstehen dann ganz schnell diverse Flameposts/ Mutmaßungen/ Beschuldigungen.

Die andere Gruppe (Nvidia-Fanboys/Besitzer) waren durch ihren "Hardwarepatriotismus" bestärkt und nutzten den "Hab-ich-doch-gleich-gesagt-Effekt" voll aus. Die unerwartete Genugtuung trieb sicher dem ein oder andern das Blut ins Gemächt.

Unterm Strich bleibt festzustellen, dass diese "Fanboy-Wars" wohl bis in alle Ewigkeit bestehen werden - ich sehe zumindest kein Ende.

P.S. Ich erhebe Anspruch auf die Wörter "Hardwarepatriotismus", "Hab-ich-doch-gleich-gesagt-Effekt" und "Fanboy Wars" als mein geistiges Eigentum. Vielleicht lässt sich da ja Profit draus schlagen.
 
ICh muss mich regelmäßig als ATI Fanboy outen, weil bei uns hier das Gegenteil eine Beleidigung ist und weil es die Anderen einfach noch nicht geschafft haben, mich zum Fanboy zu machen!
Um nich bei uns hier auf der Strasse doof angemacht zu werden, lass ich mich hier wenigstens ab und zu sehen und gestehe mein LAster ...
 
@Übersoldier: Da ATI zu AMD gehört und du sicherlich auch mitbekommen hast, das AMD grad alles andere als schwarze Zahlen schreibt, könnte man schon zur Vermutung gelangen, das es doch einfach nur am Geld liegt.

Und die ATI-Besitzer regen sich nicht auf, das NVIDIA hier schneller ist. Das ist überhaupt kein Thema und bevor man mit diskutieren möchte, sollte man vielleicht wenigstens ein bischen querlesen.

Es geht um die Art und Weise, wie den CB-Lesern von CB ein Test als unabhängiger Test verkauft werden sollte (wurde), der offensichtlich von NVIDIA eingefädelt wurde. Siehe dazu Bjorn3D, Hardwareluxx und andere. 4 oder 5 Tests mit gestellter Hardware (nicht erhältliche OCte GTX260), Software (teilweise ebenfalls noch nicht raus, L4D) und nicht öffentlichem Treiber.
Die Schelte wurden akzeptiert, es gab ne Entschuldigung, Sache geklärt-->abgehakt

Hä?, ATi(AMD) hat doch mit der HD4xxx-Serie mehr Umsatz gemacht als NV immo mit seiner 9xxx und GT2xx-Serie, also wovon redest du?, NV hat sogar mehr Verlust eingefahren, weil ATI seine Karten zu "Dumping-Preise" verkauft hat am Anfang.

Da ist es wohl verständlich das NV was dagegen unternehmen muss, die wollen auch keine rote Zahlen schreiben. Und das hier ist die Antwort drauf, ganz einfach!

Was gibts da noch zu diskutieren? Ob das jetzt unverschämt ist oder sonstwas, das kann sich jeder hinbiegen wie er will.;)

ATI sind auch nicht gerade Engel, mit ihrem Hotfix-Cheating, oder wie sich das schimpft!

PS: hab mir hier bis Seite 12 alles durch gelesen, also weiss ich schon wovon ich rede!

Und Geld haben die bestimmt genug, die gibts schon genauso lang wie NV!

Jetzt könnt ihr ja noch weitere 20Seiten diskutieren, aber an der Sache wird sich nix ändern!:heuldoch:
 
@Buddy83:
Die unerwartete Genugtuung trieb sicher dem ein oder andern das Blut ins Gemächt.
P.S. Ich erhebe Anspruch auf die Wörter "Hardwarepatriotismus", "Hab-ich-doch-gleich-gesagt-Effekt" und "Fanboy Wars" als mein geistiges Eigentum. Vielleicht lässt sich da ja Profit draus schlagen.
XD deine kommentare sind echt die größten^^ echt klasse, muss man ma so sagen :D
und wohl auch noch mit die objektivsten im ganzen fred :D
endlich mal einer, der das ganze nicht so verbissen sieht^^
 

Ähnliche Themen

Zurück
Oben