News Nvidia reagiert mit Preissenkung auf AMD

Na super, das freut mich einerseits. Andererseits muss ich nun noch 'n bisserl länger warten, wollt mir gerad eine 9800er GT bestellen.

Weiß jmd, wann sich diese Preissenkung tendenziell nach Bekanntgabe duchsetzt :confused_alt:
Bin zwar eigentlich eher ATI/AMD zugeneigt, habe aber großes Interesse an der Hybridfunktion, die ja bekanntlich bei ATI nur mit Low-End-Karten funzt :(
 
Übersoldier75 schrieb:
@Plasma81, die HD4870 brauch genausoviel Strom bei gleicher Leistung, also auch nicht so prickelnd!:D

Plasma81 schrieb:
Naja, 16% schneller und dafür ca 28% mehr Stromverbrauch ist aber auch nicht so prickelnd ;)

Im Gegenzug zu ATi hat es Nvidia aber geschafft, einen Idle-Stromsparmechanismus einzubauen.
Der Lastverbrauch ist eigentlich scheißegal (für mich), dafür isses unsinnig, wenn Hardware im Idle Strom sinnlos in Wärme umwandelt ohne was dafür zu tun.

Das einzige, warum man dennoch eine 4870 1024MB einer GTX 260 vorziehen kann, wäre die Lautstärke, die bei ATI im idle leiser ist.

Aber ich verstehe es nicht, eine GTX 260 und eine 4850 beim Verbrauch zu vergleichen.
Es ist einfach nicht die selbe Leistungklasse und Punkt.

Ok, die 4850 hat GDDR3 anstatt GDDR5 wie bei der "großen" und der Speicher frisst schon viel, aber rein vom P/L kommt man nicht um eine 4850 rum im Vergleich zu den GTX 260/280 oder den 4870ern...

Wenn Nvidia die Preise senkt, muss AMD doch hfftl nachziehen. Wenn dann der € sich wieder erholt, dann kann man zufrieden sein ;)
 
Amando schrieb:
Hier stand ein überflüssiges Zitat.

Verstehe ich nicht. Die GTX260 und besser noch die GTX260² ist rund 25%, bzw 35% schneller als eine HD4850. Bei 4xAA/16xAF ebenso. Dass die ATIs bei 8x AA besser performen ist kein Geheimnis. Trotzdem noch 5%, bzw. 15% schneller.

https://www.computerbase.de/2008-09/test-nvidia-geforce-gtx-260-216-shader/22/#abschnitt_performancerating


Als nicht markengetriebener Käufer finde ich die GTX260² derzeit am besten. Hohe Performance (knapp 10% schneller als eine HD4870 und gute 30% schneller als eine HD4850) bei geringer Leistungsaufnahme (im Idle geringer als HD48x0) und unter Last zwischen HD4850 und HD4870). Vor allem erscheint mir die Treiberpolitik etwas ausgereifter als bei AMD/ATI. Ich muss nicht jeden Monat den Treiber aktualisieren und die Spiele laufen auch ohne spezielle Profile performant. Das liegt sicherlich auch an dem Nvidia-Programm "The way it's meant to be played".

Einzig der Preis haut mich nicht um. Für 150 € würde ich zu schlagen. So lange warte ich dann aber lieber auf den Shrink - sowohl bei ATI als auch bei Nvidia. Denn da ist bei beiden noch was drin und der Verbrauch kann noch deutlich sinken. Wobei ich immer noch auf eine Karte mit 2x DVI und 1x HDMI warte. So lange muss ich wohl bei meiner 9600 GT bleiben. Hoffe, die Karte war kein Versehen. Das Q1/2009 wird also interessant für mich, bzw. Q2 wenn dann die alternativen Lüfter und Board-Layouts am Start sind. Schade, dass ATI sein Powerplay 2.0 so verkackt hat. Erst so stark mit der HD3000-Serie beworben und eine Generation später funktioniert immer noch nichts.
 
Zuletzt bearbeitet von einem Moderator: (Fullqoute entfernt)
mumpel schrieb:
Schade, dass ATI sein Powerplay 2.0 so verkackt hat. Erst so stark mit der HD3000-Serie beworben und eine Generation später funktioniert immer noch nichts.
Es funktioniert nur nicht bei den Modellen HD4850/4870, die kleineren Modelle HD4670/4830 bspw. haben den "Bug" nicht. Nehmen dennoch unter Last m.E. trotzdem zu viel Strom auf, in Relation zur Leistung.

Nach dem Kriterium "Preis/Leistung 1600x1200 4xAA/16xAF" schneiden deine 9600 GT und meine HD3850/512MB immer noch hervorragend ab :D
https://www.computerbase.de/2008-10/test-ati-radeon-hd-4830/27/#abschnitt_preisleistungverhaeltnis
 
mumpel schrieb:
Verstehe ich nicht. Die GTX260 und besser noch die GTX260² ist rund 25%, bzw 35% schneller als eine HD4850.

Vor allem erscheint mir die Treiberpolitik etwas ausgereifter als bei AMD/ATI. Ich muss nicht jeden Monat den Treiber aktualisieren und die Spiele laufen auch ohne spezielle Profile performant. Das liegt sicherlich auch an dem Nvidia-Programm "The way it's meant to be played".

Schade, dass ATI sein Powerplay 2.0 so verkackt hat. Erst so stark mit der HD3000-Serie beworben und eine Generation später funktioniert immer noch nichts.

Verstehe ich auch nicht, die 4850 ist viel günstiger, wozu soll ich die da mit der 260 vergleichen. Und absolut ausreichende Performance bis zu 1920x1200 gibts auch, je nachdem auch drüber hinaus. Also wozu mehr ausgeben?

Zum Treiber: Wenigsten gibts von DAMMIT jeden Monat einen neuen WHQL zertifizierten Treiber, sowas kommt bei NVIDIA nur alle Jubeljahre, sonst gibts immer nur Beta-Müll. Außerdem musst du den Treiber ja nicht jeden Monat updaten. Du kannst aber! Und die Profile braucht eh nur der SLI/CF-User, also die wenigsten. Und "the was ists meant to be PAYED" ist eh nur Werbung, nicht mehr und nicht weniger.

Das mit dem PP ist afaik nur bei der 4870 so, bei allen anderen gehts prima.

@Unyu: Wozu sollte man AI auf off stellen und vor allem warum sollte man damit auch noch mehr Leistung bekommen? So ein Käse.
 
KAOZNAKE schrieb:
... neuen WHQL zertifizierten Treiber, sowas kommt bei NVIDIA nur alle Jubeljahre, sonst gibts immer nur Beta-Müll. ...
Und "the was ists meant to be PAYED" ist eh nur Werbung, nicht mehr und nicht weniger.

1.
Du hast offenbar noch keine Probleme mit Beta-Treibern von nVidia lösen können. Bei mir waren das neben Performance- und Qualität-Optimierungen auch das korrekte Heruntertakten in den 2D-Takt und eine höhere Stabilität bei folding@home, innerhalb der CUDA-Weiterentwicklung (auf 2.0). Was immerhin stundenlange Berechnungen vor Fehlerabbrüchen retten kann. Der Vista/64-Support mit CUDA wurde meiner Erinnerung nach zuerst per Beta-Software deutlich verbessert, was mich zum Wechsel der nVidia-Karte von WinXP zu Vista bewegt hat, lange vor dem offiziellen WHQL-Treiber.

2.
Du verneinst also die Existenz von nVidia-optimierten Spielen ?

3.
Powerplay 2.0 bei ATI-Treibern: mit welcher der monatlichen Treiber hat ATI eigentlich PP 2.0 für die HD4850/4870 eingeführt ?
 
KAOZNAKE
Leistung bezieht sich auf leisten. Selbts mit AI-off ist die geleistete Arbeit nicht gleich mit HQ.
Warum AI-off? Weil einige wohl auf BQ ohne Rücksicht auf sinnvolligkeit stehen, sonst wäre das Wort "8xAA" nicht gefallen.
Im übrigen gibts Alternativen zu 8xAA, zu AI-off nicht.

Verwechsel nicht AMDs Betatreiber mit Nvidias Betatreibern. Nur weil AMDs Betatreiber vor Bugs oder besser Cheats oder Benutzerbevormundungen strotzen, ist das nicht übertragbar, schließlich sind Nvidias Beta und WHQL Treiber identisch.
 
Verstehe ich auch nicht, die 4850 ist viel günstiger, wozu soll ich die da mit der 260 vergleichen. Und absolut ausreichende Performance bis zu 1920x1200 gibts auch, je nachdem auch drüber hinaus. Also wozu mehr ausgeben?

Naja, die HD4850 ist halt ne andere Preis-/Leistungsklasse. Eher bei der 9800 GTX zu suchen. Die HD4870 ist mit der GTX260² in einer. Die HD4870 X2 ist mit der GTX280 in einer.

Zum Treiber: Wenigsten gibts von DAMMIT jeden Monat einen neuen WHQL zertifizierten Treiber, sowas kommt bei NVIDIA nur alle Jubeljahre, sonst gibts immer nur Beta-Müll. Außerdem musst du den Treiber ja nicht jeden Monat updaten. Du kannst aber! Und die Profile braucht eh nur der SLI/CF-User, also die wenigsten. Und "the was ists meant to be PAYED" ist eh nur Werbung, nicht mehr und nicht weniger.

WHQL oder nicht ist unbedeutend. Finale Versionen gibt es alle 3-6 Monate. Dazwischen Betas, wer will. Und die Nvidia-optimierten Spiele sind auch kein Hirngespinst. Ob man das gut findet oder nicht, hängt von der eigenen Grafikkarte ab :D

Warum es geht ist aber, dass ATI es für nötig hält, jeden Monat neue Treiber mit Bugfixes und Optimierungen rauszubringen. Nvidia tut das nicht und die Spiele laufen deswegen nicht weniger gut oder buggy. Denk mal darüber nach! Ich hatte nach meiner alten ATI 9800 Pro, X800 und X850 seit Jahren mal wieder eine Nvidia - ganz zu schweigen von der 780G im HTPC - und bin wegen den Treibern echt positiv überrascht. Vor allem das ATI CCC gegenüber dem Nvidia Controll Panel stinkt etwas ab. Das ist echt sinnvoll, aufgeräumt und gut performant. Also ich finde subjektiv den Treibersupport von Nvidia angenehmer als bei ATI.

Naja, wie gesagt: ATI ist auch gut, aber Nvidia hält sich objektiv betrachtet auch besser als sein Ruf, zumindest bei der GTX260². Die nächste Generation wird interessant, weshalb eine Preissenkung IMO eher sekundär interessant ist.
 
möchte echt jetzt nicht die ganzen Grafikkartenbanches noch einmal durchgehen, um hier irgenwelche Beweise zu liefern. Ich sag nur eins....Nvidia ist gezwungen die Preise zu senken, das ist fakt...und die tun das, weil die leider gezwungen dazu sind.... Weihnachten naht....und wen die Preise nicht gesenkt werden, stehen die noch schlechter dar.....
 
immer dieses geschwätz über stromsparfunktion und leistungsaufnahme...
tauscht daheim 2 glühbirnen gegen energiesparlampen, da habt ihr mehr geld am strom gespart.
kann ja jeder für sich selbst entscheiden, aber aus meiner sicht kann der verbrauch gerne etwas höher sein wenn die leistung stimmt.
 
Wer daheim bereits alle Glühbirnen ausgetauscht hat, wird beim PC nicht mehr auf Stromsparfunktionen achten ? :rolleyes:

Es ist eine einfache Milchmädchen-Rechnung: was bringen zwei Energiesparlampen, was bringt eine stromsparende Grafikkarte, was die Kombination von allen Maßnahmen am Jahresende ? Wer richtig kalkuliert, kann das eingesparte Geld ja in eine neue Grafikkarte anlegen. ;)
 
@MuckiPinzner

der neue Preis gilt meist sofort nach Bekanntgabe oder sogar noch frueher . Das liegt am sog. Lagerwertausgleichssystem. Dieses verhindert im Wesentlichen das man seine Einkaeufe als Haendler beim Hersteller zu festen (und vielleicht veralteten) Preisen machen muss.
Unter anderem heisst das fuer die Haendler das sie vorab schon zum neuen Preis einkaufen koennen. Da das aber viele Haendler machen gibts schon fast immer vor dem Stichtag einen Preiskampf bei HW-Schotte oder aehnlichen Preisportalen. Da geht der Preis taeglich 50 Cent oder 1 Euro nach unten und offizielle Preissenkungen gehen so praktisch unbemerkt unter.

Also keine Chance dadurch viel Geld zu sparen,aber auch keine Chance viel Geld in den Sand zu setzen:)
 
@doesntmatter:

1. Nee, hab einfach keine installiert ;) Nenn mich altmodisch, ist aber so.

2. Da brauch ich mir nur Crysis anzuschauen. Was NVIDIA da angeblich optimiert hat, bekommt DAMMIT genauso gut hin :D
Im Ernst: Natürlich sagen die den Entwicklern, wie sie möglichst gut aufdie NVIDIA Hardware optimieren können. Wenn es anders wäre, würde NVIDIA nämlich richtig alt aussehen, wenn eine 4850 teilweise schon an ne GTX280 rankommt:

http://www.anandtech.com/video/showdoc.aspx?i=3341&p=18

Fehlen zwar noch 10fps, aber für 1/3 vom Preis nicht schlecht würd ich sagen.

Aber LETZTENDLICH soll es dafür sorgen, das der DAU denkt, für dieses oder jenes Spiel bräuchte er unbdeingt ne NVIDIA Graka, was ja auch wunderbar funktioniert.

3. PP funktioniert bei der 4850, wie du hier sehen kannst.

https://www.computerbase.de/2008-07...e-gtx-260-sli/26/#abschnitt_leistungsaufnahme

50W weniger als die 4870. Zwar nicht so toll wie die 3870, aber gibt ja auch mehr SP zum Füttern im Vergleich.

@Unyu: Sinnfreie Diskussion. Den ATIs wurden bis zur Geforce 8 generell bessere Bildquali attestiert. Danach war oder ists immer noch Gleichstand. Das einzige Problem (welches mir persönlich aber nicht auffällt) ist sicher das Flimmern. Ist aber nix gegen ne PS2 ;)

Bei ATI AI off einzustellen ist einfach nur sinnlos, da die (nicht vorhandenen) optischen Verbesserungen mit einem Leistungseinbruch einhergehen, der mir dann nicht mal was bringt. Wenns anders wäre, würde CB und viele andere sicher nicht mir AI on testen.

Die Alternativen zu 8xAA sind mir schnurz, ich hab nicht mal 2xAA an. Ich reite aber auch nicht auf der viel besseren Performance bei 8xAA rum ;)

Den letzten Absatz buch ich einfach mal als Polemik ab. Zudem brauch ich keine Beta-Treiber bei DAMMIT, weil ich ja jeden Monat finale bekomm, gell?

mumpel schrieb:
Warum es geht ist aber, dass ATI es für nötig hält, jeden Monat neue Treiber mit Bugfixes und Optimierungen rauszubringen. Nvidia tut das nicht und die Spiele laufen deswegen nicht weniger gut oder buggy. [...] Vor allem das ATI CCC gegenüber dem Nvidia Controll Panel stinkt etwas ab. Das ist echt sinnvoll, aufgeräumt und gut performant. Also ich finde subjektiv den Treibersupport von Nvidia angenehmer als bei ATI

Du musst das so sehen: Es ist ein Angebot, ein Service. Keiner zwingt dich dazu, jeden Monat den Treiber zu aktualisieren. Was eine Sache von 5 Minuten ist.
Wenn die Dinger bei NVIDIA weniger buggy laufen, frag ich mich, warum die dann teilweise 5 betas raushauen, wenn mal ein neues Spiel rauskommt - Ich denk die haben monatelang optimiert? Was haben die da die ganze Zeit gemacht?!?

Wobei das in der Tat schon sehr gut ist, wenn man wirklich ein Problem hat und einem mit einem beta-Treiber geholfen wird. Wenn man auf beta steht ;)

Das mit den Controlcentern ist definitiv höchst subjektiv, da stimm ich dir zu. Mir gefällt das von NVIDIA nicht so gut wie das von ATI, von daher...
 
@BullRun:

Hmm....schade eigentlich.

Und ich dachte, nun würde sich der Preis nochmal 15-20% weiter nach unten orientieren... :(
 
KAOZNAKE schrieb:
wenn eine 4850 teilweise schon an ne GTX280 rankommt:

http://www.anandtech.com/video/showdoc.aspx?i=3341&p=18

Fehlen zwar noch 10fps, aber für 1/3 vom Preis nicht schlecht würd ich sagen.

Du meinst, Bioshock in der genannten Auflösung wäre ein guter Parameter für einen Vergleich der HD4850 und GTX 280 ? CB-Test mal daneben gestellt, exemplarisch, der Leser möge bitte alle getesteten Auflösungen vergleichen. Will mich gar nicht streiten um die Leistung der HD4850, die ist und bleibt grandios. Aber solche Einzelbeispiel sind müßig und stets aufs Neue relativierbar. Niemand wird sich wegen eines Tests oder einer Auflösung ein bestimmte Grafikkarte kaufen, oder doch ? ;)



KAOZNAKE schrieb:
3. PP funktioniert bei der 4850, wie du hier sehen kannst.

https://www.computerbase.de/2008-07...e-gtx-260-sli/26/#abschnitt_leistungsaufnahme

50W weniger als die 4870. Zwar nicht so toll wie die 3870, aber gibt ja auch mehr SP zum Füttern im Vergleich.

Dein Link mit Messung (157 Watt) stammt aus dem Test vom 3.07.2008, siiehe die Messung vom 25.06.2008 und das Zitat daraus, falls die Spannungsregulierung Teil von Powerplay 2.0 ist, ist diese Absenkung nun per Treiber realisiert oder nicht ? Ich hoffe es.

"So taktet sich die Radeon HD 4850 nachgewiesenerweise zwar auf 160 MHz beziehungsweise 500 MHz herunter, jedoch gibt es Berichte, nach denen es keine Spannungsregulierung gibt."


KAOZNAKE schrieb:
Wobei das in der Tat schon sehr gut ist, wenn man wirklich ein Problem hat und einem mit einem beta-Treiber geholfen wird. Wenn man auf beta steht ;)

Ob man auf Beta-Treiber "steht" oder nicht, hat welche Bedeutung für ein gelöstes Problem ? Eben. Aber ich verstehe jeden, der bei seinem WHQL-Treiber bleibt und mit einem Treiber-Fehler leben lernt, obwohl es eine Beta gibt, die das Problem löst. :lol:
 
KAOZNAKE

Es geht nicht um die vor GF8 Zeit. Im übrigen war R5xx auch nicht perfekt, hatte im wesentlichen nur die nahezu Winkelunabhängige Filterung als Vorteil. Gleichstand herscht heute nicht, im Gegenteil, R6xx filtert mieser als R5xx. Nur weil keiner mehr darüber berichtet ist die Welt nicht gleich.
Ich könnte jetzt auch die nicht Wahlfreiheit bei AAA ins Feld führen, aber eben gings noch um AI-off vs 8xAA.

Mir ist bekannt das AI-off Problematisch ist. Mal gibts kein AA mehr, dafür eine bessere Texturfilterung und manchmal ein paar Details mehr, bsp UT3 und Far Cry 2.
Es ist völlig falsch zu behaupten, das AI keinerlei optische Veränderungen herbeiführt. Eigentlich müsste man immer mit AI-off testen, damit AMD mal etwas ändert, aber dies ist nur ein feuchter Traum.

Da 8xAA erwähnt wurde, schien es mir als ob hier ohne Rücksicht auf Verluste Einstellungen gefahren werden, deshalb der Vergleich mit AI-off.
Mir ist "8xAA" im Übrigen auch fast immer schnurz, so fahre ich doch lieber gleich richtig hübsche Modi.

Wann gabs das letzte mal 5 Betas? Ich bitte im Übrigen um offizielle Treiber, inoffizielle Treiber interessieren jetzt nicht.
Wenn es so wäre, was ist so schlimm an 5 Treibern? MS haut ständig Bugfixes raus, da beschwert sich niemand über den Support.

Zwischen WHQL und Beta gibts keinen Unterschied, demzufolge sind WHQL auch Betas? Oder werden Treiber final in dem sie einen Monat bei MS verstauben und mit Aufkleber zurückkommen? :confused_alt:
 
Also Nvidia wird immer verdienen, am beschißnesten sind doch die Händler dran, gestern noch GPU´s geordert für 10k€ und heute gehen sie für 5K€ weg..die tun mir leid, nicht Nvidia.

Naja mir als Endkunde ist sowas nur Recht :evillol:
 
Denke bei den (guten) Händlern federt sich der Preisverfall auf einem deutlich tieferen Niveau (Einkaufspreise) hinsichtlich Gewinnanteil ab, die empfohlenen Verkaufspreise (EVP) werden sicher langsamer sinken (mit dem Release neuer Modelle desselben Herstellers) als der messbare Marktpreis (geizhals etwa). Die Gewinnspanne sinkt vor allem, war die Spanne großzügig einkalkuliert, gibt es nicht mal "Verlust". Bei der derzeitigen Nachfrage kann ich mir nur schwer vorstellen, die Händler machten kein Geschäft. Weihnachten kommt ja erst noch.
 
@doesntmatter: Dann nimm halt Rainbow Six Vegas ;)

https://www.computerbase.de/2008-07...e-gtx-260-sli/13/#abschnitt_rainbow_six_vegas

4850 VOR der GTX 280.

Und nein, niemand kauft sich eine Graka wegen einem Benchmark :freak:

Meine Aussage war bloß die: Wenn die Spiele auf die ATI-Hardware optimiert würden (was meist nicht der Fall ist wegen NVIDIAs guter Marketing Arbeit und generell größerer Verbreitung, sprich Marktanteil) hätte NVIDIA ein Problem, weils dann nicht nur bei Rainbow Six so ausehen würde. Aber dazu kommts eh nicht, von daher...:cool_alt:

Das mit dem PP funktioniert bei der 4850 schon von Anfang an afaik, nur bei der 4870 funzt es wegen dem GDDR5-Speicher nicht. Dafür gibts aber auch Abhilfe:

https://www.computerbase.de/2008-07/hd-4800-stromsparen-leicht-gemacht/

Die Frage bei nem Beta ist halt, ob man mit einem schnell hingeschluderten beta nicht wieder woanders was versaut. Und wie gesagt: NVIDIA hilft den Programmieren jahrelang

"Die Entwickler von Far Cry 2 empfehlen Besitzern von Nvidia-Grafikkarten den Einsatz der Beta-Treiber. "Seit Beginn der Arbeit an Far Cry 2 Anfang 2005 haben wir NVIDIA GeForce-GPUs bei der Entwicklung des Spieles verwendet und eng mit den Ingenieuren von NVIDIA zusammengearbeitet. Far Cry 2 steht für ein außerordentliches PC-Gaming-Erlebnis und GeForce-User können davon ausgehen, dass sie das Spiel buchstäblich in dem Sinne genießen können, in dem es entwickelt wurde", so Louis-Pierre Pharand, Producer von Far Cry 2 bei Ubisoft."

und dann müssen die kurz nach dem Release trotzdem betas raushauen? Naja. UND dann hält die 4870 immer noch locker mit der GTX 260 (216) mit? Auweia.

http://www.pcgameshardware.de/aid,6...chmark-Test_mit_Grafikkarten_und_CPUs/?page=3

Und Probleme hatte ich noch keine, ich lass mich aber auch nicht als Beta-Tester missbrauchen und hol mir nur preisreduzierte Spiele. Da gibts dann meist schon alle Patches und die Treiber sind dann auch bugfrei.

@Unyu: Wie gesagt, sinnfreie Diskussion. Die allgemeine Bildqualität ist mittlerweile so gut, das irgendwelche Unterschiede zwischen AI off und on vermutlich nur Leuten auffällt, denen man sagt, das da einer sein soll.

Im postiven wie im negativen Sinne.

Kantenglättung is mir auch wurscht, bei CoD 2 hab ichs jetzt glaub ingame aktiviert (2x oder 4x glaub), aber das schafft ja jede Graka mittlerweile und die Grafik langt mir so.

8xAA verstehen die meisten Leute als "Qualität". Warum? Weils überall als Standardbench (zusammen mit 4x) verwendet wird. Und mehr muss besser sein, gelle? /IRONIE/
Warum wirds als Standardbench verwendet? Weils von der Performance (bzw. dem Verlust derselben) sowie der Bildquali noch einigermaßen vergleichbar ist. Die anderen Modi leider überhaupt nicht mehr.
--> (Fast) alle nehmens als das einzig wahre an.

Aber wenn ich mir so das 4xTSSAA+CSAA von NVIDIA oder das 4xEATM+CFAA von ATI anschaue, fällt selbst einem Blinden (also auch mir) auf, das das besser aussieht. Evtl. werd ich das doch mal ausprobieren. Wobei mir in *diesem* Bsp. die ATI-Variante besser gefällt. Vielleicht gibts ja schon wieder bessere Varianten, ist ja schon älter der Artikel.

http://www.3dcenter.org/artikel/ati...svergleich-adaptive-transparenz-anti-aliasing

In dem Vergleich hier gefällt mir das 12xCFAA bzw 16xCFAA (ohne Edge Detect) von ATI und das 4xTSSAA von NVIDIA am Besten, aber hat man da was von in der Realität? Von wegen Blur usw., dagegen fällt der Rest ab, vor allem wenn man den Zaun betrachtet. Das kann jemand anders auch schon wieder anders sehen ;)

https://www.computerbase.de/2007-05/test-ati-radeon-hd-2900-xt/6/

Zum AF: Mir reicht 16AF so, wies ATI anbietet, wenn sies verbessern, auch gut. Ich hab noch kein Flimmern gesehen, so schlimm isses jetzt auch nicht. Wenn ichs richtig verstanden hab, dürfte das vor allem bei Texturen im 45° Winkel auftreten, also wenn man nen langen Gang lang läuft vielleicht. Aber Praxisrelevanz hat das wohl so gut wie keine.

Aber Konkurrenz belebt das Geschäft und ich hoffe die beiden Hersteller treiben sich weiter zu Bestleistungen an :)

Das mit den 5 betas war natürlich nur überspitzt. ;)

"Oder werden Treiber final in dem sie einen Monat bei MS verstauben und mit Aufkleber zurückkommen?"

Im Prinzip ja, denn so kann isch NVIDIA immer rausreden, wenn was nicht funzt. So nach dem Motto: is ja ne Beta, nicht unsere Schuld wenn das nicht funktioniert. Meine Meinnung.
 
Zuletzt bearbeitet:
Zurück
Oben