Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
@silent-efficiency - Ein Problem mit der Fertigung heißt ja nicht zwangsläufig das die in den Handel kommenden Karten schlecht sein müssen. Es kann ja auch ein Problem mit der Ausbeute sein ( nur jeder 2. Chip funktioniert oder so etwas ) - dann hat der Hersteller ein Problem mit der Fertigung, aber nicht der Kunde der dann eine ( hoffentlich ) funktionierende Karte auft.
Solche Behauptungen verstehe ich eigentlich nicht. Momentan schaffen es nicht einmal die High-End-Karten Crysis oder Clear Sky in 1920x1200 mit AA flüssig darzustellen.
Ich verstehe immernoch nicht, warum dies überhaupt nötig sein sollte.
Nicht nur, dass AA in immer größer werdenden Auflösungen immer weniger bringt; nein: Wenn du spielst, achtest du auf sowas?
Stellst du dich wirklich irgendwo hin, mitten im Gefecht, und denkst dir: Ach sind die Kanten eckig?
Lächerlich wäre das einfach nur.
1. es sind Gerüchte und dir brauchen ne wahr sein.
2. 1,5Jahre bis ein neue GPU Generation rauskommt? Bissel lang, wa
3. ATI feiert doch schon gute Erfolge mit der HD4770 und die ist in 40nm gefertig, also warum sollte ATI auf einmal so große Probleme haben
@RubyRhod
Da muss ich dir mal vollkommen zustimmen. Ich hab grad regelrecht gelacht, als ich deinen Text gelesen habe
Na ja Fudzilla, was soll man da noch sagen? Ich glaube nicht, dass die bis zum Winter warten werden. Sie brauchen einfach etwas länger, aber bestimmt nicht bis zum Winter.
Ich spiele wenn möglich auch ohne allzu extremes AA aber bei manchen spielen geht es einfach nicht ohne Augenkrebs zu bekommen.
Bei Age of Conan spiele ich auf einem 24" mit 1920x1200 und ohne AA krieg ich selbst bei der Auflösung fast nen Weinkrampf so verpixelt sind die Sachen.
Also AA ist nicht grundsätzlich böse.
Zum Thema:
Schade, hab mich schon auf die Karten im Sommer gefreut. Jetzt muss ich meine alte Graka vielleicht doch noch mehr übertakten und bis zum Winter quälen.
Also in der Regel wird mit steigender Auflösung auch der Monitor größer. Also sind die Pixel gar nicht kleiner und somit das Aliasing auch nicht minder nervig.
Bei einem 26" mit 1920*1200 siehts schlimmer aus als auf nem 20" mit 1680*1050.
Und bei manchen Spielen braucht man auch nicht suchen, sondern die Kanten springen einem ins Gesicht. Das ist so gut wie bei jedem Rennspiel der Fall.
Aber mehr als 8x AA halte ich nicht für unbedingt sinnvoll. Da sind Geometriekanten so gut, dass ich im Spielen nichts von merke.
Wo nachgebessert werden muss ist beim Texturflimmern und Shaderaliasing.
Also her mit 16x RGSSAA.
Kann mir durchaus vorstellen, dass ATI diese Gerüchte in die Welt setzt, um die Lagerbestände des RV7X0 abzubauen. Schließlich haben sie mit der 4770 sich Konkurenz im eigenen Lager gemacht. Diese funktioniert im 40nm Verfahren. Denke, dass der RV 8X0 Chip näher bevorsteht, als je zuvor....
Kleine Offtopicfrage:
Wenn TSMC Probleme mit der Fertigung hat, kann es ATI doch solange egal sein, solange TSMC die vereinbarte Menge Chips/Monat liefert, oder? Es wird halt für TSMC teuer die Chips zu fertigen, da mehr "verschnitt" und somit höhere Materialkosten und somit weniger bis kein Gewinn, aber für ATI spielt das ja keine Rolle.
Oder muss ATI die Materialkosten zahlen und somit mehr Geld ausgeben, wenn die Fertigung noch nicht so dolle ist.
Nach Fudzilla-Gerüchten weiß man immer so viel wie vorher. Man hört Informationen, hat aber immer im Hinterkopf zu behalten, dass das meiste, was die erzählen, Märchen sind und man daher nichts gewonnen hat.
Ich verstehe immernoch nicht, warum dies überhaupt nötig sein sollte. Nicht nur, dass AA in immer größer werdenden Auflösungen immer weniger bringt; nein: Wenn du spielst, achtest du auf sowas?
Stellst du dich wirklich irgendwo hin, mitten im Gefecht, und denkst dir: Ach sind die Kanten eckig?
Lächerlich wäre das einfach nur.
(Die Verkleinerung ist von mir, das finde ich nämlich nicht zwangsläufig so!)
So in etwas sehe ich das eigentlich auch, aber wir können halt nicht immer von uns auf Alle anderen schließen.
Guck dir z.B. mal Personen wie y33H@ an, ich bezweifel mal, dass der ein neueres Spiel ohne AA&Co spielen würde
Aus Gründen, die ICH nicht immer nachvollziehen kann.
Wenn ich natürlich die Leistung habe und kann mit Wualitätsverbessernden Features spielen, gerne, aber ich bezweifel, dass ich (bzw bestimmt 90% aller Spieler) wärend des Spielens überhaupt den Unterschied zwischen 0xAA und z.B. 4-8xAA feststellen könnte.
@Topic:
Gerüchte bleiben Gerüchte, bis keine Fakten aufm Tisch liegen ist#s doch egal
.
Wenn ich natürlich die Leistung habe und kann mit Wualitätsverbessernden Features spielen, gerne, aber ich bezweifel, dass ich (bzw bestimmt 90% aller Spieler) wärend des Spielens überhaupt den Unterschied zwischen 0xAA und z.B. 4-8xAA feststellen könnte.
naja, ehrlcih gesagt kann und will auch ich kein spiel ohne AA spielen. So intensiv das spiel auch ist, wenn man durchs visier guckt und auf einen ziehlt und die kante hinter der er sich versteckt treppen hat, oder die waffe selber, das auto oder was auch immer, ist es für mich nicht zufriedenstellend. ich bezweifle, wenn man einmal gewöhnt ist mit AA zu spielen, will man nicht mehr ohne^^
@silent-efficiency - Ein Problem mit der Fertigung heißt ja nicht zwangsläufig das die in den Handel kommenden Karten schlecht sein müssen. Es kann ja auch ein Problem mit der Ausbeute sein ( nur jeder 2. Chip funktioniert oder so etwas ) - dann hat der Hersteller ein Problem mit der Fertigung, aber nicht der Kunde der dann eine ( hoffentlich ) funktionierende Karte auft.
Wenn die Probleme mit der Ausbeute hätten, würden die die Grafikkarte samt DDR5-Speicher nicht unter 100 $ verticken, sondern würden sie Preislich an der HD4850 orientieren.
An der 40nm Fertigung kann es nicht liegen. Wenn, dann ist da etwas anderes im Busch.
Dass die Gerüchte stimmen glaube ich nicht, bis es nicht auch beim inquirer gemeldet wird
Falls doch:
Wenn die Probleme mit der Ausbeute hätten, würden die die Grafikkarte samt DDR5-Speicher nicht unter 100 $ verticken, sondern würden sie Preislich an der HD4850 orientieren.
An der 40nm Fertigung kann es nicht liegen. Wenn, dann ist da etwas anderes im Busch.
Probleme kann das schon machen bei grösseren Chips, aber ein halbes Jahr sollte es nicht kosten.
So wie es aussieht wird es mit dem GT300 dieses Jahr nix mehr.
AMD hat aktuell keinen Handlungsbedarf (sieht man schon daran, dass sie die 4770 nicht übertakten lassen bis die 4850er nicht abverkauft sind).
Also hat AMD (falls sie wollen) noch ein halbes Jahr, um in Ruhe an seinen Chips rumzubasteln. Was könnte man damit machen? Vielleicht ist man nicht zufrieden mit dem bisherigen Ergebnis und überarbeitet das Teil nochmal. Abwegiger anderer Gedanke: Global foundaries und TSMC wollte doch im Prinzip Ende diesen Jahres 32nm bulk in Prototypen am Laufen haben und Anfang nächsten Jahres in Massenproduktion gehen?
Ich verstehe immernoch nicht, warum dies überhaupt nötig sein sollte.
Nicht nur, dass AA in immer größer werdenden Auflösungen immer weniger bringt; nein: Wenn du spielst, achtest du auf sowas?
Stellst du dich wirklich irgendwo hin, mitten im Gefecht, und denkst dir: Ach sind die Kanten eckig?
Lächerlich wäre das einfach nur.
Bei entsprechend großen Monitoren sieht man die Pixel ohne AA zu jeder Zeit. Sollte es nicht so sein, bitte zum Augenarzt gehen! Deiner Argumentation nach ist AA eine überflüssige Erfindung ... DAS ist lächerlich. Die Auflösung sagt nichts darüber aus, wie pixelig die Grafik erscheint, höchstens die Pixeldichte des Monitors. Monitore mit so hohen Pixeldichten, dass man auf AA verzichten könnte, gehören zu den Profigeräten mit entsprechenden Preisen. Da braucht man zwar kein AA, bei Auflösungen von 2560x1600 und mehr hat man gegenüber 1920x1200+AA performancemässig aber sowieso nicht wirklich etwas gewonnen.
Das kann ich mir absolut nicht vorstellen. AMD könnte sich eine goldene Nase verdienen, wenn sie die 5800er Serie wie ursprünglich geplant in Juni herausbringen würden. Ein halbes Jahr lang hätte Nvidia AMDs 5870 nichts entgegenzusetzen... So blöd kann AMD nicht sein, dass sie freiwillig auf ein enormes Geschäft verzichten würden.
Und wieso sollten sie die aktuellen RV870 Pläne verwerfen? Sie können doch die Karten herausbringen und jetzt weiterhin an dem Refresh arbeiten um den GT300 schlagen zu können (falls der GT300 wirklich so leistungsstark sein wird).
Das macht einfach keinen Sinn. Vielleicht gibts Probleme mit der 40nm Fertigung, aber es sind ja auch schon 4770 auf dem Markt.... und auch nicht sonderlich wenige.