smith0815 schrieb:
Keine Polemik, Argumente. Wenn bei 4xAA und 16xAF (hohe Qualität wäre schön, gibts bei ATI leider nicht) noch Reserven sind, dann schaltet jeder vernünftige Mensch erstmal TAA/AAA hinzu, um Transparenzen zu glätten (bei ATI habe ich leider nicht die Wahl ob MS oder SS). Wenn dann immer noch Luft ist, kann man bei Nvidia mittels der HybridModi prima das gesamte Bild aufhübschen und erwischt auch noch flimmernde Shader. Wie man sieht, gibt es für die Grafikkarte jede Menge zu tun, bevor 8xAA interessant wird.
Interessiert mich ehrlich gesagt immer noch nicht. So wie das Gro der Spieler. Das ist nun wirklich Lamentieren auf hohem Niveau. Oder um es auf den Punkt zu bringen, Polemik, die in einem solchen Thread nichts zu suchen hat. Es geht hier um ein konkretes Modell und nicht um generelle Grundsatzfragen der Architektur. Wenn du darüber diskutieren willst, solltest du dir einen anderen Thread suchen.
smith0815 schrieb:
Du beklagst Polemik, schlägst aber wild um dich und lieferst nicht ein Argument.
Ich schlage nicht wild um mich, sondern kritisiere diejenigen, die hier ständig Öl ins Feuer giessen. Ich habe mir das nun lange genug angeschaut. Und es geht mir genauso auf die Nerven wie anderen Usern auch. Falls dir die Worte zu hart sind und du dich persönlich angesprochen fühlst, tut es mir leid für dich. Daran etwas ändern kannst aber nur du. Und welche Argumente willst du denn und wofür?
smith0815 schrieb:
Niemand redet irgendetwas schlecht
Nein, natürlich nicht. Ich bin ja auch der erste und einzige, der mangelnde Sachlichkeit und übertriebene Unsachlichkeit anmahnt. Es ist ja nicht so, dass die HD 4770 keine Vorteile hätte. Bei den entsprechenden Kandidaten hört man seltsamerweise AUSSCHLIESSLICH negative Argumente.
smith0815 schrieb:
es gibt nur Gründe warum qualitätsbewusste Spieler alle aktuellen ATI-Karten kritisch hinterfragen sollten.
Nicht mehr oder weniger als bei der Konkurrenz. Schon mal was von subjektiver Wahrnehmung gehört? Der eine empfindet AF hier angenehmer, der andere AA dort. Und? Nochmal, wo genau ist denn das Problem? Perfektionismus bekommst du weder bei AMD noch nVidia. Jeder hat seine Stärken und Schwächen. Es gibt wichtigere Punkte an einer GPU, um hier Nadeln im Heuhafen zu suchen. Ende der Geschichte.
smith0815 schrieb:
außerdem hat ATI Powerplay in Zusammenhang mit GDDR5-Speicher noch immer nicht im Griff. Darüber wird man in einem Diskussionsforum "Grafikkarten Fachgespräche" doch auch noch reden dürfen.
Natürlich. Aber erstens reicht es, wenn man Kritik einmal anspricht und dies nicht in jedem Beitrag gebetsmühlenartig immer wieder und wieder runterleiert. Und zweitens sollte man auch nicht masslos übertreiben.
smith0815 schrieb:
Tatsächlich sollte man IMHO die herstellerübergreifenden Diagramme spätestens bei 4xAA/16xAF enden lassen
Lass sie doch gleich bei 1xAA/1xAF enden, dann braucht sich niemand mehr aufzuregen. Wer zwischen den Zeilen lesen kann, weiss aber schon, worauf du hinauswillst. Auf der einen Seite die angeblich vorgegaukelten High Quality Modi bei AMD abstreitig machen, auf der anderen Seite die 8xAA Schwäche von nVidia ausblenden. Sehr objektiv und kein bisschen Doppelmoral.
aspro schrieb:
Post
124: Auch wenn der Post an dich gerichtet, hab ich nichts zitiert, weil ich auch auf keine besondere Textstelle verweise, sondern allgemein die Messungen von xbit anzweifle, die du ins Gespräch gebracht hast.
Das ist zwar richtig, du zitierst nichts, da ich aber zuvor nur einen Beitrag geschrieben hatte, sollte klar sein, worauf es sich bezog. Und dort spreche ich eben von Last, sowohl was die Performance als auch Leistungsaufnahme betrifft. Oder ermittelst du FPS unter Idle? Ich erwähne zuvor ja extra noch, dass Verbesserungen des Fertigungsprozesses vor allem unter Last zum tragen kommen. Wieso sollte ich bezüglich Effizienz also von Idle sprechen? Das macht keinen Sinn. Idle erwähne ich ja noch explizit in den letzten zwei Sätzen.
aspro schrieb:
Post
142: Du zitierst mich und interpretierst Last rein, nur um es irgendwie widerlegen zu können, anstatt mal nachzudenken, dass ich damit was anderes gemeint habe.
Nein, ich interpretiere gar nichts rein. Du bist schlichtweg von einem falschen Vorsatz ausgegangen.
aspro schrieb:
Was genau soll die Verschmelzung von CPU und GPU daran ändern? Das ist lediglich eine Maßnahme zur Erhöhung der Integrationsdichte ergo zur Kosteneinsparung.
Nicht lediglich. Momentan schaut es so aus, dass man auf dedizierte Grafikeinheiten nur dann verzichten kann, wenn eine IGP an Board ist. Das ist praktisch nur im mobilen Bereich durchgängig gegeben. Mit der Verschmelzung von CPU und GPU wird sich dieser Umstand ändern. Eine CPU brauchst du sowieso. Und die integrierte Grafikeinheit bekommst du eben gleich noch mit. Für 2D Anforderungen reicht diese vollkommen aus. Ein sauberes Energie Management wird daher unabdingbar sein, und zwar für den kompletten Client Markt und nicht nur für Notebooks. Und das sinnvollste ist eben, die dedizierte Grafikeinheit komplett abzuschalten. Letztendlich gibt es zwei Modi, die dann wichtig sind, Standby und Last. Was die Grafikkarte unter Idle macht bzw machen würde, spielt im Endeffekt keine Rolle mehr.
y33H@ schrieb:
Langsamer idR, ja. Schlechter - nein.
Wenn er langsamer ist, ist er auch schlechter. Es zählt ja nicht nur Qualität, sondern auch Performance. Eines von beiden gut hinzubekommen, ist keine Kunst. Nur beides zusammen kann ausschlaggebend sein.
y33H@ schrieb:
Jup. Dann weise aber erstmal nach, was neuere Treiber bringen. Gerade die 4850 und 4870 Ergebnisse basieren ja auch noch auf recht alten Treibern. Deine Aussage, dass die 8800 GTX einen Tick schneller als die HD 4850 wäre, ist damit ebenso zweifelhaft. Ganz im Gegenteil, ich denke trotzdem, dass sie falsch ist. Schau dir mal ältere Tests hier bei CB an. Beim Launch der 9800 GTX war diese etwa 5-10% schneller als die 8800 GTX, mit nahezu identischen Treibern. Lediglich bei hohen Einstellungen, wenn der 9800 GTX die Bandbreite ausging, fiel diese zurück. Sollte hier aber keine Rolle spielen. Und die 9800 GTX kommt nun mal nicht ganz an die HD 4850 ran. Also immer schön objektiv bleiben und auch mal die gründe Brille abnehmen.
Einigen wir uns darauf, dass die 8800 GTX unter praxisnahen Auflösungen wohl irgendwo zwischen HD 4770 und HD 4850 liegt.