buntstift23 schrieb:
Naja... ich war früher ATI Freund ... aber mir ging da vieles um den Treibersupport auf die Nerven. Nun bin ich voll und ganz grün ^^
^^
buntstift23 schrieb:
Kantenglättung und AnsiFilter sind beides Nachbearbeitungseffekte die den Speicher nicht belasten.
Kantenglättung ist ein Effekt der ganz enorm den Speicher belastet, und sich in Verbindung mit höherer Auflösung noch viel mehr verdeutlicht.
buntstift23 schrieb:
Dennoch. 1024MB werden für 1920x1200 schon knapp... was wirds dann erst bei größeren Auflösungen oder bei DX11 Texturen? 8 Monate warten bis die Hersteller mehr RAM rausbringen weil es entdlich vom Refdesign abweichende Karten gibt?
Das hingt doc hschon von vorne an.
Denk mal bitte nach, und informiere dich; wenn es jetzt in nur einer wenigen Hand voll Spielen, bei 2x 1024MB RAM, unter extremen Bedingungen knapp wird, welchen Sinn machat es dann, das Referenzdesign mit 2x 2GB auszustatten, und damit alle Karten unnötig teurer zu machen, weil unnötig viel Speicher verbaut wurde?
buntstift23 schrieb:
NVs FERMI geht doch auch direkt mit mit 2GB und 3 GB ins Rennen.
Tun sie das? Woher weisst du das? Hast du mehr Informationen als der Rest der Welt, die nur etwas über die GPGPU Fermi sagen können, da über die Consumer Hardware noch nichts veröffentlicht wurde?
buntstift23 schrieb:
Dazu die kleine Bandbreite des Interfaces. Grausam. Flaschenhals war gestern... Pimpenttenhals ist die Zukunft ...
Mal abgesehen davon, das die Behauptungen es limitiere dieses hier, und jenes da, meist nur eine relativ wage Deutung der Benchmarkergebnisse darstellt, aber nehmen wir mal an, es wäre wirklich so; Limitiert bei der Hardware nicht sowieso immer irgendwas? Die GPU Leistung, der Speicher, die Speicheranbindung, die Schnittstelle, what ever?
Würde es hier und da keine Limitierungen geben, wäre die Hardware unendlich schnell.
Und wenn wo hier oder da eine Limitierung ausserhalb der GPU nicht zu vermeiden war, liegt das mit Sicherheit auch nicht an der Unfähigkeit der Entwickler, weil sie nicht anders konnten, sondern weil es wohl auch nur schwer anders möglich gewesen wäre (bezüglich Aufwand und Kosten).
buntstift23 schrieb:
Ohne das ständig mit anderen KArten vergleichen zu müssen, ist es doch kein Fortschritt oder? 40nm und schneller. Schön und gut, aber da wäre mit paar Monaten Entwicklung doch wesentlich mehr möglich gewesen.
Speicherinterfaces sind in der Entwicklung schweineteuer, aber 256bit pro GPU ist ein Witz.
In ein paar Monaten könnte schon wieder die nächste Generation kommen.
Und die Karte ist nicht nur 40nm und schneller, sondern verglichen mit den älteren Dual GPU Karten auch sparsamer, bietet DX11, Tesselation, 2 DXVA Einheiten, und co.
Und ob 256bit pro GPU ein Witz ist, kannst du gar nicht beurteilen. Du entwickelst nicht die Karten, bist nicht dafür verantwortlich, kennst nicht die spezifikationen, die Leistungsdaten, die Zahlen und Fakten hinter die Karte und du mußt auch nicht die Kostenfrage beantworten.