Moin!
Kasmopaya schrieb:
Schlechte Bildqualität und Treiber "Optimierungen" hatten einen Höchststand erreicht.
In Bezug auf die GF7 und X1k absolut richtig.
Kasmopaya schrieb:
Schon allein deswegen ist die GF7 schlechter als eine GF5 die eine sehr gute Bildqualität hatte.
Bedingt richtig. Wie man feststellte waren Radeon 9700 und GeForce 5 in Sachen Bildqualität ebenbürtig schlecht. Die GeForce 7, die nichts anderes als eine GeForce 6 war, hat sicherlich viele BQ-Menschen enttäuscht.
Enttäuschend war auch die Entwicklung der BQ von Radeon 9800 zur X800, nämlich null [, wobei die Effizienz (heute spricht man von "Leistung"/Watt) der X800-Serie extrem gut war.]
Kasmopaya schrieb:
Und dann ist da noch der Preis. Extrem teuer für nix für ein paar Tage. Es gab so einige die sich eine 500€ GF7 gekauft hatten und kurz darauf kahm die GF8 und war zig mal schneller + exorbitant bessere Bildqualität. Die GF7 wurde also umgespitzt in den Boden gerammt.
Die GF7 war in der Tat schnell.
Die GF7 hat auch verhältnismäßig lange gelebt.
Außerdem hatten die späteren GF7-Modelle eine Eigenschaft, die ich heute bei fast jeder Karte aus dem unteren High-End-Segment vermisse: Eine sehr gute Idle/Load-Leistungsaufnahme (siehe GF 7950GT)
Dieser Punkt ließ die "mangelnde Bildqualität" doch schon verschmerzen.
Strom kommt schließlich nicht aus der Steckdose.
Kasmopaya schrieb:
Also extrem schlechtes Timing der GF7 auch darum ist die GF5 besser. Bei mir hat die GF 5900 4 Jahre durchgehalten. Was man ja von der GF7 niemals sagen kann!
1. Kapier ich den Gedanken nicht.
2. Bei mir hat die GeForce FX keine 2 Monate durchgehalten und flog mindestens genauso schnell raus wie mein "Testmuster" der HD2900XT.
Kasmopaya schrieb:
Meiner Meinung in Kombination die schlechteste Generation ever von NV. ATI war zu der Zeit deutlich besser aufgestellt! Naja vielleicht nicht bei den Treibern aber sonst...
Die GeForce 7 war alles in allem akzeptabel. Sie bot teilweise eine gute Performance bei noch besserer Leistungsaufnahme zu moderaten Preisen - Zumindest ab späteren Revisionen. Natürlich hat man ein paar (in meinen Augen) bescheidene Abstriche bei der BQ machen müssen. Wie manche GeForce-Fanatiker allerdings immer flehend hervorheben, ist die Tatsache, dass auch die GF7 HQ kann.
Kasmopaya schrieb:
Daran will ich einfach nicht glauben. Es wird einfach höchste Zeit für eine neue.
Die DX11 API braucht im Grunde genommen keine
gänzlich neue Architektur. Sie ist nichts anderes als der (ich nenn es mal so: ) "flexible Ausbau" der DX10 API. (Ich will damit jetzt keine Diskussion provozieren, ob multi-skalare Shader idf besser aufgestellte sind/sein sollen, halte es aber nicht unbedingt für abwegig)
Kasmopaya schrieb:
[...] im GPGPU Bereich hat sich extrem viel getan seit G80... Idle Stromsparen rechne ich der GT200 auch sehr positiv an...
DX11 wird den GPGPU-Bereich zunächst einmal neu aufmischen und vereinheitlichen. Das war ja eines der Primärziele der neuen API.
Dein letzteres Argument ist mehr Hoffnung als Fakt.
Kasmopaya schrieb:
Ich auch nicht, sogar eine poplige S3Chrome 440 GTX hat 10.1
Warum soll ich für DX10.1 Transistoren opfern, wenn keine DX10.1-Software verfügbar ist?
Natürlich hast du recht, dass wenn beide Hersteller gleichermaßen am DX10.1-Strang gezogen hätten, es auch zu besseren Ergebnissen gekommen wäre. Gleichermaßen gilt dies auch für eigentlich sehr interssante Features wie Physx, die auch mit Hilfe von nvidia bis heute einen ziemlich bescheidenen Funtionsumfang aufweisen können. nvida präsentierte physx schließlich als
offenen Standart, also mindestens genauso offen wie es derzeit DX10.1 ist.
n schönen wünsch ich dir noch