@blöderidiot
Die GK110 ist somit eben kein Spezial-Chip für Profis, sondern ein Kompromiss.
Die selbe GPU wird für beides benutzt. Bei den für Consumer-Karten eingesetzten GK110 werden nur einige Funktionen künstlich per Software beschnitten, aber die machen die GPU trotzdem groß und teuer. Eine rein auf Spiele optimierte GK110 könnte wahrscheinlich um einiges kleiner sein und vielleicht auch sparsamer (je nach dem wie effektiv sich die ungenutzten Funktionseinheiten abschalten lassen).
(Andersherum brauchen Profis vielleicht andere Features nicht, wie z.B. Hardware-Video-En-/Decoder, viele Textureinheiten usw.)
Die kleinere GK104 hingegen ist schon ziemlich stark auf Gaming spezialisiert. Die wird zwar auch auch in Quadros genutzt, aber wie erwähnt schlägt sie sich da im Vergleich mit den großen Fermis längst nicht so gut, wie bei Spielen.
Aber dafür lässt sie in Spielen z.B. auch AMDs universaler aufgestellte Tahiti-GPUs ziemlich alt aussehen. Jedenfalls wenn man Größe, Transistorenzahl, Verbrauch usw. in Betracht zieht. Tatsächlich ist die GK104 wohl die erste Nvidia-GPU in der jüngeren Geschichte, die kleiner und effizienter ist als die AMD-Konkkurrenz. Und das eben wegen dem Fokus auf Gaming.
@voon
Ich denke, dass die Zahl der Spieler doch relativ klein ist, die auf dem selben PC auch nebenbei rendern oder z.B. professionell CAD betreiben oder komplexe wissenschaftliche Berechnungen anstellen usw. und sich deshalb einen Universal-Chip wünschen.
Meistens hat man dafür zwei verschiedenen PCs. Zuhause eine Gaming-Kiste (z.B. mit i5/i7 und einer GeForce) und bei der Arbeit eine Workstation (mit Xeon und Quadro).
Dass Nvidia und AMD trotzdem für Consumer und Profis die selben GPUs nutzen (und nur über die Treiber und das BIOS differenzieren) hat sicher rein wirtschaftliche Gründe.