RediMischa schrieb:
was nützt dir diese angäbliche mehr gpu power wenn sie real nicht mithalten kann?
Was kann wo nicht mithalten?
RediMischa schrieb:
die leute die hier ne 4850 mit ner 9800gtx(+) vergleichen find ich lustig....ati's neueste schöpfung gegen die 1 oder 2 jahre alte nvidia technik antreten zu lassen...
Übertreibe mal nicht. Die 9800 GTX ist gerade mal ein paar Monate alt. Ich glaube März herum wurde die gelauncht. Und sehr viel älter ist der G92 auch nicht. Zumindest wenn man ausreichende Verfügbarkeit mit einberechnet, die erst 2008 gegeben war. Dazu kommt der RV670, der mindestens genauso alt ist und bereits viel von der aktuellen Technik enthielt (55nm, DX10.1, SM4.1, Powerplay, etc.pp). Hier hat nVidia schon eine Generation lang gepennt. Und das scheint sich mit dem G92b zumindest teilweise fortzusetzen. Dass einige Leute nur aufgrund der Mehrleistung diese Nachteile gerne mal übersehen, macht es trotzdem nicht unwichtiger.
RediMischa schrieb:
da kann dann nurnoch 4870x2 herhalten gegen die gtx280...weils ja normal is ne dual gpu mit ner single gpu zu vergleichen...
Meine Güte, ich kann es nicht mehr hören. Bist du (und andere auch) echt so naiv zu glauben, es wäre für ATI ein Problem gewesen, einen einzelnen Chip zu entwickeln, der 2 mal dem RV770 entspricht? Natürlich nicht. Das ist nur einfach wirtschaftlicher Unsinn. Man entwickelt einen Mainstream Chip und nutzt diesen dann mehrfach fürs werbeträchtige High-End Segment. Das ist vernünftig und die Zukunft. Ein GT200 hingegen nicht. Das ist sinnlose Spielerei seitens nVidia.
Denke mal zurück an den Launch der HD 2900 XT. Viele haben damals auf ATI eingeprügelt, auch nicht ganz zu unrecht. Allerdings konnte man schon beim Launch des R600 sehen, dass da viel Potenzial vorhanden ist, aber dafür noch Kinderkrankheiten ausgemerzt werden müssen. nVidia befindet sich momentan in einer ähnlichen Situation. Allerdings ist es noch gravierender. Die Technik ist einfach ausgereizt. 55nm kann zwar erstmal Besserung bringen, ist aber nur der Anfang. Das grössere Problem ist die Architektur selber. Schau dir einfach mal an, wohin die Entwicklung geht. Viele Rechenwerke, geringere Taktraten. Da sind sich diverse "Experten" grosser Unternehmen wie AMD oder Intel ausnahmsweise mal einig. Und diese Entwicklung ist absolut plausibel, weil es die Effizienz erhöht. nVidia ist mit dem G80 hingegen einen anderen Weg gegangen, wenige Rechenwerke und hohe Taktraten. Das ging bisher gut, gerade weil man noch viel Grafikleistung hatte und ATI hier auch Fehler gemacht hat. ATI hat sich jedoch stetig verbessert, nVidia tritt hingegen auf der Stelle. Und dieser Trend sollte auch jedem nVidia Hardliner nicht entgangen sein.
bensen schrieb:
wo ist der test der das belegt?
Ich spreche von der theoretischen FP Leistung. Die kannst du dir zur Not auch selbst ausrechnen. Etwas sehen wirst du davon erst, wenn auch mehr Anwendungen GPUs für GP Berechnungen unterstützen. Die Anfänge sind zumindest gemacht. Ansonsten musst du dir Vergleiche von kommenden FireGL und Quadro Karten anschauen.