Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
HD4350: schneller, sparsamer und leiser, wobei man den letzten Punkt bestimmt auch mit einem Passivkühler beseitigen könnte. Trotzdem für 40nm vs. 55nm enttäuschend
Verschleudern? ... denk mal an die derzeitige Wirtschaftssituation, 340,-€ gibt eventuell jemand aus, aber in der heutige Zeit wird fast keiner 500,-€ und mehr auf den Tisch legen wegen unwichtigen Dingen wie ne Graka!
die meisten Menschen stehen in Lohn und Brot und verdienen wie eh und je. Ne fette Grafikkarte kaufen sich auch nur Enthusiasten oder Gamer. Viele bleiben im Bereich bis 150 Euro. Die Preise sind schon ingesamt gesunken. Was sind 300 Euro für mindestens 1,5 Jahre Spielspaß? Mein erstes Notebook (Firma) ThinkPad 600er hat fast 10000 DM gekostet und da lief nur Solitäre
Amd fährt halt eine agressive Preispolitik wie soll man denn sonst Marktanteile ergattern, wenn man nicht die " Übergrafikkarte " bringen kann ? Ausserdem möchte man wohl Nvidia zuvor kommen. Denn wer schon eine HD5000 hat wird wohl kaum dann ein GT300 kaufen. Es sei denn Nvidia bringt eine " Übergrafikkarte ". Aber sowas würden dann auch wieder nur Enthusiasten machen.
Ihr solltet mal aufhören Käuferschichten wie wir Forenuser als wichtig zu sehen. Wir stellen nur einen geringen Anteil da. Die meisten sind nicht wie wir bereit so viel Geld in den PC zu stecken.
Aber dennoch, ich bleibe bei meiner Vermutung das der G300 ein Flop werden wird. So ungefähr wie die damalige FX5xxx Serie. ^^
@whoozy: Gibt immer bekloppte (oder Leute mit Geld wie Heu), die ihre Kohle für ne stärkere Graka raushauen, ob sinnvoll oder nicht.
Wird nur problematisch, wenn die Balken der X2 länger sind als die vom GT300, dann brauch NVDIDIA unbedingt ne GX2, aber die wird wohl auch noch paar Monate länger auf sich warten lassen.
@Romsky: Dafür gibt es noch keine Anhaltspunkte. Großer Die? Ja. Zu spät? Vermutlich. Flop? Kaum.
Das wird erst n Flop, wenn NVIDIA so spät dran ist, das ATI schon wieder den Refresh (mit noch mehr Shadern) bringt. 32nm steht für Q2/Q3 2010 aufm Plan. AFAIK
Unwahrscheinlich, denn die Basis (G80/GT200) ist schon ausgesprochen gut. Doppelte Performance einer GTX 285 kann kein Flop werden. Zudem war die GeForce-FX-Serie wirtschaftlich gesehen kein Flop, damals haben trotzdem mehr Leute Nvidia als ATI gekauft.
Selbst wenn die doppelte Leistung als eine 285 GTX vorliegen sollte, wird es problematisch eine GX2 zu konstruieren wenn die Daten der Chipgröße etc annäherungsweise stimmen sollten....
Wer sagt denn das der G300 doppelt so schnell sein soll wie die GTX285? Bisher alles nur Spekulationen. Übrigens Leistungsmäßig war die FX5 Serie wirklich ein lacher.... und Laut (ich sag nur Föhn)
Die GeForce 6 Serie war gut, die GeForce 7 Serie war enttäuschend (ich war selber ein Opfer welches für die GeForce 7800GTX 500,-€ gezahlt hat). ^^
Doppelte Performance einer GTX 285
Wär zu wünschen allein schon wegen den Preisen.
Allein mir fehlt der Glaube wenn man sieht was NV mit den ersten DX10.1 40nm Karten zusammengezaubert hat.
Selbst wenn die doppelte Leistung als eine 285 GTX vorliegen sollte, wird es problematisch eine GX2 zu konstruieren wenn die Daten der Chipgröße etc annäherungsweise stimmen sollten....
Die GTX 295 war doch auch kein Problem. Der GT300 wird ungefähr gleich groß wie der GT200b und wird 512 Streamprozessoren, 128 TMUs, 32 ROPs (wahrscheinlich aufgebohrt gegenüber dem GT200) und ein 512-Bit-GDDR5-Speicherinterface haben.
@Romsky: Die GeForce-6-Serie hatte die gleiche Architektur wie die GeForce 7 und auch wie die GeForce FX. War alles die CineFX-Architektur. Die GeForce-6-Serie hat die gleichen Schwächen wie die GeForce-7-Serie. Gegenüber der GeForce FX 5900 konnte eine GeForce 6800 dank vervierfachter Shaderleistung aber natürlich glänzen, zumal man auch andere Flaschenhälse entfernt hat (3DCenter.de hat dazu interessante Artikel).
Deine Glaskugel muss echt gut sein..... 512bit SI und GDDR5... alles nur Vermutungen... sorry, aber da kann ich auch sagen 384bit SI und GDDR5 oder 256bit SI mit GDDR3 usw.
Warten wir ab, bei den ATI HD5 Serien steht ja schon relativ viel fest, über den G300 ist garnichts bekannt.!