AwesomeSauce
Lt. Junior Grade
- Registriert
- Juli 2009
- Beiträge
- 396
Das bezog sich auf die Tesla-Modelle
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
da hab ich gegenteiliges gelesen. weis nicht mehr sicher, obs ne 9800gtx oder gtx+ war, aber hab mal gelesen, dass die durch oc die leistungswerte einer 4870 und gtx260 erreicht hat. das besondere dabei, der speicher ließ sich ungewöhnlich hoch takten, die gpu selbst war dagegen eher schwach und lag deutlich unter 800mhz. von daher gehe ich schwer davon aus, dass gddr5 speicher durchaus ein spürbares leistungsplus bringen wird. die 8800gtx hat eigentich ein sehr ausgewogenes gpu/speicherbandbreitenverhältnis und ist oft schneller als eine 9800gtx, obwohl letztere die höhere rechenleistung bietet.1. Was soll GDDR5 bei dem G92 denn bringen? Soweit ich weiß, hat der G92 kein Speicherbandbreitenproblem, also würde man mit GDDR5 so gut wie keine Mehr-Performance erreichen.
auch wenns simpel ausgedrückt ist, es ist verhältnismäßig einfach, da weder der speicherkontroller noch die übrigen komponenten neu entwickelt werden müssen. eine million dollar kann durchaus stimmen, aber was sind denn bitte eine million dollar in dem verhältnis? wenn man für die gts350 nur 5 € mehr je gpu verlangen würde, würde sich diese veränderung bereits nach 20.000 verkauften einheiten amotisieren. alles darüber hinaus verkaufte würde zusätzliche gewinne bedeuten.2. Was du so leicht als Austausch der Speichercontroller beschreibst, benötigt eine komplette Neuentwicklung der Fertigungsmasken, was allein eine Million kostet (lt. Charlie). Ob und wie das alles kompatibel ist, ist noch ne andere Frage, im Prinzip muss man eine komplette GPU neu entwickeln.
dass die fiktive gts350 in sachen verbrauch nicht mithalten könnte, hab ich ja bereits geschrieben. allerdings war das für die hd4k auch kein problem. warum sollte es andersrum eins sein? aus wirtschaftlicher sicht für nvidia (und darum gehts ja grade) wäre das nebensächlich.3. Wie schon geschrieben, 55nm ist ein Auslaufmodell, wenn auch kostenseitig kein Nachteil, (weil die Wafer billiger sind), so doch Performance/Watt-technisch. In Anbetracht von 2. ebenfalls sinnlos
dx11 ist zum jetzigen zeitpunkt überflüssig, ebenso wie dx10 seinerzeit bei der 8600gts. und für den mm-kunden tutz auch ein physxaufkleber auf dem karton hauptsache es sieht nach was wichtigem aus^^ würde den verkaufszahlen der karte vermutlich keinen abbruch tun. und ihrem nutzen auch nicht.4. Könnte die Karte kein DX11, was die ganze Geschichte ad absurdum hoch drei führt.
ich denke, dass der bedarf an leuten für diese modifikation gedeckt werden kann, insbesondere, da das mcp-team ja jetzt komplett zusätzlich mit für die cpu-entwicklung zur verfügung steht. aber das ist nur reine spekulation. dazu wissen wir beide zuwenig über die internen verhältnisse bei nvidia, um das beurteilen zu können^^5. hat NVIDIA nicht genug Leute, um sich mit solchen Geschichten zu beschäftigen, die brauchen jeden Mann für Fermi(2)
http://www.fudzilla.com/content/view/17723/1/We got some word that Nvidia's upcoming Fermi-based Geforce GTX 480 single GPU card should be as hot as the GTX 285.
http://www.fudzilla.com/content/view/17731/1/However, Nvidia claims TSMC is doing a "fabulous job" and that it has improved its yields
Die Coolermaster-OEM-Dinger sind nicht wirklich teuer.Airbag schrieb:Ja, aber wenn ein noch größererer Kühler verbaut wird, wird es sich deutlich auf den Preis auswirken
AMD war mit der HD2900 XT übler dran - die war/ist nämlich lahm, hitzig, Strom saufend und teuer.Eon Deon schrieb:Ich denke nVidia ist nahe an einer Total Katastrophe.