ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Das bezog sich auf die Tesla-Modelle;)
 
;)

Das ist doch egal worauf bezogen, die Schlussfolgerungen sind doch die gleichen, das wird schon seit längerem vermutet, auch aus anderen Gründen ... aber mei o mei, wenn es dir wichtig ist, von mir aus, ja deine Glaskugel ist die beste.
Möglichkeiten gibts derer trotzdem nur zwei; 480er mit 512 Cores in einer Anzahl auf den Markt werfen, die sie als Papiertiger brandmarken würde, also schon jetzt eine 485 bzw. 480b einplanen, und die 480 mit 448 heraus bringen.
 
Wenn es dir wichtig ist: nein darum ging es mir nicht;) Und @Edit von dir: sehe ich auch so! Sollten die Dinger @CES wirklich nur Teslas gewesen sein, macht es ja eigentlich keinen Unterschied, der Vorsprung ist ja vorhanden. Waren es 512er GeForces, wärs natürlich bitter...
 
@milamber!
Wollte ja nur zeigen, wie einfach jeder solche Spekulationen anstellen kann, die dann "zufälligerweise" eintreffen.;) Für mich war ein Video @CES ausschlaggebend, wo NVIDIA gefragt wurde, ob es nun wirklich 512er GeForces waren, die in den PC werkelten. Die Antwort war nur: es würden diejenigen Karten sein, die es zum Launch zu kaufen geben würde. Wären es 512er gewesen, hätte ein einfaches "Ja"doch genügt:)

@y33H@
Waren die NVs @CES nun 512er GeForces oder 448er Teslas? In der Print schreibt ihr Teslas...
 
Zuletzt bearbeitet:
Die Karten @ CES hatten ein anderes PCB und einen anderen Kühler als die Karten, die bisher als Teslas gezeigt wurden.

Könnten also 448er GF100 gewesen sein, NV sprach iirc aber von "Tesla based". Was auch immer das bedeuten mag.
 
Die Antwort auf die Frage ist natürlich sehr auffallend, etwas 'richtiges' hätte der Typ wohl nicht sagen können, um sich zu retten, sofern es tatsächlich keine 448er gewesen ist. Aber wie geschrieben, bei nur zwei Möglichkeiten ist das Spekulieren nicht besonders schwer, zumal die Theorie ja auch nicht alt ist.
Ob es tatsächlich auch so kommt, werden wir bald sehen.
Ich hoffe es nicht, das diese ganzen Storys bezüglich schlechter Yields und verkorkster Architektur in diesem Maße wahr sind, das wäre nämlich gar nicht so gut ...
 
@KAOZNAKE:
1. Was soll GDDR5 bei dem G92 denn bringen? Soweit ich weiß, hat der G92 kein Speicherbandbreitenproblem, also würde man mit GDDR5 so gut wie keine Mehr-Performance erreichen.
da hab ich gegenteiliges gelesen. weis nicht mehr sicher, obs ne 9800gtx oder gtx+ war, aber hab mal gelesen, dass die durch oc die leistungswerte einer 4870 und gtx260 erreicht hat. das besondere dabei, der speicher ließ sich ungewöhnlich hoch takten, die gpu selbst war dagegen eher schwach und lag deutlich unter 800mhz. von daher gehe ich schwer davon aus, dass gddr5 speicher durchaus ein spürbares leistungsplus bringen wird. die 8800gtx hat eigentich ein sehr ausgewogenes gpu/speicherbandbreitenverhältnis und ist oft schneller als eine 9800gtx, obwohl letztere die höhere rechenleistung bietet.

2. Was du so leicht als Austausch der Speichercontroller beschreibst, benötigt eine komplette Neuentwicklung der Fertigungsmasken, was allein eine Million kostet (lt. Charlie). Ob und wie das alles kompatibel ist, ist noch ne andere Frage, im Prinzip muss man eine komplette GPU neu entwickeln.
auch wenns simpel ausgedrückt ist, es ist verhältnismäßig einfach, da weder der speicherkontroller noch die übrigen komponenten neu entwickelt werden müssen. eine million dollar kann durchaus stimmen, aber was sind denn bitte eine million dollar in dem verhältnis? wenn man für die gts350 nur 5 € mehr je gpu verlangen würde, würde sich diese veränderung bereits nach 20.000 verkauften einheiten amotisieren. alles darüber hinaus verkaufte würde zusätzliche gewinne bedeuten.

3. Wie schon geschrieben, 55nm ist ein Auslaufmodell, wenn auch kostenseitig kein Nachteil, (weil die Wafer billiger sind), so doch Performance/Watt-technisch. In Anbetracht von 2. ebenfalls sinnlos
dass die fiktive gts350 in sachen verbrauch nicht mithalten könnte, hab ich ja bereits geschrieben. allerdings war das für die hd4k auch kein problem. warum sollte es andersrum eins sein? aus wirtschaftlicher sicht für nvidia (und darum gehts ja grade) wäre das nebensächlich.
ein shrink auf 40nm wäre, sofern er reibungslos möglich wäre sinnfrei, weil es deutlich höhere kosten verursachen würde und den sinn dieser übergangslösung ad absurdum führen würde, da die probleme der 40nm ja den bedarf für diese karte erst gebracht haben ;)

4. Könnte die Karte kein DX11, was die ganze Geschichte ad absurdum hoch drei führt.
dx11 ist zum jetzigen zeitpunkt überflüssig, ebenso wie dx10 seinerzeit bei der 8600gts. und für den mm-kunden tutz auch ein physxaufkleber auf dem karton ;) hauptsache es sieht nach was wichtigem aus^^ würde den verkaufszahlen der karte vermutlich keinen abbruch tun. und ihrem nutzen auch nicht.

5. hat NVIDIA nicht genug Leute, um sich mit solchen Geschichten zu beschäftigen, die brauchen jeden Mann für Fermi(2)
ich denke, dass der bedarf an leuten für diese modifikation gedeckt werden kann, insbesondere, da das mcp-team ja jetzt komplett zusätzlich mit für die cpu-entwicklung zur verfügung steht. aber das ist nur reine spekulation. dazu wissen wir beide zuwenig über die internen verhältnisse bei nvidia, um das beurteilen zu können^^

ich für meinen teil denke, dass nvidia diese option hätte, aber wohl selbst in erwartung, dass der fermi bald fertig würde, diese nie in betracht gezogen hat. vermutlich haben sie seit november, dem ursprünglichen releasetermin, selbst jederzeit die fertigstellung des fermi erwartet. allerdings schlug ja stepping um stepping fehl. rückblickend zu sagen, dass es eine gute idee gewesen wäre, allein schon um damit das vorweihnachtsgeschäft mit so einer karte mitzunehmen, ist natürlich leicht. bis mitte märz lohnt es sicherlich nicht mehr, noch eine "große" g300 auf den markt zu bringen, wenn dann die g400 aufschlagen.
 
ja~ die yield berechnung von charlie warn lacher, allerdings stimme ich ihm in einer sache zu: ein b-spin würde eine enorme leistungssteigerung ermöglichen.


aber was heisst das?

gehen wir davon aus er hat recht und eine gt480ist "nur" 10 - 20% schneller als eine 5870.

- Die Karten wären konkurenzfähig. (nicht die überflieger, aber konkurenzfähig)
- Zwischen dieser gen und dem REFRESH ende 2010 läge eine steigerung von vermutlich 70-80%
- gleichzeitig wäre für den refresh eine deutliche reduzierung der wärme zu erwarten und eine geringere leistungsaufname

DAS ist die logische folgerung aus charlies artikel, wenn man zwischen den zeilen list ... klingt nach allem andere als einem "fehlschlag" beim entwurf der neuen architektur oder? (auch wenns den fermi 1 zu na durchschnittskarte macht)

EDIT: hab grade eben gelesen, dass die leistung bei AA deutlich verbessert worden sein soll. so sollen die gf100 karten deutlich geringere frameeinbrüche aufweisen. NV selbst gibt den leistungfaktor 2,3 gegenüber einer GTX285 unter 8x AA an.
 
Zuletzt bearbeitet:
Naja der Leistungsfaktor ist dann, wenn überhaupt realistisch das Maximum.
Außerdem sind 3fps auch das Dreifache von 1FPS. Von daher nichtsaussagend.
 
aber wo die leistung auf 1 bzw 3 fps einbricht, wird ohnehin keiner mehr mit 8 x aa zocken :D
allerdings wen der unterschied 20 fps zu 40 fps beträgt, dann ist das schon ein großer unterschied. fragt sich halt nur, wie sich dieser unterschied tatsächlich in der praxis verhält...
 
Ja, aber wenn ein noch größererer Kühler verbaut wird, wird es sich deutlich auf den Preis auswirken.
Naja obwohl 700Dollar oder 720Dollar, doch recht egal sein sollten.:freak:

edit:
Außerdem. Waren die Probleme mit den Temperaturen nicht nur bei SLI, weswegen es zertifizierte GEhäuse geben wird?
 
Ist nicht genannt, aber Fudzilla schreibt ja schon, dass sie höher als bei der GTX285 sein wird.

Also wenn du GTX285 shcon 183W hat, vermute ich bei Fermi eine von 250W.;)
 
http://twitpic.com/13vg23
66972171.jpg


Ich würde mal sagen: wenn NVIDIA etwas gut kann, dann ist es, die Erwartungen ziemlich hochzupushen...
 
@Lübke
Um das Gespräch mal hier fort zu führen. :)

Ich spekuliere eigentlich nicht gerne da man hier immer in der Luft hängt und mit keinen klaren Fakten hantieren kann.

512 Shader, fertig, lieferbar und Präsentations fertig... das wäre schon was. Ich kann mir einfach nicht vorstellen das nVidia nicht mit einer Karte kommt die schneller als die 5870 ist. Das wäre eine Blamage. Dazu müssen es wohl kaum 512 Shader sein, was aber wiederum von den Taktraten abhängig ist.
Was bleibt.... die Hoffnung das nVidia endlich wirklich komplett nach zieht. Was ist.... Vermutungen.
Ich glaube.... nVidie wird mit 2 starken Karten auf den Markt kommen, die aber erstmal wieder nur in extrem geringen Stückzahlen verfügbar sein werden. Ich glaube auch das nVidia, wie auch letztes Jahr angekündigt, sich stärker auf den professionellen Markt konzentireren wird, also mit ihren Tessla Karten. Der Markt ist wichtiger und wirft deutlich mehr ab als der Retail Markt. Im OEM Bereich decken die kleinen 210/220/240 Karten den Markt ganz gut ab, auch wenn das Werbewirksame DX11 noch fehlt.

Ich denke nVidia ist nahe an einer Total Katastrophe. Viel zu spät, sich vielleicht selbst ein wenig übernommen. Dazu die anhaltenden Fertigungs Probleme von TSMC und und und. Irgendwas müssen die jetzt bringen das einschlägt um das Image wieder grade zu rücken.

Kleine Karten werden sicherlich volgen, aber ich denke nicht das wir in den nächsten 3-4 Monaten tatsächlich etwas davon sehen werden. Höchstens als Papier Tiger.
 
Airbag schrieb:
Ja, aber wenn ein noch größererer Kühler verbaut wird, wird es sich deutlich auf den Preis auswirken
Die Coolermaster-OEM-Dinger sind nicht wirklich teuer.
Eon Deon schrieb:
Ich denke nVidia ist nahe an einer Total Katastrophe.
AMD war mit der HD2900 XT übler dran - die war/ist nämlich lahm, hitzig, Strom saufend und teuer.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben