News Nvidia: Gerüchte über weiteres „Fermi“-Modell

es gibt mehr als nur die Chipgröße. ;)
Inteligentes Chipdesign um Leckströme zu minimieren
Leiterbahn breite/abstand
Redundante Einheiten
usw.

TSMC die schuld in die schuhe zu schieben ist einfach, da gibt es aber mehr Zahnrädchen die Funktionieren müssen.
 
Das bestreitet ja auch keiner. Wäre der 40G-Prozess qualitativ auf der Höhe des sehr guten 65nm-Nodes, sähe die ganze Situation sehr viel anders aus.
 
Selbst dann wäre die Ausbeute wegen Designfehlern geringer.
 
Schon die GTX 470 ist nüchtern betrachtet sehr brauchbar.
Das kann mit einer GTX 460, die sich wohl eher GTS 450 nennen wird, nur noch besser werden.

http://www.3dcenter.org/news/2010-03-26
leicht veraltete Roadmap, aber brauchbar.
 
Zuletzt bearbeitet:
nee gerade nicht, denn 3dcenter selbst schreibt, dass die 460 GTX eine weitere Karte ist, obwohl sie vor ein paar Tagen von der 430, 440 und 450 berichtet haben.
Dabei soll die 450 auf Niveau der 5830 sein, sodass das auch eher ausscheidet, dass die 460 nur so schnell ist
siehe auch aktuelle roadmap und news http://www.3dcenter.org/
Dort wird auch erklärt, dass das durchaus realistisch und machbar erscheint, da die Reduzierung des Interfaces weiteres Sparpotenzial eröffnet (weniger Speicher, anderes Platinenlayout, usw)
 
Zuletzt bearbeitet:
Ich weis nicht ob sich Nvidia jetzt einen Gefallen damit tut die Fermis noch breit zu schlagen. MMn hilft nur ein ziemlich stark überarbeiteter Refresh, alles andere wird nicht zum Ziel führen wirklich wieder Konkurrenzfähig zu werden.
Mfg
 
nvidia ist konkurrenzfähig, außer vielleicht in der mittleren Leistungsklasse und dem begegnen sie mit der 430, 440, 450 und 460
 
@smartin

Schau mal genauer hin bei der Grafik.
Das ist gestaffelt nach dem Preis, nicht nach der Performance.
Woher sollten die die auch schon kennen.

Also erstmal auf dem Teppich bleiben und abwarten.
 
bleib mal selber locker und lies dir den von Marius verlinkten Text durch.
Da steht das mit der erwarteten Leistung. Dass das erstmal alles Spekulationen sind, ist klar. Ich habe auch nichts anderes behauptet. Ich habe nur eine Abgrenzung der 460 GTX von den anderen Karten (430, 440, 450) vorgenommen, denn die 450 und die 460 werden kaum gleich schnell sein.
 
Zuletzt bearbeitet:
so viel text schreckt mich immer ab.;)
Dann nehme ich alles zurück und behaupte das Gegenteil.

Ne, Spaß beseite. So wie Nividia in letzter Zeit "Infos" verteilt hat, bin ich bei sowas immer
etwas skeptisch.
 
Ich glaube, verteilen tun sie gar keine Infos, sondern es sind vielmehr undichte Stellen oder Spekulationen. Wobei 430 440 und 450 glaube sogar offiziell war, bin aber gerade nicht sicher.
hoffe nur, dass die Karten dann wirklich im Bereich um Juni/Juli kommen, damit die Lücke etwas besser geschlossen wird und auch im unteren Bereich auch etwas mehr Druck entsteht. Die 5830 ist mE nicht so der große Wurf und vielleicht kann das nvidia mit der 450 oder der 460 für sich nutzen und etwas Bewegung in den gesamten Markt bringen. Außerdem sind die kleineren Karten vielleicht auch nicht so anfällig hinsichtlich der schlechten TSMC-Fertigung :)
 
AwesomeSauce schrieb:
Irrelevant, wenn der Prozess qualitativ gleichwertig wäre (Defekt/cm^2).

...

Logik?


Die Anzahl der Defekte/cm² bleibt angenommen konstant
Die Strukturen werden deutlich kleiner

->1 Defekt beschädigt jetzt deutlich mehr Transistoren z.B.
->Wahrscheinlichkeit eines funktionsfähigen Chips sinkt, wenn dieser einen Defekt hat.

Defekte, wie z.B. Partikel bleiben ja in der größe bekanntlich zumindest ähnlich, oder warum sollte das selbe Staubkorn in 2 verschiedenen Prozessen unterschiedliche größen haben?

Logischerweise muss der 40 nm Prozess qualitativ deutlich besser sein, um die selbe Ausbeute zu erreichen.

Leuchtet doch eigentlich sofort ein, wenn jeder Transistor jetzt deutlich kleiner ist, dann sind die Fehlertoleranzen auch deutlich kleiner und demzufolge muss die Qualität deutlich besser sein um die selbe Ausbeute zu erreichen.
 
Zuletzt bearbeitet:
Dieses Argument zieht nur, wenn sich die fehlerhaften Transistoren über mehrere Logikblöcke strecken, die nachfolgend abgeschaltet werden müssten. Bleibt der Defekt innerhalb eines Logikblocks, ist es sowieso egal, wieviele Defekte oder eben defekte Transistoren sich in besagtem Block befinden.

Hier hast du aber Recht: die Wahrscheinlichkeit, dass eben selbiges passiert, steigert sich mit der Verfeinerung der Prozesse. Hier spielt die Grösse des Defekts eine grosse Rolle. Was ich aber meinte, war die Anzahl Punktdefekte/cm^2
 
Zuletzt bearbeitet:
Kleiner als der G100 (470/480), dementsprechend langsamer, und soll in der Preisklasse der 5850 rauskommen ? Dann wird sie vermutlich die Leistung einer 5770-5830 haben und ebenso überteuert sein wie die großen Fermis. In der heutigen c´t stand ein guter satz dazu drin:

Fermi ca. 100 EUR teurer als die entsprechenden Pendants der ATI, das für nur wenig mehr Leistung, das ist sie nicht wert. Nvidia hat es schwer...
 
AwesomeSauce schrieb:
Was ich aber meinte, war die Anzahl Punktdefekte/cm^2

Naja, hier verhält es sich aber ähnlich. Wenn ein Transistor von einem Punktdefekt betroffen ist, so können im Prinzip 3 Dinge passieren:
1.) Funktioniert
2.) Funktioniert nicht
3.) Alles zwischen 1+2
Je kleiner ein Transistor ist, desto eher wird 2.)+3.) eintreten.

Normalerweise ist das relativ egal, da die Chips ja kleiner werden und sich die Anzahl pro Wafer dadurch erhöht. Nimmt man aber die von dir gennanten Zahlen, so "wächst" der Chip, der ja eigentlich nur 40/65'tel der alten Flache haben dürfte.
 
Geh einfach mal davon aus, dass der Transistor nicht mehr zuverlässig schaltet - also defekt ist.
Normalerweise ist das relativ egal, da die Chips ja kleiner werden und sich die Anzahl pro Wafer dadurch erhöht. Nimmt man aber die von dir gennanten Zahlen, so "wächst" der Chip, der ja eigentlich nur 40/65'tel der alten Flache haben dürfte.
Du gehst hier von einem GT200 @ 40nm aus und vergleichst ihn mit GF100 @ 40nm.

Bei konstanter Punktdefektdichte würde sich der Yield erhöhen, da eben mehr Chips auf den Wafer passen (GT200@65nm vs GF100@40nm).
 
@AwesomeSauce: Yield = relative Ausbeute. Bei mehr Chips/Wafer erhält man bei gleichem Yield mehr funktionstüchtige aber auch mehr defekte Chips.

Die 460 wird das Ruder kaum rumreißen können. Sie wird die gleichen Probleme wie die anderen Fermis haben, soll heißen für das gebotene eine zu hohe Leistungsaufnahme und zusätzlich noch die üblichen Probleme abgespeckter Highend-Karten, also komplexere Layouts als nötig und damit verbunden höhere Kosten.
Außerdem hat Nvidia zusätzlich das Problem, dass Ati zur Abwechslung mal fast perfekt aufgestellt ist mit einer ganzen Palette von DX11-Karten in jedem Preissegment.
 
Zuletzt bearbeitet:
Außerdem hat Nvidia zusätzlich das Problem, dass Ati zur Abwechslung mal fast perfekt aufgestellt ist mit einer ganzen Palette von DX11-Karten in jedem Preissegment.
waren sie bei der hd4xxx doch auch. diesmal waren sie aber erster und haben einige fehler ausgemerzt (zb hoher gddr5takt im 2d) und einiges hübsches dazu getan haben, wie ogssaa
meiner meinung wird die 460 auch net viel sparsamer, vorallem net so gut in watt/fps wie die ati.
hoffentlich wird der gf100 refresh besser ( und schneller), dann würde nv wieder mindestens kopf an kopf mit ati sein.
 
AwesomeSauce rechnet anders.
12 Fehlstellen auf dem Wafer = 12 Defekte Chips.
65nm = 100chips/wafer , 12 Defekt --> Yield 88%
40nm = 170chips/wafer, 12 Defekt --> Vield 94%

da das sowieso alles Auslegungssache ist.
und sowieso keiner die Genauen zahlen von TSMC erfährt, ist die Diskusion darum sinnlos.
 
Nur so kann man eben nicht rechnen, da 470/576 ungleich 40/65 :p .
Du gehst hier von einem GT200 @ 40nm aus und vergleichst ihn mit GF100 @ 40nm.
Nein, ich gehe von
(GF100:470-530mm^2 {40nm}- GT200: 576mm^2{65nm})
aus.


Geh einfach mal davon aus, dass der Transistor nicht mehr zuverlässig schaltet - also defekt ist.
Nichts für ungut, aber das werde ich sicher nicht, denn das widerspricht so ziemlich allen Herstellungsprinzipien in der Halbleitertechnologie, welche sich dadurch auszeichnet nichts "exaktes" zu produzieren, sondern Wahrscheinlichkeitsverteilungen so hinzubekommen, dass das Endprodukt akzeptabel ist.
Abgesehen davon ist alleine die Vorstellung doppelt so viele Transistoren herstellen zu wollen, aber die selbe Fehlerdichte zu haben auch ganz witzig, aber es setzt eben auch vorraus, dass die Qualität entsprechend erhöht wurde.

Man muss die Qualität also nicht erhöhen, da sie bereits erhöht wurde, aber man wundert sich, dass bei gleichbleibender Qualität die Ergebnisse schlechter werden.

Was denn jetzt ;) ?
 
Zuletzt bearbeitet:
Zurück
Oben