gibt es denn IRGENDWELCHE hinweise, wie lange NV noch braucht, bis sie die neuen karten an die NB-hersteller ausliefern? also wann vielleicht mit neuen NBs mit diesen karten zu rechnen ist? weil interessant klingen die chips auf jeden fall. nur momentan kriegt man ja am ehesten eine 4650 von ATI, wenn man einstiegsgamer-NBs sucht.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News „GeForce 200M“-Serie mit DX 10.1 und 40 nm
- Ersteller Wolfgang
- Erstellt am
- Zur News: „GeForce 200M“-Serie mit DX 10.1 und 40 nm
KAOZNAKE
Captain
- Registriert
- Aug. 2007
- Beiträge
- 3.844
Unyu schrieb:Was soll der Satz? TSMCs 40nm Yield ist sehr schlecht, siehe RV740, was hat das mit Nvidia zu tun, einen Chipdesigner im sonnigen Kalifornien, fernab irgend welcher Fabriken?
Aber der RV740 ist zumindest schon "erhältlich", im Gegensatz zum GT216/218, die ursprünglich ja schon vor RV740 erscheinen sollten (der sich ja auch schon verspätet hat), mittlerweile eigentlich erhältlich sein müssten und jetzt vielleicht Ende des Monats aufschlagen könnten. Und das, obwohl die Teile auch noch kleiner sind (vermutlich) als RV740, also bessere yields haben müssten.
Was das mit NVIDA zu tun hat? Dann lies mal den netten Artikel vom INQ
"Why is the GT200b such a clustered filesystem check? We heard the reason, and it took us a long time to actually believe it, they used the wrong DFM (Design For Manufacturing) tools for making the chip. DFM tools are basically a set of rules from a fab that tell you how to make things on a given process.
These rules can be specific to a single process node, say TSMC 55nm, or they can cover a bunch of them. In this case, the rules basically said what you can or can not do at 65nm in order to have a clean optical shrink to 55nm, and given the upcoming GT216, likely 40nm as well. If you follow them, going from 65nm to 55nm is as simple as flipping a switch."
Unyu schrieb:Also AMD hat den Paperlaunch der RV740 basierten Modelle bereits vollzogen, Nvidia vollzieht erst jetzt den Paperlaunch etlicher 40nm GT2xx.
Alle sind sie weit davon entfernt bald aus den Papierstadium hinauszuwachsen.
Jedoch ist dies bei AMD ok, weil deren Paperlaunch zum Zeitpunkt der großflächigen Verfügbarkeit in ferner Zukunft weiter zurückliegen wird.
Wenn du weitergelesen hättest, hättest du gesehen, das ich dies NVIDIA nicht vorwerfe ("Paperlaunch"). Schließlich hat AMD im Prinzip das gleiche gemacht. Dies kann man bei Notebooks aber auch nicht viel anders machen, denn es dauert einfach seine Zeit, bis die Hersteller anfangen, die Teile auch zu verbauen. Zwei Sachen stören halt: 40nm Grakas von AMD hat man schon gesehen (Desktop + Notebook), während bei NVIDIA weit und breit noch nix zu sehen ist(?), obwohl wie schon gesagt zumindest die Desktop Parts überfällig sind.
@SCARed@DD: Mir sind keine bekannt. Die Desktop-Teile sollen anscheinend jetzt doch Ende des Monats kommen , für ähnlich leistungsstarke(schwache) Notebook GPUs kann man denke ich frühestens in 2-3 Monaten rechnen, mit breiter Verfügbarkeit bei allen Herstellern eher noch länger. Für leistungsstarke NB-GPUs kann man sicher nochmal paar Monate draufrechnen, dann gibts aber schon längst DX11, also kann man sich die Dinger eigentlich auch komplett sparen (genau wie die 4860 Mobile usw.). Ein NB kauft man ja eher auf lange Sicht, was will man da noch mit der alten API?
Zuletzt bearbeitet:
Katzenjoghurt
Lt. Commander
- Registriert
- Aug. 2005
- Beiträge
- 1.983
SCARed@DD schrieb:gibt es denn IRGENDWELCHE hinweise, wie lange NV noch braucht, bis sie die neuen karten an die NB-hersteller ausliefern? also wann vielleicht mit neuen NBs mit diesen karten zu rechnen ist? weil interessant klingen die chips auf jeden fall. nur momentan kriegt man ja am ehesten eine 4650 von ATI, wenn man einstiegsgamer-NBs sucht.
Ein Hinweis wäre vielleicht die Vergangenheit.
Die GTX 260/280Ms wurden Anfang März angekündigt.
Aufgetaucht sind sie dann erst 2 Monate später, soweit ich weiß. (in 17 Zoll Noties)
inge70
Rear Admiral
- Registriert
- Sep. 2007
- Beiträge
- 5.805
@majinwalkman,
du hast recht, es sieht schon merkwürdig aus bei nvidia auf der page:
wusste garnicht, dass nv einen "Bewährten" DX10.1 Grafikprozessor haben... da sieht man mal, dass die chips DX10.1 mit sicherheit können, aber das einfach aus dem treiber raus gelassen wurde oder im chip selbst mal eben deaktiviert ist.. tztztztz
es ist aber auch totaler blödsin, für jedes neue DX ne neue graka fu den markt zu schmeißen. scheinbar fällt beiden chip-herstellern nichts besseres mehr ein um ihre ware an den mann zu bringen..
jede wette, dass die chips seit dem G80 auch das DX10.1 und DX11 unterstützen, dieses feature aber lediglich (aus marketing-sicht) nur deaktiviert wurde, um dann spätere "gleiche" chips noch mal auf den amrkt zu bringen... ist die logischste erklärung, denn jedesmal was neues erfinden kostet mehr als das vorhandene zu aktualisieren..
du hast recht, es sieht schon merkwürdig aus bei nvidia auf der page:
nvidia schrieb:Bewährter GeForce DirectX 10.1 Grafikprozessor
Der NVIDIA® GeForce® DirectX 10.1 Grafikprozessor mit Shader Model 4.1 unterstützt alle Details, HDR-Lichteffekte und Grafikeffekte, die die Entwickler bei allen klassischen und aktuellen Spielen vorgesehen haben. Wassereffekte, weiche Schatten, detaillierte Gesichter, Explosionen, Oberflächentexturen und komplexe Geometrien sorgen für virtuelle Welten in Kinoqualität voll rasanter Action. Selbstverständlich werden diese Spezialeffekte für flüssiges Gaming bei spielbaren Frameraten wiedergegeben, mit denen herkömmliche integrierte Einstiegsgrafiklösungen einfach nicht mithalten können.
wusste garnicht, dass nv einen "Bewährten" DX10.1 Grafikprozessor haben... da sieht man mal, dass die chips DX10.1 mit sicherheit können, aber das einfach aus dem treiber raus gelassen wurde oder im chip selbst mal eben deaktiviert ist.. tztztztz
es ist aber auch totaler blödsin, für jedes neue DX ne neue graka fu den markt zu schmeißen. scheinbar fällt beiden chip-herstellern nichts besseres mehr ein um ihre ware an den mann zu bringen..
jede wette, dass die chips seit dem G80 auch das DX10.1 und DX11 unterstützen, dieses feature aber lediglich (aus marketing-sicht) nur deaktiviert wurde, um dann spätere "gleiche" chips noch mal auf den amrkt zu bringen... ist die logischste erklärung, denn jedesmal was neues erfinden kostet mehr als das vorhandene zu aktualisieren..
Wie wil man etwas implementieren, dessen Spezifikationen noch gar nicht feststehen? Und warum sollte man zigmillionen Transistoren für nix verschwenden?inge70 schrieb:jede wette, dass die chips seit dem G80 auch das DX10.1 und DX11 unterstützen, dieses feature aber lediglich (aus marketing-sicht) nur deaktiviert wurde, um dann spätere "gleiche" chips noch mal auf den amrkt zu bringen... ist die logischste erklärung, denn jedesmal was neues erfinden kostet mehr als das vorhandene zu aktualisieren..
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
also dx11 im g80 halte ich für sehr unwahrscheinlich. bei dx10.1 könntest du vllt recht haben. es ist zumindest bekannt, dass dx10.1 teilweise funktioniert. aber ob es eigentlich vollständig funktioniert hätte und nv es nachträglich deaktiviert hat oder ob es tatsächlich unvollständig intigriert wurde, werden wir wohl nie erfahren. die tatsache, dass die kleinen ableger des g200 aber dx10.1 unterstützen, spricht schon dafür, dass die vorraussetzungen möglicherweise schon vorhanden waren.
da ich aber stark bezweifle, dass nvidia dieses feature per treiber jetzt auch für die älteren karten freigeben würde, ist es im grunde auch egal, obs physikalisch ganz oder nur teilweise vorhanden war.
da ich aber stark bezweifle, dass nvidia dieses feature per treiber jetzt auch für die älteren karten freigeben würde, ist es im grunde auch egal, obs physikalisch ganz oder nur teilweise vorhanden war.
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Dennoch machte seine "Erhältlichkeit" andere 55nm Produkte nicht marktuntauglich, im Gegenteil, siehe 47xx Serie + der Tatsache das eine einzige GPU nicht den Markt abdecken kann.KAOZNAKE schrieb:Aber der RV740 ist zumindest schon "erhältlich", im Gegensatz zum GT216/218
Woher hast du diese Information?die ursprünglich ja schon vor RV740 erscheinen sollten (...), mittlerweile eigentlich erhältlich sein müssten und jetzt vielleicht Ende des Monats aufschlagen könnten.
Tapeout war afaik im Februar, ein halbes Jahr ist ein üblicher Wert.
Stimmt, sie sind deutlich kleiner.Und das, obwohl die Teile auch noch kleiner sind (vermutlich) als RV740, also bessere yields haben müssten.
Dennoch, bei 20% Yield hilft auch das nicht mehr.
Ah Charlie der "Nvidia zugeneigte" hat sich mal richtig ausgetobt.Was das mit NVIDA zu tun hat? Dann lies mal den netten Artikel vom INQ
Zummenfassend schreibt er: Nvidia "baut" Schrott.
Erstaunlich was er zusammenträgt, selbst der IHS kommt ihm gelegen, um von Elektroschrott schreiben zu können.
Du kannst nicht von Desktop Grakas schreiben, wenn es sich um eine GPU handelt, die nur auf einer Desktop Karte verbaut wird.40nm Grakas von AMD hat man schon gesehen (Desktop + Notebook), während bei NVIDIA weit und breit noch nix zu sehen ist(?), obwohl wie schon gesagt zumindest die Desktop Parts überfällig sind.
Es waren wohl nur minimale Änderungen/Erweiterungen notwendig, um D3D10.1 zu unterstützen. Ähnlich wie vom R600 zum RV670.Lübke schrieb:also dx11 im g80 halte ich für sehr unwahrscheinlich. bei dx10.1 könntest du vllt recht haben. es ist zumindest bekannt, dass dx10.1 teilweise funktioniert. aber ob es eigentlich vollständig funktioniert hätte und nv es nachträglich deaktiviert hat oder ob es tatsächlich unvollständig intigriert wurde, werden wir wohl nie erfahren. die tatsache, dass die kleinen ableger des g200 aber dx10.1 unterstützen, spricht schon dafür, dass die vorraussetzungen möglicherweise schon vorhanden waren.
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
ich könnte mir sogar vorstellen, dass nv dx10.1 von vornherein hatte, für den fall, dass sie mit ihrem boykott auf die nase fallen würden. dann hätten sie es jederzeit per treiberupdate aktivieren können, um größere probleme zu vermeiden. aber da der boykott offensichtlich funktioniert hat, kams nicht dazu. jetzt nutzt man es noch unmittelbar vor dx11, um nochmal die alten chips als was neues nachschieben zu können und noch mit einer "zwischengeneration" zusätzlich kasse zu machen.
AffenJack
Lt. Commander
- Registriert
- Dez. 2005
- Beiträge
- 1.199
theorist schrieb:Es waren wohl nur minimale Änderungen/Erweiterungen notwendig, um D3D10.1 zu unterstützen. Ähnlich wie vom R600 zum RV670.
Ihnen hat wohl nur irgendeine Sache gefehlt hab ich gelesen, den Rest hatten sie wahrscheinlich. Das Problem war allerdings, dass diese Sache nen ziemlichen Umbau der ROPs benötigt hat, weshalb sies gescheut haben.
Das Einbauen jetzt war auch sicher nicht freiwillig um mit ner "Zwischengeneration" Kasse zu machen, die OEMs habens verlangt und da kann nv dann auch nicht so einfach sagen, ne wollenwa nicht. Wennse das wirklich gern eingebaut hätten, dann würdense dafür Werbung machen und es nicht in der Präsentation verstecken und sogut wie gar nicht erwähnen.
Ähnliche Themen
- Antworten
- 59
- Aufrufe
- 7.765
- Antworten
- 62
- Aufrufe
- 8.190
- Antworten
- 110
- Aufrufe
- 13.791
- Antworten
- 5
- Aufrufe
- 1.048