Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce GTX 970: Nvidia bestätigt Limitierungen am Speicher
- Ersteller Jan
- Erstellt am
- Zur News: GeForce GTX 970: Nvidia bestätigt Limitierungen am Speicher
Der Landvogt
Banned
- Registriert
- März 2010
- Beiträge
- 4.401
@PiPaPa & sudfaisl
Depp_vom_Dienst hat behauptet, dass ein technisch korrekt gefertigter Chip des GM204 automatisch GTX980 heißen müsste:
@smilefaker
Es kam in den letzten Jahren schon häufig vor, dass AMD-Karten zu Beginn kaum verfügbar waren. Sicher auch bei NV, aber AMD hatte nach meinem Gefühl mehr Probleme.
Depp_vom_Dienst hat behauptet, dass ein technisch korrekt gefertigter Chip des GM204 automatisch GTX980 heißen müsste:
Das ist aber Unsinn sofern der Ausschuss so extrem wäre, dass nur ein Bruchteil korrekt produziert werden würde. Da würde man doch gar nicht erst anfangen zu produzieren wenn es derartige Probleme gibt, zumal die immer noch 28nm haben. Und dass sich sagen wir mal 80% 980er verkaufen und 20% 970er halte ich für extrem unrealistisch.Depp_vom_Dienst schrieb:Natürlich sind die GTX 970 teildefekt, sonst würde man sie als GTX 980 Chips verkaufen.
@smilefaker
Es kam in den letzten Jahren schon häufig vor, dass AMD-Karten zu Beginn kaum verfügbar waren. Sicher auch bei NV, aber AMD hatte nach meinem Gefühl mehr Probleme.
Tja scheint es kommt jetzt ganz bitter für Nvidia:
http://ht4u.net/news/30723_nvidias_...mit_gsync_schwaechelt_-_viele_fruehe_defekte/
http://ht4u.net/news/30723_nvidias_...mit_gsync_schwaechelt_-_viele_fruehe_defekte/
Im Ergebnis dürfen wir festhalten, dass das GSync-Feature für unsere Tests nachprüfbar war und beeindruckend funktionierte. Wir dürfen ebenfalls festhalten, dass für einen recht kurzen Zeitraum der recht teure ASUS-Monitor auch für Spieler Spaß machte. Wir müssen aktuell eben klar vor Problemen warnen, die mit diesem Gerät einher gehen können und in der Folge bei etwaigen Problemen mit Nachteilen (Austausch / Rücksendung / Überprüfung in der Technik) einhergehen können. Seitens ASUS gibt es bislang weder eine Stellungnahme zu dem Problem oder eine Rückrufaktion. Aus den Foren haben wir erfahren dürfen, dass die Geräte auf üblichem Wege zur RMA-Abteilung gelangt sind und in aller Regel getauscht oder überarbeitet zurück geschickt wurden. Die detaillierten Fälle sind uns natürlich nicht bekannt.
Pennerschwert
Commodore
- Registriert
- Mai 2011
- Beiträge
- 4.192
Der Landvogt schrieb:@PiPaPa & sudfaisl
Depp_vom_Dienst hat behauptet, dass ein technisch korrekt gefertigter Chip des GM204 automatisch GTX980 heißen müsste:
Das ist aber Unsinn sofern der Ausschuss so extrem wäre, dass nur ein Bruchteil korrekt produziert werden würde. Da würde man doch gar nicht erst anfangen zu produzieren wenn es derartige Probleme gibt, zumal die immer noch 28nm haben. Und dass sich sagen wir mal 80% 980er verkaufen und 20% 970er halte ich für extrem unrealistisch.
Natürlich verkauft man einen voll funktionsfähigen Chip erstmal als GTX 980 Chip. Teildeaktivieren wird man ihn erst, wenn man die Nachfrage nach GTX 970 mit teildefekten Chips nicht mehr decken kann.
Im ausgereiften 28nm Prozess wird der anfängliche Ausschuss tatsächlich erstmal kleiner sein als bei Einführung eines neuen Fertigungsprozess. Trotzdem genügt bereits ein winziger Fehler auf der Belichtungsmaske, um einen Chip teilweise unbrauchbar zu machen. Da der Yield mit Sicherheit nicht bei 100% liegt werden also sehr wohl einige der GTX 970 teildefekte Chips sein, die gegebenfalls noch zusätzlich teildeaktiviert werden.
Was ist daran Unsinn? Natürlich sind die 970er teildefekt, wenn man ganz klugscheißereisch sein will sind sie sowieso nach dem Lasercut teildefekt, weil der Bereich nicht mehr reperabel ist.
Und teildeaktiviert wäre dann per BIOS deaktivierte Bereiche des Chips...
Aber wollen wir so eine Erbsenzählerei machen?
Und teildeaktiviert wäre dann per BIOS deaktivierte Bereiche des Chips...
Aber wollen wir so eine Erbsenzählerei machen?
Der Landvogt
Banned
- Registriert
- März 2010
- Beiträge
- 4.401
@Depp_vom_Dienst
Ich frag mich schon wie NV diese Masse an 980ern jemals loswerden will, das P/L-Verhältnis war ja nie wirklich gut. Und woher hätten sie die vielen 970er herbekommen sollen außer dass der Ausschuss extrem ist?
Das mit deinem Namen war übrigens nicht ganz Ernst gemeint, daher auch dieser Smiley am Ende.
@PiPaPa
Aber nicht zwangsläufig von der Produktion her und genau das hat Depp_vom_Dienst suggeriert. Wenn man das im Nachhinein gemacht hat macht das schon einen kleinen Unterschied.
Ich frag mich schon wie NV diese Masse an 980ern jemals loswerden will, das P/L-Verhältnis war ja nie wirklich gut. Und woher hätten sie die vielen 970er herbekommen sollen außer dass der Ausschuss extrem ist?
Das mit deinem Namen war übrigens nicht ganz Ernst gemeint, daher auch dieser Smiley am Ende.
@PiPaPa
Aber nicht zwangsläufig von der Produktion her und genau das hat Depp_vom_Dienst suggeriert. Wenn man das im Nachhinein gemacht hat macht das schon einen kleinen Unterschied.
Seppuku
Vice Admiral
- Registriert
- Aug. 2005
- Beiträge
- 7.002
Eben. War schon immer so, ist so und wird auch immer so sein...Depp_vom_Dienst schrieb:Natürlich verkauft man einen voll funktionsfähigen Chip erstmal als GTX 980 Chip. Teildeaktivieren wird man ihn erst, wenn man die Nachfrage nach GTX 970 mit teildefekten Chips nicht mehr decken kann.
Verstehe nicht, warum man wegen so einer Selbstverständlichkeit noch diskutieren muss. Ist aber wohl die gleiche Erklärung, warum es immer noch Leute gibt, die das kundenunfreundliche Verhalten von nVidia verteidigen und relativieren...
PrinceVinc
Lt. Commander
- Registriert
- Okt. 2014
- Beiträge
- 1.227
Wow habe ich das los getreten? xD Weiß jetzt leider immer noch nicht wirklich wieso volle 4GB auf 980 nur möglich war.
Edit: Obwohl wenn der "defekt" sich auf das Interface auswirkt und es dadurch zu "klein" wird für volle 4GB dann hab ich's doch verstanden. Aber es klingt echt übelst aufwendig die 500 + 500 da nachträglich noch irgendwie ran zu pinnen.
Edit: Obwohl wenn der "defekt" sich auf das Interface auswirkt und es dadurch zu "klein" wird für volle 4GB dann hab ich's doch verstanden. Aber es klingt echt übelst aufwendig die 500 + 500 da nachträglich noch irgendwie ran zu pinnen.
Zuletzt bearbeitet:
- Registriert
- Sep. 2008
- Beiträge
- 21.922
Einen möglichen Erklärungsansatz findest du hier: http://www.3dcenter.org/artikel/kommentar-nvidia-interessiert-sich-nicht-fuer-geforce-kaeufer
Pennerschwert
Commodore
- Registriert
- Mai 2011
- Beiträge
- 4.192
Der Landvogt schrieb:@Depp_vom_Dienst
Ich frag mich schon wie NV diese Masse an 980ern jemals loswerden will, das P/L-Verhältnis war ja nie wirklich gut. Und woher hätten sie die vielen 970er herbekommen sollen außer dass der Ausschuss extrem ist?
Also gut, ich erkläre es gerne nochmal. In den ersten Chargen hat man oft teildefekte Chips, im ausgereiften 28nm Prozess, wahrscheinlich weniger als sonst, aber Ausschuss hat man sicher. Nun kann man die Chips entweder wegwerfen oder man verwertet sie in einem Produkt wie der GTX 970, für die man alle Chips verwenden kann, die in den Bereichen, die bei bei diesem Chip deaktiviert werden, einen Fehler aufweisen. Natürlich wird es auch Chips geben, die nur einen winzigen Fehler habe, diese kann man aber trotzdem nicht als GTX 980 verkaufen, also deaktiviert man noch einige funktionierende Bereiche zusätzlich, um eine GTX 970 zu erhalten.
Wenn nach Anlaufen der Produktion die Ausbeute irgendwann gut genug ist, so dass man mehr vollständig funktionsfähige Chips hat als man verkaufen kann und weniger teildefekte Chips, als man benötigt, wird man anfangen auch vollkommen funktionierende Chips teilzudeaktiveren.
Da die Yieldraten aber nie 100% erreichen werden, wird es auch immer teildefekte Chips geben, die beispielweise als GTX 970 verkauft werden. Es macht prinzipiell auch keinen Unterschied ob ein Chip durch einen Lasercut teilweise zerstört wird und damit teildefekt ist oder ob er direkt auch der Produktion teildefekt kommt.
Der Landvogt schrieb:Das mit deinem Namen war übrigens nicht ganz Ernst gemeint, daher auch dieser Smiley am Ende.
Könnte man bei CB den Namen öfters wie 1mal ändern, wäre ich ihn schon lange los. Trotzdem kann man auch sachlich ohne angedeutete Beleidigungen diskutieren. Der Nickname tut für mich erstmal nichts zur Sache.
@Zotac2012 :
Man man man, versuchst du überhaupt dies Posts anderer Leute zu verstehen bevor du drauf los wetterst?
Aber gut, ich erklärs mal etwas ausführlicher:
Es ist ganz normal, dass bei einer neu hochgefahrenen Produktion auf einigen Chips nicht alle zig Millionen (inzwischen Milliarden) Logikschaltungen und Speicherzellen so wie vorgesehen funktionieren. Wenn man das dann beim Test in der Fabrik erkennt hat man zwei Möglichkeiten:
Entweder man sagt einfach der Chip ist defekt und schmeißt ihn weg oder - falls das Design das zulässt - man deaktiviert einfach diesen einen Teil des Chips, sodass gar nicht erst versucht wird diese fehlerhaften Schaltungen bzw. Speicherzellen zu benutzen und verkauft ihn als schwächere Variante.
Das ist vom Prinzip her auch nichts anderes als das Binning nach maximaler Frequenz. Alle Haswell Chips der i5 Reihe basieren z.B. auf dem gleichen Chip-Design und sollten idealer weise die gleiche Frequenz schaffen. Durch Schwankungen in der Produktion (und z.B. auch je nach Position auf dem Waver) kommen dann aber am Ende Chips raus, denen bei unterschiedlicher Frequenz die Luft ausgeht. Anstatt zu sagen, alle Chips, die keine 3,9 Ghz schaffen sind defekt und müssen weggeschmissen werden, verringert man die Anforderungen und verkauft sie eben günstiger als 4570 statt 4690.
Wenn jetzt ein Teil des Chips gar nicht funktioniert oder man mit dem Takt nicht soweit runtergehen möchte besteht die andere Möglichkeit eben darin diesen Teil zu deaktivieren und den Chip, diesmal nicht mit weniger Takt, sondern mit weniger Speicher/Ausführungseinheiten zu verkaufen.
Natürlich werden Chips nicht nur beschnitten, wenn ein Teil von ihnen defekt ist, aber das habe ich auch gar nicht behauptet. Die Frage von PrinceVinc war ja, WARUM das Speicherinterface bei der 970 beschnitten ist und zumindest der Hauptgrund war sicherlich, dass Nvidia dadurch Chips verkaufen konnte, die sie sonst hätten wegschmeißen müssen. Trotz meines ironischen Kommentars weiter vorne ist die Möglichkeit so feingranular einen Teil einer ROP/MC-Partition deaktivieren ja - zumindest für Nvidia - tatsächlich ein Feature, in das sicher einiges an Arbeit geflossen ist. Es ist nur keine Feature von dem die Käufer der Gtx970 (außer evtl. über den Preis) profitieren.
Zum Problem wurde das ja auch nur, weil Nvidia das nicht offen kommuniziert - vermutlich weil wohl irgendwer dachte, dass es eh keinem auffallen würde / für keinen ein Problem ist, während eine öffentliches Statement, dass 500MB Speicher nur schlecht genutz werden können sicherlich viele Käufer abgeschreckt hätte.
Zur Quelle:
Man man man, versuchst du überhaupt dies Posts anderer Leute zu verstehen bevor du drauf los wetterst?
Aber gut, ich erklärs mal etwas ausführlicher:
Es ist ganz normal, dass bei einer neu hochgefahrenen Produktion auf einigen Chips nicht alle zig Millionen (inzwischen Milliarden) Logikschaltungen und Speicherzellen so wie vorgesehen funktionieren. Wenn man das dann beim Test in der Fabrik erkennt hat man zwei Möglichkeiten:
Entweder man sagt einfach der Chip ist defekt und schmeißt ihn weg oder - falls das Design das zulässt - man deaktiviert einfach diesen einen Teil des Chips, sodass gar nicht erst versucht wird diese fehlerhaften Schaltungen bzw. Speicherzellen zu benutzen und verkauft ihn als schwächere Variante.
Das ist vom Prinzip her auch nichts anderes als das Binning nach maximaler Frequenz. Alle Haswell Chips der i5 Reihe basieren z.B. auf dem gleichen Chip-Design und sollten idealer weise die gleiche Frequenz schaffen. Durch Schwankungen in der Produktion (und z.B. auch je nach Position auf dem Waver) kommen dann aber am Ende Chips raus, denen bei unterschiedlicher Frequenz die Luft ausgeht. Anstatt zu sagen, alle Chips, die keine 3,9 Ghz schaffen sind defekt und müssen weggeschmissen werden, verringert man die Anforderungen und verkauft sie eben günstiger als 4570 statt 4690.
Wenn jetzt ein Teil des Chips gar nicht funktioniert oder man mit dem Takt nicht soweit runtergehen möchte besteht die andere Möglichkeit eben darin diesen Teil zu deaktivieren und den Chip, diesmal nicht mit weniger Takt, sondern mit weniger Speicher/Ausführungseinheiten zu verkaufen.
Natürlich werden Chips nicht nur beschnitten, wenn ein Teil von ihnen defekt ist, aber das habe ich auch gar nicht behauptet. Die Frage von PrinceVinc war ja, WARUM das Speicherinterface bei der 970 beschnitten ist und zumindest der Hauptgrund war sicherlich, dass Nvidia dadurch Chips verkaufen konnte, die sie sonst hätten wegschmeißen müssen. Trotz meines ironischen Kommentars weiter vorne ist die Möglichkeit so feingranular einen Teil einer ROP/MC-Partition deaktivieren ja - zumindest für Nvidia - tatsächlich ein Feature, in das sicher einiges an Arbeit geflossen ist. Es ist nur keine Feature von dem die Käufer der Gtx970 (außer evtl. über den Preis) profitieren.
Zum Problem wurde das ja auch nur, weil Nvidia das nicht offen kommuniziert - vermutlich weil wohl irgendwer dachte, dass es eh keinem auffallen würde / für keinen ein Problem ist, während eine öffentliches Statement, dass 500MB Speicher nur schlecht genutz werden können sicherlich viele Käufer abgeschreckt hätte.
Zur Quelle:
As for why NVIDIA is using such a configuration here, the crux of the matter is money and yields.
Der Landvogt
Banned
- Registriert
- März 2010
- Beiträge
- 4.401
Es werden aber nicht 80% (oder wie hoch der Anteil der 970 auch sein mag) in irgendeiner Weise defekt sein, das wäre schon eine miese Ausbeute. Du hattest ja suggeriert, dass jeder voll funktionsfähige Chip automatisch in eine 980 wandert und in die 970 ausschließlich teildefekte aus der Produktion. Und genau das kann ich mir nicht vorstellen. In der 970 landen auch genug voll funktionsfähige, die aber absichtlich beschnitten wurden.Depp_vom_Dienst schrieb:Natürlich wird es auch Chips geben, die nur einen winzigen Fehler habe, diese kann man aber trotzdem nicht als GTX 980 verkaufen, also deaktiviert man noch einige funktionierende Bereiche zusätzlich, um eine GTX 970 zu erhalten.
PrinceVinc
Lt. Commander
- Registriert
- Okt. 2014
- Beiträge
- 1.227
nvidia hätte sich den Ärger echt sparen können und nicht so gierig sein müssen. Die R290 und 290X liegen auch nur 5% etwa auseinander aber der Preisunterschied zu Leistung stimmen wenigstens.
Pennerschwert
Commodore
- Registriert
- Mai 2011
- Beiträge
- 4.192
Der Landvogt schrieb:Du hattest ja suggeriert, dass jeder voll funktionsfähige Chip automatisch in eine 980 wandert und in die 970 ausschließlich teildefekte aus der Produktion.
Wurde doch jetzt oft genug erklärt, dass das anfangs durchaus der Fall ist und man je nach Nachfrage und Yield dann auch voll funktionsfähige Chips, künstlich teildeaktiviert.
In der 970 landen auch genug voll funktionsfähige, die aber absichtlich beschnitten wurden.
Klar genauso wird aber immer ein Teil davon, teilweise funktionsunfähige Chips direkt aus der Produktion sein, weil sich der Yield nie auf 100% steigern lassen wird. Dazu sind die Chips viel zu komplex.
Da der 28nm-Prozess bereits sehr ausgereift ist, dürfte der Yield voll funktionsfähiger GM204-Chips bei 80-90% liegen (alle Zahlen, auch die nachfolgenden sind von mir nur geschätzt, aber zum 28nm-Prozess von TSMC gab es bereits genügend offizielle Angaben zur Yield, bin zu faul zum Suchen). Von diesen sind einige unbenutzbar, weil die Fehler in Bereichen liegen, die nicht redundant sind. Liegen die Fehler hingegen in einem der bei der GTX970 abschaltbaren Bereiche, hier ausgegraut:
zB alle in einem 1/8-Block des L2-Caches oder
in höchstens 3 der Shader Multiprozessoren (SM),
können diese Bereiche nach einem Testlauf (angeblich per lasercut) deaktiviert werden.
Es gab auch schon Fälle - zB bei Drei-Kern-AMD-Prozessoren ~2007 rum - da liess sich der deaktivierte Teil durch ein BIOS-Update/Hack freischalten; einige Glückliche hatten dann einen Vier-Kern-Prozessor. Auch bei einigen AMD-Grafikkarten (der Erinnerung nach ~2003 beim R300 und den berühmten 9700/9800ern) liessen sich deaktivierte Teile durch einen Treiber aktivieren. Und wenn mich nicht alles täuscht, funktionierte das auch bei einigen Geforce 4200/4400/4600 anno ~2002. Genau deshalb ging man dann zum lasercut als physikalisch unbehebbare Deaktivierung über.
Gehen wir - trotz des ausgereiften Prozesses - von immer noch 2-3% komplett defekten GM204-Chips (die GPU ist ein Monster mit 5 Milliarden Transistoren!) aus und von 80% voll intakten, gehen vom Verhältnis verkaufter GTX970 zu GTX980 mit 80/20 aus, dann bleiben 60% der voll intakten Chips übrig, die sich aufgrund der Marktsituation nur als GTX970 verkaufen lassen.
Ich vermute daher, dass 3/4 der GTX970 auch als voll intakte GTX980 hätten verkauft werden können, während 1/4 der verkauften GTX970 tatsächlich Teildefekte in den abgeschalteten Bereichen aufweisen.
Diese Technik ist nicht nur nicht im Ansatz ein Betrug, sie ist normal, kaufmännisch sinnvoll und seit langem üblich. Intel hat die Technik der Erhöhung der Yield bereits vor 20 Jahren dergestalt genutzt, dass einfach ein physikalisch größerer Cache designed und produziert wurde, von dem mit Leichtigkeit alle Zeilen mit einem Defekt einfach abgeschaltet werden konnten. So wurde die Verwertung teildefekter Chips, bei denen der Fehler "nur" im Cache lag (es war ein Serverprozessor mit einem ich glaube damals irrsinnig großen 2MB Cache von dem ich rede, das müsste so gefühlt ~2001 gewesen sein +/- 3 Jahre) deutlich ausgeweitet.
Ich meine auch gelesen zu haben, dass Nvidia die grundsätzlich gute Idee, selbst bei Fehlern im L2-Cache den GM204-Chip noch als GTX970 verkaufen zu können (durch Abschaltung von 1/8), gezielt bei der Planung so designed wurde. Kaufmännisch ist das super, nur sollte man das den Leuten dann auch sagen, bevor man ihnen sowas verkauft :Freak
Von der Leistung her und vom PLV ist die GTX970 eine super Grafikkarte, ich hätte sie halt als 4GB* mit 256bit** verkauft und sie hätte sich trotzdem wie geschnitten Brot verkauft, spätestens nach den Reviews und hätte im Treiber den Zugriff auf die letzten 512MB strikt auf performanceunkritische Fälle limitiert. Wahrscheinlich hätte man statt des letzten 512MB-Chips auch einen mit 1/2/4GB verbauen können, und die Karte so als 4,5/5,5/7,5GB-Karte verkaufen können. Im Profisegment ist es seit Jahren üblich, dass die Grafikkarten zwei unterschiedliche und dabei unterschiedlich schnelle Speichertypen aufweisen, die meistens saumäßig groß sind (für CAD usw). Marketingtechnisch hätte man dann zwar einen Handstand machen müssen, um den Führungsanspruch der GTX980 mit "nur" 4GB nicht anzukratzen, aber man kann den Boardherstellern hier auch Vorgaben machen. Egal. Nvidia hat einen anderen - ich finde sehr schlechten - Weg gewählt.
* 3,5GB + 0,5GB
** Davon nie mehr als 224bit gleichzeitig nutzbar
EDIT:
Im obigen Rechenbeispiel habe ich die 17-18% teildefekten GM204-Chips vergessen. Ist aber ohnehin nur zur Veranschaulichung...
zB alle in einem 1/8-Block des L2-Caches oder
in höchstens 3 der Shader Multiprozessoren (SM),
können diese Bereiche nach einem Testlauf (angeblich per lasercut) deaktiviert werden.
Es gab auch schon Fälle - zB bei Drei-Kern-AMD-Prozessoren ~2007 rum - da liess sich der deaktivierte Teil durch ein BIOS-Update/Hack freischalten; einige Glückliche hatten dann einen Vier-Kern-Prozessor. Auch bei einigen AMD-Grafikkarten (der Erinnerung nach ~2003 beim R300 und den berühmten 9700/9800ern) liessen sich deaktivierte Teile durch einen Treiber aktivieren. Und wenn mich nicht alles täuscht, funktionierte das auch bei einigen Geforce 4200/4400/4600 anno ~2002. Genau deshalb ging man dann zum lasercut als physikalisch unbehebbare Deaktivierung über.
Gehen wir - trotz des ausgereiften Prozesses - von immer noch 2-3% komplett defekten GM204-Chips (die GPU ist ein Monster mit 5 Milliarden Transistoren!) aus und von 80% voll intakten, gehen vom Verhältnis verkaufter GTX970 zu GTX980 mit 80/20 aus, dann bleiben 60% der voll intakten Chips übrig, die sich aufgrund der Marktsituation nur als GTX970 verkaufen lassen.
Ich vermute daher, dass 3/4 der GTX970 auch als voll intakte GTX980 hätten verkauft werden können, während 1/4 der verkauften GTX970 tatsächlich Teildefekte in den abgeschalteten Bereichen aufweisen.
Diese Technik ist nicht nur nicht im Ansatz ein Betrug, sie ist normal, kaufmännisch sinnvoll und seit langem üblich. Intel hat die Technik der Erhöhung der Yield bereits vor 20 Jahren dergestalt genutzt, dass einfach ein physikalisch größerer Cache designed und produziert wurde, von dem mit Leichtigkeit alle Zeilen mit einem Defekt einfach abgeschaltet werden konnten. So wurde die Verwertung teildefekter Chips, bei denen der Fehler "nur" im Cache lag (es war ein Serverprozessor mit einem ich glaube damals irrsinnig großen 2MB Cache von dem ich rede, das müsste so gefühlt ~2001 gewesen sein +/- 3 Jahre) deutlich ausgeweitet.
Ich meine auch gelesen zu haben, dass Nvidia die grundsätzlich gute Idee, selbst bei Fehlern im L2-Cache den GM204-Chip noch als GTX970 verkaufen zu können (durch Abschaltung von 1/8), gezielt bei der Planung so designed wurde. Kaufmännisch ist das super, nur sollte man das den Leuten dann auch sagen, bevor man ihnen sowas verkauft :Freak
Von der Leistung her und vom PLV ist die GTX970 eine super Grafikkarte, ich hätte sie halt als 4GB* mit 256bit** verkauft und sie hätte sich trotzdem wie geschnitten Brot verkauft, spätestens nach den Reviews und hätte im Treiber den Zugriff auf die letzten 512MB strikt auf performanceunkritische Fälle limitiert. Wahrscheinlich hätte man statt des letzten 512MB-Chips auch einen mit 1/2/4GB verbauen können, und die Karte so als 4,5/5,5/7,5GB-Karte verkaufen können. Im Profisegment ist es seit Jahren üblich, dass die Grafikkarten zwei unterschiedliche und dabei unterschiedlich schnelle Speichertypen aufweisen, die meistens saumäßig groß sind (für CAD usw). Marketingtechnisch hätte man dann zwar einen Handstand machen müssen, um den Führungsanspruch der GTX980 mit "nur" 4GB nicht anzukratzen, aber man kann den Boardherstellern hier auch Vorgaben machen. Egal. Nvidia hat einen anderen - ich finde sehr schlechten - Weg gewählt.
* 3,5GB + 0,5GB
** Davon nie mehr als 224bit gleichzeitig nutzbar
EDIT:
Im obigen Rechenbeispiel habe ich die 17-18% teildefekten GM204-Chips vergessen. Ist aber ohnehin nur zur Veranschaulichung...
Zuletzt bearbeitet:
Miuwa schrieb:2x2MB@64bit,
Solche Gedankenspiele bringen aber nicht viel, weil wir nicht 1997 haben.
Es ging mir nur darum aufzuzeigen, dass die Frage nach der Breite bzw. Bandbreite eins Interfaces nicht so licht zu beantworten ist.
Von der Leistung her würde ich den Voodoo1 als 4MB mit 128Bit Anbindung beschreiben, denn er liegt auf dem Nioveau eines Riva 128, der seine ebenfall 4MB "unified" RAM mit 128Bit angebinden hat.
Miuwa schrieb:Mit bestimmten Angaben zu Speichergröße und Speicherinterface werden ja - basierend auf den Erfahrungen mit den Vorgängern oder anderen Karten aus der gleichen Generation - bestimmte Erwartungen bezüglich des Verhaltens verknüpft und bisher hieß XBit Speicherinterface eben, dass in einem Cycle XBit geschrieben oder gelesen werden können, genauso wie XGB Speicher eben seit jahren XGB gleich benutzbarer Speicher bedeutet.
Das trifft doch aber für die GTX660 mit 192Bit Interface und 2GB RAM auch schon nicht mehr zu.
Da hängen doch auch an zweien der 64Bit MC je 512MB und an dem dritten 64Bit MC 1GB RAM.
Leider blieb damals die Frage unbeantwortet, welche Bandbreite bei welcher RAM-Auslastung nutzbar ist.
Sind hier 1,5GB mit 192 Bit angebunden und beim Zugriff auf die oberen 512MB nicht gleichzeitig ansprechbar?
Oder sind hier 1Gb mit 128Bit (2x64) angebunden und 1Gb mit 64 Bit und gleichzeitig nutzbar?
Oder sind die 3 MC und die daran hängenden RAM völlig unabhängig voneinander ansprechbar?
DrToxic schrieb:Wurde von RIPchen weiter oben schon erwähnt: DDR-RAM. Bei DDR sollte das Interface die bidirektionale Rate beschreiben, bei SD halt unidirektional.
Ob DDR oder SDR spielt meiner Meinung nach keine Rolle.
DDR verdoppelt prinzipiell die Busbreite, weil in einem physikalischen Takt 2x Daten geschrieben werden, bei 256Bit DDR also 512Bit.
Soweit ich weiß, ist auf den beiden Taktflanken nur die gleiche Speicheroperation möglich, also entweder lesen oder schreiben. Auf der einen Flanke lesen und der anderen schreiben geht nicht. Ich habe dazu aber keine Quelle gefunden, die das explizit so beschreibt.
Der Landvogt
Banned
- Registriert
- März 2010
- Beiträge
- 4.401
Genau so sehe ich das auch.RIPchen schrieb:Ich vermute daher, dass 3/4 der GTX970 auch als voll intakte GTX980 hätten verkauft werden können, während 1/4 der verkauften GTX970 tatsächlich Teildefekte in den abgeschalteten Bereichen aufweisen.
PrinceVinc
Lt. Commander
- Registriert
- Okt. 2014
- Beiträge
- 1.227
Wie gesagt wieso kann Nvidia nicht etwas mehr so sein wie AMD? Gute 290 ~300€ - 290X ~360€ aber ne nvidia die geld geile... nevermind.
Zotac2012
Admiral
- Registriert
- Apr. 2012
- Beiträge
- 7.769
sudfaisl schrieb:Einen möglichen Erklärungsansatz findest du hier: http://www.3dcenter.org/artikel/kommentar-nvidia-interessiert-sich-nicht-fuer-geforce-kaeufer
Ja und was soll der Kommentar uns sagen, was wir nicht schon seit längerem Wissen. Diese Vermutungen und Spekulationen warum Nvidia die GTX 970 so beschnitten hat, haben wir doch schon längst durch. Das ist doch nichts anderes was ich doch auch schon gesagt habe, hätte man die GTX 970 von seitens Nvidia nicht so beschnitten, lege das Leistungsniveau der GTX 970 fast gleich dem der GTX 980. Warum ich mich so aufgeregt habe, was die teildefekten Chips betrifft ist, das es so dargestellt wird, als bestehen alle Nvidia Grafikkarten der GTX 970 aus teildefekten Chips und das glaube ich nicht. Und ob teildefekte Chips bei der GTX 970 eingesetzt wurden, kann man vielleicht vermuten weil es vielleicht einen wirtschaftlichen Sinn ergibt aber ob es wirklich so war, kann keiner mit Gewißheit sagen. Auch wenn andere wie AMD oder auch Nvidia das in der Vergangenheit so praktiziert hat, muß das ja nicht Zwangsläufig auch bei der GTX 970 so gemacht worden sein.
Das hier manche gleich so harsch reagieren und einen als Ahnungslos hinstellen wundert mich jetzt auch nicht, das kann man ja öfter`s hier im Forum lesen. Viel schlimmer ist doch, das die gesamte Medienfachpresse auch CB die hier doch immer so schlau sind und alles Wissen, genauso wie manche User hier, die einem den Einduck vermitteln, als wüßten Sie mehr über die Entwicklung des Maxwell Chips und deren Struktur als die Nvidia Ingenieure, eben nichts gemerkt haben das Nvidia falsche Spezifikationen mitgteilt hat. Versschiedene User aus anderen Foren haben in der Praxis festgestellt, das irgendetwas mit den publizierten Daten der GTX 970 nicht im Einklang sein können, mit dem wie sich die GTX 970 zum Teil in der Realität verhält. Und nachdem nach und nach verschiedene Test und Benchmarks [unter anderem auch der Benchmark von Nai], das bestätigt hatten, was die User aus dem Guru 3D Forum und auch aus dem 3D Center Forum bemängelt hatten und somit der Beweis erbracht war, hat sich Nvidia bezgl. der Limitierung der GTX 970 geäußert [nun war Nvidia auch gezwungen zu reagieren].
Was bedeutet das letztendlich für die User in Zukunft, zum einen das die Reviews der Medienfachpresse nicht mal das Papier Wert sind auf dem sie geschrieben sind und zum anderen, das man in Zukunft nicht einfach blindlings die Spezifikationen der Hersteller übernimmt, sondern durch geziehltere Test ersteinmal prüfen muß, ob die Angaben der Hersteller korrekt sind bevor man Reviews veröffentlicht.
Ähnliche Themen
- Antworten
- 2
- Aufrufe
- 1.574
- Antworten
- 10
- Aufrufe
- 1.689