News GeForce RTX mit AD102: 4070 Ti Super mit um 54 Prozent gestutzter GPU bestätigt

Ich bin schlau und warte auf die "Super Duper" Variante mit nur 44% Cut. :freak:
 
  • Gefällt mir
Reaktionen: Solavidos
Würde gerne wissen wie sich das auf den Stromverbrauch auswirkt
 
  • Gefällt mir
Reaktionen: eastcoast_pete, Kalsarikännit, lubi7 und 4 andere
Affenbrotmann schrieb:
Ich bin jetzt kein Chip-Desinger oder so und hab auch wenig Plan von dem gesamten Aufbau etc. aber ich frage mich halt, was genau für Fehler auf diesen Chips entstehen können, sodass Teile noch brauchbar sind. Ich meine, wenn da ein Fehler bei der Herstellung passiert, ist es dann nicht meist so, dass der Chip komplett unbrauchbar wird, vor allem bei so empfindlichen teilen im Nanobereich.
Es kommt drauf an, welche Stellen des Chips die Defekte betreffen. Es ist jetzt nicht so, dass da eine großflächige Fehlstelle auf dem Chip ist, sondern eher mikroskopisch kleine Fehlstellen aufweisen. Da sind also nur einzelne Transistoren oder Funktionsblöcke defekt. Liegt so eine Fehlstelle im Bereich eines Shader-Cores, schaltet man einfach den betroffenen ab, ohne Auswirkungen auf die übrigen funktionierenden Shader-Cores. Hat ein SM zu viele defekte Kerne, betrifft das auch wieder nur das eine SM und der Rest des Chips ist normal funktionsfähig.

Wirklich Ausschuß ist ein Chip eigentlich nur, wenn so ein Defekt in einem essentiellen Teile liegt, wie bspw. dem Speichercontroller, irgendwelchen anderen I/O Funktionsbläcken oder Recheneinhaiten, die für die Ansteuerung notwendig sind.
 
  • Gefällt mir
Reaktionen: eastcoast_pete, Finstan und Elderian
Wunder
Rickmer schrieb:
Ich bin erstaunt, dass es genügend komplett verkrüppelte AD102 Chips gibt, dass sich ein custom PCB für eine 4070 Ti Super auf AD102 Basis rentiert...
Wundert mich absolut nicht muss ich gestehen. Der Chip ist gigantisch und der yield zwar gut aber bei weiten nicht so dass da nicht genug in die schütte geht.

Am Ende macht man lieber noch was damit anstatt es wegzuwerfen. Dafür sind diese wafer einfach zu teuer und am Ende ist es dem Kunden ja auch gleich.

Und nein, dieser Chip ist wirklich in Hardware deaktiviert. Nix Software ;) Nvidia kann die AD102 für 13000€, 6000€ oder 2000€ verkaufen, die werden keine chips die voll Funktionierten dort rein stecken. Niemals ;)
 
  • Gefällt mir
Reaktionen: DynamaxX, mibbio und Relict
Tharan schrieb:
Durch den größeren Chip bei kleinerer "Aktivität" wäre das Ding dann leichter zu kühlen?
immortuos schrieb:
Nein. [...]. Und es wird ja nicht jede zweite Einheit abgeschaltet, damit sich die Abwärme gut verteilt
Dennoch verteilt sich die Abwärme innerhalb des Chips besser und wird dann besser auf den Kühler verteilt.
 
  • Gefällt mir
Reaktionen: Steven1lol und Tharan
Affenbrotmann schrieb:
Ich meine, wenn da ein Fehler bei der Herstellung passiert, ist es dann nicht meist so, dass der Chip komplett unbrauchbar wird, vor allem bei so empfindlichen teilen im Nanobereich.
Es kommt immer darauf an, wo der Fehler ist. Nicht jeder Fehler führt zu einem Totalausfall der GPU. Es gibt - wie du anmerkt - Reserven auf der einen Seite, auf der anderen Seite aber auch Fehler, die weniger auswirkung haben. Wenn jetzt ein Fehler im "GPC"-Bereich ist, dann fällt nur die eine GPC aus, der Rest funktioniert. Ist ein Fehler sogar nur in einer TPC, dann schaltet man halt die ab.

wäre dann wiederum ein Fehler im PCIe-Interface des Chips, dann kann der Rest heil sein, das Ding ist dennoch Schrott.
 
  • Gefällt mir
Reaktionen: mibbio, eastcoast_pete, florian. und eine weitere Person
juhhu endlich kann ich mir die 4090 leisten....
 
  • Gefällt mir
Reaktionen: Dama
Whitehorse1979 schrieb:
Für 1000€ könnten sie garantiert doppelten Absatz bei den 4090er-Karten erreichen. Und das wäre für jeden von Vorteil nicht nur für NVidia.
Läuft die Produktion der Großen Chips nicht ohnehin an der Grenze und ist so oder so im Absatz limitiert ?
 
ob man den Chip dann super übertakten kann ? Aufgrund der Größe sollte es doch gut möglich sein die Wärme vom Die abzuführen und wenn die aktiven Shader dann noch schön verteilt sind.
 
  • Gefällt mir
Reaktionen: Steven1lol
Ostfriese schrieb:
Alles nur Mutmaßungen.
Den richtigen Megascheißhaufen an Geld verdient Nvidia heuer/heutzutage auf andere Weise und mit großem Erfolg.
Hallo Ostfriese, ich bin mir nicht sicher ob ich das richtig verstanden habe, lass uns austauschen, auf entspannt.

Ich lebe/sehe es so, ich bin u.a. Selbstständiger Unternehmer, heißt wenn mein Unternehmen eigentlich mit A Geld verdient, nun kommt B dazu weil Welt im Wandel halt, und B macht viel mehr Marge bei viel weniger Arbeit quasi 1000x mehr Wertschöpfung auf Seiten Unternehmen, dann schaue ich mir die Zahlen und den Markt an und mach mir Gedanken und stelle mir Fragen wie: Bekomme ich genug Wachstum (insb. Fachpersonal) rein um B noch weiter zu pushen, ja ? dann lasse ich A weiterlaufen, nein ? dann verkaufe ich (das Wissen) und zieh die Mitarbeiter um, oder nehme mir einfach ein paar Angestellte von A nach B mit. Es gibt keinen validen Grund im Sinne eines (Konzern-)Unternehmens v.a. im Kapitalismus einen Bereich abzuschießen nur weil man woanders grad und zukünftig viel mehr Wert abschöpfen kann. Einfach ausgedrückt, kein Cent wird liegen gelassen solange die Wertschöpfung eines Produkts schon etabliert ist, diese keine Probleme verursacht, usw. und noch absehbar lang für eine gewisse Liquidität sorgt. Natürlich gibts da zig Eventualitäten, aber so "einfach" gesagt wie ich es von dir verstanden habe ist es dann doch nicht
 
Nitschi66 schrieb:
Dennoch verteilt sich die Abwärme innerhalb des Chips besser und wird dann besser auf den Kühler verteilt.
Hatte auch schon die Überlegung, ob sich durch Verwendung eines teildeaktivierten AD102 zumindest die Hotspot-Temperatur minimal verringert, da der AD102 ja fast doppelt so viel Fläche hat, über die die Temperatur verteilt und an den Kühler abgegeben werden kann.

Ja, Slizium ist jetzt nicht der beste Wärmeleiter im Vergleich zu Alu oder Kupfer, aber etwas Auswirkung könnte es trotzdem haben. Und im Schnitt dürften bei einem teildeaktivierten AD102 in einer 4070 Ti Super auch weniger Watt/mm² anfallen als bei einem voll genutzten AD103.
 
Nvidia weiß einfach, wie man Kohle macht: Ein paar defekte Chips von der Müllkippe holen, hoffen dass noch ein paar funktionierende Transistoren drin stecken und das ganze als Resteverwertung für mehr als 800€ an Gamer verscherbeln. Die guten Chips werden schließlich für den AI Hype benötigt.
 
Daran ist auch nichts verwerflich. Das würde jedes wirtschaftlich agierende Unternehmen machen, um möglichst wenig der eingesetzten Resourcen entsorgen zu müssen.

Ob man jetzt in anderen Bereichen mangelhafte Produkte als 2. Wahl verkauft oder bei Chips fehlerhafte Exemplare noch ohne EInschränkungen in kleineren Grafikkarten- oder CPU-Modellen verwendet, kommt am Ende aufs Gleiche raus. Die Resourcen werden möglichst umfänglich genutzt, der Hersteller verdient noch was damit und es landet insgesamt weniger auf dem Müll.
 
  • Gefällt mir
Reaktionen: bad_sign
DevPandi schrieb:
Kommt halt darauf an, ob es wirklich "Verschwendung" ist, oder entsprechende Chips verwertet werden
Es gab doch den Rechner, der bei 600mm² großen die und nur 2,5% Ausschuss doch mal zeigte, wie viele Dies davon nicht "defect" sind..

Ich habs bei Youtube gesehen, aber ich weiß nimmer woher..

man merkt aber, hier immer wieder eindrucksvoll, wie wenig die Menschen sich mit der Technik, die sie nutzen auseinandersetzen.

Edit: Gefunden

https://harshari.github.io/yield.html

Hier kann sich jeder mal ausrechnen, wie wenig volle Dies auf so einem Wafer dann sind.
 
  • Gefällt mir
Reaktionen: eastcoast_pete, mr_clark, LuxSkywalker und eine weitere Person
Die 4070 Ti Super ist schon gut gewählt. Eine 4080 Ti hätte zu nah an der Käuferschicht gekratzt, die zukünftig bei RTX50 nicht widerstehen können soll. Und der Leistungsabstand zur Spitze ist auch schön groß, da macht man nichts falsch.

Zu dem muss man die defekten Dies nicht noch im großen Stil selektieren, wenn man so viel wegschneidet, da hat man genug Puffer.

Genug nachvollziehbare Gründe gäbe es schon. Noch jemand Spekulatius übrig? Oder gibt's schon neue? ;)
 
Berichtigt mich bitte wenn ich falsch liege aber ich habe das im Ohr das zwischen 4090 und zumindest manchen A.I. Karten der selbe Chip hat? Oder sind das ganz andere Chips, selbst wenn es eine komplett separate Produktlinie gibt, kaufen ja wohl unendlich viele Firmen normale 4090 für K.I. zeug.

Weiß nicht ob das reicht um die 4090 bzw der Chip zum meist nach-gefragtesten bei Nvidia macht, aber es dürfte zumindest ne extrem hohe Nachfrage danach sein in hohen Stückzahlen, was normalerweise bei so teuren "Spielekarten" nie der Fall war, da wurden immer die Lowend am meisten verkauft.

Gut im Lowend also 4060 oder momentan mehr 3060 werden sicher noch mehr verkauft aber dafür schneidet man die Chips ja nicht zurecht und selbst Midrange wird dann nur ein Bruchteil verglichen mit dem Lowend sein.

Wobei viele ja noch glauben das die 60er Reihe früher mal Midrange war, aber das ist natürlich Blödsinn inzwischen, midrange ist ne 4070.

Wie auch immer, es macht daher Sinn die meisten Karten auf 4090 vielleicht noch nach den Lowendkarten zu produzieren, und da die bei so nem riesen Chip auch eine extrem schlechte yieldrate haben muss, die schlechteste da größter Chip, braucht man um so mehr zusätzliche um genug voll funktionsfähige chips zu bekommen.

Gleichzeitig hatte man jetzt was fast 2 Jahre Zeit wo man solche 25-40% defekten chips in irgend nem Lager sammeln konnte, selbst wenn die laufende Produktion nicht genug solchen Ausschuss abliefert wird man eben über diese lange Zeit doch genug gesammelt haben, und dann machts Sinn so viel wie möglich nur die Highend chips zu bauen und so wenig wie möglich die Midrange chips.

Und jetzt könnte sogar vielleicht vereinzelt Chips die für mehr geeignet wären dazu beschnitten werden, einfach weil die Nachfolger raus kommen und man da das vielleicht zu große Lager an 4080 / 4090 super lehren will und man will das nicht lehren mit Preissenkungen, da das nur den Preis der nächsten Gen kaputt macht.

Ich mein das sabotieren von guter Hardware ist ja auch nichts neues was ist denn geplante Obsoleszenz ja man macht die Hardware nicht schwächer aber man reduziert geziehlt die Lebensdauer um wieder mehr zu verkaufen in der Zukunft.
 
Man darf auch nicht vergessen, daß die Möglichkeit, einen nur teildefekten Chip trotzdem noch voll funktionsfähig zu betreiben schon beim Design mit berücksichtigt wird. Es werden wohl beim Binning mittlerweile genug teildefekte GPUs gegeben haben, daß sich solche Weiterverwertung mit angepassten Boards usw lohnt. Bei solchen wirklich riesigen Monolithen mit um die 60 oder 70 Milliarden Transistoren bin ich eigentlich eher davon beeindruckt, daß trotzdem eine ziemlich große Menge eben nicht teildefekt sind.
Gegenbeispiel (mit weniger Transistoren) ist das Problem, das Samsung VLSI zur Zeit mit dem Exynos 2500 hat. Schöner neuer Prozess mit 3 nm GAA, aber Ausbeute scheinbar jetzt immer noch unter 40%, und im Quartal davor um die 20%. Der Ausschuss da war dann wirklich Ausschuss. Und jetzt sieht es so aus, als ob Samsung (Smartphone Division) uU sogar Mediateks Dimensity SoCs in ihren S25 Galaxies verbauen könnte.
 
@Dimensionday

Klingt soweit einleuchtend, aber ist das nicht auch eine Frage der Dimension (kein Wortspiel auf deinen Benutzernamen) des Unternehmens, wie das gehandhabt wird und für sie von Interesse ist?

Natürlich wäre es dumm, etwas bereits Laufendes quasi risikolos nicht abzuschöpfen. Da stimme ich absolut zu.

Aber ob das im Großen und Ganzen noch eine große pekuniäre Relevanz für das Unternehmen, also Nvidia, hat, das bezweifle ich. Gaming-Grafikkarten werden wohl irgendwann für sie nur noch ein traditionelles Anhängsel sein - oder sind es bereits. Dass die Firma darin allerdings so erfolgreich ist, also quasi Monopolist, wenn es um gewisse Techniken geht, macht das Ganze natürlich etwas asozial. Damit meine ich in letzter Konsequenz die Preise der Grafikkarten.

Aber gut, so ist es nun einmal. Ich trinke jetzt mal meinen Tee und stoße mit mir selbst auf das aktuelle schöne Unwetter hier in Hamburg an. Weg mit der Hitze... :schluck:
 
  • Gefällt mir
Reaktionen: Dimensionday
Ostfriese schrieb:
Ich glaube "Risiko" ist das Stichwort - oder nenn es meinetwegen Markt-Unsicherheit.

Niemand weiss GENAU wie der Markt sich entwickelt - wie die kriegererischen Auseinandersetzungen weitergehen - wie die Nachfrage angesichts der laufenden Drohnenrevolution (und anderer intelligenter Waffensysteme) aussehen wird - welche Lieferwege in ein paar Monaten noch verfügbar sind ...

Abgesehen davon - der KI-Markt brummt - immer mehr Akteure springen auf den Zug auf - viele davon kochen nach dem Rezept "nimm die besten Zutaten die du kriegen kannst, Geld spielt keine Rolle" - und die Konkurrenz redet auch noch ein Wörtchen mit.

Um unter diesen Umständen flexibel agieren zu können, kann es aus Herstellersicht durchaus sinnvoll sein - die besten verfügbaren Chips mit Überschuss zu produzieren - den nicht abverkauften Bestand ggf. in kastrierter Form zu verwerten - statt die etablierte Preissruktur zu zerstören, und damit den erwarteten Investitionsrücklauf zu gefährden.
 
Zurück
Oben