Notiz Prototyp: Microns GDDR6‑Speicher auf Nvidia‑Grafikkarte

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.957
Dachte Samsung hat schon schnelleren GDDR6 in Produktion und Hynix schon länger zumindestens die 14Gb/s-Variante?!

Naja. Bleibt später noch Spielraum für ein kundenorientiertes Update ^^
 
Zuletzt bearbeitet: (einmal spät reicht :))
Wenn jetzt erst Prototypen davon erscheinen erklärt das das lange Warten auf Turing.
 
frkazid schrieb:
Naja. Bleibt später noch Spielraum für ein kundenorientiertes späteres Update ^^

Kundenorientiert <-> nVidia
Choose one :p

Ich sehe es so. Dadurch könnte der Preis gedrückt werden und die Karte später preiswerter sein (:
 
  • Gefällt mir
Reaktionen: eSportWarrior und Schnitz
Wenn ich mir das Papier daneben anschaue, komme ich auf den Gedanken, dass der Graphikchip nur auf das Board gepresst und nicht verlötet wird.
Das wäre interessant, wenn man Graphikchips wie bei CPUs doch sockeln könnte.
 
Aslo schrieb:
Wenn jetzt erst Prototypen davon erscheinen erklärt das das lange Warten auf Turing.

Es sind wohl andere Gründe:

One of NVIDIA’s Major OEM Partners Allegedly Returned 300,000 GPUs, Major Inventory Issues Being Cited For Next-Gen GeForce Launch Delay
https://wccftech.com/nvidia-oem-partner-300k-gpu-inventory-issues-next-gen-geforce-delay/
NVIDIA seems to be having lots of trouble managing their GPU inventory or the excess of it as highlighted in new reports from Taiwanese based sources. Now the inventory issues may have exploded at NVIDIA HQ since a major Taiwanese OEM has allegedly returned 300,000 GPU units back to NVIDIA, that may end up causing a delay for the next-gen GeForce parts.
 
Wenn das eventuel die neue xx80 wird wird dann die Ti Version 16gb haben?
 
ich zitiere mich ganz frech mal selbst aus einem anderen thread:
duskstalker schrieb:
pascal v turing.jpg


https://videocardz.com/76659/nvidias-next-gen-graphics-card-with-gddr6-smiles-for-camera

das ist ein entwicklerboard mit GDDR6. ich hab mal den core der 1080ti dagegen verglichen, skaliert und perspektivisch korrigiert anhand der pcie kontakte.

pasc turing 2.jpg


ich gehe davon aus, dass das, was wir hier sehen, die gtx 1180 ist. und wir sehen, dass der die fast gleich groß ist. die 400mm², die wccftech mal hier erwähnt hat:

https://wccftech.com/nvidia-geforce-gtx-1180-specs-performance-price-release-date-prelimenary/

sehen damit ziemlich plausibel aus. wenn das ein 7nm chip wäre, müsste das n ordentliches stück kleiner sein, weil pascal 16nm ist und vega ist schon 14 - und trotzdem ist vega in 7nm n gutes stück kleiner als das.

damit ist die 12nm gtx 1180 mit >400mm² weit weg von der 314mm² 16nm gtx 1080. die neue 1080 ist also von der hardware her eher ein 1080ti shrink als ein 1080 shrink. wir haben noch was von gesteigerten taktraten gehört.

und dann schauen wir uns mal das entwicklerboard an. ein massives VRM, und 3x8 pin. sicher, das ist ne entwickler karte - auf so ein board steckt man aber keine 160w gpu - für so ein PCB wirds schon irgendwo einen grund geben. die taktraten. quasi eine factory oc 1080ti. deshalb ist der chip so groß, deshalb ist das pcb so fett - so meine theorie.

-----------------------------

EDIT - EINSCHUB:

techpowerup hat den die "vermessen" und ist zu folgendem schluss gekommen:

With all memory chips around the GPU now being at the correct size, we can use the GPU's silkscreen print to estimate the actual size of the chip package, which I measured at 48.5 x 48.5 mm. Assuming that the inner silk screen with the solder balls represents the surface of the GPU die, we get a length of 26 mm for each side of the die, which brings die size to 676 mm².
https://www.techpowerup.com/245501/...potted-up-to-525-w-power-delivery-gtx-1180-ti

ich sehe ehrlichgesagt nicht, wie nvidia einen fast 700mm² chip ins konsumer segment bringen könnte, vorallem auch noch in 12nm. das ist wahnsinn. das passt auch nicht wirklich zu dem optischen größenvergleich, den ich hier vorgestellt habe - aber vielleicht täuscht das? ich habe selbst extra keine größe angegeben - soll sich jeder selber anhand der bilder überlegen, ist sowieso nicht wirklich exakt - aber 700mm²? jetzt schon eine 1180 ti? ich hab den fehler nicht gefunden, aber irgendwas kommt mir da komisch vor.

trotzdem, meine annahmen bisher ändern sich dadurch nicht.

die 1080 ti ist mit ihren 471mm² exakt 50% größer als die 1080. wenn das was wir hier sehen die 1180ti ist, und die tatsächlich 676mm² groß ist, wäre eine 1180 im selben schema ca 450mm² groß. das ist nur unwesentlich kleiner als die 1080 ti in 16nm und entspricht im wesentlichen dem, was ich oben beschrieben habe.

die schlechte nachricht:

titan v, 815mm²: 3000$
1180, 676mm²: ????

wenn man die hälfte ansetzt, wäre das schon großzügig.

8gb hbm2 kosten ca 150$, 8gb GDDR6 liegt bei ca >80$. die titan v hat 32gb hbm2, das sind 600$ hbm 2 auf der titan v, und die karte hier hat 12gb gddr6, das wären 120$.

der neue chip ist nur ca 83% so groß die wie titan.

das ergibt:

3000 - 600 = 2400 * 0,83 = 1992 + 120 = 2112$

wenn man jetzt für den yield eine exponentielle funktion und keine lineare annimmt, wird man weiter unten rauskommen. dann zieht man noch den titan bonus ab und dann kann man zu der annahme kommen, dass die 1180 ti vielleicht bei 1500$ liegen könnte.

----------------------------

nvidia wird selbst probleme haben an den massiven performance sprung von kepler - maxwell - pascal anknüpfen zu können. deshalb muss nvidia jetzt auch endlich in sachen hardware tiefer in die tasche greifen.
wir können uns jetzt schonmal daran gewöhnen, dass in zukunft "stromverbrauch bei gpus total irrelevant ist, es geht um fps". zumindest werden die grünen von ihrem öko kurs abstand nehmen müssen. nvidia muss jetzt auch über die fläche und takt arbeiten, wie amd.

amd hat aber einen vorteil: 7nm statt 12nm, vega kommt von einer sehr schlechten node für high performance chips, nvidia hatte mit 16nm schon einen high performance optimierten prozess von tsmc. der 7nm vega refresh würde vermutlich heftiger einschlagen, als sich das so manche vorstellen würden - mir eingeschlossen.

ich bin nicht davon ausgegangen, dass amd nochmal ne chance bekommt - aber hier ist sie.
 
  • Gefällt mir
Reaktionen: Affenzahn, TnTDynamite, N3N und 5 andere
Braucht Micron kein NDA zu Unterschreiben, um mit Nvidia zusammenarbeiten zu dürfen?
SCNR
 
  • Gefällt mir
Reaktionen: EadZ1 und Hill Ridge
derSafran schrieb:
Kundenorientiert <-> nVidia
Choose one :p

Ich sehe es so. Dadurch könnte der Preis gedrückt werden und die Karte später preiswerter sein (:
Ne, du verstehst das falsch. Das ist keine Möglichkeit, dass später der Preis gedrückt wird, sondern die Nachfolger um so teurer weil ja besser werden :evillol:
 
  • Gefällt mir
Reaktionen: derSafran
Mir doch scheiß egal, wenn die 1180 oder 1170 liefert was FPS, neue Features? Raytracing? ordentliche Performance/Watt? Dann kaufe ich so ein Teil, egal ob 500€ oder 750€ die 1070 wird dann aber verkauft. Was kümmert mich ein NDA? Wenn die Hardware Redaktionen das unterschreiben? Oder auch nicht unterschreiben? Mir piep egal, mir gehts um die FPS in 3440x1440. Und außerdem glaube ich wird das NDA auch zu heiß gekocht.

Das ist meine Meinung, die kann man mögen, oder auch nicht, ist mir auch egal.
 
Ex3cuter schrieb:
Mir doch scheiß egal, wenn die 1180 oder 1170 liefert was FPS, neue Features? Raytracing? ordentliche Performance/Watt? Dann kaufe ich so ein Teil, egal ob 500€ oder 750€ die 1070 wird dann aber verkauft. Was kümmert mich ein NDA? Wenn die Hardware Redaktionen das unterschreiben? Oder auch nicht unterschreiben? Mir piep egal, mir gehts um die FPS in 3440x1440. Und außerdem glaube ich wird das NDA auch zu heiß gekocht.

Das ist meine Meinung, die kann man mögen, oder auch nicht, ist mir auch egal.

Hast wohl das Stromberg Drehbuch mit verfasst?
Dein Post kurzgefasst: erst komm ich, dann mein Spiegelbild und dann die Flut. Oder so ähnlich :D

Topic: Wenn das hier ne Consumer Karte ist, wird das Gamer-Segment Gesellschaftlich geforked:
- bis 200€ Graka Gamer
- bis 600€ Graka Gamer
- bis 1250€ Graka Gamer
 
Zurück
Oben