News RTX A6000 und A40: Nvidia bringt Ampere mit Vollausbau ins Profisegment

@nlr Nehmt ihr die Informationen aus dem Nvidia Blogeintrag? Oder gibt es da noch mehr? Ich frage deshalb, weil mich die Formulierung bei den professionellen Karten interessiert. Bei den Gaming Karten war es ja... sehr positiv. In dem Blogeintrag steht z.B. bei CUDA Cores nur, dass es neue sind und sie bis zu zweimal die Leistung bringen können. Da steht keine explizite Anzahl an Kernen oder sonstiges. Deswegen die Frage, kommt es aus anderer Quelle, oder ist es eure Hochrechnung?
 
Sieht nach Speicherverdopplung aus - RTX A8000 mit 96 GB Ram? Falls dem so ist, darf man noch mit einer Titan Ampere mit 48GB Ram und Vollausbau in Q1/Q2 2021 rechnen.
 
Hübsch, bestätigt aber sehr gut, dass GDDR6X keine super tolle Idee war. Die RTX 3080 mit 384 Bit 12GBB GDDR6 wäre schneller, günstiger und nicht so auf Kante genäht und ziemlich wahrscheinlich sogar sparsamer. Ob die letzten paar GB/s bei der 3090 es das wert waren... ich bezweifle es etwas.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Shoryuken94 schrieb:
Die RTX 3080 mit 384 Bit 12GBB GDDR6 wäre schneller,

Wieso sollte sie denn schneller sein? Wegen 2GB VRAM? Mit GDDR6X hat die 2080 mit einem 320 Bit Speicherinterface, 760 GB/s Speicherbandbreite, mit GDDR6 wären es selbst mit einem 384 Bit Speicherinterface 672 GB/s und mit einer deaktivierten Einheit und 320 Bit nur noch 560GB/s.

Egal wie du es dir schön rechnen magst, GDDR6 hätte Leistung gekostet und 2GB VRAM mehr keinen Unterschied ausgemacht.
 
  • Gefällt mir
Reaktionen: incurable
xexex schrieb:
Egal wie du es dir schön rechnen magst, GDDR6 hätte Leistung gekostet und 2GB VRAM mehr keinen Unterschied ausgemacht.

16 Gbps @ 384 Bit ergeben 768 GB/s. Und die 20% mehr Speichermenge kosten auch keine Leidtung, auch wenn sie heute keine bringen. Das zu wenig Speicher aber such Leistung kosten kann, zeigt ja z.b. Doom mit Max Settings auf 8GB Karten, früher oder später bedeuten 20% mehr Kapazität auch etwas Leistung.

Keine Ahnung wie es um den 18gbps Speicher steht, damit wären an vollen 384 Bit 864 GB/s möglich. Auch wenn es die Chips wohl nur mit 2Gb gibt. Aber zumindest die gleiche Leistung wäre problemlos bei der 3080 mit GDDR6 und vollem Interface möglich und 2GB mehr wäre zumindest ein nettes extra.
 
  • Gefällt mir
Reaktionen: dohderbert
Was soll das sein? Ich glaube nicht das jemand einen Düsen Triebwerk einbauen möchte.
 
opake schrieb:
Sieht nach Speicherverdopplung aus - RTX A8000 mit 96 GB Ram?
Dann kann Nvidia die Karte als Speicherkarte mit schneller gpu verkaufen 😁
Bezahlt den ram, die gpu gibt's gratis 😁
 
Zuletzt bearbeitet:
Shoryuken94 schrieb:
Hübsch, bestätigt aber sehr gut, dass GDDR6X keine super tolle Idee war. Die RTX 3080 mit 384 Bit 12GBB GDDR6 wäre schneller, günstiger und nicht so auf Kante genäht und ziemlich wahrscheinlich sogar sparsamer. Ob die letzten paar GB/s bei der 3090 es das wert waren... ich bezweifle es etwas.
Wie kommst du darauf?
Preislich sicherlich nicht günstiger, da mehr Speicherchips genutzt werden und das PCB aufwändiger wird. Schneller auch nicht.
Zudem kann man auch keine defekten Chips mehr verwursten.
 
bensen schrieb:
Wie kommst du darauf?
Preislich sicherlich nicht günstiger, da mehr Speicherchips genutzt werden und das PCB aufwändiger wird.

GDDR6x ist pro Chip aber deutlich teurer. Das PCB wird Null aufwändiger. Jede 3080 hat sogar die Lötpunkte für die fehlenden Speichermodulen. Es wäre kein Problem die in der Produktion mitzuverlöten.

bensen schrieb:
Zudem kann man auch keine defekten Chips mehr verwursten.

Klar lediglich bei Fehlern im Speicherinterface nicht. Da scheinen Fehler aber höchst selten zu sein, so selten wie hier Einschnitte gemacht werden. Den Chip könnte man trotzdem teildeaktivieren. Hat Nvidia in der Vergangenheit auch schon gemacht, z.b.Beim GK110, wo man die GTX 780 ähnlich stark beschnitten hat, aber das Speicherinterface unangetastet gelassen hat.
 
bensen schrieb:
Ja? Wieviel denn? Müsste ja erheblich mehr als 20% sein, um ein Fehlgriff zu sein.

Kannst ja mal bei Nvidia Anfragen. Da innerhalb der normalen GDDR6 Range die Preise in den verschiedenen Geschwindigkeitsklassen Schon mehr als 20% auseinander liegen, ist davon auszugehen, dass GDDR6x, den Micron exklusiv vertreibt, kein ganz günstiges Vergnügen ist. Ansonsten hätten wir ihn auch auf der 3070 gesehen, wenn es nur nur minimale Preisunterschiede wären.


bensen schrieb:
Ach nee, worum geht es denn hier?

Um (Teil)Defekte Chips. In welchem Bereich hast du nicht spezifiziert. Und wie gesagt, wären defekte hier häufig, würde man deutlich mehr beschnittene Chips hier sehen. Ist aber die absolute Ausnahme. Das hat Nvidia bei anderen Big Chips früher auch nicht oft gemacht und AMD macht es auch fast nicht. Nichtmal bei den 512 Bit Karten, wo der Ausschuss ja hätte besonders hoch sein müssen.

Oder um es mit deinen Worten zu fragen, wieviele GA102 Chips weisen defekte Speichercontroller auf?
 
Genau und Nvidia konnte natürlich nicht vorher ausrechnen ob 10x GDDR6X oder 12x GDDR6 für sie günstiger ist.
Da hätten sie mal lieber den Shoryuken fragen sollen.

Und für normal denkende brauche ich das nicht näher spezifizieren. Was haben SMs mit dem Speicher zu tun?
Nvidia hat in letzter Zeit viele Chips mit teildeaktiviertem SI gebracht.
TU102, TU106, TU116, TU117, GV100, GP100, GP102, GP104, GP106, GP107, GP108

Ich sage ja nicht, dass ein defekt sehr häufig ist. Absolute Ausnahme ist aber kompletter Unsinn. Kann man sich ja als groben Richtwert anhand der Fläche ausrechnen, wie wahrscheinlich ein defekt dort ist.

Edit: GK110 wurde auch beschnitten auf den Markt gebracht.
 
Zuletzt bearbeitet:
quoc68 schrieb:
Sieht schon irgendwie Sexy aus. Mag das schlichte Design und die Farbkombo. Schade dass sowas nicht im Gaming Segment gibt.
Gibts schon. Frag mich nicht, wo die eingesetzt wurde. Aber bei eBay gabs die Tage eine passiv gekühlte 2080 Ti von Gigabyte
 

Anhänge

  • s-l1600.jpg
    s-l1600.jpg
    254,7 KB · Aufrufe: 370
xexex schrieb:
Wieso sollte sie denn schneller sein? Wegen 2GB VRAM? Mit GDDR6X hat die 2080 mit einem 320 Bit Speicherinterface, 760 GB/s Speicherbandbreite, mit GDDR6 wären es selbst mit einem 384 Bit Speicherinterface 672 GB/s und mit einer deaktivierten Einheit und 320 Bit nur noch 560GB/s.

GDDR6 gibt es mit 16 Gbps (die waren sogar auf der mysteriösen RX 6XXX Karte von AMD aufgetaucht). Das sind 768 GB/s mit einem 384-bit Interface. Selbst meine 2080Ti macht 691 GB/s mit dem Micron RAM. Samsung hat sogar 18 Gbps Module. Wären dann 864 GB/s. Micron hatte auch schon Anno 2018 20 Gbps Chips unter Laborbedingungen mit etwas mehr I/O Spannung vorgeführt. Damit wäre die 3080 mit GDDR6X schon vom Tisch was Speicherbandbreite betrifft.
 
SKu schrieb:
GDDR6 gibt es mit 16 Gbps

Das Problem dabei:
1601932822368.png

https://www.samsung.com/semiconductor/dram/gddr6/
1601933147372.png

https://www.micron.com/products/ultra-bandwidth-solutions/gddr6/part-catalog

Wirklich was gewonnen hätte man damit also nicht und ob man "einfach so" mal eben den Speichercontroller von einem abgeschalteten Block nutzen kann, sei einfach mal dahin gestellt. Nur weil es mal auf einem anderen Chip gegangen ist, bedeutet es für Ampere gar nichts.

Was soll denn an GDDR6X so schlimm sein? Die Technik ist jedenfalls besser als bei GDDR6 und die Geschwindigkeit auch. 2Gbyte Chips gibt es mit hoher Geschwindigkeit aktuell weder mit GDDR6X noch mit GDDR6.

SKu schrieb:
Micron hatte auch schon Anno 2018 20 Gbps Chips unter Laborbedingungen mit etwas mehr I/O Spannung vorgeführt.

Und daraus ist halt GDDR6X entstanden.
1601933244185.png

https://www.micron.com/products/ultra-bandwidth-solutions/gddr6x
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: incurable
bensen schrieb:
Genau und Nvidia konnte natürlich nicht vorher ausrechnen ob 10x GDDR6X oder 12x GDDR6 für sie günstiger ist.
Da hätten sie mal lieber den Shoryuken fragen sollen.

Das habe ich nie gesagt. Wie kennen die Beweggründe nicht. Evtl. Wurde Nvidis mehr Band reite in Aussicht gestellt, evtl. Müssen sie gewisse Abnahmemengen erfüllen. Wissen wir alles nicht.

Aber wäre ja nicht das einzige bei Ampwre, was man falsch kalkuliert hat ^^ das zocken ist ja auch bei der Fertigung ziemlich in die Hose gegangen.

bensen schrieb:
Ich sage ja nicht, dass ein defekt sehr häufig ist. Absolute Ausnahme ist aber kompletter Unsinn

Weder das eine noch das andere wurde behauptet.
bensen schrieb:
Kann man sich ja als groben Richtwert anhand der Fläche ausrechnen, wie wahrscheinlich ein defekt dort ist.
 
Nette Karte, da wird sicherlich einiges mit Möglich sein in den entsprechenden Einsatzgebieten. Mich würde ja mal interessieren wie es da mit der Verfügbarkeit aussieht und wie die Yield aussieht.

GDDR6x war nötig da nur so über den konventionellen Weg auch mit "wenig" Speicher ausreichend Bandbreite generiert werden konnte. MMn war von Nvidia sicherlich nicht geplant ein 20GB Modell der 3080 so "schnell" zu bringen. Klar sollte sein das GDDR6x teurer ist als normaler GDDR6 den es ja auch von verschiedenen Herstellern gibt. Das Bandbreite auch anderes generiert werden kann als über ein extrem breites Interface und GDDR6x werden wir vermutlich bei RDNA2 sehen.
Persönlich sehe ich den GDDR6x auch eher als nachteil derzeit, zu teuer, zu Stromhungrig und zu heiß. Bei den Temps die da z.T. gemessen wurden kann man sich schon fragen wie langlebig das Ganze sein wird.

Mfg
 
Dr.Pawel schrieb:
Bei den Temps die da z.T. gemessen wurden kann man sich schon fragen wie langlebig das Ganze sein wird.

Die Temps von den du sprichst, bezogen sich alleine auf das FE Design.

GDDR6X consumes 15% less power per transferred bit than GDDR6, but power consumption is higher since GDDR6X is faster than GDDR6. PAM4 consumes less power and pins than differential signalling while still being faster than NRZ. GDDR6X is thought to be cheaper than High Bandwidth Memory.[25]

Ein entsprechender GDDR6 Chip mit 16Gbps oder gar 18Gbps würde also kaum weniger Energie verbrauchen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bensen und stevefrogs
Zurück
Oben