@nlr Nehmt ihr die Informationen aus dem Nvidia Blogeintrag? Oder gibt es da noch mehr? Ich frage deshalb, weil mich die Formulierung bei den professionellen Karten interessiert. Bei den Gaming Karten war es ja... sehr positiv. In dem Blogeintrag steht z.B. bei CUDA Cores nur, dass es neue sind und sie bis zu zweimal die Leistung bringen können. Da steht keine explizite Anzahl an Kernen oder sonstiges. Deswegen die Frage, kommt es aus anderer Quelle, oder ist es eure Hochrechnung?
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News RTX A6000 und A40: Nvidia bringt Ampere mit Vollausbau ins Profisegment
- Ersteller nlr
- Erstellt am
- Zur News: RTX A6000 und A40: Nvidia bringt Ampere mit Vollausbau ins Profisegment
Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 8.845
Hübsch, bestätigt aber sehr gut, dass GDDR6X keine super tolle Idee war. Die RTX 3080 mit 384 Bit 12GBB GDDR6 wäre schneller, günstiger und nicht so auf Kante genäht und ziemlich wahrscheinlich sogar sparsamer. Ob die letzten paar GB/s bei der 3090 es das wert waren... ich bezweifle es etwas.
Shoryuken94 schrieb:Die RTX 3080 mit 384 Bit 12GBB GDDR6 wäre schneller,
Wieso sollte sie denn schneller sein? Wegen 2GB VRAM? Mit GDDR6X hat die 2080 mit einem 320 Bit Speicherinterface, 760 GB/s Speicherbandbreite, mit GDDR6 wären es selbst mit einem 384 Bit Speicherinterface 672 GB/s und mit einer deaktivierten Einheit und 320 Bit nur noch 560GB/s.
Egal wie du es dir schön rechnen magst, GDDR6 hätte Leistung gekostet und 2GB VRAM mehr keinen Unterschied ausgemacht.
Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 8.845
xexex schrieb:Egal wie du es dir schön rechnen magst, GDDR6 hätte Leistung gekostet und 2GB VRAM mehr keinen Unterschied ausgemacht.
16 Gbps @ 384 Bit ergeben 768 GB/s. Und die 20% mehr Speichermenge kosten auch keine Leidtung, auch wenn sie heute keine bringen. Das zu wenig Speicher aber such Leistung kosten kann, zeigt ja z.b. Doom mit Max Settings auf 8GB Karten, früher oder später bedeuten 20% mehr Kapazität auch etwas Leistung.
Keine Ahnung wie es um den 18gbps Speicher steht, damit wären an vollen 384 Bit 864 GB/s möglich. Auch wenn es die Chips wohl nur mit 2Gb gibt. Aber zumindest die gleiche Leistung wäre problemlos bei der 3080 mit GDDR6 und vollem Interface möglich und 2GB mehr wäre zumindest ein nettes extra.
Johannes2002
Banned
- Registriert
- Mai 2020
- Beiträge
- 1.685
Was soll das sein? Ich glaube nicht das jemand einen Düsen Triebwerk einbauen möchte.
S
Scrush
Gast
die stehen ja auch nicht neben dir sondern in einem schalldichten serverraum/rz
Tawheed
Banned
- Registriert
- Juli 2020
- Beiträge
- 409
Dann kann Nvidia die Karte als Speicherkarte mit schneller gpu verkaufen 😁opake schrieb:Sieht nach Speicherverdopplung aus - RTX A8000 mit 96 GB Ram?
Bezahlt den ram, die gpu gibt's gratis 😁
Zuletzt bearbeitet:
O
Onkel Föhn
Gast
Ja, Papa !JackTheRippchen schrieb:
Wie kommst du darauf?Shoryuken94 schrieb:Hübsch, bestätigt aber sehr gut, dass GDDR6X keine super tolle Idee war. Die RTX 3080 mit 384 Bit 12GBB GDDR6 wäre schneller, günstiger und nicht so auf Kante genäht und ziemlich wahrscheinlich sogar sparsamer. Ob die letzten paar GB/s bei der 3090 es das wert waren... ich bezweifle es etwas.
Preislich sicherlich nicht günstiger, da mehr Speicherchips genutzt werden und das PCB aufwändiger wird. Schneller auch nicht.
Zudem kann man auch keine defekten Chips mehr verwursten.
Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 8.845
bensen schrieb:Wie kommst du darauf?
Preislich sicherlich nicht günstiger, da mehr Speicherchips genutzt werden und das PCB aufwändiger wird.
GDDR6x ist pro Chip aber deutlich teurer. Das PCB wird Null aufwändiger. Jede 3080 hat sogar die Lötpunkte für die fehlenden Speichermodulen. Es wäre kein Problem die in der Produktion mitzuverlöten.
bensen schrieb:Zudem kann man auch keine defekten Chips mehr verwursten.
Klar lediglich bei Fehlern im Speicherinterface nicht. Da scheinen Fehler aber höchst selten zu sein, so selten wie hier Einschnitte gemacht werden. Den Chip könnte man trotzdem teildeaktivieren. Hat Nvidia in der Vergangenheit auch schon gemacht, z.b.Beim GK110, wo man die GTX 780 ähnlich stark beschnitten hat, aber das Speicherinterface unangetastet gelassen hat.
Ja? Wieviel denn? Müsste ja erheblich mehr als 20% sein, um ein Fehlgriff zu sein.Shoryuken94 schrieb:GDDR6x ist pro Chip aber deutlich teurer.
Ach nee, worum geht es denn hier?Klar lediglich bei Fehlern im Speicherinterface nicht.
Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 8.845
bensen schrieb:Ja? Wieviel denn? Müsste ja erheblich mehr als 20% sein, um ein Fehlgriff zu sein.
Kannst ja mal bei Nvidia Anfragen. Da innerhalb der normalen GDDR6 Range die Preise in den verschiedenen Geschwindigkeitsklassen Schon mehr als 20% auseinander liegen, ist davon auszugehen, dass GDDR6x, den Micron exklusiv vertreibt, kein ganz günstiges Vergnügen ist. Ansonsten hätten wir ihn auch auf der 3070 gesehen, wenn es nur nur minimale Preisunterschiede wären.
bensen schrieb:Ach nee, worum geht es denn hier?
Um (Teil)Defekte Chips. In welchem Bereich hast du nicht spezifiziert. Und wie gesagt, wären defekte hier häufig, würde man deutlich mehr beschnittene Chips hier sehen. Ist aber die absolute Ausnahme. Das hat Nvidia bei anderen Big Chips früher auch nicht oft gemacht und AMD macht es auch fast nicht. Nichtmal bei den 512 Bit Karten, wo der Ausschuss ja hätte besonders hoch sein müssen.
Oder um es mit deinen Worten zu fragen, wieviele GA102 Chips weisen defekte Speichercontroller auf?
Genau und Nvidia konnte natürlich nicht vorher ausrechnen ob 10x GDDR6X oder 12x GDDR6 für sie günstiger ist.
Da hätten sie mal lieber den Shoryuken fragen sollen.
Und für normal denkende brauche ich das nicht näher spezifizieren. Was haben SMs mit dem Speicher zu tun?
Nvidia hat in letzter Zeit viele Chips mit teildeaktiviertem SI gebracht.
TU102, TU106, TU116, TU117, GV100, GP100, GP102, GP104, GP106, GP107, GP108
Ich sage ja nicht, dass ein defekt sehr häufig ist. Absolute Ausnahme ist aber kompletter Unsinn. Kann man sich ja als groben Richtwert anhand der Fläche ausrechnen, wie wahrscheinlich ein defekt dort ist.
Edit: GK110 wurde auch beschnitten auf den Markt gebracht.
Da hätten sie mal lieber den Shoryuken fragen sollen.
Und für normal denkende brauche ich das nicht näher spezifizieren. Was haben SMs mit dem Speicher zu tun?
Nvidia hat in letzter Zeit viele Chips mit teildeaktiviertem SI gebracht.
TU102, TU106, TU116, TU117, GV100, GP100, GP102, GP104, GP106, GP107, GP108
Ich sage ja nicht, dass ein defekt sehr häufig ist. Absolute Ausnahme ist aber kompletter Unsinn. Kann man sich ja als groben Richtwert anhand der Fläche ausrechnen, wie wahrscheinlich ein defekt dort ist.
Edit: GK110 wurde auch beschnitten auf den Markt gebracht.
Zuletzt bearbeitet:
Gibts schon. Frag mich nicht, wo die eingesetzt wurde. Aber bei eBay gabs die Tage eine passiv gekühlte 2080 Ti von Gigabytequoc68 schrieb:Sieht schon irgendwie Sexy aus. Mag das schlichte Design und die Farbkombo. Schade dass sowas nicht im Gaming Segment gibt.
Anhänge
SKu
Fleet Admiral
- Registriert
- Aug. 2012
- Beiträge
- 11.352
xexex schrieb:Wieso sollte sie denn schneller sein? Wegen 2GB VRAM? Mit GDDR6X hat die 2080 mit einem 320 Bit Speicherinterface, 760 GB/s Speicherbandbreite, mit GDDR6 wären es selbst mit einem 384 Bit Speicherinterface 672 GB/s und mit einer deaktivierten Einheit und 320 Bit nur noch 560GB/s.
GDDR6 gibt es mit 16 Gbps (die waren sogar auf der mysteriösen RX 6XXX Karte von AMD aufgetaucht). Das sind 768 GB/s mit einem 384-bit Interface. Selbst meine 2080Ti macht 691 GB/s mit dem Micron RAM. Samsung hat sogar 18 Gbps Module. Wären dann 864 GB/s. Micron hatte auch schon Anno 2018 20 Gbps Chips unter Laborbedingungen mit etwas mehr I/O Spannung vorgeführt. Damit wäre die 3080 mit GDDR6X schon vom Tisch was Speicherbandbreite betrifft.
SKu schrieb:GDDR6 gibt es mit 16 Gbps
Das Problem dabei:
https://www.samsung.com/semiconductor/dram/gddr6/
https://www.micron.com/products/ultra-bandwidth-solutions/gddr6/part-catalog
Wirklich was gewonnen hätte man damit also nicht und ob man "einfach so" mal eben den Speichercontroller von einem abgeschalteten Block nutzen kann, sei einfach mal dahin gestellt. Nur weil es mal auf einem anderen Chip gegangen ist, bedeutet es für Ampere gar nichts.
Was soll denn an GDDR6X so schlimm sein? Die Technik ist jedenfalls besser als bei GDDR6 und die Geschwindigkeit auch. 2Gbyte Chips gibt es mit hoher Geschwindigkeit aktuell weder mit GDDR6X noch mit GDDR6.
SKu schrieb:Micron hatte auch schon Anno 2018 20 Gbps Chips unter Laborbedingungen mit etwas mehr I/O Spannung vorgeführt.
Und daraus ist halt GDDR6X entstanden.
https://www.micron.com/products/ultra-bandwidth-solutions/gddr6x
Zuletzt bearbeitet:
Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 8.845
bensen schrieb:Genau und Nvidia konnte natürlich nicht vorher ausrechnen ob 10x GDDR6X oder 12x GDDR6 für sie günstiger ist.
Da hätten sie mal lieber den Shoryuken fragen sollen.
Das habe ich nie gesagt. Wie kennen die Beweggründe nicht. Evtl. Wurde Nvidis mehr Band reite in Aussicht gestellt, evtl. Müssen sie gewisse Abnahmemengen erfüllen. Wissen wir alles nicht.
Aber wäre ja nicht das einzige bei Ampwre, was man falsch kalkuliert hat ^^ das zocken ist ja auch bei der Fertigung ziemlich in die Hose gegangen.
bensen schrieb:Ich sage ja nicht, dass ein defekt sehr häufig ist. Absolute Ausnahme ist aber kompletter Unsinn
Weder das eine noch das andere wurde behauptet.
bensen schrieb:Kann man sich ja als groben Richtwert anhand der Fläche ausrechnen, wie wahrscheinlich ein defekt dort ist.
Dr.Pawel
Lt. Commander
- Registriert
- Nov. 2007
- Beiträge
- 1.765
Nette Karte, da wird sicherlich einiges mit Möglich sein in den entsprechenden Einsatzgebieten. Mich würde ja mal interessieren wie es da mit der Verfügbarkeit aussieht und wie die Yield aussieht.
GDDR6x war nötig da nur so über den konventionellen Weg auch mit "wenig" Speicher ausreichend Bandbreite generiert werden konnte. MMn war von Nvidia sicherlich nicht geplant ein 20GB Modell der 3080 so "schnell" zu bringen. Klar sollte sein das GDDR6x teurer ist als normaler GDDR6 den es ja auch von verschiedenen Herstellern gibt. Das Bandbreite auch anderes generiert werden kann als über ein extrem breites Interface und GDDR6x werden wir vermutlich bei RDNA2 sehen.
Persönlich sehe ich den GDDR6x auch eher als nachteil derzeit, zu teuer, zu Stromhungrig und zu heiß. Bei den Temps die da z.T. gemessen wurden kann man sich schon fragen wie langlebig das Ganze sein wird.
Mfg
GDDR6x war nötig da nur so über den konventionellen Weg auch mit "wenig" Speicher ausreichend Bandbreite generiert werden konnte. MMn war von Nvidia sicherlich nicht geplant ein 20GB Modell der 3080 so "schnell" zu bringen. Klar sollte sein das GDDR6x teurer ist als normaler GDDR6 den es ja auch von verschiedenen Herstellern gibt. Das Bandbreite auch anderes generiert werden kann als über ein extrem breites Interface und GDDR6x werden wir vermutlich bei RDNA2 sehen.
Persönlich sehe ich den GDDR6x auch eher als nachteil derzeit, zu teuer, zu Stromhungrig und zu heiß. Bei den Temps die da z.T. gemessen wurden kann man sich schon fragen wie langlebig das Ganze sein wird.
Mfg
Dr.Pawel schrieb:Bei den Temps die da z.T. gemessen wurden kann man sich schon fragen wie langlebig das Ganze sein wird.
Die Temps von den du sprichst, bezogen sich alleine auf das FE Design.
GDDR6X consumes 15% less power per transferred bit than GDDR6, but power consumption is higher since GDDR6X is faster than GDDR6. PAM4 consumes less power and pins than differential signalling while still being faster than NRZ. GDDR6X is thought to be cheaper than High Bandwidth Memory.[25]
Ein entsprechender GDDR6 Chip mit 16Gbps oder gar 18Gbps würde also kaum weniger Energie verbrauchen.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 47
- Aufrufe
- 3.541
- Antworten
- 9
- Aufrufe
- 4.698