News Nvidia Titan X: Pascal-GPU mit 11 TFlops ab 2. August für 1.200 US-Dollar

Palmdale schrieb:
Natürlich sind eigene Meinungen unbenommen, allerdings ist "verachtenswert" ein harsches Wort. Sie haben aus ökonomischen und rationalen Gründen die erste Iteration von HBM nicht verbaut und GDDR verwendet. Man sollte nicht annehmen, dass Nvidia die Grenzen von GDDR nicht auch bewusst sind...



Jein. Sicherlich ist es erstaunlich, was schlussendlich mit dem begrenzten Budget vor dem Hintergrund des Ausverkaufs und der fortwährenden Schwankung zwischen Verlust und geringem Gewinn noch entsteht. Allerdings möchte ich doch mal klar stellen, dass nicht der Konsument an der Situation von AMD Schuld ist, sondern AMD höchst selbst.

Jeder halbwegs vernünftige Ökonom wird einem raten, schlechte Produkte eines kränkelnden Unternehmens zu kaufen, nur damit dieses "unterstützt" wird. Es würde nur dazu führen, dass das Unternehmen darin bestärkt wird, schlechte Produkte auch weiterhin zu entwickeln und zu verkaufen. Nur wenn man mit den Füßen abstimmt, wirds auf lange Sicht etwas. AMD musste in zahlreichen Produktkategorien mit immensen Preisnachlässen in den Markt gehen, um überhaupt nennenswerte Absatzzahlen zu erreichen. Man hat sich vor einigen Jahren aus dem High-End CPU Markt verabschiedet und versucht nun, das zerschlagene Porzellan wieder zurecht zu rücken. Unstete Veröffentlichungen, teilweise idiotische Verhaltensweisen unmittelbar vor Produktlaunches, nicht wirklich vorteilhafte Behandlung von Exklusiv-Partnern und teilweise Produkteigenschaften, die nicht dem Markt gerecht werden oder erst mit mehrjähriger Verzögerung. Das ist schlicht und ergreifend nicht klug und muss auch als solches angesprochen werden, wenn man tatsächlich mal die rosarote Brille absetzt (nicht persönlich gemeint).

Man kann nur hoffen, dass Sie die Kurve bei VEGA und ZEN bekommen, denn auch mir liegt etwas an Konkurrenz.

Nun frage ich dich, wie sie dasss den bewerkstelligen sollen mit ihrem Budget? Die können nicht mehr viel besseres entwickeln, denen läuft die Hose auf Grundeis. Du willst bessere Produkte von einer Firma, die zwar theoretisch wüsste wie man das erreicht, dies aber aus einer schlechten finanziellen Situation nicht bewerkstelligen kann.

Und zu Nvidia. Worauf ich mich bezog war, dass nvidia keinen Cent zur Entwicklung von HBm beigetragen hat. Das haben Hynix und AMD alleine getragen. Und jetzt sollen sie dafür die Lorbeeren bekommen? Sowas finde ich echt schei***e. da ist es mir lieber wenn amd da das Monopol hat. Allein die Entwickler werden sich schon ärgern, haben sie doch die Zukunft der Speichertechnologie erforscht für ihre Firmen und jetzt haben diese nix davon? Da muss man auch mal den Arbeitnehmer sehen, denn der leidet immer mit.

Ansonsten ist mir Nvidia total egal. Ich kauf die Karten, die mir am besten gefallen und das meist aus technischer und Kosten sicht. Und da nvidia nunmal zu teruer ist und kein HBM hat und ich meine Karten gerne länger benutze und dort dann die AMD karten an Leistung gewinnen habe ich mich nach meiner HD7870 für eine 290x entschieden. klar war die Matrix laut und heiß, aber der Morpheus hat abhilfe geschaffen und ausserdem kann man das ja auch bei fermi bemängeln.

Und wenn alle sagen amd ist laut und Heiß, dann kann ich nur sagen, wenn man mal eine Gtx260 und Gtx285 gehört hat, dann ist eine Matrix dagegen peanuts.
Ausserdem find eich, dass die 1060 und die 480 astreine Karten sind, aber aus dem stehgreif würde ich auch wieder zur AMD greifen, warum? weil die 2gb Mehr an speicher sind das was ich brauche. 6gb und die zu geringe Speicherbandbreite sind mir dann zu wenig. und dass was amd mittlerweile an strom einsparrt ist echt viel, wenn man mal die 290x sieht. Also man kann schon sagen, dass amd da einen guten job gemacht hat. nvidia ja auch, die 1080 ist eine gute solide Karte und die neue Titan X sicher auch, aber die fallen nicht in mein beute -Schema, da sie beide kein hbm 2 haben und für das gebotene zu teuer sind. Die Fury (die hbm hat und sich momentan echt gut verkauft laut overclockers) ist ja auch nicht so viel teurer als eine 390x gewesen. in der hinsicht gehe ich mal bei der 490 von 450 Euro als Preis aus (optimistisch). Schenken wollen einem beide nix.

Und natürlich, amd hat große Marketing-Probleme, aber ich finde, dass Gamning Evolved von der Spiel ausswahl echt besser ist (shogun 2, Dirt Rally, etc.) sind schon geile spiele und alle Features dort funzen auch meist auf nvidia karten wobei deren Features auf Amd karten nicht funzen (physix ist ganz nett muss aber nicht sein).
Und Klar amd hat in der Cpu-Sparte große Probleme gehabt und auch einige Fehler bei den Gpus gemacht, aber ich glaube langsam wird das wieder was. Ausserdem hat man meist externe Unternehmen für solcherlei sachen wie Marketing.
 
Zuletzt bearbeitet:
Und wer knapp bei Kasse ist und damit dann 4 Jahre durchhalten muss
Du verstehst nicht, ich will 4 Jahre durchhalten. Nicht müssen. Meine Hardware soll so lange wie möglich durchhalten. Aus diversen Gründen. (CPU + GPU) Meine GTX Titan X ist von 2015 bis 2019 im Rechner.

Jedes Jahr eine neue Titan kaufen kann jeder. Ist mir zu langweilig. :D

Übriges wollen 99% aller Leute, also die Masse, das ihre Hardware so lange wie möglich durchhält und wird nur gewechselt, wenn sie komplett auseinander fällt. Du bist hier in der Minderheit.

Und nochmal. Das der Vollausbau + ordentlich Vram 1300€ kosten ist eine Sache von NV. Nicht von der GPU Hardware speziell. Für das aller gleiche das ich 2015 für 1300€ kaufen musste, hab ich 2011 mit der 580 3GB meiner letzten Karte 500€ gezahlt.

Ihr müsst begreifen das die Titan nix besonderes ist(von wegen GPGPU Karte) und nur der Preis besonders ist. Und bei der 2016er Titan ist sogar der Vram beschnitten. Ergo ist sie also von der Hardware her sogar einer 580 3GB unterlegen. Die hatte Vollausbau + Speicherverdopplung. Und zwar nicht schlampig einfach ein paar Chips auf die Rückseite gepappt. Nein eine ordentliche Datendichteverdopplung hat die bekommen. Alle Chips auf der Vorderseite des Kühlers.

Das kreide ich bei jeder Titan an. Einfach die Vram Chips auf der Rückseite mit 100Grad vor sich hin kochen lassen. Lächerlich für den Preis.

Hier Infos zu allen meinen Systemen ever + aktuelles:
https://www.computerbase.de/forum/threads/eure-grafikkarten-historie.235090/page-107#post-17603646
https://www.computerbase.de/forum/threads/ivy-e-ca-2000eur-pc-absegnung.1253584/

Eine Titan ist immer max. Unvernunft. Ob man die nun 4 Jahre, oder HisN Syle 1 Jahr drin hat spielt dabei überhaupt keine Rolle. Das kann jeder machen wie er will. Die Zielgruppe ist Haar genau die Selbe. Nur das eben der Vram für die 1 Jahres Fraktion eigentlich viel zu viel war. Denn zb. bei der 2015er Titan X hätten 6GB gereicht für das Vorhaben und für die 2016er Titan X reichen die 12GB dicke bis zur nächsten Titan. (könnt ihr euch von HisN bestätigen lassen)

Bei der Vram Diskussion geht es immer nur um die Leute die die Hardware so langlebig wie möglich haben wollen. (also 99% der Käufer) Und das ist und war bei mir schon immer der Fall. Wenn du es genau wissen willst, kaufe ich alles, absolut alles so das es so lange wie möglich durchhält.

Weiteres Beispiel:
Kauft ihr heute eine 1060 6GB und wollt freiwillig bei Volta wieder den Nachfolger kaufen. Kein Problem. 6GB passen perfekt. Wollt ihr allerdings das eure Karte so lange wie möglich durchhält -> 480 8GB

Die aktuelle Entwicklung mit DX 12 das meinen Ivy-E Hexacore wohl ewig leben lässt, gefällt mir daher besonders gut.

Wer Zukunftssicherheit bei einer Grafikkarte möchte, der ist doch völlig falsch und sollte sich eine Glaskugel anschaffen. Hält garantiert länger und ist äußerst flexibel ...
Ich kann das, bei CPU + GPU, Beweis ist oben verlinkt und ich weis auch ganz genau warum das so war.

Wenn euer Rechner nach kurzer Zeit in die Knie geht, seit einzig und allein ihr selber Schuld durch euer Kaufverhalten. NV hilft kräftig mit, bei ihrer versteckten geplanten Obsoleszenz. (Stichwort Vram Krüppel). Aber ansonsten...
 
Zuletzt bearbeitet:
Ich finde die Leistungswerte erstmal beeindruckend. 480 Gbit/s Speicherdurchsatz, 3584 Shader Units, 12GB vRAM. Das ergibt unterm Strich etwa 35% Mehrleistung im Vergleich zur GTX 1080 - welche aktuell ohnehin völlig alleine im HighEnd-Segment dasteht, keine anderen Grafikkarte auf dem Markt ist auch nur ansatzweise so schnell. Im Rahmen der selben Fertigung einfach mal 35% mehr Leistung finde ich beeindruckend. Trotzdem bleibt ein fader Beigeschmack, die erste TITAN hatte die volle DP-Leistung und jeweils das maximal mögliche. Maximal möglich wären hier 16GB HBM2 als Speicherausstattung und eine volle DP-Leistung.

Wir brauchen definitiv VEGA für weitere Innovationen...

Leider stört mich auch das Preiskonzept von Nvidia doch sehr. Früher war nicht alles besser, aber die Grafikkartenpreise haben in den letzten 3 Jahren dank Nvidia doch sehr stark zugelegt.
 
Nvidia will ja hoffentlich nicht schon nach einem Monat ne 1080 Ti raus bringen für 200 weniger und mit Boardpartner Modelle. Da würd ich mich als Titan XP Käufer extrem verarscht vorkommen, haha)...
Ha! Das wäre ja noch die Krönung des ganzen. Eine 12GB 1080TI leicht langsamer für 200€ weniger. Quasi doppelte Titan Verarsche. Ich traus ihnen zu!

Den Trick mit der 8800 Ultra wieder ausgepackt.

ich frage mich allerdings, ob Ihr auch bereit seit den Preis dafür zu bezahlen, weil GPU's mit HBM2 werden nicht billig werden.
Kein Problem. 48GB+ HBM² bei der Volta Titan dann 2019 für 2000€. (Vollausbau beim Chip) NV bring it on.
Jetzt ist mir auch klar warum die 1080 nur ein verkrüppeltes 256bit Speicherinterface bekommen hat.
Wäre sonst zu nahe an der Titan gewesen.
Vor allem ist mal wieder klar warum sie nur 8GB bekommen hat wie eine gewisse kleine neue AMD Karte. Grund: Titan X 12GB.

Gewinnmaximierung pur hier bei NV, die wissen wie man mit GPUs Geld macht, das muss man ihnen lassen. Der nächste Rekordgewinn ist gesichert...

Und zack der nächste auf meiner Ingore Liste: GEZ-Verweigerer
 
Zuletzt bearbeitet:
Krautmaster schrieb:
@Conceptions

Gegenfrage, wo fängt die Schmerzgrenze beim Autokauf an?

Merkst was? Bescheuerte Frage da es bei 10 Befragten 10 Antworten geben wird.
"Bescheuerte" Fragen gibt es nicht, nur "bescheuerte" Antworten und du hast gewonnen. Merkste was? Du hast genau nichts zu irgendwas beigetragen.

@Todesstern?
Und weil das Wort Interposer vorkommt soll es HBM betreffen oder was? :rolleyes:
 
Zuletzt bearbeitet:
@ConCeptions Danke.
Wollte gerade das gleiche schreiben. :D
 
https://www.computerbase.de/forum/threads/sammelthread-grafikkarten-mit-mehr-als-1gb-vram.562654/
2016 stehen bei der Rohleistung 16GB an: https://www.computerbase.de/forum/attachments/12052015492-jpg.495986/
2017 stehen bei der Vollausbau Pascal Titan dann 24GB HBM² auf dem Plan.

2019 bei der Vollausbau Volta Titan 48GB.

Immer schön die Kästchen zählen, dann ist man auf dem richtigen Weg. Wenn mal einer Lust hat eine digitale Version davon zu basteln, immer her damit.

Nvidia hatte bei der 1080 TI(Titan X²) 2 Optionen. 24GB zu verbauen und erstmals in ihrer Geschichte über den Vram Soll zu gehen, oder den Kunden eine extrem überteuerte im Vram beschnittene Karte hin zu klatschen.

Vielleicht hatten wir auch Glück und es waren 12GB GDDR5X+4GB Marketing Vram geplant. NV hat ja nie ausgeschlossen das nochmal zu bringen.

12 GB G5X sind doch völlig ausreichend
Natürlich, wenn man sich Sommer 2017 dann die echte Pascal Titan holt. Sehe ich auch so. Nicht aber für Leute wie mich die die Karte bis 2020 fahren würden.

Die Titan X wird's schließlich nur bei Nvidia selbst zu kaufen geben.
Whaaaaaat? Noch einen oben drauf, keine EVGA Hybrid mehr? Nur noch das hier uns sonst nichts?!? http://geizhals.at/nvidia-titan-x-a1480758.html
Keine "heimlichen Custom Designs" mehr? Keine 10 Jahre EVGA Garantie mehr?
 
Zuletzt bearbeitet:
Also Kosmopaya ich ärgere mich ja wie du das die neue Titan ein Vram Krüppel ist, aber bei der 1070 und 1080 wars ja irgendwo zu erwarten das die keine 16GB haben werden.
Was man Nvidia hier ankreiden kann, ist das sie ihren Partnern untersagen wie noch zu GTX 680 4GB Zeiten einfach doppelten Vram anzubieten, cih würds kaufen.
 
Was man Nvidia hier ankreiden kann, ist das sie ihren Partnern untersagen wie noch zu GTX 680 4GB Zeiten einfach doppelten Vram anzubieten, cih würds kaufen.
Genau so sehe ich das auch. :daumen: Dieses Vram Verdopplung verbieten ist das Grund allen übels. Das hat wie gesagt Gründe weil NV sich sonst die hochpreisigen Karten selber kanibalisieren würde. Und das macht NV aufgrund des Gewinns sehr ungern. Oder wie schon einer mal sagte, es ist sogar illegal gegenüber den Aktionären.

Allerdings erwarte ich für die Wucherpreise(starker Preisanstieg) dann eigentlich 100% Vram Soll als Standard. Da bin ich nicht so gnädig. Vor allem wenn man weis das es technisch locker machbar ist.

Wenn NV mehr von mir haben will, will ich auch mehr von ihnen haben. So einfach ist das.

Beispiel: Eine 1060 3GB würde ich mir persönlich sogar kaufen.(sollte also gebaut werden) Vram Krüppel keine Frage. Aber in meinem HTPC brauche ich nicht viel Vram, auch nicht in Zukunft. Ja sie wäre überteuert. Aber nennt mir eine neue NV Karte die nicht überteuert ist.
 
Zuletzt bearbeitet:
Conceptions schrieb:
Und weil das Wort Interposer vorkommt soll es HBM betreffen oder was? :rolleyes:

Warum sollte man Geld in etwas investieren was Zulieferer wie Samsung leisten können? Macht wirtschaftlich keinen Sinn, deshalb gibt es Zulieferer. Gutes Beispiel ist Bosch für die Automobilindustrie. Sonst könnte man auch sagen, wie "assi" ist es das AMD nicht in Spulen und Kondensatoren forscht und investiert. Denn die sind auch massig auf einer GPU verbaut. Oder warum beide auch nur noch auf Zulieferer der Fertigung setzen, wie "assi" ist es denn das die dort nicht mit ASML forschen..wie "assi" ist das denn das die von Intel und ASML erforschten Techniken auch AMD zur Verfügung gestellt wird. Den sollte man nach dem seiner Logik den Zugriff auf Fertigung unterbinden..

Zu deinem Kommentar: Der Interposer ist zentraler Bestandteil von HBM zusätzlich wird in dem Patent von "memory" gesprochen, deutliches Zeichen für HBM, denn außer MCDRAM welches NV nicht einsetzt, wird es für ein andere Speichertechnik aktuell nicht verwendet. Das wird auch hier ersichtlich:

a first memory stack that is coupled to the semiconductor interposer and includes a first plurality of memory chips configured as a single stack;

Memory stack mit Interposer ist HBM oder MCDRAM..ohne Interposer oder Stacking kein HBM möglich. In wie weit was wer wo Patente bei HBM hält und welche Techniken eingesetzt werden die ebenso Patente von anderen enthält kann keiner von uns sagen. Aber du scheinst ja völlig unbedacht zu haben. Ih könnte mir sogar sehr gut denken das HBM auch Patente von Rambus nutzt, die in so viele Speichertechniken stecken. Oh..

Beispiel gefällig, HBM verwendet ein Patent der Firma "Hong Kong Applied Science and Technology Research Institute Company, Ltd." für das TSV Stacking. Oh, hat dort AMD mitgeforscht? Nein, wie Assi. Es gibt mehr als 2300 Patente rein um das Thema 3D Stacked Memory Technology. Es ist also so gut wie ausgeschlossen, dass in HBM nur Patente von Hynix und AMD stecken. Fast 800 kommen alleine von Sandisk. Dazu kommen 57 von dem Überexperte seiner Art im Memory Stacking Guobiao Zhang als Einzelperson. Der Patente zu 3D Memory hält, wovon HBM eine Abwandlung ist. Und der arbeitet aber nicht bei AMD oder Hynix.

http://www.wipo.int/export/sites/ww...documents/lexinnova_plr_3d_stacked_memory.pdf

Und zur Info, HBM ist eine offener JEDEC open source Standard. Auch AMD hat sich ohne zu forschen an JEDEC Standards bedient, oder hat AMD GDDR5 erfunden..

Außerdem, hat wohl jeder übersehen:

Moreover, AMD and Nvidia have a broad cross-licensing agreement, which largely prevents royalty demands.

http://www.kitguru.net/components/g...ng-usage-of-hbm-and-do-not-collect-royalties/

Aber scheinbar gibt es hier Experten (wie du) die genau wissen, wo welche Patente eingesetzt werden, die wiederum Patente von anderen einsetzen oder darauf aufbauen oder Technologien verwenden die ebenfalls Patente verwenden. Hätte ich ein solches Wissen, würde ich bald Ferrari fahren, denn Patentexperten sind gefragt, denn oft weiß das die Firma selbst nicht genau.
 
Zuletzt bearbeitet:
Sofern AMD bei Vega die zweite Generation an HBM einsetzen wird, hoffe ich, dass wieder Karten mit Fury Nano/X Abmaßen erhältlich sein werden.

Im Gegensatz zu Enthusiasten, kaufe ich mir so eine Karte nicht um sie schon nach sechs Monaten wieder austauschen zu können, sondern um sie so lange wie möglich nutzen zu können.

AMD hätte auf jeden Fall einen Pluspunkt bei mir, wenn sie eine kleine und leistungsfähige Karte mit akzeptabler Lautstärke auf den Markt bringen würden.
 
Leider stört mich auch das Preiskonzept von Nvidia doch sehr. Früher war nicht alles besser, aber die Grafikkartenpreise haben in den letzten 3 Jahren dank Nvidia doch sehr stark zugelegt.

Leider können die sich das erlauben weil AMD halt in letzter Zeit immer hinterher läuft. Es würde ja schon reichen wenn Vega die 104er abzieht bei ähnlichen oder günstigeren Preis, damit NVidia da gezwungen wäre zu reagieren, aber es sieht ja auch leider so aus das sich AMD natürlich dabei denken könnte, das wenn man schon etwas hat was besser ist man es für genau soviel oder mehr ansetzen könnte, was wahrscheinlicher ist. Teufelskreis.
 
Bezüglich HBM2 wäre diese News vielleicht ganz interessant: http://www.golem.de/news/sk-hynix-h...m-dritten-quartal-verfuegbar-1607-122152.html
Scheinbar konzentriert man sich vorerst auf 4GB Stacks. Persönlich ging ich eher davon aus, bei Vega nur 8GB HBM2 zu sehen, da sonst zu teuer. Jedoch kann man mit 2 Stacks heir schier nicht mehr mit einem Bandbreitenvorteil ggü. GDDRX5 werben.
Ich bin gespannt worauf man hier bei Vega setzen wird.

Und bzgl. Vram Skala, so wird es keine 24GB HBM2 geben. Wenn überhaupt, GDDRX5. Was im Vergleich zu 2 Stacks HBM2 auch völlig reicht.
 
Bin mir jetzt nicht sicher was HBM2 Zukunftssicher macht wenn andere Komponenten limitieren sollten
 
Kaum interessante Neuankündigung von NVIDIA. Warum ?

1. Für Otto-Normal-Verbraucher völlig überzogener Preis.
2. Für Enthusiasten gänzlich uninteressant, da mit alter Technik hantiert wird. Kein HBM-Speicher und nur ein beschnittener Chip auf einem festgeschnallten starren Referenzdesign ist nicht das was sich ein Enthusiast von einem Produkt der obersten Preisklasse wünscht.
Selbst AMD baut schon lange HBM-Speicher in ihre Königsklasse ein und das sogar als Custom-Variation. NVIDIA hinkt mal wieder hinterher.
3. 20% mehr SP-Leistung als eine Referenz-GTX1080 ist nicht gerade überzeugend.

Ergo - Ein Flop der nur für Ablenkung sorgen soll.

r4yn3 schrieb:
Wenn überhaupt, GDDRX5. Was im Vergleich zu 2 Stacks HBM2 auch völlig reicht.

Kommt drauf an wie viele Stacks verwendet werden. Sind es 4 wie bei der Fury, so hat man schon deutliche Bandbreitenvorteile.
HBM bietet aber nicht nur Bandbreite, sondern auch eine deutliche Einsparung der benötigten Leistungsaufnahme und hoch gezüchteter GDDR5-Speicher ist nicht gerade sparsam.

Dadurch steigt die Effizienz deutlich an. Deswegen konnte AMD die Nano erst so effizient machen.
Würde NVIDIA die neue Titan X mit HBM-Speicher ausliefern, so könnte sie deutlich höhere Taktraten fahren und sich deutlicher von der GTX1080 absetzten mit ebenfalls gestiegener Effizienz. Aber so...

Abhaken und hoffen, dass NVIDIA bei der nächsten Titan X mal etwas mehr Fortschritt anbietet.
 
Zuletzt bearbeitet:
Das ist schon klar, nur würde man dann eventuell wirklich auf 16GB HBM2 setzen, was ich einfach nicht glaube. Aber ich lasse mich gern eines besseren belehren wenn es soweit ist. Schließlich bietet man ja mit 8GB bei einer x80 Karte ja auch schon Vram satt an.
Zugegeben, habe ich bei dem Teil den du zitiert hast vergessen zu schreiben: Was im Vergleich zu 2 Stacks HBM2 im Bezug zur Bandbreite auch völlig reicht."

Wieviel Effizenz man wirklich durch HBM gewinnt wird man wohl nie beantworten können solang es nicht 2 völlig identische Karten mit unterschiedlichem Speicher gibt.
 
DarkerThanBlack schrieb:
HBM bietet aber nicht nur Bandbreite, sondern auch eine deutliche Einsparung der benötigten Leistungsaufnahme und hoch gezüchteter GDDR5-Speicher ist nicht gerade sparsam.

Dadurch steigt die Effizienz deutlich an. Deswegen konnte AMD die Nano erst so effizient machen.

HBM ist effizienter als GDDR5, bei GDDR5x liegen beide bei der Leistungsaufnahme aber fast gleich auf. Vorteil bleibt hier nur der notwendige Platzbedarf.

The reduction of supply and I/O voltages is not the only measure to cut power consumption of the new memory. The GDDR5X standard makes temperature sensor controlled refresh rate a compulsory feature of the technology, something that could help to optimize power consumption in certain scenarios. Moreover, there are a number of other features and commands, such as per-bank self refresh, hibernate self refresh, partial array self refresh and other, that were designed to shrink the energy consumption of the new SGRAM.

Due to lower voltages and a set of new features, power consumption of a GDDR5X chip should be lower compared to that of a GDDR5 chip at the same clock-rates. However, if we talk about target data rates of the GDDR5X, then power consumption of the new memory should be similar or slightly higher than that of GDDR5, according to Micron. The company says that GDDR5X’s power consumption is 2-2.5W per DRAM component and 10-30W per board. Even with similar/slightly higher power consumption compared to the GDDR5, the GDDR5X is being listed as considerably more energy efficient due to its improved theoretical performance.

http://www.anandtech.com/show/9883/gddr5x-standard-jedec-new-gpu-memory-14-gbps

Beispiel gefällig, HBM1 (Fury X) 4GB braucht ungefähr 15W, 8GB GDDR5x 20W.

http://www.anandtech.com/show/9969/jedec-publishes-hbm2-specification

Glaubt man das was Samsung zu HBM2 in 20nm an gibt, wird der etwas unterhalb von GDDR5x liegen, aber nicht signifikant. Wir sprechen dann von 2 bis 5W @ 8GB. Große Unterschiede bei der Leistungsaufnahme wird es dort nicht geben. Micron hat hier einen guten Job gemacht.
 
Zuletzt bearbeitet:
Zurück
Oben