News AMD bestätigt HBM-Grafikkarte mit 300 Watt

Matzegr schrieb:
Verschiedene Karten zu vergleichen ist suboptimal, nehmen wir doch mal gleiche Karten:

285 mit 2 GB verbraucht bei 2 Monitoren im Idle 14,51W bei 3 Monitoren sind es 41,07W. GPU Takt und Spannung bleiben gleich. Nur der Ram lauft bei 3 Monitoren mit 1375MHz und nicht mit 150MHz.
Mehrverbrauch durch den RAM/Speicherinterface: 26,56W!

290 mit 4 GB verbraucht bei 2 Monitoren im Idle 21,06W bei 3 Monitoren sind es 55,46W. GPU Takt und Spannung bleiben gleich. Nur der Ram lauft bei 3 Monitoren mit 1250MHz und nicht mit 150MHz.
Mehrverbrauch durch den RAM/Speicherinterface: 34,4W!

Kleiner einstelliger Wattbereich sieht anders aus!

Verschon mich mit dem gesülze von multimonitor setups und verschiedenen taktraten ... juckt keinen und hat auch null bezug zu meiner aussage!

https://www.computerbase.de/2014-05/sapphire-amd-radeon-vaporx-r9-290x-oc-4gb-vs-8gb-test/4/

4GB vs. 8GB
Leerlauf 68 zu 68 Watt
Last 417 zu 411 Watt (8GB sogar sparsamer, da ein paar Mhz weniger Takt!)
Das ist für mich im einstelligen Bereich! Andere Seiten kommen zu ähnlichem!
Die 4GB der 290X können also im Leben kein 100Watt fressen sonst müsste das 8GB Modell logischerweise 100Watt mehr ziehen, macht es aber nicht!
 
Zuletzt bearbeitet:
Es kommt nicht auf die Menge, sondern auf die Anbindung an.
 
BiA Master schrieb:
sondern auf die Anbindung an.

So ist es.


ynRr3Q1.png


@tobi14,

sein Gesülze hat aber Recht, was die Watt Angabe betrifft. Im Gegensatz zu dir. Siehe Map ^^
 
Zuletzt bearbeitet:
modena.ch schrieb:
Mit 300W TDP, HBM Speicher (die mögliche Bandbreite ist krass) und dem Namen
"King of the hill" bleiben wohl nur noch wenig Fragen offen! :D

HBM Speicher spart ja nach Bestückung 50-100W gegenüber GDDR5. Man kann also wohl
mit einem Monsterchip rechnen. Deshalb wohl auch der Name.

Wohl eher 5 - 10Watt ;)
 
Ich habe vor einer Weile mit dem MR² CPU-Mark 1.21 Alpha rumgespielt (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=559318).
Damit kann auch auch per OpenCL die GPU Leistung testen (bei mir 290@1120/1550). Jedoch hatte der Benchmark in einem GPU Durchlauf einen Bug und blieb hängen (nur der Benchmark). Währenddessen hatte ich die GPUz offen um die Taktraten und Auslastung zu loggen.
Ergebnis war:
GPU Takt 150mhz
Memory Takt 1550mhz
Auslastung 0%
Speicherverbrauch 300mb
Verbrauch 120W


512Bit GDDR5 Anbindung kann also durchaus 100W verbrauchen (Der Speicherchip selbst wird kaum 10-20W brauchen).
 
Ja.. siehe Map oben... der Speicher ist schnuppe.

AMD verwendet 2.5D Interposer Stacking
 
tobi14 schrieb:
... munkelt man in der Gerüchteküche.
Meiner Meinung Blödsinn hoch 25!
Einfach mal den Mehrverbrauch einer 290X mit 4GB und einer mit 8GB vergleichen. Brauchen sowohl unter Last als auch im Leerlauf kaum mehr, das spielt sich im kleinenen 1 Stelligen Wattbereich ab. Wenn der Sprung von 4 auf 8GB gegen Null im Verbauch geht geht er auch gegen Null bei einer hypothetischen 0GB Karte ;)
Alles Marketing Geschwätz!

Ach ja? Und wenn immer nur die ersten 4GB der Karte belegt sind? Dann sind die übrigen 4GB im Leerlauf und im Leerlauf verbraucht der Speicher sicher weniger Energie als wenn fortwährend Daten geschrieben und ausgelesen werden!
Folglich müsste man die 4GB und 8GB Variante einer Karte mit jeweils vollem VRAM, der auch dauernd neu geschrieben wird, testen.
Wenn bei beiden Varianten immer nur max 3GB belegt sind und nicht mehr genutzt wird, kann ich mir eine höchst geringe Differenz zwischen 1GB liegt brach und 5GB liegen brach vorstellen!

Wie dem auch sei: warten wir wie welche Karten wann im Handel zu erwerben sind.
Ich freu mich schon auf die CB Tests zu sämtlichen neuen Karten 2015! :)


EDIT: aja, ganz vergessen: auch zwei gleiche Karten kann man niemals zu 100% miteinander vergleichen, da die Chips (GPU und VRAM Chips) ebenfalls niemals völlig gleich sein können!!
Und die verschiedenen Verbrauchsunterschiede resultieren auch durch unterschiedliche "Testszenarien"!
Wer hat jetzt also Recht? Niemand? Alle? Weder noch? ... ;)
--> bis man mit den neuen Karten im eigenen PC zocken und am eigenen Strommessgerät dir Werte ablesen kann, sind Diskussionen (aber nicht Spekulationen) ziemlich überflüssig imho.

MfG
 
Zuletzt bearbeitet:
Wenn das stimmt, dann fi... AMD die grünen Jungs aber böse. :D

Meine Vorraussage:
Manch einer meint ja der 285x Chip sei Crap. Ist er aber nie gewesen. Das Teil war eine Machbarkeitsstudie, die künstlich
stark beschnitten wurde, damit die 285 nur in Full HD besser ist als Ihre Vorgängerkarte.
Wäre der Chip im Vollausbau gekommen mit gescheitem Speicherinterface - dann hätte die 285er im Bereich der 290er gewildert.

Nun der Chip im Vollausbau mit HBM Speicher wird die 370er Karte werden...
Also wird der Chip der 390er wirklich ein Monster.... Ich gehe von nur 4Gb Speicher aus... dank der Kompressionstechnologie von AMD entspricht dass dann fast 6GB heutigem Speicher.

Das langt für den Anfang. Da aber 4k das Ziel sein sollte... ah crap- vielleicht kommen doch 8GB...
Dann wird das Teil bei GF gefertigt. Hier wird ja eine Packdchte um 30% höher erzielt als in den alten 28 nm Prozessen,
dann spart man noch die Transistoren für den großen Speichercontroller....

Das kann man nun alles zusätzlich in Schaltungen für reine Leistung stecken.... Das wird der Hammer.... :D
 
Die hypothetische R9 285X fristet im iMac Retina 5k als R9 M295X ihr dasein :P
 
Das Prüfen von neuen Technologien, sei es in der Fertigung oder der Architektur, ist ja nichts neues. Gab es bei AMD mir der HD4770 (Strukturbreite) und bei Nvidia mit der 750ti (Architektur).
 
Wann kommen die Karten denn ungefähr? Es gab doch die letzte Zeit immer wieder Meldungen, dass die Karten in irgend welchen Exportlisten aufgetaucht sind, kann man daraus ungefähr irgend was ableiten? Sowas hat es ja auch bei Vorgängermodellen gegeben.

Und träumt mal weiter von 4k Gaming. Wenn man irgend wann mit High End Karten in dieser Auflösung mit vollen Details zocken kann, würde mich dann nur noch Unter- bis Mittelklasse interessieren. Denn die reicht dann ja für FullHD mit 4x MSAA und max. Details. Sehr realistisch.
 
Hmm einige Seiten zuvor hat jemand ja einen Link bzgl. der Daten reingestellt.
Gibt es hier ein paar Leute die Erfahrungen mit der Glaubwürdigkeit vom Autor/der Seite haben?
Wie gut war die bei den letzten Veröffentlichungen?

http://www.game-debate.com/games/?item=R9+3

Edit: gerade gelesen, er hat es selbst nur geraten.
 
Zuletzt bearbeitet:
Muss ein wenig schmunzeln wie neuerdings geschrieben wird das Nvidia immer besser sei :D
Die neuen Nvidia konkurrieren aktuell mit Grafikkarten aus dem Jahre 2013 und sehen je nach Spiel nicht sooo gut aus (z.b. Assassins Creed Unity um ein aktuelles Beispiel zu nennen das auch noch Nvidia Gameworks unterstützt). Dann sind die auch noch teurer..

ich weiß ja nicht :D

BTT:
Hört sich erst mal Interessant an und nun kann man nur auf weitere Details hoffen. Ich freue mich jedenfalls das AMD im Grafikkartensektor noch extrem gut mitmischen kann. Meine "eingestaubte" HD-7870Ghz möchte auch so langsam mal ersetzt werden obwohl ich mich bislang nicht über die Performance beschweren kann
 
Zuletzt bearbeitet: (da fehlte nen Wort :D)
Katillah schrieb:
Ein Kühlschrank macht im Haushalt am meisten der Kosten aus, wenn nicht auch mit Strom geheizt wird. So ein mittelgroßer Kühlschrank verbraucht mit Tiefkühl um die 200W (A+) und läuft 24h. Da käme man auf ca. 38€. Mit dem Staubsauger haste recht, da dieser höchstens 10 min am Tag liefe. A++ kommen heutzutage mit Tiefkühl auf ca 180-200W. Dann gibts noch die mit 3 plus, da sollte es sich um die 10-20W weniger handeln.


Was schreibst du da ? Das stimmt hinten und vorne nicht. Ein sehr verschwenderischer Kühlschrank verbraucht pro Tag 1,2 KWh. Das sind rund 122€ im Jahr ! Die ganz normalen Kühlschränke mit Gefrierkombi kommen sogar nur auf rund 45-50 € (im Mittel) im Jahr.

Sorry für Offtopic aber das musste ich mal klären.

EDIT:

So wie es aussieht, brauchst du noch Nachhilfe in Mathe. Deine anderen Rechenbeispiele passen ja auch hinten und vorne nicht :).
 
Zuletzt bearbeitet:
Die Karten sollen "bald" kommen. War aufjedenfall ein Monat mit M, aber ob März oder Mai keine Ahnung mehr.

Ich finde die Karte durch die durchgesickerten Informationen jetzt schon extrem interessant.
HBM für mehr Speicherlesitung und bis zu 1/3 Stromverbrauch zu GDDR5.
Gleichzeit bratet die Karte wieder mit 300W durch die Gegend. ----> Die GPU muss enorm Stromhungrig sein.
AMD testet WaKü Hybrid Lösungen für das Standartmodell. ----> Die GPU hat ne Abwärme wie Dreckssau.
Durchgesickerte Folien zeigen 15-20% mehr Leistung als eine 980 ----> Und das bei noch nicht optimierten Treibern.

Also die neunen von AMD dürften mal wieder ziemlich interessant werden. Nehmen den kommenden GM200 bereits jetzt stark in die Zange, obwohl zu dem noch weniger bekannt ist. Aber da wird Nvidia was gutes aufbringen müssen.

Was mir aber weiter sorgen macht, dass AMD trotz neuer Technik den Stromverbrauch/Abwärme nicht unter Angriff nimmt. Eine Standart R290X war ja nicht zu ertragen und, die R390X wird sich da vermutlich nicht bessern. Die Abwärme von den Dingern ist einfach nur pervers. Wenn jetzt da AMD weiter fährt, wird ja der Markt weiter zweigespalten sein.


Davon ausgehend, dass sich das Leistungsniveau von Nvidia und AMD wieder ähneln wird, lässt sich die aktuelle und künftige Marktlage doch wie folgt zusammen fassen:
Nvidia lesier/stromsparender dafür teurer in der Anschaffung.
AMD sehr gutes P/L-Verhältnis, dass sich durch Lärm und hohe Stromrechnung erkauft wird.
 
Whoozy schrieb:
Was schreibst du da ? Das stimmt hinten und vorne nicht. Ein sehr verschwenderischer Kühlschrank verbraucht pro Tag 1,2 KWh. Das sind rund 122€ im Jahr ! Die ganz normalen Kühlschränke mit Gefrierkombi kommen sogar nur auf rund 45-50 € (im Mittel) im Jahr.

Sorry für Offtopic aber das musste ich mal klären.

EDIT:

So wie es aussieht, brauchst du noch Nachhilfe in Mathe. Deine anderen Rechenbeispiele passen ja auch hinten und vorne nicht :).



Klärt das doch mal bitte!
Meine Güte - unglaublich wie sich manche User hier wegen ein paar €cent rummachen!
Aber hauptsache mal ne 400€ Karte gekauft *Kopfschüttel*

Vielleicht wäre es auch mal an der Zeit das CB einfach mal einen kleinen Artikel über den Stromverbrauch und vor allem über die Strom-Kosten von GraKa´s schreibt damit dieses Thema auch mal mehrere Leute mitbekommen.
Hier im Thread geht das ja doch wieder nach ein paar Tagen unter!

Danke! :)
 
Zuletzt bearbeitet:
Das ist keine neue Technik.
Das ist immer noch die 28nm Fertigung und eine Neuaflage das Hawaii Chips... deswegen die Abwärme.
Das einzige was die Karte wirklich besser macht als eine 290X ist der HBM 2.5D Speicher und der höhere Takt.

Sie werden eine 980 abhängen aber das hat seinen Preis...

Und Druck auf einen GM200 wird hier bisher noch überhaupt nicht ausgeübt.
 
Zurück
Oben