News Radeon RX Vega: Einordnung der Spekulationen zur Leistungsaufnahme

sie können noch nicht mal die rx570/rx580 verfügbar machen, wieso warten wir schon auf vega? wird die karte auch nur sehr selten und für 500+200-300, also 700,-€ verfügbar? ich möchte nicht wissen, wie die karte wegen bitcoin verkauft wird. praktisch kommt man kaum dazu die Karte wirtschaftlich zu kaufen. Mehr als 200,-€ ist die 580 kaum Wert, sie wird aber für 400-500 verkauft. für mich also uninteressant...
 
taxishop schrieb:
Mehr als 200,-€ ist die 580 kaum Wert, sie wird aber für 400-500 verkauft. für mich also uninteressant...

wenn die rx580 nur 200€ wert ist, was ist dann mit der gtx 1060 und allen karten darüber?

@vega:
kann auch sein, dass die leistungsaufnahme der karte eine finte ist, oder dass die sich wieder exzellent undervolten lässt. so ganz an 300w+ mit HBM glaube ich nicht.

mal abwarten, vega ist ein großes fragezeichen.

wenn sie tatsächlich mehr als 300w braucht, wäre das trotzdem für eine high end karte i.o. - in der region spielt sich das schon seit jahrzehnten ab. wenn die leistung stimmt, sehe ich da kein problem.
 
EchoeZ schrieb:
Wenn man aber 2 RX480 Referenz hernimmt, die 450Watt im Gamingdurchschnitt aufnehmen und (gerade mal) so schnell sind wie eine GTX1080 FE, hat sich die Effizienz von Polaris zu Vega drastisch verbessert ;)

Deit wann nimmt eine RX 480 denn 225 Watt auf? Die liegen so zwischen 150 und 170 Watt in etwa.
Vega wird mit einer enormen Leistungsaufnahme von fast 400 Watt alles aber garantiert nicht effizienter als Polaris.

Und Leistungaufnahme stört mich ganz gewaltig.

Dir scheint die Leistungsaufnahme völlig egal zu sein, solange es nur AMD ist.

--> Lauter, Heißer, Stromkosten, neues Netzteil.

Ich hab ein 500 Watt Be Quiet Netzteil

Bisher hat das für jede Grafikkarte und CPU gereicht.

Mit Skylake X und einer Vega benötige ich ein neues Netzteil, mit Skylake X und einer GTX 1080 nicht.
Ja ich glaube tatsächtlich dass Vega nur knapp über einer 1080 rauskommt.
 
Wenn man es sich recht überlegt, muss Nvidia momentan feuchte Hände haben, nachdem man bei AMD/Intel im CPU-Bereich gesehen hat was so abging wird Nvidia sich fragen welche Finte die jetzt im Schilde führen. Selbst Nvidia weiß, dass es nicht SO einfach werden kann, die 300 Watt könnten also auch nur ein Wert sein, den die als Strohmann hingestellt haben, vielleicht werden es dann nur 250 Watt und das geht mehr als in Ordnung für diese Leistungsklasse (1080ti)
 
smalM schrieb:
Nach wie vor gibt es nur zwei Tatsachen zur Vega: Die luftgekühlte Karte hat eine 300W-Stromversorgung, die wassergekühlte ein 375W-Stromversorgung.
Zum Stromverbrauch gibt es nicht!
Ich weiß garnicht, wieso da so ausgiebig herumdiskutiert werden kann...

Unabhängig davon das die Karten bis bis zu 300 oder 375 Watt verbrauchenkönnen wäre es kein Fortschritt zu dem Vorgänger Fury mit HBM.

Diese weist eine typische Boardpower zwischen 260 & 300 Watt auf.

https://www.hardwareluxx.de/index.p...en-sapphire-nitro-radeon-r9-fury-im-test.html

Ich denke das die Vega sich auch in dem Bereich befinden wird.Und wenn sie wirklich mehr Strom verbraucht dann bitte auch mit entsprechender Grafikleistung.Alles andere wäre als AMD Fan eher eine Entäuschung für mich :D Ist schlieslich eine Enthusiastenkarte.

Wobei....Mich hats bei GCN 1 (Hawai) sowie meiner aktuellen GCN4 RX 480 (Ellesmere) nicht gestört und die liefern für meine Ansprüche trotz höherem Stromverbrauch als die Nvidias in dieser Klasse eine Super Leistung ab und dann bekomme ich noch zwei GB mehr VRAM im Vergleich zur GTX 1060.

Auch die Hawai GPU ist gut gealtert und werkelt mit Medium bis High Settings auch heute noch jedes Spiel gut ab.Ich weis das ich hier von Mittelklasse spreche.Und die Hawai (HD 7950) schluckte in meinen System unter Vollast fast 250 Watt.Die RX 480 ist hier nur 25 Watt weniger hungrig.(Beide Karten von ASUS)

Wieso bitte mockieren sich hier alle über wirklich noch keine breit gefächerten Aussagen ? Wobei es natürlich die Gerüchte gibt.

http://www.tomshardware.de/radeon-rx-vega-stromverbrauch-tdp-amd-msi,news-258173.html

Darauf kann man aber alleine nicht bauen.Wirkliche gewissheit hat man erst wenn man die Karte sein eigen nennt und dann noch ein Strommesskosten Gerät vor den PC hängt.

Meine Vermutung zur Vega: Brachiale Leistung zwischen 300 und 350 Watt je nach Setting und Auslastung

Wer wettet mit ? :lol: :D
 
Die Vega FE wird fast alle Fragen beantworten und die kommt ja nächste Woche bestimmt bei CB zum Test an..

Die RX Vega wird höhee takten und mehr Strom brauchen.
375W ist die nach PCi-Ex definierte Höchstmenge, die über 2x 8-Pin + Slot abgerufen werden kann.

Man weiss aber, dass 2x8-Pin maximal 504W liefern können, wenn das Netzteil entsprechend aufgebaut ist..

Also, wenn die Frontier Edition 250W unter Volllast braucht, wird die RX Vega sicher 300W brauchen. Wir WOLLEN ja, dass sie höher taktet und mehr leistet.

Eine 1080 Ti zieht erwiesenermassen teilweise 300+ Watt.
Wieso darf die Vega das bei gleicher Leistung nicht auch?
 
Bin gespannt auf die Leistungsaufnahme.. kaufen werde ich sie mir so oder so nicht
 
Beyazid schrieb:
Wenn man es sich recht überlegt, muss Nvidia momentan feuchte Hände haben, nachdem man bei AMD/Intel im CPU-Bereich gesehen hat was so abging wird Nvidia sich fragen welche Finte die jetzt im Schilde führen. Selbst Nvidia weiß, dass es nicht SO einfach werden kann, die 300 Watt könnten also auch nur ein Wert sein, den die als Strohmann hingestellt haben, vielleicht werden es dann nur 250 Watt und das geht mehr als in Ordnung für diese Leistungsklasse (1080ti)

Du musst hier aber sehen dass die HPC Performance der 1080ti doch eher rudimentär sind. Also 300W können hinkommen, da man eben ne höhere DP Power mitbringt und AMD Chips von jeher komplixierter und dichter gepackt sind, ergo weniger Takt möglich ist ohne Elektromigration (Leckströme) Für mehr Takt braucht man mehr Vcore und somit steigert man die Aufnahme..

@Sgt Slaughter:
Da vega einen Tile Based Renderer bekommen wird, muss man eher von einer Verbesserung ausgehen. Schau dir mal bei NV den Schritt an als sie das machten, da waren mal eben 53% Leistung mehr pro Takt machbar. Klar das wird kein Allheilmittel aber ich denke mal wir kommen bei 275-300W raus.. Analog zur Polaris
Und alle NV Custom karten ziehen mehr als 300W, nur dank dem Powertarget und der restrikten Regellung seitens Treiber ist 1080ti so Sparsam. Deswegen sind mir auch 70W mehrverbrauch egal, da ich nur 3-4 Std den PC am Tag anhabe und die Karte auch da zu 99% im Idle ist... Ich hoffe viel mehr Vega bekommt das Clock Gating und kann teile des Chips im Ruhezustand abschalten.. so 10-15W Ruheverbrauch wäre schon geil, und Zero Core wäre ebenso wichtig
 
Zuletzt bearbeitet:
Ist die FE nicht am 27.06. offiziell verfügbar und damit testbar? Würde mich sonst wundern wenn am 27. keine Tests verfügbar sein sollten.
 
taxishop schrieb:
Mehr als 200,-€ ist die 580 kaum Wert, sie wird aber für 400-500 verkauft. für mich also uninteressant...
Na wo du recht hast. Die 1080Ti ist auch kaum mehr als 400€ wert (ist ja gerade mal doppelt so schnell wie die RX580), wird aber dennoch für über 700€ verkauft (und fast nirgends lagernd).
Insofern, beide Karten völlig uninteressant. Über die 1070er und 1080er brauche ich insofern auch garnicht weiterreden...

Jedenfalls, solange die Leistung der VEGA bei dem Verbrauch einigermaßen passt und der Preis "sehr nett" ausfällt (geht ja gerade das Gerücht um), sollten da keine Probleme aufkommen.

Bitte auch bedenken, dass AMD bei dem gegebenen Budget sicher nicht einfach eine ultra effiziente Karte bringen kann, die alles wegpulverisiert. Wenn VEGA halbwegs konkurrenzfähig wird, sollte sich jeder freuen und fleißig kaufen damit irgendwann wieder Wettbewerb -> technischer Fortschritt -> sinkende Preise entstehen.
 
Zuletzt bearbeitet:
PanzerHase schrieb:
Ist die FE nicht am 27.06. offiziell verfügbar und damit testbar? Würde mich sonst wundern wenn am 27. keine Tests verfügbar sein sollten.

Das hoffe ich auch.. An eine 1080 für 350€ glaube ich auch bei AMD nicht dran, aber vllt bringt der Renderer endlich mehr Power..
Mir würde reichen wenn AMD für die 1080 und die ti eine Antwort bringt.
 
https://www.pcgamesn.com/amd/amd-vega-gpu-specifications

Nach diesen Informationen gehe ich davon aus das "einfach" zwei RX 570 Chips mit ein ander "verlötet" wurden.
Erklärt die 300 Watt - eine RX 570 zieht 150Watt.

Hat die Vega "zufälligerweise" doppelt soviele Shader wie eine RX 570...
Durch HMB 2 und 8 GB Ram - also defato 2x4 GB Ram - ergibt Bus Width von 4xxx.

100%ig ist die VEGA dann auch zufälligerweise etwa doppelt so schnell wie eine RX 570 :D


Also für mich ist die Nuss mit Vega geknackt ;)

"Zufälligerweise" heißt die Vega Karte auch noch Vega "10" - demnach wird der Nachfolger (Facelift) Vega 20 heißen und baut auf zwei RX 580 GPUs auf ;)

Nun gut, wenn es keine Mikroruckler gibt scheint es ja eine "Lösung" zu geben für eine *hust* Multi-GPU Karte :D

Greetz
Schm1ddi

ps: wer will und hat noch nicht ? :P "AMD-Radeon-Vega-Frontier-Edition-16GB-HBM2-Video-Card-580-Rx-BRAND-NEW" <- gibt das bei ebay ein :D
 
Zuletzt bearbeitet:
Ach diese ganzen Grüchte prallen an mir irgendwie ab, bin schon zu alt um mich Hypen zu lassen.
Einfach abwarten bis die Test draussen sind und dann sehen wir weiter.

Vielleicht sind die 300 / 375W durchaus richtig, aber eben nur in Doom aka Vulkan / DX12 Games ,da gehen auch die derzeitigen AMDs ordentlich nach oben, bringen aber eben auch Leistung.

Vega soll doch mit GNC 5.0 kommen oder da glaube ich eher nicht an 2x 570.
 
Solange die große Vega in Vulkan und DX12 gut performt ist alles OK also Ca. 1080 Ti + ~10%. Der Rest ist Schnee von gestern und interessiert mich nicht mehr. Und wenn ma sich die RX 580 vs 1060 GTX anschaut in Vulkan und DX 12 sieht bisher alles super aus.
 
Ich glaub mal das AMD Vega so getacktet hat, dass es die 1080Ti auf Stock zumindestens knapp übertrifft, dafür aber dann bei Spielen mit DX12 und Async Compute oder Vulkan deutlich übertrifft. Wahrscheinlich liegt der Sweetspot daher einfach bei geringeren Takt ggf. kommt genau da ja noch ne neu Nano.
 
ich hoffe einfach das die karten nicht teurer sind als ne 1080ti.
im gleichen fenster liegen,was den stromverbrauch angeht.
und vor allem.
das se 16gig ram hat.

dann sollte sie noch genau do flott sein wie ne ti.
und lieferbar

dann wäre ich schon mehr als nur zufrieden.
und dem ein oder anderen,wird die kinnlade runterklappen.

auf der anderen seite, ich glaube leider, das das wunschdenken ist.
 
raceroomplayer schrieb:
ich hoffe einfach das die karten nicht teurer sind als ne 1080ti.
im gleichen fenster liegen,was den stromverbrauch angeht.
und vor allem.
das se 16gig ram hat.

dann sollte sie noch genau do flott sein wie ne ti.
und lieferbar

dann wäre ich schon mehr als nur zufrieden.
und dem ein oder anderen,wird die kinnlade runterklappen.

auf der anderen seite, ich glaube leider, das das wunschdenken ist.

Dürfte wegen des HPC Ballast nicht so sein, tippe mal auf 300-350W für die Consumer Modelle..
Dafür kann das Ding dann NUmberchrunching bis zum Sankt Nimmerleinstag.

@über mir:
Ich habe einen 1440p Monitor, bin also die Zielgruppe.. Es Interessiert mich auch nicht ob bei dir die 470 limitiert, denn in FHD reicht dann selbst ne 1050ti.. Es gibt aber neben WQHD auch noch 4K und für ganz Kranke neben 21:9 auch noch tripple oder sexta Monitor Setups.
Und da reicht dann auch eine 1080Ti nicht mehr..
Und ich bin Bj85 und es ist mein Hobby.. Ich muss es aber nicht bis zum letzten treiben, zeigt Vega also keine zufriedenstellende Leistung kommt ne 1080
 
Zuletzt bearbeitet:
Nehmen wir an sie brauch "plötzlich" nur "200Watt" - was dann?
Und wenn 300 Watt? Und wenn 500 Watt?

Also ich zahle meinen Strom selbst und ich bin Student, das heißt monatlich 10 Euro mehr oder weniger monatlich für Strom merke ich durchaus im Geldbeutel, deswegen kaufe ich primär stromsparende Komponenten.
Davon abgesehen: Weniger Stromverbrauch = Weniger Hitzeentwicklung = Leiserer PC, was mir auch wichtig ist.
 
10€ ? Also mal ganz grob gerechnet, als Student wirst du wohl je nach dem was du studierst mehr oder weniger Zeit zum zocken haben, also nehme ich mal 4 Stunden pro Tag als Schnitt an, es gibt ja auch Tage an denen nicht gezockt wird.

Macht bei 30 Tagen 120 Stunden.

Bei 200W: 24kWh
Bei 300W: 36kWh

Wenn du von einer 200W Karte auf eine 300W Karte wechselst, hast du im Monat Mehrkosten von 3,60€

Davon läuft deine Karte wohl nicht die ganze Zeit auf Vollast, also nehmen wir am Ende noch den Faktor 0,75 dazu, damit bleiben nicht mal mehr 3€

Edit: Einheiten gefixt ^^
 
Zuletzt bearbeitet:
Zurück
Oben