News Radeon RX Vega: Einordnung der Spekulationen zur Leistungsaufnahme

Hallo zusammen,

@ TenDance

TenDance schrieb:
Jap, sind bei ~Leistungsgleichheit maximal 10W. Davon gehen schonmal ~4-5W allein für die zusätzlichen Speicherbausteine und memory controller drauf. gg

Von was träumst du Nachts? Je nach Modell sind es bis zu 100 Watt mehr, die eine RX 480 / 580 - die 580 ja nochmal einiges mehr als die 480 - Respektive der GTX 1060 bei ähnlicher Leistung verbraucht. Das ist schon spürbar.

Vom Radau und der Abwärme ganz zu Schweigen. Es gibt praktisch keine GTX 1060 einer Partnerkarte die wirklich laut ist. Hingegen nicht viele RX 480 / 580 Modelle von Partnerkarten, die wirklich Leise sind.

So long....
 
Können dann alle die 500 Watt Netzteile wegschmeissen und sich 650 plus teile holen die ja doch keiner braucht...
 
StefVR schrieb:
Können dann alle die 500 Watt Netzteile wegschmeissen und sich 650 plus teile holen die ja doch keiner braucht...
Zumindest die schlechten. Ein 400 Watt Netzteil, das bis zu 400 Watt bei 12 Volt bereitstelle und 2x 8-Pin PCIe-Stecker hat, wird auch mit Vega fertig. Da sollte man aber nicht übertakten, aber das gilt auch bei einer GTX1080ti mit so einem Netzteil. Es wird einfach zu viel Aufheben gemacht bei Hardware, die noch nicht getestet wurde.
 
Hallo zusammen,

@ deo

Das ist aber enorm abhängig davon, was für eine CPU dann im System ist. Persönlich habe ich es immer so gehalten, daß noch etwas Luft vorhanden sein sollte für die Spitzen bzw. um Spitzen komfortabel auffangen zu können.

Schau dir mal an, was die kommenden Intel-CPU Plattformen für TDP`s angeben. Ein 400 Watt NT ist aus meiner Sicht deutlich zu knapp bemessen.

So long...
 
AC-Coral schrieb:
Wenn sie die Leistung auf die Straße bringt, darf sie gerne an meiner Steckdose nuckeln :)
Immer schön zu sehen, wenn sich das weibliche Geschlecht für Technik interessiert :p

Pisaro schrieb:
Wer hier wirklich keinen höheren Stromverbrauch der Umwelt (o_0) will, sollte einfach seinen kompletten PC verkaufen, Fernseher am besten auch. Kann dieses Argument nicht mehr hören, weg mit euren Elektrogeräten!
Backofen/Herd/Durchlauferhitzer nicht vergessen, vor allem Heizlüfter und Nachtspeicheröfen!
Hatte Nachtspeicher für 140 von 160m² diese Stromvernichter. Für 20°C Raumtemperatur wenns draussen <15°C wurde, kamen im Jahr alleine für Nachtstrom knapp 2000€ (bei 30Cent/kWh) Strom zusammen. Horror! Nach dem Umrüsten auf Gas nur noch 1000€/Jahr. Das bei wohligeren 22°C...

immortuos schrieb:
Naja wenn es einem um die Umwelt und den Stromverbrauch geht dann sollte man das Thema GPU vielleicht grundsätzlich auslassen und eine IGPU nutzen, die bringt das beste Verhältnis von Leistung/Watt. Gaming ist dann auch nicht sinnvoll weil man ohne Nutzen Strom verpulvert.
Nicht ohne Nutzen, man spielt ja...

immortuos schrieb:
Ob man bei 300W jetzt aber noch wegen den letzten 50W rumstänkern muss ist die Frage...
Wen das so sehr stört der kann ja undervolten, ich sehe hier das Problem nicht. Bei allen AMD Karten der letzten Jahre konnte man locker 50-80W sparen wenn man undervoltet hat, dann hat man eben 10% weniger Leistung, who cares?
MMMh, nichtt ganz richtig! Meine RX470 läuft mit -70mV. Dadurch wird sie weniger Warm und taktet noch nichtmal beim Benchen runter. Dadurch hat sie etwa 5% PErformance-Gewinn ;)

RedDeathKill schrieb:
Und komm mir bitte nicht mit Undervolten. Umwelt war nur ein Aspekt. Ich möchte aber keine Leistung verlieren. Jedoch kann man eine ähnliche Leistungsaufnahme fordern, wie bei den Polaris-Karten nur mit entsprechender Leistung. Dennoch kommen noch andere Nachteile. Es ist lächerlich zu behaupten, dass es egal wäre.
s.o.

AMD-Mafiosi schrieb:
Nachtspeicherheizungen toppen immer noch alle Stromschleudern :D
Ohh ja, s.a.o.
Ich hätte ohne höhren Strombedarf mit meiner RX470 24/365 minen können, wenn ich meine Raumtemperatur von 20′C auf 18°C reduziert hätte :D

Zotac2012 schrieb:
Die RX Vega die Ende Juli kommt ist sowieso nur eine Grafikkarte für Enthusiasten und dort wird sich diese auch Preislich einordnen, für unter 700,00 Euro wird diese sowieso nicht zu bekommen sein. Wenn eine FuryX mit nur 4GB zu Release 699,00 Euro gekostet hat, ist kaum zu erwarten, dass eine RX Vega mit mehr Leistung wie die FuryX und doppelt so viel an HBM Speicher deutlich günstiger wird. Und schon gar nicht, wenn man noch bedenkt, dass der HBM2 Speicher nur in sehr begrenzten Mengen verfügbar ist. Von daher muss man sich hier nicht groß um den Stromverbrauch aufregen, 90% hier im Forum werden oder können sich eine Grafikkarte wie die RX Vega nicht leisten, zumindest nicht zum Release.

Dazu kommt ja noch, das es noch nicht mal wirklich klar ist, wieviel RX Vega Grafikkarten zum Release überhaupt verfügbar sein werden und wie die Kontingente auf die verschiedenen Marktbereiche [Asien/USA und Europa] verteilt werden. Die User die sich am Ende dann wirklich eine solche Grafikkarte kaufen, denen wird der Stromverbrauch dann auch wirklich egal sein, ob diese nun 50 oder 100 Watt mehr verbraucht, als eine Nvidia Grafikkarte. Von daher lohnt sich das aufregen wegen der Effizienz nicht, weil es bei den Käufern solcher Grafikkarten nur eine untergeordnete Rolle spielt.
Dem kann ich vollumfänglich Zustimmen!

Nero24 schrieb:
Mächtig daneben, würde ich sagen. Jeder grenznah Wohnende kennt den Ausspruch 'God verdomde' oder so ähnlich, die Übersetzung dürfte klar sein. Im Bezug auf '[...]herljke maisje' durchaus positiv, kann aber aber auch negativ einfach nur abfällig 'Scheisse' bedeuten.
Wie man nun auf 'Verdammt' kommen kann, wenn man z.B. nach der Anfrage nach dem Verbrauch eines Segler mit kleinem Dieselmotor in einer niederländischen Werft 'Tering van der Motor is vijf liter' zu hören bekommt, ist äusserst fragwürdig.
Der Werftbetreiber würde kaum sagen: 'Verdammt, der braucht 5 Liter die Stunde" ;)

NullPointer schrieb:
Danke. Wer hätte das gedacht ;) Auf Guru3D hat auch ein Muttersprachler übersetzt: https://www.guru3d.com/news-story/msi-radeon-rx-vega-needs-a-lot-of-power.html
Muttrersprachler, soso... s.o.

Das ist aber wieder typisch deutsch hier, der gemeine Kaaskop würde dazu sagen
"Neuken,neuken..niet petalen" :D


PS
Wenn eine Vega (Referenz) mit 1600MHz auf Augenhöhe mit der 1080Ti FE liegt, und dabei durchschnittlich 350Watt zieht, ist die Effizienz natürlich schlechter.
Wenn man aber 2 RX480 Referenz hernimmt, die 450Watt im Gamingdurchschnitt aufnehmen und (gerade mal) so schnell sind wie eine GTX1080 FE, hat sich die Effizienz von Polaris zu Vega drastisch verbessert ;)
 
Zuletzt bearbeitet:
@Luxmanl525
Mit einem übertakteten R7 1700 kann es in der Tat knapp werden.
Man sollte aber auch nicht stur an den 400 Watt festhalten. Ein gutes kann auch klaglos 110% der Nennleistung abgeben.
Zum Beispiel leistet das Super Flower HX350W auch deutlich mehr als 350 Watt.
Ideal finde ich 450 Watt Netzteile, aber die kriegt man kaum noch. Da hat man die Wahl zwischen 400 und teils deutlich teureren 500 Watt Geräten. Das hat be quiet gut gemacht, indem sie 450 Watt abgeschafft haben und mit 500 Watt noch mehr verdienen.
 
Scheißegal was die Frisst wenn die Leistung stimmt, und die günstiger ist als gleichstarke sparsamere Karten. Zocke ja nicht 24/7.
 
Hardware_Hoshi schrieb:
Der tatsächliche Verbrauch in Watt ist bei AMD nie unter TDP (Wärme). Gibt AMD 300-375W TDP je nach Modell an, verbaucht die Hardware garantiert über 300W. PCGH, eure Übersetzung ist ja zum Lachen. Klingt wie FAKENEWS.

Da spricht ein wahrer Experte.

Natürlich ist die Leistungsaufnahme >= TDP.

Alles andere wäre physikalisch auch nicht möglich ;)
 
Hallo zusammen,

@ deo

deo schrieb:
@Luxmanl525
Mit einem übertakteten R7 1700 kann es in der Tat knapp werden. Man sollte aber auch nicht stur an den 400 Watt festhalten. Ein gutes kann auch klaglos 110% der Nennleistung abgeben. Zum Beispiel leistet das Super Flower HX350W auch deutlich mehr als 350 Watt. Ideal finde ich 450 Watt Netzteile, aber die kriegt man kaum noch. Da hat man die Wahl zwischen 400 und teils deutlich teureren 500 Watt Geräten. Das hat be quiet gut gemacht, indem sie 450 Watt abgeschafft haben und mit 500 Watt noch mehr verdienen.

Einige der Neueren Mehrkern-CPU`s sind in dem besagten geschilderten Szenario mit einem 400 Watt NT nicht Unproblematisch. Wobei ich dir natürlich mit deinem Beispiel des Super Flower HX350W zustimme. Aber das sind Ausnahmen und bei so einer Konfiguration stehst du ständig am Abgrund bzw. bewegst dich ständig am Limit. Mir wäre das zu knapp bemessen. Noch dazu ist das eher schlecht für die Langlebigkeit eines NT`s, wenn es ständig am Anschlag betrieben wird.

Sehe es im übrigen auch so, daß ein 450 Watt NT eines Markenherstellers in vielen Fällen Ideal wäre. Und du hast Recht, es gibt immer weniger Modelle davon. Ich glaube, Corsair hat noch 450 Watt Modelle im Angebot. Und von Cooler Master gibt es auch noch das Cooler Master G450M, welches ich mir normalerweise seinerzeit gekauft hätte, aber es war überall nicht zu kriegen. Generell sind wirklich kaum noch 450 Watt NT`s am Markt von Markenherstellern, mit deinem Hinweis wird mir das jetzt erst richtig bewußt. Thanks.

So long...
 
Zuletzt bearbeitet:
Das liegt aber auch daran weil sich die Effizienzkurve von den PSU´s geändert hat früher waren sie am effektivsten bei 80-95% heute erreichen sie das bei 50%-70% Auslastung kommt immer auf Hersteller und Serie.
 
Meiner Meinung nach sollte Vega ja schon viel früher kommen, wurde ja schon im Februar lauffähig geziegt, und mit der GTX 1080 konkurrieren, die damals auch noch viel teurer war.

Jetzt wo die 1080 Ti draußen ist, müssen sie den Chip über den Sweetspot hinaus peitschen, um an die Ti ran zu kommen, um ähnliche Preise verlangen zu könne, denn der riesige Chip mit HBM2 wird nicht billig sein.
 
Immer dieses "Geköchel" in der Gerüchteküche^^. Lasst Vega erstmal raus kommen, dann sehen wir weiter.
Mysterion schrieb:
Mir ist der Leistungsbedarf auch völlig egal, wir brauchen dringend wieder eine Konkurrenzsituation im High-End CPU Segment, schon alleine damit nVidia wieder auf den Teppich kommt und pro Jahr endlich wieder mehr liefert als nur 25 % Mehrleistung.
Ja, Konkurrenz ist wichtig. Das mit den "nur" 25% kann ich nicht nachvollziehen... Upgrade von direkter Vorgängerkarte 980Ti zur 1080Ti erbrachten mir ca. 50-80% in 1440p.
 
AMD und Hynix...
AMD beeindruckt mich zurzeit ein wenig!
GPU's mit HBM haben mich direkt vergessen lassen wie CPU's "mal aussahen"
Mit EPYC hat mich AMD nun erneut Beeindruckt
MCM mit 4 Dies auf einem Package!
Frage mich wie das Package von Raven Ridge aussehen wird...
ZEN Kerne mit Vega und HBM auf einem Package?!

1700€? ;)
Vielleicht TR-4 Sockel?
Ob die Threadripper Mainboards einen Video Ausgang spendiert bekommen?
 
Ich lehne mich mal aus dem Fenster und vermute, dass die beste Vega Karte in Auflösungen <4k langsamer sein wird als die 1080. Unter 4k wird sie im Schnitt minimal schneller, wobei eine stark übertaktete 1080 wieder schneller sein wird und man Vega generell nicht viel übertakten kann.

Außerdem wird das leiseste Custom-Modell der besten Vega-Karte nicht leiser sein als die dritt-leiseste 1080.


Ich hoffe, dass ich nicht Recht behalte.
 
Was hier wieder von einigen über ungelegte Eier spekuliert wird oder mit Dreck geworfen wird :rolleyes: ... peinlich, peinlich.

Natürlich ist der Verbrauch der RX Vega Karten nicht gänzlich irrelevant, aber warten wir doch erst einmal erste Testartikel zur Frontier Version ab (auch wenn das vermutlich nicht 1:1 auf die RX Karten umgelegt werden kann).

Was ich persönlich viel interessanter finde als die hier auf CB evt. richtig gestellte Aussage von VCZ, die so viel lauwarme Luft generiert hat, ist dieser jüngste Artikel der (oftmals vielgescholtenen) Wccftech-Seite, in welchem Bits & Chips mit der Aussage eines hervorragendes Preis-Leistungs-Verhältnisses von RX Vega GPUs zitiert wird.
 
Zuletzt bearbeitet:
Das wird ein Thread, den man dann wieder aus der Versenkung holen kann um zu sehen, wer mal wieder Blech geschrieben hat.
Schade ist doch, dass es keine persönliche Einschätzung von der fähigen Redaktion gibt. So ist es nur eine Blase aus der schlecht riechender Spekulationssaft tröpfelt.
 
AMINDIA schrieb:
Schade ist doch, dass es keine persönliche Einschätzung von der fähigen Redaktion gibt. So ist es nur eine Blase aus der schlecht riechender Spekulationssaft tröpfelt.
Was wohl daran liegt, dass fähige Leute wissen, dass man zu diesem Zeitpunkt noch keine vernünftigen Einschätzungen anstellen kann.
 
Was sollen denn die Redakteure sagen? Die wissen ja selber nicht mehr als das, was geleakt wurde. Also manchmal wundere ich mich schon sehr, wie naiv manche sind...
 
Marcel55 schrieb:
Scheißegal was die Frisst wenn die Leistung stimmt, und die günstiger ist als gleichstarke sparsamere Karten. Zocke ja nicht 24/7.

Ich bezweifle dass sie mit der nächsten Nvidia Generation mithält. AMD hat sich zu lange Zeit gelassen, nun hat Nvidia sicherlich schon die Antwort im petto.
 
Zurück
Oben