Test Radeon RX Vega 64 Strix im Test: Asus Vorserie schlägt das Referenzdesign deutlich

Kenterfie schrieb:
100 watt mehr sind im schnitt auch 50 - 100 euro mehrkosten im jahr, somit nicht ganz vernachlässigbar, da rechnet sicht recht schnell der aufpreis.

Was sollen denn diese ganzen Milchmädchen-Rechnungen hier ?

1. Nicht jeder Spielt 8 Stunden am Stück.
2. Die Grafikkarte ist beim Spielen nicht immer auf Vollast.
3. Hängt es stark vom Benutzerprofil ab.
4. Die meiste Zeit ist die Grafikkarte im Idle, weil die meisten Leute den PC nicht "nur" zum Zocken verwenden.

Unterm Schnitt bleiben von den 50-100 Euro mehr, dann 20 - 40 Euro übrig. Da muss man dann die Grafikkarte schon lange im Rechner haben um diesen Aufpreis zu amortisieren.
 
@DarkerThanBlack @DaTheX

+1

Jetzt noch bei jedem 3 Einkauf zum No-Name Joghurt greifen und zack, kann man sich diese 2,50 im Monat auch leisten. (;
 
Zuletzt bearbeitet:
Kenterfie schrieb:
100 watt mehr sind im schnitt auch 50 - 100 euro mehrkosten im jahr, somit nicht ganz vernachlässigbar, da rechnet sicht recht schnell der aufpreis.

Wenn ich wirklich einmal die 100 Watt ansetze, einen recht hohen Stromtariv von 0,28€/kWh und 4 Std/Tag bei 365 Tagen, bin ich gerade einmal bei Mehrkosten von 40,77€. Also weit entfernt von den 100€. Bei einer Büronutzung, sprich 9 Std/Tag bei 5 Werktagen bin ich bei 65,52€.

Um dann die Mehrkosten für G-Sync etc. einzuspielen vergehen dann schon einmal 5 Jahre. Ich denke nicht das man das als "rechnet sich schnell" betiteln kann. Und mir kann auch keiner erzählen das die 100W Mehrverbrauch immer anliegen. Welcher PC läuft denn permanent unter Vollast? Also sind die 40€ bzw. 65€ Mehrkosten auch nur das theoretische Maximum. Effektiv wird es deutlich darunter liegen.

Auch wenn ich weder Pro noch contra AMD bin halte ich die ganze Diskussion um die Energieeffizienz für kompletten Schwachsinn. Das ist absolut im vernachlässigbaren Bereich. Man sollte lieber froh sein das AMD es geschafft hat von der Leistung die 1080 einzuholen und mit den Custom-Designs zu überholen. Konkurenz belebt das Geschäft.
 
das einzige was ich aktuell bei vega bemängeln kann ist die lautstärke, zumindest beim referenzdesign, daher auf custom designs der Partner warten, bis dahin sind hoffentlich auch die Treiber ausgereifter
 
@pixelkiller, wieso bemängelst du denn _aktuell_ nicht die fehlende Leistung im Vergleich zum nvidia Pendant? Auf die Treiber hoffen kann jeder, aber berichten tust du von der Gegenwart... Lächerlich wie man sein Eigentum immer gut reden muss

DaTheX schrieb:
Man sollte lieber froh sein das AMD es geschafft hat von der Leistung die 1080 einzuholen und mit den Custom-Designs zu überholen. Konkurenz belebt das Geschäft.

ja ich bin froh darüber. Aber würde sie nicht kaufen, da die vega64 einfach deutlich teurer als eine gtx 1080 ist...
 
Zuletzt bearbeitet:
Achtet mal bei der getesteten Leistungsaufnahme auf die Hertz-Angabe, sie ist nämlich bei 60 Hz.
Die Redaktion ist ja nicht doof und hat wohl mittlerweile das Problem bei Nvidia bemerkt: hat man nämlich am Schreibtisch einen 144Hz Monitor angeschlossen, dann steigt der Energieverbrauch an! (wohlgemerkt bei Nvidia im Desktopbetrieb), weil die GPU sich gar nicht mehr ganz runter takten kann.

Klingt doof - ist aber so.

Wer es nicht glaubt: hier fast 60 Seiten im Nvidia-Forum: https://forums.geforce.com/default/topic/939358/geforce-1000-series/gtx-1080-flickering-issue/

Ich denke/hoffe AMD hat so einen Bug nicht...
 
Pixelkiller schrieb:
ja aber ohne AMD würde es jetzt immer noch 8 Kerner nicht unter 1000,- geben

Kann sein. Das wäre dann etwas später gekommen. Auch kein Beinbruch. Fortschritt ist hier zum großen Teil nichts anderes als das Erschaffen von Dingen, die niemand wirklich braucht, um bereits vorhandenes zu entwerten.
 
Joah in 3-4 Jahren hätten wir vielleicht 6Kerne mit Intel für 300€.
Das spiel hätte Intel bis zum erbrechen hinausgezögert!
Zeppelin ist auch nur so billig im 1700 wegen dem MCM Ansatz!
Das Intel da in kommenden 2-3 Jahre nix gemacht hätte sehen wir an der Reaktion mitn "Xeons" und LGA2066.
 
Zuletzt bearbeitet von einem Moderator:
DaTheX schrieb:
...

Um dann die Mehrkosten für G-Sync etc. einzuspielen vergehen dann schon einmal 5 Jahre. Ich denke nicht das man das als "rechnet sich schnell" betiteln kann. ...

Könnten wir eventuell mal damit aufhören, ständig Adaptive-Sync mit einzupreisen? Hat nun jeder plötzlich einen solchen Monitor zuhause stehen? Nur weil AMD damit bei Vega Marketing macht, kosten die eigentlichen Grafikkarten genau das, was sie kosten - sowohl in Anschaffung wie Unterhalt.

Ganz zu schweigen davon, dass gefühlt die Hälfte der freesync-Monitore eine geradezu lächerliche Adaptive-Sync-Funktionsspanne besitzt.
 
@Dubz
ich muss nichts gut reden da ich keine vega besitze.
Die vega 56 hat nicht viel weniger leistung als die 1070, teilweise ist sie sogar schneller
Vega 64 etwas langsamer als die 1080, gleiche preisklasse, 1080ti hat nvida keine konkurrenz, ist einfach so

Vielleicht würde ich auch nvidia kaufen aber aktuell nicht möglich, kein Interesse neuen Monitor zu kaufen und mich auf gsync festzulegen

zu diesen Zeitpunkt kannst du gar keine karte kaufen da durch Miningboom und speicherpreise alles zu teuer

@Palmdale mit Funktionsspanne vieler freesnyc monitore muss ich dir recht geben, aber das liegt an einigen Monitorherstellern, verbauen billige Taktgeber.
Hauptsache freesync vorhanden um damit werben zu können.
 
Zuletzt bearbeitet:
NeophyteH2O schrieb:
Hat doch nix mit "Cherrypicking" zutun sondern ist doch einfach nen natürlicher Vorgang bei Halbleitern.
Um so kühler um so niedriger der Stromverbrauch.

Naja bei cpu/gpus stimmt das nicht wirklich... Es werden die watt nur schneller in die umgebung gepumpt... Der Stromverbrauch ist der auslößer für hohe Temperaturen. Bis zu einer gewissen Arbeitstemperatur werden Chips effizienter aber das nimmt dann irgendwann wieder ab und es wird ne Heizung.

Egal, wenn die Preise a weng runter gehen sind die Vega Karten in ordnung. Nicht perfekt aber ne gute wahl wenn man nen Freesync Monitor hat. Ich bin generell mal gespannt wie viel am Treiber noch gemacht wird. Aber meine Fury werd ich nich austauschen... Das lohnt sich noch nicht.
 
blue-water schrieb:
Achtet mal bei der getesteten Leistungsaufnahme auf die Hertz-Angabe, sie ist nämlich bei 60 Hz.
Die Redaktion ist ja nicht doof und hat wohl mittlerweile das Problem bei Nvidia bemerkt: hat man nämlich am Schreibtisch einen 144Hz Monitor angeschlossen, dann steigt der Energieverbrauch an! (wohlgemerkt bei Nvidia im Desktopbetrieb), weil die GPU sich gar nicht mehr ganz runter takten kann.

Klingt doof - ist aber so.

Wer es nicht glaubt: hier fast 60 Seiten im Nvidia-Forum: https://forums.geforce.com/default/topic/939358/geforce-1000-series/gtx-1080-flickering-issue/

Ich denke/hoffe AMD hat so einen Bug nicht...

Das ist kein Bug sondern meines wissens gewollt. Meine AMD Radeon HD 7970 hat ebenfalls bei 144 HZ nicht in den Idle sondern immer im 2D Modus auf dem Desktop getaktet.
 
Hi, hab mich extra angemeldet, nur um zu sagen, dass ich mir eine Vega 64 bestellt habe und wirklich daran glaube das noch um die 30% Leistung im Treiber steckt, vlt. sogar mehr.
Ich tausche gegen ein Golden Sample der 1070 und mir ist der Stromverbrauch fast egal.
Mir ist auch wurst das Volta irgendwann kommt ich finde diese Technik cool.

Grüße Lamaan
 
DubZ schrieb:
ja ich bin froh darüber. Aber würde sie nicht kaufen, da die vega64 einfach deutlich teurer als eine gtx 1080 ist...
Klar, dagegen ist ja auch nicht einzuwenden. Es ging mir vorallem um das leidige Thema Energieeffizienz. Das die RXV64 derzeit noch zu teuer ist stimme ich zu. Aber die Karte ist wiederum noch keine Woche alt. Wenn erstmal genug Custum-Designs da sind wird sich der Preis auch auf ein vernünftiges Maß einpendeln. Die Early-Adopter haben schon immer und werden auch immer einen Aufpreis zahlen. Egal ob bei Intel, Nvidia oder AMD. Das ist quasi überall so, egal ob CPU und GPU oder bei sonstiger Technik wie z.B. Smartphones, Konsolen und Fernsehern. Wer von Beginn an etwas haben will zahlt drauf. Wer wartet bekommt einen besseren Preis.
 
Zuletzt bearbeitet:
Kenterfie schrieb:
100 watt mehr sind im schnitt auch 50 - 100 euro mehrkosten im jahr, somit nicht ganz vernachlässigbar, da rechnet sicht recht schnell der aufpreis.

Schäm dich, eine absolut unrealistische Aussage.
 
@dathex, wenn es die vega64 heute für 500 euro geben würde, würde ich diese evtl. einer gtx 1080 vorziehen, trotz des schlechten Wirkungsgrades. Aber zu teuer UND schlechter Wirkungsgrad... naja. Die Diskussion ist aktuell sinnlos, da die AMD Karten in der Gegenwart schlicht zu teuer sind.

Warten wir 2 Monate und sehen dann weiter. Fakt ist aber auch, dass nvidia mit den Preisen ebenfalls runter gehen wird.. ;)

@ap2000 volle Zustimmung. Die Rechnung von Kenterfie ist für die Katz. Zudem ist man ja nicht immer dauerhaft am zocken.... im idle verbraucht die Vega auch kaum Strom ;)
 
O-Saft-Killer schrieb:
Das ist kein Bug sondern meines wissens gewollt. Meine AMD Radeon HD 7970 hat ebenfalls bei 144 HZ nicht in den Idle sondern immer im 2D Modus auf dem Desktop getaktet.

Ja, aber das Problem bei Nvidia ist, dass die GPU beim switchen zwischen den Frequenzen Bildaussetzer produziert (flicker).
Darum war das überhaupt bei den 144er Hz Monitoren aufgefallen.
 
Mh, meine Titan x Maxwell taktet nicht hoch bei 144 HZ bei 1440p. Bleibt auf dem Desktop im Idle, außer ich starte ein Video. Bildaussetzer hat meine Karte keine. Das sollte natürlich nicht passieren.

Kann aber auch daran liegen das ich ein modet Bios auf meiner Karte habe und kein Originalbios.
 
bitte verwechsle da was nicht: der Monitor kann mit 144 Hz laufen. Im Nvidia Treiber kannst du es einstellen, ob die Bildwiederholfrequenz für den Monitor bei zB 60-75-120-144 Hz liegen soll.
Was ich meine, ist dass die GPU intern mit einer Frequenz im Idle so taktet, als wäre sie im 3D Betrieb. Sie kommt nie runter, wenn man einen Monitor mit 144 Hz mit 144 Hz betreibt. Meine Abhilfe: im Nvidia Treiber 129 Hz einstellen, dann arbeitet alles, wie es soll.
 
Zurück
Oben