Test Radeon RX Vega 64 Strix im Test: Asus Vorserie schlägt das Referenzdesign deutlich

Taxxor schrieb:
Positiv ist, dass der Asus Kühler die Karte trotz 100W mehr Leistung(≠Strom) auf der gleichen Temperatur halten kann wie die 1080 und auch noch bei fast gleicher Lautstärke.

Kann er eben nicht... Temperatur Differenz zur MSI Gaming X+ liegt bei 12 Grad (67 zu 79).... das ist nicht gerade wenig...
 
cyberware schrieb:
Bin gespannt ob die Vega 56 Custom Modelle vor den ersten Nvidea Volta Karten erhältlich sein werden. Also irgendwann nächstes Jahr.

BTW: Warum loben eigentlich alle den Nvidea Treiber, obwohl er bei DX 12 so schlecht performt?

Weil es nicht am Treiber liegt, sondern an der Karte. DX12 ist eh noch gar nicht richtig angekommen aber schon tot..
 
Beefsupreme schrieb:
@Balikon

das wären bei manchem 110€ im jahr ;)

Selbst in meinen wildesten Zeiten habe ich es nicht hingekriegt, 10 Stunden pro Tag zu zocken. Aber gut, lass' es bei diesem Extremfall 9 Euro pro Monat sein. Ist immer noch weit entfernt von "teuer".
 
Pisaro schrieb:
Weil es nicht am Treiber liegt, sondern an der Karte. DX12 ist eh noch gar nicht richtig angekommen aber schon tot..

glaube ich noch nicht.. DX12 wäre eigentlich viel besser für die Gamesindustrie weil viele Dinge in Hardware passieren.. Und auch die Treiber werden dann endlich wieder schlanker.. Dummerweise möchte der Marktführer kein DX12, weil da die Karte Federn lassen würde bzw AMD aufschließt. DX12 wird kommen, glaube mir.. Nur wird bis Dahin auch Nvidia DX12 können
 
E1nweg schrieb:
@dragnod0

Mumpitz! Stromverbrauchsrechner ≠ Realverbrauch. So lange man nicht den Aufwand betreibt, den Stromverbrauch seines Systems eine Zeitlang zu überwachen, sind solche Aussagen nicht aussagekräftig. Und selbst dann, hat man nur eine Übersicht auf seinen eigenen Stromverbrauch, mehr nicht....

Die 10-15 Euro von AMD-Mafiosi halte ich da für sehr viel realistischer.

Der Realverbrauch dürfte nur wenig von der Berechnung abweichen. Natürlich spielt man nicht nur aber ich habe ja von einer "durchschnittlichen Spielzeit" geschrieben und nicht von Tätigkeiten die eine GraKa kaum belasen.

15€ ist einfach Wunschdenken.
 
LyGhT schrieb:
@KuroSamurai117 Hatte ich auch nie wirklich behauptet das Nvidia die Karten von Treiber zu Treiber extra verschlechtert?

Es geht ja nicht um absichtliches Schlechtermachen.

Aber mit der Aussage AMD bietet längeren Support würde man es so hinstellen dass Nvidia sich wesentlich früher nicht mehr um ältere Karten kümmert. Aber wie die Test zeigen stehen auch die Gens vor Pascal oft da wo sie vorher waren oder haben mit der Zeit paar Prozent gewonnen. Bis galt technische Limitierungen wie zu kleiner Vram. Was aber Mittlerweile recht ausgeglichen ist.

Langlebigkeit einer Architektur kann man nie genau voraussagen. Aber nach 4-5 Jahren wird eine Karte bei normaler Benutzung eh langsam zu stark altern wegen der Stromspannung.
 
Das schlimmste sind nicht die Energiekosten sondern die Abwärme.
Im Sommer wird diese Grafikkarte ohne Klimaanlage oder Kellerwohnung unerträglich sein. Selbst die 290er heizt ein Zimmer dermaßen auf, dass man aufhören muss zu Zocken.
 
Ich verstehe die Nvidia-Käufer einfach nicht.

Ja die 1080ti verbraucht weniger und liefert mehr Leistung. Das stimmt und wenn ich nur darauf schaue würde ich ich mir auch eine 1080ti kaufen. Mal abgesehen das wir hier eigentlich die 1080 als Vergleich nehmen müssen schließlich ist die 1080ti ja auch 100€ teurer als die Vega.

Was ich und viele AMD Käufer wollen ist aber eine Karte für Sync in meinem Fall halt Freesync weil ich damals nicht dazu bereit war Nvidia ihre Synctechnologie, die quasi identisch ist zu AMDs, mit extra Geld zu honorieren. Jeder der einmal mit Sync gespielt hat weiß das das viel mehr Wert ist, als 30% mehr Leistung(in Bezug auf die 1080ti).

Dazu kommt das ich grundsätzlich versuche eine AMD Karte zu kaufen nur um den kleinen Konkurrenten zu unterstützen und nicht weil ich FAN bin. Ohne AMD würden die Nvidiakarten sicher noch mehr kosten und keiner von uns will ein reines Nvidiamonopol. Freut euch lieber das wir "AMD Idioten" dafür sorgen das eure heiß geliebten Karten nicht doppelt soviel kosten. Ein einfaches Danke reicht uns :)
 
SKu schrieb:
Vega ist in jetzigem Stadium ein Beta-Produkt. Und die Frage ist, wann das Produkt in ein Endprodukt umgewandelt wird. Wenn dann Nvidias nächste Generation kurz vor der Tür steht, ist doch Vega völlig uninteressant.

So siehts aus.

Hab mir vor paar Tagen die Palit GeForce GTX 1080 GameRock Premium geholt. Der Test von Vega war eindeutig. Wobei man sagen muss, dass diese ASUS Vega Karte wirklich nicht übel ist. Sie muss sich allerdings mit den besten Custom Modellen der 1080 messen. Da sieht es so aus für die Palit:
- 9 % schneller
- 4 db leiser
- 8 Grad kühler
- ca. 125 Watt weniger Verbrauch

Herangezogen dafür zwei Tests von CB (1080 Partnerkarten und dieser Test hier mit der ASUS).

Das bei einem Preis von momentan 591€ (lieferbar bei Mindfactory).

Damit die Vega für mich interessant wird, müsste dieses Modell von ASUS maximal 500€ kosten. Ich denke nicht, dass das passieren wird. Und wenn doch kann auch nVidia die Preise senken, zumal GDDRX günstiger sein sollte als HBM2 und dazu der Die der 1080 ganze 35% kleiner ist. So oder so, nVidia sitzt am längeren Hebel.

Freesync und GSYNC lasse ich da außen vor. Das nutzt nur ein kleiner Teil der User. Ich muss zugeben, ich habe einen Freesync Monitor. Das nehme ich aber in Kauf. Freesync funktioniert auf meinem Omen 32 sowieso mehr schlecht als recht, ist also latte für mich.
 
Zuletzt bearbeitet:
dragnod0 schrieb:
Der Realverbrauch dürfte nur wenig von der Berechnung abweichen. Natürlich spielt man nicht nur aber ich habe ja von einer "durchschnittlichen Spielzeit" geschrieben und nicht von Tätigkeiten die eine GraKa kaum belasen.

15€ ist einfach Wunschdenken.

Also meine Karte ist zu 80% im Idle.. und deine? Jop Wunschdenken.. Wenn du Energie sparen willst, LED einbauen, Kühlschrank noFrost und Gefrierttruhe abschaffen, achja und am besten gleich noch den Backofen ersetzen.. DANN sparst du Energie.
Ich unterstelle dir Unwissen und gleichzeitig bist du ein Opfer des Marketings.. 500-100W Mehrverbrauch zur 1080ti resultieren in 15-20€... Die TI verbraucht auch Strom und das unterschlägst du.

Und nochmal, wenn man die Vega ins Power Save setzt dann ist man bei 220W im Schnnitt, klar das eine 1080 mit 170W verbrauch auch mit 80% PT läuft.. Lass es am ende 70W sein, es ist und bleibt UNERHEBLICH für ein Hobby.
 
Also für mich ist Vega ein kleine Entäuschung und es wird bei mir jetzt wohl auch eine 1080Ti.
Bei mir liegts aber daran, dass ich mir vor 9 Monaten den 38er LG mit 3840x1600 geholt habe und bei dieser Auflösung kommt meine 290x 8Gb auch bei 1180Mhz Chiptakt nur noch bedingt zurecht. Insbesondere bei GR Wildlands kämpft sie je nach Gebiet mit der 30Fps marke. Auch ME Andromeda, FH3, Hellblade usw geht nichts ohne Detailverzicht. Und das wiederrum wurmt mich dann doch etwas (ja, bin ne kleine Grafikschlampe;)). Dies war der Grund warum ich bis zuletzt auf Vega gehofft habe, dass AMD ne Karte bringt, welche im UHD-Sektor im Bereich der 50-60Fps agiert. Aber hier bleibt leider nur der Griff zur 1080Ti und diese ist in jedem (Gaming-)Szenario die bessere Wahl. Auch die Stromkosten und Wärmeabgabe sind als regelmäßiger Spieler, welcher seine Stromrechnung selbst bezahlt, ein nicht ganz ungewichtiges Argument und hier rechnet Vega bedeutend ineffizienter als Nvidia. Und selbst, wenn man Vega unter Wasser setzt, dann gehen zwar mehr Fps für weniger Strom aber wenn man ne 1080(ti) unter Wasser setzt, macht die dasselbe und Vega steht wieder "doof" da.
Und dadurch, dass ich mir nur alle 3-4 Jahre eine neue GK hole und kein Fan von Multi-GPU bin, schaue ich primär auf die maximal verfügbare Leistung, dann auf den Stromverbrauch.

Szenario:
Wenn Vega 64 jetzt beim spielen in 4K 10-20% schneller als ne 1080Ti wäre und dafür bspw hitzige 350W benötigen würde, die 1080Ti jetzt aber nur um die 230W, dann würde ich mir trotzdem Vega holen, da Vega mein Display wohl länger mit spielbaren Fps versorgen könnte als die 1080Ti.

Aber hat sich ja als Wunschdenken entpuppt und unterm Strich bleibt stehen, dass AMD´s Top (Gaming-)GPU Nr. 1, nur auf dem Niveau von Nvidia´s Top (Gaming-)GPU Nr. 3 (1080) rechnet, sich aber überspitzt formuliert fast das doppelte an Energie aus dem NT zieht. Zu Nvidias Top 2 Gpu (1080Ti) ist der Abstand zwischen 6-30%, im Mittel irgendwo zwischen 10-20% und das ist schon ein spürbarer Unterschied bzw kann in >1600er Auflösungen den Unterschied zwischen Spielbar oder Detailreduzierung ausmachen.

Und Freesync ist ja ein nettes Feature aber in meinen Augen noch nicht ganz ausgereift, hatte es mehrfach genutzt aber immer nach ein paar tagen, wegen irgendwelchen Problemchen, wieder deaktiviert. (Stichworte: Flackern, Blackscreens beim spielen usw). Hätte es natürlich gerne weitergenutzt aber normales Vsync tuts auch und läuft komplett problemfrei.

Ich denke mal, dass Vega 64 im Laufe der nächsten 2 Jahre nochmal um die +10-15% Leistung durch Treiberoptimierungen rausholen kann und sich dann irgendwo zwischen 1080 und 1080Ti positioniert. Aber dies ändert halt auch nichts daran, dass die 1080Ti in 2 Jahren immer noch schneller und effizienter arbeiten wird. Von daher Schade AMD aber dieses mal wirds nach 7,5 Jahren (HD5870 2Gb->290x 8Gb) wieder was Grünes.mal gucken, was ihr in 3-4 Jahren anbietet.

Just my two cents ;-)

gruss Robert
 
Selbst wenn es 60-70€ im !!!Jahr!!!! sind wäre mir das sooo egal. Wer einen vernünftigen Job hat und nicht über seinen Verhältnissen lebt, dem ist das auch sowas von egal..
 
BoB DeR BaeR schrieb:
Jeder der einmal mit Sync gespielt hat weiß das das viel mehr Wert ist, als 30% mehr Leistung(in Bezug auf die 1080ti).

Ich habe einen G-Sync monitor und muss sagen, 30% mehr Leistung ist das nicht wert. Villeicht der Unterscheid zwischen 100 und 130 FPS, den merkt man nicht. Aber der Unterschied zwischen 45 und 60 FPS ist riesig.
Adaptive-Sync kann nichts gegen Input-Lag machen, es sieht zwar mit 45 fps flüssiger aus, spielt sich aber genau so wie ohne V-Sync.

Der Input-Lag-Unterschied zwischen 100 und 130 fps sind nur 2 ms, aber der Unterschied zwischen 60 und 45 fps sind schon 6 ms. Zwischen 30 und 40 sind es schon über 8 ms.
Es ist also immer der FPS-Bereich ausschlaggebend.
 
Zuletzt bearbeitet:
Pisaro schrieb:
Selbst wenn es 60-70€ im !!!Jahr!!!! sind wäre mir das sooo egal. Wer einen vernünftigen Job hat und nicht über seinen Verhältnissen lebt, dem ist das auch sowas von egal..

Es geht einfach darum, dass du die höheren Stromkosten auf den Kaufpreis mit draufrechnen musst (je nachdem wie viel man spielt), bevor man die Preis/Leistung ausrechnet und entscheidet, welche Karte man kaufen soll..

60-70@ sind es bestimmt nicht...

Aber bei 15-20 summiert sich das einfach nach 2-3 Jahren...
 
BoB DeR BaeR schrieb:
Ich verstehe die Nvidia-Käufer einfach nicht.

Ja die 1080ti verbraucht weniger und liefert mehr Leistung. Das stimmt und wenn ich nur darauf schaue würde ich ich mir auch eine 1080ti kaufen. Mal abgesehen das wir hier eigentlich die 1080 als Vergleich nehmen müssen schließlich ist die 1080ti ja auch 100€ teurer als die Vega.

Was ich und viele AMD Käufer wollen ist aber eine Karte für Sync in meinem Fall halt Freesync weil ich damals nicht dazu bereit war Nvidia ihre Synctechnologie, die quasi identisch ist zu AMDs, mit extra Geld zu honorieren. Jeder der einmal mit Sync gespielt hat weiß das das viel mehr Wert ist, als 30% mehr Leistung(in Bezug auf die 1080ti).

Dazu kommt das ich grundsätzlich versuche eine AMD Karte zu kaufen nur um den kleinen Konkurrenten zu unterstützen und nicht weil ich FAN bin. Ohne AMD würden die Nvidiakarten sicher noch mehr kosten und keiner von uns will ein reines Nvidiamonopol. Freut euch lieber das wir "AMD Idioten" dafür sorgen das eure heiß geliebten Karten nicht doppelt soviel kosten. Ein einfaches Danke reicht uns :)

So habe ich lange Zeit auch gedacht. Ich war sehr lange überzeugter AMD käufer. Als vor ca 1,5 Jahren meine HD 7850 1GB (oder war es eine 7950 1GB?) aber entgültig ihren EOL Status erreicht hatte, gab es nur die Rx 400er Serie die für mich noch in einem für mich vertretbaren Preisrahmen war oder eben die GTX 970.

Selbst die Strix Varianten der Rx 400 von Asus waren bei geschlossenem Rechner noch deutlich hörbar. Die GTX 970 war zwar gut 100€ teurer und war kastriert, bot dafür aber ordentliche Leistung und ist im Idle lautlos.
Wenn man so lange vor der Kiste sizt wie ich, dann achtet man irgendwann auch darauf wie Laut diese Kiste ist ;)

Dazu kahm aber auch das ich mit den AMD Karten deutlich mehr Bluescreens hatte als jetzt (und vorger) mit den Nvidia Karten.

Da aber zumindest ich Sync nicht brauche (46" TV=Monitor) fällt das als Kaufgrund für mich auch weg.

Die Philosophie eines Unternehmens sollte zwar auch in die Kaufentscheidung mit einfließen aber das wichtigste ist doch das man mit dem was geboten wird zufrieden ist.
 
Zuletzt bearbeitet:
Abgesehen vom Verbrauch mal eine brauchbare Karte. Wir freuen uns auf die 56.

Pisaro schrieb:
Selbst wenn es 60-70€ im !!!Jahr!!!! sind wäre mir das sooo egal. Wer einen vernünftigen Job hat und nicht über seinen Verhältnissen lebt, dem ist das auch sowas von egal..

Die Heizkosten im Winter gleichen die Klimaanlage nicht aus.
 
Zuletzt bearbeitet:
Botcruscher schrieb:
Abgesehen vom Verbrauch mal eine brauchbare Karte. Wir freuen uns auf die 56.

Nunja, wann war GCN wirklich mal ein Energiewunder, schon gar nicht die Oberklassemodelle. Die waren eigentlich schon immer auf Compute getrimmt, weil sie ja parallel auch als Profikarten verkauft werden. Insofern ist die Entrüsting einiger hier ein bischen scheinheilig.

Und soweit ich weiß, war VEGA auch nie als Stromsparwunder angekündigt worden. Interessant werden dazu die APUs, also inwieweit VEGA nach unten skalierbar ist.
 
MonteSuma schrieb:
Aber bei 15-20 summiert sich das einfach nach 2-3 Jahren...
Nen Wochenende Party frisst das in 2-3 Tagen auf :D Also was mich ein Produkt welches 15€ im Jahr teurer ist.. Und wer die 15€ nicht hat, sollte sich weder ne 1080 noch ne Vega kaufen.. So einfach ist das

@Dragon:
Dazu kahm aber auch das ich mit den AMD Karten deutlich mehr Bluescreens hatte als jetzt (und vorger) mit den Nvidia Karten.
Mache IT seit fast 15 Jahren.. Ergebnis nahezu 50:50 und nahezu immer der Kunde der Auslöser.. Prozentual gesehen sind es bei 80:20 für NV natürlich mehr AMD Karten die Ärger machen.. Wir reden derzeit bei 2,75 Karten pro 10 NV Karten..
 
Zuletzt bearbeitet:
Zurück
Oben