Test Radeon RX Vega 64 Strix im Test: Asus Vorserie schlägt das Referenzdesign deutlich

AMD-Mafiosi schrieb:
Also meine Karte ist zu 80% im Idle.. und deine? Jop Wunschdenken.. Wenn du Energie sparen willst, LED einbauen, Kühlschrank noFrost und Gefrierttruhe abschaffen, achja und am besten gleich noch den Backofen ersetzen.. DANN sparst du Energie.
Ich unterstelle dir Unwissen und gleichzeitig bist du ein Opfer des Marketings.. 500-100W Mehrverbrauch zur 1080ti resultieren in 15-20€... Die TI verbraucht auch Strom und das unterschlägst du.

Und nochmal, wenn man die Vega ins Power Save setzt dann ist man bei 220W im Schnnitt, klar das eine 1080 mit 170W verbrauch auch mit 80% PT läuft.. Lass es am ende 70W sein, es ist und bleibt UNERHEBLICH für ein Hobby.

Ich habe nirgendwo mit der TI verglichen.
Hättest du meinen Beitrag etwas genauer gelesen, dann wüsstest du das ich von Spielzeit (also Vollast) und nicht von surfen oder ähnlichem geschrieben hatte.

Für jemand der die neuste Generation einer Graka im Rechner haben muss, mag der Stromverbrauch nicht relevant sein. Für jemand der aufs Geld achten muss und seine Karte länger im Rechner hat kann das schon einen großen Unterschied machen.

Du willst doch nicht ernsthaft behaupten das eine GraKa im Powersave die selbe Leistung hat wie eine im P0? Und komm mir jetzt nicht wieder mit Idle. Noch mal, ich habe nur von Vollast geschrieben!

Ich will dich im übrigen sicher nicht davon überzeugen nichts mehr von AMD zu kaufen. Du hast deine Gründe FÜR AMD und ich habe meine Gründe zur Zeit gegen AMD.

Nur so nebenbei, deswegen bin ich auch jemand der NICHT gegen die Miner hetzt. Wenigstens kann AMD an denen noch gut verdienen und dann mehr in R&D stecken. Mich würde es freuhen wenn AMD es schaffen würde endlich einen Chip zu bauen der nicht so viel Strom fressen würde. Dann würde ich es auf jedenfall noch mal mit einer AMD Karte versuchen. Auch wenn diese dann so viel kostet wie eine gleichwertige Nvidia Karte.
 
majusss schrieb:
Immer noch 100 Watt mehr als eine GTX 1080...
Das bedeutet wenn du jeden Tag 3 Stunden spielst und die komplette Zeit über die Karte voll auslastest kostet sie dich 30 Euro mehr im Jahr.... Wer sich eine Grafikkarte für 600€ kauft der hat auch das Geld 30€ mehr im Jahr zu bezahlen. Dafür bekommt er eine deutlich höhere Rohleistung und in neueren Spielen mit DirectX12 und Vulkan wahrscheinlich auch noch mehr FPS als mit der 1080. Mal abgesehen davon, dass wahrscheinlich die aller aller wenigsten (selbst die Leute die sich eine High End Karte kaufen) 3 Stunden jeden Tag spielen. Stromverbrauch spielt beim PC eine so geringe Rolle wird aber immer wieder für Marketing Zwecke benutzt.
 
Zuletzt bearbeitet:
Da scheint Asus mal was richtig gemacht zu haben. Für ein Vorserienmodell gar nicht mal so schlecht. mal schau was bei der Vega56 so als Partnerkarte geht.
 
Denarr schrieb:
Du hast aber schonmal gesehen was du in deinen Beiträgen so von dir gibts, oder? Solche Leute wie dich melde ich nur noch.. Die Historie deiner Beiträge gibt dir die Gründe.

Und ich sagte FPS pro € und da ist neben AMD auch die 1050ti gut bei.. Ich wette du hast nichtmal meinen Link gelesen. Und Mining ist NICHT der Markt.. Lüg dir deinen Argumente nicht noch schön

@Botcrusher:
Dazu schau dir die Leistung unter Linux an und die Leistung als Pro.. Aber ich freue mich wenn in 5-10 Jahren die Leute rumheulen weil die neue Nvidia 2060 ja schon fast 400€ kostet und AMD nur noch APUs und CPUs baut ;)
Achja und AMD hat ein Problem, und zwar dass unter DX11 einfach keine Power kommt.. Wenn die Karte Hardwarenah genutzt wird, sieht das anders aus.. Da kann eine Vega Trotz HBM eine Ti kassieren für den 2/3 Preis (mining).. Und ja ich weiß Mining ist nur ne Randerscheinung, Mining wird wie Deep Learning noch der Motor der Branche.. Gib dem einfach mal ein paar Jahre. Spieler werden immer unwichtiger und Intel beweist das indem man mal eben 12.000MA entlassen hat
 
Zuletzt bearbeitet:
Naja ein Schritt in die richtige Richtung.. Leise geht also doch, nicht so eine Katastrophe wie das Referenzdesign.

Man sagt ja es gibt nur eine Chance für den ersten Eindruck, deshalb verstehe ich nicht was AMD da immer reitet bei Präsentationen von neuen Sachen. Wenn man etwas nicht hinbekommt und ein Partner kann das, dann lass ich den doch ran und erzeuge ein gutes (besseres) erstes Ergebnis.
Möchte nicht wissen, wieviele Kaufentscheidungen der fatale erste Eindruck Richtung Grün gedrückt hat...
 
AMD-Mafiosi schrieb:
Du hast aber schonmal gesehen was du in deinen Beiträgen so von dir gibts, oder? Solche Leute wie dich melde ich nur noch.. Die Historie deiner Beiträge gibt dir die Gründe.

Und ich sagte FPS pro € und da ist neben AMD auch die 1050ti gut bei.. Ich wette du hast nichtmal meinen Link gelesen. Und Mining ist NICHT der Markt.. Lüg dir deinen Argumente nicht noch schön

AMD-Mafiosi schrieb:
Schwarz/Weiß Denken ;) Gibt noch genug Andere Gründe.. Und ich habe Trotz Freesync Monnitor ne 1080Ti... Aber ich bin auch nicht so ein verbohrter Fanboy, deine Beiträge verraten dich mein lieber.. Bist du NV Mitarbeiter?

wieder kommen nur vorwürfe beleidigungen und fanboy beschimpfungen, mehr nicht.
und immer noch bist du mir schuldig wo man denn aktuell AMD GPUs OHNE minimg wahn und aufschläge kaufen kann!? ich warte ^^ wird leider nicht passieren weil du den markt gar nicht checkst. du weißt aber schon was angebot nachfrage und dergleichen ist!? AMD GPUs sind derzeit für Gamer einfach uninteressant das Preis-/Leistungsverhältnis stimmt hinten und vorne nicht. und du verstehst es einfach nicht.

gemeldet und bye
 
AMD-Mafiosi schrieb:
Dazu schau dir die Leistung unter Linux an und die Leistung als Pro.. Aber ich freue mich wenn in 5-10 Jahren die Leute rumheulen weil die neue Nvidia 2060 ja schon fast 400€ kostet und AMD nur noch APUs und CPUs baut ;)
Achja und AMD hat ein Problem, und zwar dass unter DX11 einfach keine Power kommt.. Wenn die Karte Hardwarenah genutzt wird, sieht das anders aus.. Da kann eine Vega Trotz HBM eine Ti kassieren für den 2/3 Preis (mining).. Und ja ich weiß Mining ist nur ne Randerscheinung, Mining wird wie Deep Learning noch der Motor der Branche.. Gib dem einfach mal ein paar Jahre. Spieler werden immer unwichtiger und Intel beweist das indem man mal eben 12.000MA entlassen hat

Da hast du vollkommen recht! Leider ist Linux immer noch nicht wirklich gut fürs spielen geeignet weil es von den beliebten Spielen entweder garkeine oder wenn dann meist nur schlechte Portierungen gibt.

Leider ist es immer noch so das die meisten Spiele kein DX12 und/oder Vulkan unterstüzen. Deswegen ist es momentan jedenfalls völlig egal ob AMD Karten damit deutlich schneller sind als die von Nvidia.
 
8-BaLL schrieb:
Asus Strix = im Durchschnitt doppelter Verbrauch einer 1080, trotzdem langsamer und in wenigen Monaten kommt Pascal Refresh oder Volta raus, weil Pascal in einigen Monaten 2 Jahre alt wird. Dann wird Vega 64 mit einer 1170 konkurrieren, wenn nicht sogar mit einer 1160.

Na dann viel Spaß an die verblendeten Hardcore Fanboys, die jegliche Vernunft verdrängen und sich eine Karte kaufen, die in wenigen Monaten auf dem Level einer 1170 bzw. 1160 sein wird und der Preis sich somit ca. halbieren wird, damit sie konkurrieren können..

Sollte man deiner Meinung nach aktuell gar keine Grafikkarte kaufen und auf nVidias nächste Generation warten? nVidias aktuelle Karten werden dadurch ja ebenfalls abgewertet, oder?

Sorry für OT, aber das interessiert mich jetzt doch:

@ Denarr
Ist diese Kombination aus "kreativer" Orthografie und unangemessenem/unverschämtem Ausdruck bei dir pathologisch oder steht das bei dir in direktem Zusammenhang mit einer allgemeinen kognitiven Beeinträchtigung?
 
wass ich hier die köppe eingekloppt werden,wegen so ner scheiss grafikkarte,die nichtmals final fertig auf em markt zu kaufen ist ... ..

unfassabar.

ich glaube auch kaum, das hier jemand mit dem höheren Stromverbrauch ein problem hat.
kommt ja keiner zum zocken vor lauter rumheulerei.
und im desktopbetrieb brauch ja selbst vega nit so viel.....


unglaublich.
is ja hier wie auf der Titelseite von Bild
 
Auch ein Grund mal zu Nvidia zu wechseln: Downsampling. Wann hat AMD das eingeführt, vor 2 Jahren oder so?! und seitdem hat sich an dem Stand der Treibertechnik diesbzgl. quasi nichts getan bei AMD. Und es wird ja auch schon seit Jahren versprochen, dass VSR zukünftig ausgebaut wird. Aber das ist leider bisher Wunschdenken. Insbesondere bei exotischen Monitorformaten (21:9) kannst du VSR direkt knicken. Bei Nvidia kann man soweit ich weiß rumspielen wie man mag. Dies ist ein weiterer Grund zu wechseln, ich will einfach nicht noch 2 Jahre warten bis sich da vielleicht irgendwann mal was tut.

Ach ja und Strom= u.a. neben Zusatzkosten auch Abwärme, die irgendwie weggekühlt werden will. Insbesondere im Sommer kann es mit einer Karte im 300+W Bereich mehr Probleme geben, als mit einer vergleichbaren 200-250W Karte. Wenn die Leistung stimmen würde, dann wäre das ein Übel, welches ich in Kauf nehmen würde aber doch nicht bei der Leistung, welche andere mit deutlich weniger Energie toppen können. Soweit geht die Liebe dann auch nicht.

gruss Robert
 
raceroomplayer schrieb:
unglaublich.
is ja hier wie auf der Titelseite von Bild

Willkommen auf CB. :)

So ist das heutzutage, nicht nur in der IT Welt. Wenn echte Argumente nicht mehr ziehen, kommen konstruierte Szenarien und kein Usecase ist zu blöd, nicht doch als Argumentation zu taugen. Dann wird mit absurden Zahlen und Rechnungen hantiert, wo man sich eigentlich böse die Finger verbrennen müsste...
Und wenn einem auch diese Argumente nicht mehr ausreichen, gehts auf die persönliche Ebene.

Mir wurde auch schon unterstellt, ein AMD Fanboy zu sein. Weil ich ja Nvidia nie kaufen würde, weil ein Logo auf der Karte sei. Klaro, checkt mal die Sig. :D
 
Das mit dem Blink-Blink. Sieht man das überhaupt? Oder gibt es ein Spiegel zur Anbringung unter die Grafikkarte gleich mit...

Was mich interessieren würde ist, welcher der beiden Chip-Varianten verbaut werden: http://www.tomshardware.de/radeon-vega-gpu-fertigung,news-258353.html

PS: Ich frage mich, ob der Spritverbrauch bei Autos auch so Rot/Grün-Diskutiert wird, wie hier der Stromverbrauch :freak:
 
Köf3 schrieb:
Wenn echte Argumente nicht mehr ziehen, kommen konstruierte Szenarien und kein Usecase ist zu blöd, nicht doch als Argumentation zu taugen. Dann wird mit absurden Zahlen und Rechnungen hantiert, wo man sich eigentlich böse die Finger verbrennen müsste...

Ich denke mal damit war ich mit meiner "rechnung" gemeint ;)
Es steht dir jederzeit frei meine Rechnung zu wiederlegen.
Dann aber auch bitte mit greifbaren Zahlen.

Der Energieverbrauch ich vielleicht für den einen nicht wichtig aber weg Disskutieren lässt er sich auch nicht.


Was mich etwas verwundert ist, das man bei AMD vs Nvidia auf die Firmenpolitik schaut. Geht es dann aber um Apple, Samsung usw die ihre HW z.B. von Firmen produzieren lassen die ihre Mittarbeiter wie dreck behandeln, ist das vielen völlig egal. Ich nenne die beiden Firmen hier mal nur exemplarisch. Es sind bei weitem nicht die einzigen!
 
Zuletzt bearbeitet:
Eigentlich gut...

aber wenn man bedenkt, das die Karte doppelt soviel Strom zieht wie eine 1080 im Referenzdesign...oder anders ausgedrückt, so viel wie zwei GTX 1080 (die sie in Grund und Boden stampfen würden)...dann ist da ganz eindeutig etwas schief gelaufen bei AMD.

Eine CPU mit diesem Performance/Watt Verhältnis würde niemand kaufen.
 
Zuletzt bearbeitet:
Sehr gut. Auf eine genauere Analyse der Spannungsversorgung bin ich gespannt!
 
Am Ende ist es doch völlig egal: bei NVIDIA bekomme ich für das gleich oder weniger Geld eine gleichschnelle Karte, welche weniger Strom verbraucht, damit kühler und leiser ist. Welcher Grund spricht denn für sie Vega 64 und gleichzeitig gegen die 1080?
 
PC Spielen ist immer noch ein Hobby und diese 70 bis 100 Watt Stromverbrauch jetzt soo aufzublasen ist eig. lächerlich, wenn ihr es mit den Ausgaben für eure anderen Hobbys vergleicht!

Was mich an dieser missglückten Veröffentlichung aber mit am meißten ankotzt, nach all der Warterei und Hinhalterei kommen jetzt erstmal nur diese "schlechten" Werkskarten. Also Weiterwarten..... und einem scheinbaren Exklusivdeal mit Asus, wo ein Hersteller, welcher nicht mal AMD-only-Verkäufer ist einige Wochen Vorsprung bekommt.

Also nochmals weiterwarten bis es dann auch Partnermodelle von Powercolour, Sapphire und dem ganzen Rest gibt...
 
anthony274 schrieb:
Am Ende ist es doch völlig egal: bei NVIDIA bekomme ich für das gleich oder weniger Geld eine gleichschnelle Karte, welche weniger Strom verbraucht, damit kühler und leiser ist. Welcher Grund spricht denn für sie Vega 64 und gleichzeitig gegen die 1080?

Solange NVIDIA kein FreeSync unterstützt, ist dieser Verein für mich inakzeptabel.
 
Schattenthron schrieb:
PC Spielen ist immer noch ein Hobby und diese 70 bis 100 Watt Stromverbrauch jetzt soo aufzublasen ist eig. lächerlich, wenn ihr es mit den Ausgaben für eure anderen Hobbys vergleicht!

Das ist richtig, aber warum sollte man das technisch hinterher hinkende Produkt kaufen, wenns eine gleichteure bessere Alternative (vor allem die schon seit einer ganzen Weile) gibt? Die Karte ist quasi unnütz am Markt. Ist doch enttäuschend für ein neues Produkt.
 
Persönliche Präferenzen, passender Monitor...

Ich zum Beispiel weigere mich weiter nVidia zu kaufen aufgrund der GTX970-Miesere.

Es war eine Topkarte und hat mir keine Probleme gemacht. Aber unterstützen werde ich diese Firma in Zukunft nicht mehr.

Da bleibt mir nur AMD.

Und wenns nichts passendes gibt: Verzicht.
 
Zuletzt bearbeitet: (typo)
Zurück
Oben