Test Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten

Status
Für weitere Antworten geschlossen.
flankes schrieb:
Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!
die hatten intern vega schon lange so gut wie fertig. da wird es ein Treiber auch nicht mehr bringen. die hatten genug zeit für Optimierung.

und selbst wenn, der unterschied nach 3 Jahren ist sowas von vernachlässigbar.
( wie in der Vergangenheit)
 
Zuletzt bearbeitet von einem Moderator: (Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!)
kisser schrieb:
Es ist genau umgekehrt. Der Command Processor bei Nvidia managed die Dinge selbstständig, während man das für AMD extra programmieren muss in der Anwendung.

Lt. dem letzten Artikel den ich dazu gelesen hatte geht es eher in Cru_N_cher Richtung.
Bei der Geforce wurden diverse Verwaltungsaufgaben auf die CPU ausgelagert die bei den Radeons intern abgearbeitet werden. Dadurch ist die CPU Last zwar etwas höher aber dafür können die Sachen dann auch auf andere Kerne ausgelagert werden, wodurch man den DX11 Flaschenhals umgeht.
 
Krautmaster schrieb:
naja, denke es gibt nicht wenige die sich ne 600€ GPU für Zocken von mehr als 2h täglich kaufen. Das können am We auch schnell mal 8h sein ^^

Als Berufstätiger, der seinen Strom selber zahlen muss und der neben dem Zocken noch Frau, Kind und andere Hobbies hat? Da finde ich >700h im Jahr zu zocken schon nicht gerade wenig. Mach 1.000 Stunden im Jahr draus, dann sind es 100 KWh pro Jahr mehr, also 30,- €. Ist das wirklich relevant?
 
YforU schrieb:
Bezogen auf die Software gibt es sicherlich noch Spielraum nach oben. Es sollte einem aber auch bewusst sein das AMD Vega bereits auf der CES Anfang des Jahres demonstriert hat. Also funktionsfähige Chips für die finale Treiberentwicklung seit mindestens 9 Monaten verfügbar waren. Das Ergebnis lässt sich deshalb nicht alleine mit knappen Entwicklungsressourcen und der Priorisierung der CPU Sparte erklären.

Ich wüßte nicht, daß AMD bisher eine voll funktionsfähige Vega gezeigt hätte. Vor 9 Monaten stand ein lauffähiges ES zur Verfügung, mehr wissen wir nicht.
 
@r4yn3
Du kannst echt glücklich mit deiner Frontier Qualität sein die Gamer Vega ist sowas von kosten herunter optimiert wurden mein lieber scholli.

Die hier vorgestellte Variante der Kühlung weicht deutlich von dem ab, was uns bei der Frontier Edition noch gefallen konnte. Zu aggressiv, zu heiß und am Ende logischerweise auch zu laut. Knapp auf Kante war thermisch und akustisch noch nie eine wirklich harmonische Ehe.

Quelle: http://www.tomshardware.de/vega-ben...ahme-temperaturen,testberichte-242382-17.html

Wohl auch um die AIBs besser dastehen zu lassen, müssen ja auch noch leben zwischen 700 und 1100 ;)

Die Hoffnung auf billigere AIBs geb ich jetzt schon auf.

Generel wenn ich die Preise sehe gegenüber von den Konsolen dann ist der PC langsam wirklich fürs Spielen nur noch toter als tot.

Und dieses ganze von wegen der PC lebt können die sich alle ums bein binden und damit den Wasserfall runterspringen vom Marketing.
 
Zuletzt bearbeitet:
smalM schrieb:
Vor 9 Monaten stand ein lauffähiges ES zur Verfügung, mehr wissen wir nicht.
Also ist man selber nicht mal in der Lage, für seine eigenen Engineering Samples Treiber zu entwickeln? Respekt.

Danke Cru_N_cher :D aber ein direkter Vergleich bzgl. Temps und Lautstärke zwischen RX und FE würde mich noch interessieren.
 
Was mich persönlich am meisten wundert, sind die Reviews an sich. Die lesen sich meist, als hätte der Autor Mitleid mit AMD und stellt mit den gewählten Worten die Sachlage nicht so dramatisch dar, wie sie in Wirklichkeit eigentl. ist.

Das Performance pro Watt Verhältnis ist ein echtes Desaster, mir fehlen dazu jegliche Worte das zu beschreiben.
 
r4yn3 schrieb:
Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!

Naja da darf man nicht ausser acht lassen viele neue leute bei RTG die müssen auch erstmal ISA pauken ;)

Vor allem die EX Nvidianer ;)
 
Zuletzt bearbeitet von einem Moderator: (Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!)
Ja, das ist es. Aber die Relevanz des Verbrauchs ist realistisch betrachtet eben nicht so hoch, wie die Relevanz der Leistung.

Es ist technisch beeindruckend, wie viel effizienter nvidia-Karten aktuell(!) sind, aber wer entscheidet denn aufgrund von 30-50 Mehrkosten im Jahr, ob er sich nun eine 500-600 € Grafikkarte wirklich kauft oder nicht? Das dürften sehr, sehr wenige sein.

Und wenn man auf Freesync abzielt, bleibt die Kombination günstiger als eine von Nvidia, trotz höherer Stromkosten.

Von daher: Ja, der Verbrauch ist zu krass, aber das ist eben nicht der wichtigste Aspekt, sondern nur einer von vielen.
 
Rusty [GER] schrieb:
Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!

Die anderen hier behaupten, dass die Tests pro Nvidia sind was die Auswahl des Autors der Spiele Titel anbelangt ...
 
Zuletzt bearbeitet von einem Moderator: (Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!)
Hier stand Mist.
 
Zuletzt bearbeitet:
schkai schrieb:
Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!

Die Leistung unterscheidet sich um weniger als 10 % , der Stromverbrauch ist mehr als das doppelte. Wenn die Karte drei Jahre Inbetriebnahme ist, unter den Voraussetzungen die ich genannt habe, ist der preisunterschied bei 60 euro. Wenn ich bedenke dass ich eine 1070 für 370 Euro bekomme habe vor dem Mining Boom dann frage ich mich wer hier wirklich der Troll ist.

Wenn die karte schneller wäre als eine 1080ti dann könnte man als Enthusiast darüber hinweg schauen dass die Karte bedeutend mehr verbraucht als die nvidias, aber wir sprechen von einem oberen Mittelfeld dessen Leistung schon seit einem Jahr ergründet wurde.

Hier möchten sich einige die Karte echt schön reden, ausser freesync ist hier nichts zu retten.
 
Zuletzt bearbeitet von einem Moderator: (Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!)
Neue Treiber werden definitiv was bringen.Neue Games ebenfalls.Ich bleibe dabei die 56 ist sehr interessant für den Kurs.Und heut zu Tage sollte die breite Masse Nts >420 Watt haben ;-)
 
Ich frag mich mittlerweile echt warum Vega mit HBM entwickelt wurde. Die Speicherbandbreite ist im Prinzip gleichauf mit GDDR5x und sogar schlechter als bei Fiji und der eingesparte Platz auf dem PCB wird verschenkt.

Warum hat man die HBM Anordnung nicht von Fiji übernommen und 4*2GB Stacks rund um die GPU eingesetzt?
Dann hätte man ein 4096bit breites Speicherinterface und könnte theoretisch die doppelte Bandbreite wie Fiji liefern oder den HBM näher am Sweetspot laufen lassen. Klar wäre das Package nochmal etwas größer geworden, aber dann hätte man zumindest irgendwas um den HBM zu rechtfertigen. Außerdem steigt der maximal mögliche Speicherausbau auf 32GB.

Naja mal die Partnerkarten abwarten, auf den Saftladen Nvidia hab ich keine Lust mehr und Freesync Monitor ist auch vorhanden, also wirds wohl trotzdem eine Vega werden.
 
Man sollte mal eine 1080 auf 2GHz bei Undervolting gegen eine Vega 64 bei ebenfalls Undervolting antreten lassen und sich DANN die gebotene Performance und den Verbrauch anschauen. Von Abwärme und Lautstärke rede ich jetzt mal nicht.

Vielleicht geht dann einigen ein Licht auf, warum Nvidia lustiges Eierschaukeln betreiben kann.
 
Zuletzt bearbeitet von einem Moderator: (Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!)
n8mahr schrieb:
Beste Wortschöpfung seit langem. Nicht. I think I spider

made my day :lol:

Aber mal ernsthaft.

Man kann es halten wie man will, was AMD hier abliefert (vor allem auf der zeitlichen Schiene ggü. NVidia), ist einfach... nichts gutes.

Vor allem in Hinblick auf Treiber/Software etc... Jetzt haben die schon so lange gebraucht, um die Hardware fertig zu bekommen und schaffen es trotzdem nicht, vernünftige Treiber zum Marktstart zu stellen??? Fail!
 
Zuletzt bearbeitet:
Rusty [GER] schrieb:
Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!

..und andersrum..wenn man einen Pascal auf derart absurde Leistungsaufnahme bringen könnte und den Takt dementsprechend korrigiert, wäre er auf und davon.
 
Zuletzt bearbeitet von einem Moderator: (Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!)
Beim Thema Leistungsaufnahme geht es doch nicht nur um den Verbrauch und wie sich das auf die Stromrechnung auswirkt. Es geht vor allem auch um folgendes:

Hohe Leistungsaufnahme und Verlustleistung --> Große Hitzeentwicklung --> Schwierig zu kühlen --> Hohe Lautstärke

Ich jedenfalls habe keinen Bock mehr auf eine Karte, die mir mein Zimmer heizt (vor allem im Hochsommer nicht) und dabei auch noch laut weil schwierig zu kühlen ist.
 
eXtra schrieb:
Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!

Das deutet CB ja schon im Test an - die Custom-Designs werden vermutlich sehr heiß. Da heißt es abwarten, was die Hersteller mit dem Chip anfangen. Mit Ruhm hat sich AMD diesbezüglich aber wie gesagt definitiv nicht bekleckert, um es vorsichtig auszudrücken.
 
Zuletzt bearbeitet von einem Moderator: (Überflüssiges Komplettzitat Entfernt. Bitte Regeln beachten!)
Status
Für weitere Antworten geschlossen.
Zurück
Oben