Test Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten

Status
Für weitere Antworten geschlossen.
@Darkscream

ich denke nicht das nächstes Jahr bzw. dieses Jahr Volta kommen wird. Meine Vermutung ist eher das man noch einen Refresh von Pascal rausblasen wird um den Fertigern mehr Zeit für HBM zu geben (bessere Yield = kostengünstiger) und gleichzeitig am Prozess und an der Architektur zu feilen.

NV wird sich sicherlich mit Volta keine blöse geben wie AMD mit dem Vega release

@stoneeh
ich bezweifle stark das man Architekturbedingte Probleme (z.b. GCN = NCU Shaderauslastung) durch Treiberoptimierungen in den Griff bekommt, ich vermute allerdings das man sich durch die erweiterungen im VEGA Chip design verbesserungen erhofft >> wer weiß wie gut die Treiber wirklich aktuell sind kann durchaus sein das vieles was neu hinzugekommen ist noch nicht gut funktioniert, ich denke es wäre durchaus wünschenswert aber wirklich glauben kann ich das nicht.
 
Zuletzt bearbeitet:
F4naTy schrieb:
Wenn die Treiber finalisiert sind und alle Funktionen aktiviert sind, sehen GTX 1070/1080 kein Land mehr.
Dann kauf Dir halt Dein Los und hoffe weiter, dass es sich von einer Niete in einen Trostpreis verwandelt.

Und wer lieber Videospiele statt Glücksspiele mit seiner Grafikkarte machen will, greift halt zu einer besseren Lösung.
 
aivazi schrieb:
Dann meinst du aber die Titan X Pascal und nicht die Titan X, letztere kam 2015 auf den Markt ;)


Klar X Pascal ;) Namen sind ja leider identisch. Aber wie gesagt, nicht Xp, der ist ja Vollausbau.
 
Benji18 schrieb:
@Darkscream

ich denke nicht das nächstes Jahr bzw. dieses Jahr Volta kommen wird. Meine Vermutung ist eher das man noch einen Refresh von Pascal rausblasen wird um den Fertigern mehr Zeit für HBM zu geben (bessere Yield = kostengünstiger) und gleichzeitig am Prozess und an der Architektur zu feilen.

Pascal und vermutlich auch Volta wird quasi tupfen gleich wie Maxwell in groß. Da mach ich mich keinen Kopf drum. Selbst die 12nm von TSMC sind ja quasi 16nm mit etwas Nvidia Optimierung. Viel mehr als etwas Skalierungsarbeit ist da nicht nötig, deswegen dürfte die Entwickllung auch längst fertig sein.

Nvidia wird irgendwann wieder was bringen müssen schon allein um die eigenen Käufe anzukurbeln.

Stand jetzt wurde ja Volta auf Q1 2018 spekuliert mit GDDR6. Kann ich mir durchaus vorstellen dass man sich bis dahin Zeit lässt. Ob man dann wieder von heute auf Morgen zb diesen September eine neue TITAN Launched oder es eben diese is die März 2018 kommen soll wird sich zeigen. Stand jetzt braucht Nvidia keine neue TITAN.
 
@Krautmaster

da kann man ja fast zum schluss kommen das NV sehr kosteneffizient Produzieren läst :eek: man kann es drehen und wenden wie man will AMD muss in dieser Disziplin anschluss gewinnen.

HBM 2 ist für mich jetzt eigentlich nichts besonders weil Bandbreitenmäßig nicht schneller als GDDR5X aktuell somit außer mehrkosten nicht wirklich sinnvoll.

Sollte man darüber nachdenken diese Technologie erst mal zu verfeinern und wieder auf den günstigeren GDDR5X /6 setzen.
 
Krautmaster schrieb:
Aber ja, das "Energy Save" Bios ist sparsamer. Flasht sich da jetzt jeder iwi Bios hin und her oder was läuft da grad?
Die Karte hat zwei BIOS drauf, mittels Schalter am PCB wird umgeschaltet. Gibt es übrigens schon seit Jahren und ist eigentlich ein alter Hut.
 
F4naTy schrieb:
Die Effizienz also Perf/Watt liegt teils über Pascal (GTX 1050, GTx 1060 3gb), also haltet mal den Ball Flach.

Aber auch nur weil die Performance in 4k genommen wurde und da der 2/3 GB Vram der GTX 1050/1060 voll sind und die Performance extrem einbricht. Hier in 1080p, für das GTX 1050 und GTX 1060 auch gedacht sind.
perfwatt_1920_1080.png
Wer verdreht da wohl die Realität?
 

Anhänge

  • perfwatt_1920_1080.png
    perfwatt_1920_1080.png
    49 KB · Aufrufe: 535
Zuletzt bearbeitet:
@Benji18

ja ich denke bei den GPU die Nvidia für den Consumer Markt bringt arbeitet man wirklich extrem wirtschaftlich (man muss sich ja nur die QuartalsZahlen anschauen). Man muss sich nur die Aufmachung und PCBs sowie die Performance auf gleicher Shader Zahl und Takt ansehen. Maxwell war die letzte große Änderung mit der EInführungd es Tiled based Renerding das einiges an Effizienz brachte.

Ob man bei Consumer Volta noch sowas wie die Tensor Cores des V100 übernimmt? Kaum. Bei GP102 hat man ja die FP16 Units weitestgehend eingespart. Kann man bei V102 auch tun, die Frage ist ob da nun immer mehr Titel drauf setzen werden. Ich meine das neue Wolfenstein soll das tun.
Ergänzung ()

slumpie schrieb:
Die Karte hat zwei BIOS drauf, mittels Schalter am PCB wird umgeschaltet. Gibt es übrigens schon seit Jahren und ist eigentlich ein alter Hut.

das ja, aber wie stellt man diese Settings mit PowerSave usw ein? Treiber?
 
Jede GPU Generation hat vorallem dann einen gewaltigen Sprung gemacht wenn es zb einen Fertigungswechsel hab
G80 mit 90nm der alten Fertigung absolut top, besser geht nicht.
HD 2900XT mit 80nm komplett versagt.
Thermi neue Fertigung und neue Architektur in einem Wisch und so dermaßen schief gegangen, das wir das gleichzeitig von NV wohl nie wieder erleben werden. Wie schon viele sagten die 12nm NV Exklusiv Fertigung von TSMC nächstes Jahr, ist quasi die aktuelle Fertigung und eher Marketing Namensänderung.
Maxwell bzw. vor allem big Maxwell im alten 28nm Verfahren riesige Sprünge gemacht, AMD schließt erst mit Vega darauf auf.
Pascal nur der Shrink von Maxwell. Sehe da keine gewaltigen Sprünge.
Kepler neue 28nm Fertigung und stark eingebrochen am Ende der Lebenszeit der Karten(Aufruhr in NV Foren), das lag an der Architektur.

Dh. wenn nächstes Jahr Volta aufschlägt mit neuer Architektur, kanns zum ersten mal wieder große Sprünge geben. Erst recht bei big Volta.

Fazit: Die besten GPUs G80 und big Maxwell hatten jeweils alte Fertigung ganz am Ende des Fertigungszyklus. Aber verdammt gute neue Architekturen, die dann nur jeweils mit einem Shrink weiter optimiert wurden, aber die Basis war vorher schon da und vor allem die großen Sprünge.

Bei AMD gabs 2 Beispiele wo eine neue Architektur + ein Shrink gleichzeitig voll aufgegangen sind und top Karten raus gekommen sind:
Die HD 5000 und die 7970. Aber am meisten haben diese Karten durch die geniale Architektur profitiert. Zusammen mit 2 bzw. 3GB VRam waren das echte Langläufer und das perfekte Beispiel wie es bei AMD hätte laufen sollen.

Aber bei NV waren schon immer die neuen Architekturen am Ende eines Fertigungszyklus die besten. Mit Abstand...
 
Zuletzt bearbeitet:
Krautmaster schrieb:
das ja, aber wie stellt man diese Settings mit PowerSave usw ein? Treiber?
Treiber, dabei wird halt das Powertarget nochmals weiter nach unten gedrückt und die Karte taktet dann halt dementsprechend.
 
Krautmaster schrieb:

Das ist aber nur mit maximiertem Power target. Nicht zusätzlich übertaktet
 
Also, ich will AMD überhaupt nicht "verteufeln". AMD ist mal wieder selbst Schuld an dieser Misere.

Gestern gab es einen Livestream von Gamers Nexus. Dort hat er die 56 undervolted und die Taktraten angepasst. Aus der 56 kann man richtig was rausholen, das sie deutlich besser da steht. Der Grund warum die Karten out of the Box so viel verbrauchen ist, dass man so auch bei super schlechten Chips ausschließen kann, dass es zu Störungen kommt.

Für Steve war es gar kein Problem dass die Karte 40W weniger durch den Hahn zieht und dabei sogar noch 20-30Mhz mehr Chiptakt zulässt. Würde AMD sich endlich mal scheiß Mühe geben mit dem Treiber, würde man nicht immer so grottengrausame Launches haben. Bei Ryzen war es der Arbeitsspeicher, der deutlich bessere Launch-Ergebnisse verhindert hat.

Für mich absolut unfassbar wie man so dilettantisch arbeiten kann. Bitte kommt mir jetzt nicht mit "Manpower". AMD hat 9100 Mitarbeiter und ist kein 3 Mann Betrieb wie es gerne dargestellt wird. Nvidia hat 11.000 Mitarbeiter.

Mir ist bewusst, dass sich bei AMD die Mitarbeiter um CPU und GPU RND kümmern müssen. Dennoch wird es wohl möglich sein einen ordentlichen Treiber rauszubringen und Testergebnisse und neue Technologien vorher zu evaluieren.

Das ist doch ein schlechter Scherz den AMD hier abzieht. Dann kommen die ganzen AMD-Boys wieder an und erzählen einen vom Nvidia Betrügerverein mit der 970 bla bla. Was macht AMD? Verkündet irgendwas mit "poor Volta" und liefert dann so ein Produkt ab. Egal, reift ja beim Kunden. Bis die Karte gereift ist, hat Nvidia Volta rausgebracht. Volta wird mit Sicherheit nicht weniger als 8GB Speicher bekommen. Eher in Richtung 12-16GB GDDR6.

Bei Ryzen hatte ich weniger erwartet, wurde dann aber doch positiv überrascht. Doch wie lange hat man bei AMD gebraucht um auf Intel aufzuschließen? 8 Jahre oder so? Dafür wird AMD jetzt gefeiert, wow.

Bei den GPUs ist AMD ja soooo innovativ. Doch werden sämtliche Nvidia Innovationen unter den Tisch gekehrt. Mantle war mit Sicherheit ein Durchbruch. Aber wer Nvidia noch aus den Alten Tagen kennt, z.B den Riva 128 Chip, der weiß was Nvidia für einen Einfluss generell auf den Grafikkarten Markt hatte.

Wie bereits gesagt wollte ich von der 1080 auf eine R64 wechseln, oder gar auf 2x R56. Den Schritt kann ich mir jetzt komplett sparen. Meine 1080 ist verkauft und Freitag kommt meine Strix 1080Ti.

Ich hatte mich so auf Vega gefreut...man ey.
 
Bezüglich Taktbereinigt mit Fiji. Meine FE lief bei 1050/1000 mit 850mV stabil (850mV sind glaube ich das Minimum) und mit 800mV auf dem Speicher. System zog dabei ~190W aus der Dose beim Valley Benchmark. ~45W braucht das restliche System. Bin guter Dinge dass man hier vielleicht unter 150W sieht. Für Fiji Performance eigentlich nicht so übel. Schade aber dass man Taktbereinigt hin und wieder drunter liegt. Hier muss der Treiber echt noch ein Problem haben.

Was Speicher OC angeht, scheint sich meine Vermutung zu bestätigen dass DSBR nicht funktioniert, und Vega dadurch immernoch ein Bandbreitenlimit hat.

Btw, Danke an die Redation für das doch recht flotte Update ;)

Krautmaster schrieb:
Vielleicht kann Fiji ja auch mit 4 Stacks umgehen wie P100. Mit 2 Stacks kann AMD eh nur 16GB Karten bauen. Das wäre auch im HPC Umfeld irgendwie Fail.
Dafür ist Vega20 gedacht. Vermutlicher selber Chip nur mit 4 Stacks HBM2.
 
Zuletzt bearbeitet:
@Berserkervmax
und selbst da hatten Sie tatkräftige hilfe von Jim Keller sonst wäre das sicherlich in die hose gegangen ich errinnere mich daran das er den ersten Zen entwurf vor seiner Zeit verworfen hat und dann von 0 angefangen hat.
 
Zu dem Stream von Steve wäre zu erwähnen, dass er nur rudimentäre Prüfungen auf Stabilität durchgeführt hat.

Dass hat ihn bei der FE auch schon in den Hintern gebissen, als er große Undervolting-Resultate dadurch relativieren musste, das nicht mal alle getesteten Spiele mit der plakativen Spannung stabil liefen.

Und AMD muss halt nicht nur auf offene Systeme in warmer, aber immernoch moderater Umgebung (nicht mal 30°C) achten, sondern verkauft Karten, die überall auch bei min 40°C Außentemperatur stabil sein sollen, mit den entsprechenden Spannungsvorgaben.
 
RD78 schrieb:
Man zieht die deshalb heran, weil es die Leute interessiert...was man von den AMD-Paradepferden Doom und AotS nicht behaupten kann. Die spielt im Vergleich zu GTA5 oder FO4 nämlich kaum jemand.

nur weil die spiele spaß machen und ne große playerbase haben und als open world titel weitaus länger motivieren als bspw. doom, sind sie nicht prädestiniert als benchmark titel. rockstar war noch nie gut in einer sauberen technischen umsetzung, waren sie schon bei gta3 nicht (war aber noch ok) und gta 4 war der absolute abschuss - an der grenze zur spielbarkeit. und bethesda verwendet für skyrim und fallout 4 ne engine, die bei über 100 fps komplett kollabiert. zudem sind beide eher unterirdische cross-plattform ports. gta 5 und fallout 4 wurden bis dato zum erbrechen gebencht ohne große überraschungen (pro nvidia) - die dinger haben in einem gpu test parkour einfach nichts verloren.

PUGB als early access ist genau so wenig geeignet wie die beta von quake champions.

amd paradepferde - du meinst wohl spiele, die auf beiden herstellern gleich gut laufen?
doom @vulkan ist eine kleine revolution. so viel optik bei so geringem hardwarehunger hat es selten gegeben, dazu noch mit einer neuen, offenen lowlevel-API. die technik in doom ist exzellent - so gut, dass sich die 1080 ti in wqhd (ultra) durchgehend den kopf am 200fps framelimit anschlägt. wie sieht das bei metro last light redux aus? da hängt selbst die 1080 ti in wqhd noch n gutes stück unter 100fps bei schlechterer optik. doom zeigt wo die reise hingehen könnte.

aots hatte als erstes spiel das DX12 featureset mit async compute implementiert - was kann fallout 4 vorweisen? schlechteste engine 2015? lächerlichstes "HD Texture Pack" der pc-geschichte?

natürlich sind open world titel "schlauchshootern" wie doom in sachen wiederspielwert deutlich überlegen. das macht doom nicht zu einem schlechten spiel - im gegenteil: doom war für mich eines der shooter highlights der letzten jahre, aber wie oft soll man denn die kampagne hintereinander durchspielen?
 
t3chn0 schrieb:
Für mich absolut unfassbar wie man so dilettantisch arbeiten kann. Bitte kommt mir jetzt nicht mit "Manpower". AMD hat 9100 Mitarbeiter und ist kein 3 Mann Betrieb wie es gerne dargestellt wird. Nvidia hat 11.000 Mitarbeiter.

Mir ist bewusst, dass sich bei AMD die Mitarbeiter um CPU und GPU RND kümmern müssen. Dennoch wird es wohl möglich sein einen ordentlichen Treiber rauszubringen und Testergebnisse und neue Technologien vorher zu evaluieren.
.

Wäre es so, dass die 9000 Locker reichen würde so hätte Nvidia wohl kaum mehr Mitarbeiter oder auch Intel massig weniger....


Aber dennoch plfichte ich dir bei, dass die Treiber beim Start besser sein müssen als das was die letzte Zeit geliefert wurde.
 
Danke für die Ergänzung des Testes. Endlich sehen wir mal wie Taktbereinigt Vega läuft. Noch interessant dazu wäre es gewesen, dass ihr zu euren OC Ergebnissen (GPU/Speicher) auch die Verbrauchswerte der GPU angeben könntet. Wäre dann sehr aufschlussreich. :D
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben