Test Radeon RX Vega 64 Strix im Test: Asus Vorserie schlägt das Referenzdesign deutlich

Mr.Smith84 schrieb:
Und wer ein Freesync Moni Kauft, bindet sich an AMD. Also kaum ein unterschied zu NV.

naja soll jeder Kaufen für was er richtig hält. Egal ob Amd, Intel oder Nvidia

Äh nö, Intel HD kann AdaptivSync, das nix anderes wie FreeSync.:rolleyes:
Jeder Monitor wo FreeSync dran steht und DP hat kann mit Intel HD Async nutzen.
Einzig ASync über HDMI geht nicht an Intel HD weil das ein Feature seitens AMD FreeSync ist und nicht in VESA enthalten ist!

Bei DX11 würde ich mir keine Hoffnungen machen das Vega groß mehr FPS wirft, 15% wären schon ne Nummer.
Auf der anderen seite sind die Treiber wirklich noch Beta wenn man sich das vid von Gamers Nexus ankuckt mit Vega 56 UV und OC. :freak:
https://www.youtube.com/watch?v=68vSu81zSWc
 
Zuletzt bearbeitet von einem Moderator:
timmy93 schrieb:
Kann AMD das Potenzial nicht in den Spielen
bringen?

Darauf warten wir seit Jahren ;)
Die Rohleistung ist immer spitze, aber die Karten bringen es nicht auf die Straße. Eigentlich sind es High-End-Karten, wie auch die 290x/390x Karten es damals waren. Dafür passt der Stromverbrauch. Die Leistung wird aber in DX11 nicht ausgereizt und führt so zur Einstufung in die Mittelklasse.
Über die Lebenszeit werden die Karten meist schneller und hängen die gleichteuren Nvidiakarten später gut ab. Das bringt aber nur dem Besitzer was, nicht AMD. Siehe gtx960 gegen 280x/380. Die lagen mal in etwas gleich auf, mittlerweile ist die Nvdiakarte meist 10-20 % (je nach Spiel und verwendeter Technik) hinten. Das ist aber nicht so, weil Nvidia die Karten langsamer macht durch Treiber, wie oft falsch behauptet wird, sondern weil AMD das Potenitial der Karten durch den Treiber erst später schafft auszunutzen.
Das Problem gibts schon seit Anbeginn der GCN2-Zeit
Ergänzung ()

Mr.Smith84 schrieb:
Und wer ein Freesync Moni Kauft, bindet sich an AMD. Also kaum ein unterschied zu NV.

Nvidia steht es ebenfalls frei den freien VESA-Standard einfach zu unterstützen. Tun sie aber nicht, weil sie dadurch nicht ein zweites Mal abkassieren können.
Funfact: GSync in Notebooks wird über AdaptiveSync realisiert, also Gsync in Notebooks ist FreeSync.

Es ist also technisch überhaupt kein Problem. Nvidia könnte sofort Freesync bei Desktop-Monitoren nutzen, wenn sie wollen würden...
 
Zuletzt bearbeitet:
rg88 schrieb:
Funfact: GSync in Notebooks wird über AdaptiveSync realisiert, also Gsync in Notebooks ist FreeSync.

Notobooks nutzen keinen(!) DP-Standard. Es ist also Quatsch, was du da erzählst. Wie oft muss sich das eigentlich wiederholen?
 
DarkerThanBlack schrieb:
Vieles davon ist noch gar nicht aktiv oder nur rudimentär aktiv. Da werden ein paar mega Treiberupdates noch folgen, was zu 20-30% mehr Leistung führt, weil Vega nicht Fiji ist!

Was nützen mir die Verbesserungen, wenn AMD es auch mit monatelanger Verspätung des Launchs nicht hin-bekommt diese zu aktivieren? Aktuell schlägt sich eine Vega 64 bei gleichem Takt nur minimal besser als eine Fury X und die Vega 56 ist mit ihr gleichauf.
Vega 64 vs. 56 vs. Fury X bei gleichem Takt
Du meldest dich dann, wenn die Vega 64 durch die Bank und nicht nur in einem Titel, um 30% schneller geworden ist, OK? ;)
 
Zuletzt bearbeitet:
kisser schrieb:
Notobooks nutzen keinen(!) DP-Standard. Es ist also Quatsch, was du da erzählst. Wie oft muss sich das eigentlich wiederholen?
Was ändert das an der Tatsache, dass Adaptive Sync ohne proprietäre Hardware nur durch Software sowohl am Desktop, als auch am Notebook realisiert werden kann und Nvidia es nicht tut?
Ob im Notebook nun DisplayPort genutzt wird oder nicht spielt absolut keine Rolle - es kann Adaptive Sync durch Software realisiert werden und das macht Nvidia auch. Das gleiche gilt für den Desktop, nur da macht Nvidia es eben nicht.
 
AMDs Primitive Shaders, bisher noch nicht aktiviert im RX Vega Treiber, nachfolgend ein Interview von Gamer Nexus mit Mike Mantor von AMD dazu und was (Aktivierung von) Primitive Shaders noch bringen können ;):

https://www.youtube.com/watch?v=XC5Dy_b-kE8

Möglich, dass der DSBR - welcher dort hinein spielt - deswegen auch noch nicht voll entfaltet ist und einiges an Leistungspotential schlummert ;) ...
 
Ui Vega, wird das doch noch was mit uns beiden? 37 Dezibel ist mal ne Ansage bei der Abwärme.
 
Chismon schrieb:
Ich kann mich absolut nicht den Eindruck erwehren, dass bei AMD zwar durchaus sehr kompetente und kluge technische Infomatiker im Bereich Hardware am Werk sind, jedoch die Informatiker für Treiberentwicklung hinterher hinken.

Kann auch gut sein, dass bei AMD die in der Hardware sich auch ständig beweisen müssen und statt kleine "Anpassungen" vorzunehmen, muss halt immer versucht werden noch besser "Technik" ins Silizium zu gießen. Entsprechend kommen die Treiberentwickler einfach nicht hinterher. Erst ihr VLIW5, dann VLIW4, dann ihr bei dem sie ja alles Radikal umgebaut haben. Statt jedoch teilweise dort "Probleme" jedoch mal im kleinen anzugehen, wird immer versucht Probleme an anderen Stellen zu lösen.

AMD steht immer noch bei "64 ROPs" - bei ca. 98,9 GP/s - nVidia steht mit GP102 bei 96ROP mit ca. 151,9 GP/s. Und mehr als 64ROPs sind wohl bei AMD auch nicht möglich ... Statt mal an solchen Stellen anzupacken, wurden wieder mal die Shader und aktuell wohl auch die ROPs massiv überarbeitet. Vielleicht sind die 1024 Shader pro Block einfach etwas "zuviel" und man müsste da am Aufbau mal etwas ändern.

nVidia ging ab Fermi wohl deutlich gezielter und gleichzeitig behutsamer vor, so dass auch die Treiberentwickler gut mitkamen. Statt vieles neu zu machen, haben sie von Fermi zu Kepler sich ihre Shader angesehen, diese "grundlegend" verändert, jedoch andere Sachen nur angepasst, jedoch nicht grundlegend verändert. Danach haben sie "Flaschenhälse" in der Organisation ihrer Shader beseitigt und scheuten vor einer Reorganisation nicht zurück, haben jedoch die "Shader" im kleinsten nicht massiv umgebaut - 192 zu 128 - usw.

Vielleicht würde es AMD mal gut tun, wenn sie ihre Ingenieure zügeln würden und statt Limitierungen durch Revolution mal durch Reorganisation und Evolution zu beseitigen.
Ergänzung ()

kisser schrieb:
Notobooks nutzen keinen(!) DP-Standard. Es ist also Quatsch, was du da erzählst. Wie oft muss sich das eigentlich wiederholen?
Du solltest dich besser informieren, bevor du die Aussagen andere als Quatsch bezeichnest. In dem Fall redest du nämlich also Quatsch.

Ich hoffe das dein Englisch gut genug ist, das Stichwort ist in dem Fall: Embedded Display Port. Dieser wird bei Notebooks sehr wohl genutzt. …
 
Zuletzt bearbeitet von einem Moderator:
Da ich einen Freesync Monitor besitze, hatte ich mich eigentlich bereits auf Vega gefreut, aber das Paket stimmt halt nicht, ähnlich wie die Furys. Jetzt habe ich mir eine ordentliche 1080 für 470,00 € bestellt und muss mich halt damit abfinden auf FS zu verzichten. Die 120W TDP Unterschied gehen halt mal gar nicht und die Preise passen für eine Karte mit Werkskühler ebenfalls nicht.

Dann die Preise für die 64 mit Wasserkühlung für über 730,00 €, momentan gibt es eine 1080 von MSI für 550,00 € mit einer "richtigen" Wasserkühlung, wie will man dagegen anstinken?
 
Leli196 schrieb:
Was ändert das an der Tatsache, dass Adaptive Sync ohne proprietäre Hardware

Externe Monitore: Scaler nach DP1.2a zur Ansteuerung des Displays = Hardware.
Notebook: Nix Scaler, Protokoll = eDP != DP1.2a
Man kann nicht einfach behaupten, 2 Dinge wären gleich nur weil sie zum selben Resultat führen.
Es ist derzeit unbekannt, ob Nvidia GPUs AdaptiveSync nach DP1.2a überhaupt unterstützen können.
 
Teralios schrieb:
... kann mich absolut nicht den Eindruck erwehren, dass bei AMD zwar durchaus sehr kompetente und kluge technische Informatiker im Bereich Hardware am Werk sind, jedoch die Informatiker für Treiberentwicklung hinterher hinken ... bei AMD die in der Hardware sich auch ständig beweisen müssen und statt kleine "Anpassungen" vorzunehmen, muss halt immer versucht werden noch besser "Technik" ins Silizium zu gießen. Entsprechend kommen die Treiberentwickler einfach nicht hinterher. Erst ihr VLIW5, dann VLIW4, dann ihr bei dem sie ja alles Radikal umgebaut haben. Statt jedoch teilweise dort "Probleme" jedoch mal im kleinen anzugehen, wird immer versucht Probleme an anderen Stellen zu lösen. AMD steht immer noch bei "64 ROPs" - bei ca. 98,9 GP/s - nVidia steht mit GP102 bei 96ROP mit ca. 151,9 GP/s. Und mehr als 64ROPs sind wohl bei AMD auch nicht möglich ... Statt mal an solchen Stellen anzupacken, wurden wieder mal die Shader und aktuell wohl auch die ROPs massiv überarbeitet. Vielleicht sind die 1024 Shader pro Block einfach etwas "zuviel" und man müsste da am Aufbau mal etwas ändern. nVidia ging ab Fermi wohl deutlich gezielter und gleichzeitig behutsamer vor, so dass auch die Treiberentwickler gut mitkamen. Statt vieles neu zu machen, haben sie von Fermi zu Kepler sich ihre Shader angesehen, diese "grundlegend" verändert, jedoch andere Sachen nur angepasst, jedoch nicht grundlegend verändert. Danach haben sie "Flaschenhälse" in der Organisation ihrer Shader beseitigt und scheuten vor einer Reorganisation nicht zurück, haben jedoch die "Shader" im kleinsten nicht massiv umgebaut - 192 zu 128 - usw. Vielleicht würde es AMD mal gut tun, wenn sie ihre Ingenieure zügeln würden und statt Limitierungen durch Revolution mal durch Reorganisation und Evolution zu beseitigen.

Ja, ein guter Punkt den Du machst, ich glaube auch, dass man bei AMD mit der Umsetzung der Vega Architektur etwas über das Ziel hinaus geschossen ist und mehr bieten wollte als man personell managen/verkraften kann derzeit.

Das zeigt die seit über einem halben Jahr laufende Treibererstellung/-arbeit, der man zum Marktstart - mit dem unfertigen Treiber - immer noch nicht Herr geworden ist, was Bände spricht.

Auf dem Papier (und darüber hinaus wohl noch deutlich mehr, wenn Herr Koduri von über 200 neuen Architektur-Features - klein und groß - spricht) liest sich das schon beeindruckend, nur was bringt es, wenn keine dieser Architekturneuheiten optimiert ist und (in absehbarer Zeit) ausgereizt werden kann bzw. sticht (in besserer Rohleistung und/oder Effizienz sich widerspiegelt) und man an etlichen Baustellen immer ein wenig herumwerkelt ohne eine davon fertig zu bekommen und systematisch vorzugehen.

Das stört mich eigentlich auch bei AMD und ist auch nicht wirklich mit vorbildlichem Ingenieurswesen - so wie ich es gelernt habe, nur in einem anderen Bereich - zu vereinbaren bzw. solch eine "springende Vorgehensweise" wirft Fragen auf, da sie sich ineffizient gestaltet und in Schludrigkeit münden kann.

Vielleicht ist der Rückstand zum Konkurrenten so groß und der Ruf als "Preissenker" und Billigalternative so zementiert, dass man auf "Teufel komm' 'raus" versucht mit Alleinstellungsmerkmalen und technischen Innovationen zu glänzen und massiv in einem großen Wurf aufzuholen, aber zumindest bei RX Vega scheint man sich übernommen zu haben und das Ganze scheint wieder einmal nur teilweise anzukommen.

Da ich (leider oder zum Glück) kein PC-Hardware-Ingenieur bin, kann ich nicht wirklich beurteilen, ob die 64 ROPs hier seit einiger Zeit schon der limitierende Faktor der GCN-/NCU-Architektur sind und ultimativ dafür (mit-)verantwortlich, dass wieder nicht die theoretische TFLOPS-Rohleistung annähernd "auf die Straße" gebracht werden kann.

Man scheint ja die Pipeline massiv umgekrempelt zu haben, wenn man sich die neuen Features im Detail (im CB Artikel etwa) so durchliest, aber wie schon von Dir spekuliert scheint die Treiberabteilung damit (trotz angeblicher 80% Auslastung) massiv damit überfordert (gewesen) zu sein.

Es scheint so, als ob alte und neue Spiele komplett treibermäßig neu optimiert werden müssen um mit Pascal GPUs gleich zu ziehen oder diese gar zu überholen wie bei Battlefield 1 trotz unfertigem Treiber schon ersichtlich.

Da erscheint es fragwürdig, ob das AMD wird leisten können (in Zusammenarbeit mit den einzelnen Spielentwicklern) und sicherlich gibt es da auch Limitierungen und man wird es in besonderem/großen Maße nur für die als wichtig erachteten Spiele/Engines tun, die auch in Zukunft relevant sein werden, auch wenn das nicht erklärt, wieso Battlefield 1 mit Frostbite Engine soviel besser zu laufen scheint als Mass Effect (4) Andromeda wofür m.W.n. auch die Frostbite Engine genutzt wurde, nur eben von Bioware anstatt von Dice.

Etwas weniger Gigantismus bei AMD/RTG wäre bestimmt nicht verkehrt, aber die Konkurrenz ist in Größe, Finanzen und Marktposition natürlich aktuell weit überlegen, da wird man sich bei RTG vielleicht denken, dass sie idealerweise einen "Hail Mary" Wurf (im American Football ein verzweifelter letzter großer Pass-Versuch, um doch noch zu gewinnen/punkten vor Ablauf der Zeit) landen müssen, um mit nVidia wieder auf Augenhöhe zu landen.

Komischerweise scheint es in anderen GPU Bereichen AMD/RTG deutlich besser zu gelingen nVidia Paroli zu bieten als im PC Gaming Bereich.

gerzerk schrieb:
... Freesync Monitor besitze, hatte ich mich eigentlich bereits auf Vega gefreut, aber das Paket stimmt halt nicht, ähnlich wie die Furys. Jetzt habe ich mir eine ordentliche 1080 für 470,00 € bestellt und muss mich halt damit abfinden auf FS zu verzichten. Die 120W TDP Unterschied gehen halt mal gar nicht und die Preise passen für eine Karte mit Werkskühler ebenfalls nicht. Dann die Preise für die 64 mit Wasserkühlung für über 730,00 €, momentan gibt es eine 1080 von MSI für 550,00 € mit einer "richtigen" Wasserkühlung, wie will man dagegen anstinken?

Nur kurz als Erinnerung, direkt oder kurz nach Marktstart der GTX 1080 hat man anfangs die billigsten Kartenmodelle für 650 Euro zu kaufen bekommen (vernünftige/überdurchschnittliche über 700 Euro). So gesehen wäre meine Empfehlung aktuell erst einmal zu warten, wie sich die Preise in 2 Monaten (noch vor dem Vorweihnachtsgeschäft, also spätestens Anfang bis Mitte November, eingependelt haben.

Wer wirklich jetzt RX Vega denkt kaufen zu müssen, wird wohl - egal ob mit Referenz-Ausführungen (es sei denn man hat sehr viel Glück eine der rabattierten Erstkontingent-Referenzkarten zu bekommen, die man dann ggfs. umbauen kann) oder Custom-Ausführungen - in den sauren Apfel überzogener Händler-Early Adopter-Preise beißen müssen.

AMD behauptet ja, das sie auf die Preisbildung kaum Einfluss haben und nur die unverbindliche Preisempfehlung setzen können (wobei der preisliche Spielraum bei Händlern natürlich nicht bekannt ist, aber selbst wenn dieser klein angesetzt sein sollte, sehen aktuell die Händleraufschläge/-verdienstspannen schon sehr üppig aus).

Für mich käme eine RX Vega 56 Custom-Grafikkarte über 500 Euro auch nicht ernsthaft in Frage (zumal das Free-Sync Argument bei mir auch gar nicht sticht, da ich solch einen Monitor nicht habe und nicht vorhabe mir extra in den kommenden Jahren einen anzuschaffen, sondern erst wenn ein UHD/4K HDR Monitor mit DP1.4 und 120+Hz fällig wird, was zu akzeptablen Preisen momentan noch in den Sternen steht), selbst wenn die kleinere/sparsamere RX Vega GTX 1080 Niveau per Treiberoptimierung/Architekturnutzung erreichen sollte (wovon ich kurz - bis mittelfristig ausgehe).

450 Euro sind für mich das gesteckte obere Limit für eine vernünftige 56er Karte von XFX, Sapphire, Powercolor, MSI, Gigabyte oder HIS (aber kein Billigstmodell mit starken Limitierungen (bei Kühlung, Lautstärke, Komponenten-/Verarbeitungsqualität, oder Verbrauch)) und wenn das nicht vor oder zur Volta-Veröffentlichung passt, dann wird's wohl leider wieder eine "grüne GPU" bei mir werden und das AMD (RX Vega) Paket war dann im Endeffekt für meine Bedürfnisse nicht stimmig genug.
 
Zuletzt bearbeitet:
Hallo zusammen,

@ Chismon

Ich gebe dir nachfolgend mal das Fazit von HardTecs4u, welches den Nagel mal wieder ziemlich auf den Kopf trifft:

https://www.ht4u.net/news/32937_amd...ega_starten_etwas_enttaeuschend_in_den_markt/

Ansonsten halte ich die ganzen Spekulationen im Bezug auf irgendwelche nicht aktivierte Features Respektive irgendwelcher damit einher gehenden Performanceverbesserungen für dieselbe Masche, wie sie seinerzeit bei der RX 480 abgezogen wurde.

Ehrlich gesagt habe ich auch noch eine andere Vermutung, weshalb das ein oder andere Feature gar nicht aktiviert ist bisher, sodenn dies überhaupt existiert. Und die ist ganz einfach, daß es nämlich Absicht ist, weil sonstig nämlich der Verbrauch noch in höhere Gefilde steigen würde und die damit verbundene Abwärme, die sowieso nur mit erheblichem Aufwand zu bewältigen ist, kaum noch Abzuführen wäre aus dem Gehäuse. Ich meine, wo soll das denn noch hinführen, das Ding zieht so schon bis zu 400 Watt. Zumeist um die 300 wenigstens.

So long....
 
Teralios schrieb:
Ich glaub, du missverstehst ihn da ein wenig.

Also in Bezug auf Vega bin ich jetzt echt enttäuscht! Man könnte mich nämlich schon als ATI-Fan bezeichnen. Vor allem die AiW waren immer klasse! Aber so ein Brimborium um einen teuren Heizstrahler zu machen, ist find ich nicht ok!!!

Teralios schrieb:
Was ihn wohl stört - und mich auch - ist, dass ein paar Pappnasen immer großspurig davon sprechen, sie würden ja AMD kaufen, wenn deren Produkte "gut" wären, was im Endeffekt jedoch einfach nur eine Alibibehauptung ist und sie so oder so zu nVidia oder Intel gegriffen hätten.

Das stimmt wohl, ATI hatte nämlich oft die Nase vorn. Wohlgemerkt ATI! Allerdings hatte ich damals schon befürchtet, als AMD die übernommen hat, dass das keine gute Idee ist(und ich bin mir sicher, dass die XT1900XT, die der letzte echte Hammer zu seiner Zeit war, noch unter ATI entwickelt wurde). Ich hab mir heut mal eine Bildstrecke angesehen(leider finde ich den Link grad nicht - liefere ich noch nach!), wie oft sie eigentlich vorn waren...ATI Rage etc...trotzdem war ich erstaunt, wie oft sie eigentlich Produkte auch damals schon rebranded haben bzw. nach einer Litographieverringerung dann mit höheren MHz wieder ausliefern konnten und die Konkurrenz trotzdem geschlagen haben...Eigentlich hatten sie(ATI und AMD zusammengerechnet) nur 5 wirklich grundsätzlich unterschiedliche Chipdesigns seit 1986. Aber ich bin mir sicher NVIDIA machts auch nicht anders. P.S.: Das mit Intel versteh ich jetzt nicht ganz...die haben doch noch nie wirklich Grafik gemacht!

Teralios schrieb:
Ich hab auch so ein paar Spezis in meinem weiteren Bekanntenkreis und die Argumente sind im Endeffekt auch nur ein im Wind drehen, da sie IMMER einen Grund finden, der gegen AMD spricht. Als AMD die effizientesten GPUs hatte, war halt nVidia schneller. Als beide ungefähr gleich gut waren, war es PhysX, jetzt ist es halt die "Effizienz".

Und gerade die Effizienz ist für mich bisher der Gipfel an Unverschämtheit dieser Anti-AMD-Argumentation. Als AMD wirklich effizientere GPUs gefertigt hat war nämlich oft das Argument dann eben das besagte PhysX oder das ja die nVidia-Karten nen paar Prozent schneller sind usw.

Naja klar, die PhysX-Behauptung ist ja nicht ganz verkehrt. Dennoch könnte man, theoretisch, glaub ich, auch immer noch mit den alten Ageia-Karten ne Alternative zusammenbauen. Und ja, effizienter waren sie in der Regel immer - in der Vergangenheit. Man erinnere sich nur an die Stromfresser Vodoo und so...und auch NVIDIA...hab mir neulich doch tatsächlich mal eine alte GTX 480 bei Ebay geschossen und bekam bei den Temperaturen(und der DIE-Size) glatt Angst!!!(Ich glaube die einzige NVIDIA davor war eine 6800, falls es jemals sowas gab, so um das Jahr 2002!?, von Asus, mit Shutterbrille...ist ohne jegliches Übertakten relativ schnell abgeraucht das Ding; danach nie wieder NVIDIA!!!) Genau deswegen bin ich ja jetzt so enttäuscht. AMD hat ATI endgültig vor die Hunde gehen lassen, nur um endlich mal wieder ein konkurrenzfähiges Produkt gegen Intel setzen zu können...
 
Zuletzt bearbeitet:
kisser schrieb:
Notobooks nutzen keinen(!) DP-Standard. Es ist also Quatsch, was du da erzählst. Wie oft muss sich das eigentlich wiederholen?
Was nutzen sie denn sonst?
eDP , embedded Displayport wird in Tablets, Notebooks u.ä. genutzt und gibt es nun seit fast 10 Jahren. Wenn embedded Displayport kein Displayport Standard für interne Verbindungen ist, was ist es denn dann?

kisser schrieb:
Externe Monitore: Scaler nach DP1.2a zur Ansteuerung des Displays = Hardware.
Notebook: Nix Scaler, Protokoll = eDP != DP1.2a
Man kann nicht einfach behaupten, 2 Dinge wären gleich nur weil sie zum selben Resultat führen.
Es ist derzeit unbekannt, ob Nvidia GPUs AdaptiveSync nach DP1.2a überhaupt unterstützen können.
Adaptive Sync gab es bereits - zum Strom sparen - im eDP Standard, und dieses wurde von der VESA in DP 1.2a übernommen.

Wenn also nvidia Hardware kein Adaptive Sync könnte, könnten sie keinen eDP 1.3 vom Februar 2011, so könnten sie auch kein G-Sync auf Notebooks anbieten.
Es ist das selbe Funktionsprinzip.

Aber hey, du bist ja Lehrer und wie war das mit den Schülern und Wissen selber aneignen?
 
1-2 jahre quasselt AMD was von VEGA und dann kommt sowas ? Zum glück vor paar monaten evga 1080er sc für 440 geschossen ( gebraucht ) und quasi die gleiche leistung am start und dazu weniger stromverbrauch :D
 
Chismon schrieb:
Man hat als Kunde auch Marktmacht und leider wissen viele Kunden diese nicht zu nutzen oder sind sich nicht darüber bewusst..

Mal ehrlich: bei wievielen Produkten interessiert dich denn die Marktposition des Herstellers?
Informierst du dich vor dem Einkauf im Aldi welche Hersteller von Dosensuppen welchen Marktanteil haben und ob du den kleineren Marktteilnehmer durch den Kauf seines Produktes unterstützen sollst? ;)

Es gibt Tausende von Produkten, da interessiert dich das kein bißchen, wetten?

Und genauso geht es dem Ottonormalkunden von Computertechnik. Mein Schwiegervater hat sich letzte Woche ein Laptop gekauft. Für den ist das ein Arbeitsgerät, der weiß nicht welche Hersteller von CPU, GPU etc... es überhaupt gibt und es interessiert ihn auch nicht.

Der Staat und seine Institutionen sind bei weitem nicht perfekt, aber was besseres haben wir nicht.
 
@Chrismon

Nicht vergessen das es noch Radeon Pro und Instinct gibt.
Wo liegen wohl die Entwicklungsprioritäten?;)
Natürlich da wo es mehr Kohle gibt.
Der RX Treiber ist die letzte Baustelle, er ist wohl auch der aufwendigste.
Das gilt zum erheblichen Teil für Vega selber, AMD will ihn hauptsächlich mit Epyc in Racks sehen, verständlich.
Gibt weit mehr Kohle, und da schlägt sich das Bundle sehr gut für die kosten und verbrauch.
Vega ist in seinem wichtigsten Einsatzzweck wohl keine Fehlentwicklung.

Aber halt nicht so der Bringer in Gaming, erst recht nicht mit Holz-DX11.
In wie weit die Architektur Leistung bringt beim richtigen Support werden wir bei Wolfenstein 2 sehen...hoffe bis dahin ist der Treiber besser.
Fertig sicher nicht.:rolleyes:
 
Also ich für meinen Teil hab mir dank eBay 10% Gutschein jetzt erst mal ne gtx1080 gekauft. Da macht man für unter 500€ aktuell nix falsch denke ich. Wenn dann Vega in ein paar Monaten wieder erwarten doch mehr Leistung hat oder erheblich im Preis sinkt kann man noch immer umsteigen. Aber aktuell über 100€ mehr für 0 Mehrleistung und 100 Watt mehr Stromverbrauch macht keinen Sinn für mich.
 
Luxmanl525 schrieb:
... nachfolgend mal das Fazit von HardTecs4u, welches den Nagel mal wieder ziemlich auf den Kopf trifft: Ansonsten halte ich die ganzen Spekulationen im Bezug auf irgendwelche nicht aktivierte Features Respektive irgendwelcher damit einher gehenden Performanceverbesserungen für dieselbe Masche, wie sie seinerzeit bei der RX 480 abgezogen wurde. Ehrlich gesagt habe ich auch noch eine andere Vermutung, weshalb das ein oder andere Feature gar nicht aktiviert ist bisher, sodenn dies überhaupt existiert. Und die ist ganz einfach, daß es nämlich Absicht ist, weil sonstig nämlich der Verbrauch noch in höhere Gefilde steigen würde und die damit verbundene Abwärme, die sowieso nur mit erheblichem Aufwand zu bewältigen ist, kaum noch Abzuführen wäre aus dem Gehäuse.

Danke für den verlinkten Artikel, den ich zugegebenermaßen etwas einseitig negativ ausgelegt finde, vor allen Dingen was die Bandbreite des Speichers angeht, denn m.W. ist die Fiji mit den 512 GB/s nie an Ihre Grenzen gestoßen und bei RX Vega kommt HBCC dazu, der die Bandbreitenauslastung unterstützt und effizienter gestaltet und sich ja jetzt schon aktiviert in leicht besserer Leistung niederschlägt.

So finde ich das bspw. ungerechtfertigt negativ wertend ausgelegt - zumal man für unzureichende Speicherbandbreite keinerlei Quellen/Beweise anführt - und das lässt mich auch dann schon der Qualität/Neutralität des Artikels zweifeln (die anderen Kritikpunkte hat man wohl denen anderer Hardwareseiten angeglichen, somit keine Kunst).

Wieso AMD sich da unter Wert verkauft und das HBCC Feature bisher inaktiviert voreingestellt im Treiber lässt, ist mir auch schleierhaft, aber zusätzliche große Leistungsaufnahme wurde durch HBCC Aktivierung jedenfalls nicht festgestellt, wenn ich mich richtig erinnere.

Die Polaris Karten kannst Du in Sachen Komplexität und Architekturneuerungen auch gar nicht mit RX Vega vergleichen, da liegen Welten dazwischen was die Neuerungen/Innovationen angeht und da hatte man auch keine halbfertigen Treiber zum Marktstart, im wesentlichen auch nur Leistungs- und Effizienzgewinn basierend auf dem Shrink und Anpassung bzgl. Tessellation/gleichmäßigerer Chipauslastung.

Ich denke die beiden GPU-Halbgenerationen von AMD kann man nicht wirklich direkt vergleichen und Polaris hat das gemacht was es sollte, gegen eine GTX 1060 in der Mittelklasse vernünftig zu bestehen (die RX 470/570 ist klar das bessere/konkurrenzlose Modell, aber meistens bieten die beschnittenen Chips sowieso deutlich mehr für's Geld).

Da Du natürlich selber gerne den Verbrauch sehr hoch bewertest, ich hingegen nicht - insbesondere bei einer Oberklasse-GPU finde ich ihn überbewertet - und ich somit die grassierende Kritik bei einer RX Vega 56 aktuell bzgl. des Verbrauchs nicht nachvollziehen kann, haben wird etwas andere Bewertungskriterien/Prioritäten beim GPU Kauf.

Mir reicht die etwas geringere Effizienz einer RX Vega 56 gegenüber einer GTX 1070 oder auch (wenn gelegentlich nötig) übertaktet gegenüber einer GTX 1080, da ich diese jetzt schon mit halbfertigem Treiber in allen anderen Bereichen (selbst im nVidia optimierten Rise of the Tomb Raider noch vorne liegend) einer GTX 1070 klar überlegen sehe und in Zukunft könnte das auch der GTX 1080 blühen (die beeindruckende Leistung in Battlefield 1 ein erster Vorbote sein), je nachdem wieviel Potential da noch brach liegt.

Gut, bei den Preisen muss man abwarten bis die Unsitte des Early-Adopter-Händler-Aufschlag bei den 56er Karten auch der Vergangenheit angehören wird, was ein Weilchen dauern dürfte.

Was die RX Vega 64 angeht, stimme ich mit Dir überein und ist mir persönlich da der Verbrauch auch schon zu hoch (selbst wenn es da noch Potential zur Effizienzsteigerung geben sollte und das untervolten eine Option darstellt, ich mir dann aber gleich eine RX Nano anschaffen könnte), aber gut, es werden ja gerne alle RX Vega Karten (als "Fail") über einen Kamm geschoren und ich sehe das eben differenzierter/nicht so.

Bevor ich nicht erste Tests von mehreren (nicht nur den vermutlich maßlos überteuerten ASUS) Custom-Modellen gelesen habe und der neuen/komplett überholten Architektur und Spielentwicklungen keinen fairen Zeitraum einräume, um sich entfalten zu können, lasse ich mich jedenfalls noch nicht zu einen vernichtenden (evt. vorschnellem) Urteil zur RX Vega Halbgeneration von AMD/RTG hinreißen.

Spätestens im Frühjahr 2018 sollte dann Preis-Leistung bei einigen RX Vega Modellen überzeugen können (wobei ich da persönlich auch auf bisher verstecktes Potential der 56er Modelle hoffe) und dann wird bei mir wohl so langsam entschieden werden, ob es nach langer Zeit wieder rot oder doch leider grün wird, bei Gleichstand tendiere ich klar zu rot, wegen der Marktentwicklung (überwältigenden Marktführerschaft nVidias im PC Bereich aktiv auszugleichen) und im eigenen Interesse als Kunde (Gefahr eines Quasi-Monopols vorzubeugen).

Im Endeffekt ist die Architektur für die Langlebigkeit einer GPU doch weitaus entscheidender, wenn man für 4+ Jahre kauft (für kürzere Zeiträume bin ich auch nicht zu haben, da können sich nVidia und AMD auf den Kopf stellen und die Preistreiberei bei den GPUs (über 500 Euro für (untere) Oberklasse :rolleyes:) in den letzten Jahren und der verhältnismäßig geringe Leistungszuwachs geben mir da - wie ich finde - auch Recht) als jetzt die Balkenlänge, ob das nun im Hinblick auf den Speicher geschieht (klarer Vorteil HBCC Technik aktuell) oder auch im Hinblick auf vollständige DX12.1 Unterstützung, die Pascal leider noch/zukünftig nicht bietet, neben RX Vega dann Volta aber vermutlich schon.

Alle Oberklasse-GPUs eignen sich mittelfristig nur für WQHD (Downsampling) ohne größere Einschränkungen und da kommt es bei mir nicht auf 5% weniger fps hier oder da an, sondern ob man in der gleichen Leistungsklasse mitspielt und es für die Spiele ausreicht für ein den eigenen Ansprüchen genügendes Spielerlebnis, das wird hier oft vergessen wenn es um teils lächerliche/haarsträubende fps Vorsprünge in Spielen geht, egal ob bei GPUs oder CPUs, die m.E. total überbewertet werden und realitätsfern sind.

Wie bei den Blindtests würden mit Sicherheit die meisten hier absolut keinen signifikanten Unterschied zwischen AMD oder nVidia Oberklasse-GPUs erkennen können, insbesondere, wenn Free- und G-Sync angewendet werden, das sollte man vielleicht auch einmal in der Diskussion hier berücksichtigen, denn das wäre ein wirklich subjektiver/neutraler Diskussions-Ansatz ... vieles sollte da überdacht und in vernünftige Relation zueinander gesetzt werden.
 
Zuletzt bearbeitet:
Das nimmt ja fast religiöse Züge an. Oh Wunderteiber komme und erhelle die Ungläubigen mit der Leistung der noch abgeschalteten Funktionen. Ahmen!

Fiji ist zudem ordentlich bandbreitenlimitiert. Der Durchsatz erreicht zudem bei weitem nicht die theoretischen Werte. Vega hat da das gleiche Problem.

PS:

Zum Blindtest:
Gegen die TI sieht es bei 30% und mehr Leistung jeder. Da muss nur am unteren Ende der Sync-Range getestet werden. Am oberen Ende, wie vom AMD Marketing, ist es schlicht verarsche.

Ein Test gegen GM104 wiederum zeigt nur wie abgeschlagen AMD ist. Mit 318mm² verdient sich NV dumm und dämlich. Im schlimmsten Fall lässt sich NV eben zu einer Preissenkung herab. "Absolut keinen signifikanten Unterschied" ist ja gerade AMDs Problem... bei deutlich höheren Produktionskosten und Verbrauch. Vega hat ja nicht mal beim angepeilten UVP ein (deutlich) besseres P/L.
 
Zuletzt bearbeitet:
Zurück
Oben