Test Radeon RX Vega 56 Nitro+ im Test: Sapphires 1,6-kg-Grafikkarte überzeugt auf ganzer Linie

Alphanerd schrieb:
Mir gefällt das Understatement im Namen. Ein 1,6 Kg Klopper mit 3*8 Pin heißt nur Nitro +. Man Stelle sich diese Karte bei ZOTAC vor. Rx56 enhanced PP FTW WTF Edition of Godlike Gaming wäre wohl das kürzeste ;)

Zotac Mini
Zotac Amp
Zotac Extreme

Wo ist das Problem? ^^

Die Sapphire ist wie eigentlich immer top (außer rx 480 nitro!).

Der Preis ist es aber auf keinen Fall.
 
Gschwenni schrieb:
Um so kleiner das Angebot um so höher die Preise und es gibt nebenher auch nua eine kleine Gruppe die den Preis zahlt soweit sogut eine sinvolle Strategie.

Ja, aber auch nur wenn die entsprechende Nachfrage besteht. Sonst sinds teure Ladenhüter -- aber das sind sie nicht. Der Preis wird also gezahlt, genau wie ich gesagt habe. Dass es nur wenige Leute gibt, die den Preis zahlen ist unerheblich und nebenbei auch eine steile These, hat hier also nichts zu suchen.


Gschwenni schrieb:
Es gibt auch Predators die nua 125 Euro mehr kosten als ein AMD Gegenstück.

Meine Aussage war "Wenn der entsprechende Bildschirm 300€ billiger ist, dann ist die Preis/Leistung bei Vega 56 besser als bei GTX 1070", nicht dass jeder G-Sync-Bildschirm 300€ mehr kostet als ein vergleichbarer FreeSync-Bildschirm. Du hast meine Aussage schlicht verdreht. Im Einzelfall kann man einfach die Differenz anschauen und vergleichen, es gibt auf jeden Fall Bildschirme, wo das FreeSync-Modell 200€ günstiger ist als das G-Sync Modell, und in dem Fall langt es ja schon.

Gschwenni schrieb:
Ich hab von Custom gegen Custom gesprochen du liest nicht richtig, und da sind 1070er eben bis zu 16% schneller als die Stock Karte.
Vega 56 von Sapphire 6% vor der Referenz.;)

Ich lese sehrwohl richtig, eine übertaktete GTX 1070 kommt auf GTX 1080FE-Niveau, eine übertaktete RX Vega 56 auch. Sogar meine tut das, und braucht dabei nicht mehr als die Referenz. Dass die Sapphire 6% vor der Referenz liegt kann daran liegen, dass Vega-spezifische Optimierungen mit 17.12.1 eventuell noch nicht greifen, was AMD als Fehler angibt.

Das Review von HardwareUnboxed zum Launch hat die RX Vega 56 Stock ein paar Prozent vor der GTX 1070 FE gesehen, das sind definitiv die ausführlichsten Benchmarks (30+ Spiele) im Netz. Dann reißen einzelne Sonderfälle auch nicht den Schnitt, den Du ja hier so hochhältst, raus.

Gschwenni schrieb:
Die 1070 Gamerock ist 120 Euro günstiger und sogar einen Ticken schnella da bessa übertaktet [14%].

Dann musst Du aber auch die Vega richtig übertakten.

Gschwenni schrieb:
Diese Cherries immer. Macht doch mal den Schnitt und dann sagt auch keiner was.

Das hat nichts mit Cherries zu tun, kaum einer spielt ALLE AAA-Spiele, die es im Moment gibt, sodass der Schnitt die entscheidende Metrik wäre -- für einzelne AAA-Spiele ist der nichts sagend. Ich habe auch nicht behauptet, dass die Preis-Leistung in allen Fällen besser ist, sondern dass es Fälle gibt, in denen sie besser ist.

Gschwenni schrieb:
Hab ich niemanden glesen und mit ner Titan V hat auch keiner verglichen. Menno

Kennst Du das Aquarium? Nein? Such es mal. Da kommen Beiträge hin, die mit dem Thema nichts zu tun haben oder beleidigend sind. Abgesehen davon: Du hast niemanden gelesen? Schön schön, wie macht man das denn überhaupt? Lies Du lieber mal richtig und verdreh nicht ständig meine Aussagen.
Ergänzung ()

Gschwenni schrieb:
Da schmeißt du bissl was durcheinander. Nur die Founders kostete soviel, die Customs kamen nach 2 Wochen danach für 100 Dollar weniger und NV senkte den Preis der 1080 danach nochmals.
Vega ist nun schon ewig viel zu teuer und auch die RX580 ist teuer als ne 1060.
Und Nvidia hat die Preise gar ned erhöht höchstens 50 Dollar das ist human.

Die Customs waren aber lange Zeit nicht verfügbar, beides wurde lange über UVP verkauft. Die Referenzkarten der RX Vega wurden deutlich über der offiziellen UVP verkauft, und bei Sapphire ist diese jetzt eben besonders hoch. Schau Dich nach Gebrauchtpreisen von Vega 56 auf eBay um, dann weißt Du warum die UVP so hoch angesetzt ist.


Gschwenni schrieb:
Hörst du dia eigentlich selbst zu.
Dann kann es ja erst recht kein funktionierendes Modell sein, wenn Nvidia die Karten für Lau naushaut.

Wie alt bist Du? Erinnerst Du Dich an die HD 3000/4000/5000/6000 Serien und an jüngere Karten wie die R9 290(X)? Bei den HD4000/5000 Karten hatte AMD mit Abstand die bessere Effizienz (Stromverbrauch), die niedrigeren Preise und auch die bessere Technik, hat aber kaum angemessene Marktanteile bekommen. nVidias Thermi war aus technischer Sicht eine Katastrophe und nur beim Tessellieren der AMD-Konkurrenz überlegen. Viel zu groß, viel zu stromhungrig. Damals trotzdem nicht weniger gekauft worden als die AMD-Konkurrenz. In den anderen Fällen waren die Karten in keinem Aspekt klar unterlegen, dafür aber zukunftssicherer wie man in Tests sehen kann.

nVidia "haut" keine Karten "für lau naus", nVidia verkauft seit einem Jahr Mainstream-Chips (GP104 in allen Varianten) zu High-End-Preisen. GP104 ist durch die Größe als Mainstream-Chip klassifiziert (314mm^2) und dadurch zu den Preisen sehr profitabel zu verkaufen.

Gschwenni schrieb:
Ja aber das sind nua Fans, keine rationalen Entscheider. Die Sapphire Vega ist halt ebend nur ein Konkurrent für die 1070er Customs, ned mal für die 1070 Ti Customs.

Was für ein absoluter Blödsinn! Hast Du die Weisheit gepachtet, dass Du beurteilen kannst, was sinnvoll ist und was nicht? Kannst Du Dir vorstellen, dass es Leute gibt die tatsächlich nur wenige Spiele, die dafür aber viel, spielen? Ich habe nicht behauptet, dass das alle Spieler so machen, aber diejenigen, die das machen, müssen doch deshalb keine Fanboys sein? Und wenn sojemand jetzt auch noch einen FreeSync-Schirm hat... Aber ich warts ab, das verdrehst Du sicher auch wieder.

Im Schnitt ist die Vega 56 einen Tick schneller als eine GTX 1070 (beide Referenz) und übertaktete Referenz-Vega gegen GTX 1070 Custom geht leistungsmäßig auch nicht unbedingt zu gunsten der GTX 1070 Custom aus, sonst hätte nVidia keine GTX 1070Ti eingeführt.

Vielleicht mal interessehalber: Wie sieht denn Dein System aus und welche Spiele spielst Du damit auf welchem Bildschirm?
 
Zuletzt bearbeitet:
Wolfsrabe schrieb:
Meine Güte, wieviele Leute eine UVP mit dem Marktpreis der konkurrierenden Karte vergleichen und nicht verstehen, daß das nicht geht... :freak:

Stimmt... wenn man sich so die Unterschiede zwischen Straßenpreis und UVP bei Vega anschaut kann man wahrscheinlich von Glück reden wenn die Sapphire nicht ins vierstellige rückt...
 
Rage schrieb:
Meine Aussage war "Wenn der entsprechende Bildschirm 300€ billiger ist, dann ist die Preis/Leistung bei Vega 56 besser als bei GTX 1070", nicht dass jeder G-Sync-Bildschirm 300€ mehr kostet als ein vergleichbarer FreeSync-Bildschirm. Du hast meine Aussage schlicht verdreht.

Ja ich hab das wenn überlesen, zur Not kauft man einen gebrauchten G-sync Monitor oder nimmt nen günstigeren.
Der Vorteil beim Monitor steht klar auf der Radeon Seite aber 300 is doch bissl hochgegriffen.

Ich lese sehrwohl richtig, eine übertaktete GTX 1070 kommt auf GTX 1080FE-Niveau, eine übertaktete RX Vega 56 auch.

Ich meinte Customkarten nicht selber Übertakten.

Dass die Sapphire 6% vor der Referenz liegt kann daran liegen, dass Vega-spezifische Optimierungen mit 17.12.1 eventuell noch nicht greifen, was AMD als Fehler angibt.

Das glaub ich ned so ganz denn die Taktraten dürften hübsch bei 6% mehr liegen.

Dann musst Du aber auch die Vega richtig übertakten.

Custom vs Custom kein OC ebend so wie die Karten auf den Markt kommen.

Rage schrieb:
J
Das hat nichts mit Cherries zu tun

Wenn i hergeh und nur ein paar Spiele aufzähle wo Vega schnell is, dann ist das Cherry-Picking.
Das geht andersrum genauso, also lass doch stecken.

Ich beobachte einfach nur dass Preise bei Nvidia kritisiert und bei AMD verteidigt werden.

nVidias Thermi war aus technischer Sicht eine Katastrophe und nur beim Tessellieren der AMD-Konkurrenz überlegen. Viel zu groß, viel zu stromhungrig. Damals trotzdem nicht weniger gekauft worden als die AMD-Konkurrenz.

Stromhungrig und heiß aba dafür 20% schneller in Directx11 ned nur bei Tesselation.;)

Rage schrieb:
J
Was für ein absoluter Blödsinn! Hast Du die Weisheit gepachtet, dass Du beurteilen kannst, was sinnvoll ist und was nicht?

Ich weiß goar ned wieso man sich ausmalt dass AMD Kunden nur Spiele spielen in denen AMD schnell ist, aba du machst des.
Ist halt nur Null Logik enthalten.
Verglichn wird Performance/Preis/Leistungsaufnahme und so ist es eben da muss man sich ned aufregen. Die Sapphire Vega 56 schaffts ebend nur auf 1070 Custom Niveau da sind 1070 Ti oder 1080 Custom halt schneller.

I
ch habe nicht behauptet, dass das alle Spieler so machen, aber diejenigen, die das machen, müssen doch deshalb keine Fanboys sein?

Bei den vielen Spielen die es gibt dürfte es sehr schwer sein nur das zu spielen was auf AMD bessa als auf Nvidia läuft.
Sowas interessiert keinen. Es wird das gespielt was angesagt ist.
 
Zuletzt bearbeitet:
Gschwenni schrieb:
Ja ich hab das wenn überlesen, zur Not kauft man einen gebrauchten G-sync Monitor oder nimmt nen günstigeren.
Der Vorteil beim Monitor steht klar auf der Radeon Seite aber 300 is doch bissl hochgegriffen.

Mit Gebrauchtteilen kann hier nicht argumentiert werden, weil ja auch die Grafikkarten nicht gebraucht gekauft werden. Mit günstiger kann hier nur argumentiert werden, wenn der entsprechende Bildschirm technisch nicht schlechter ist.

Ob 300€ hochgegriffen ist oder nicht ist vollkommen unerheblich für die Aussage, auch die benötigten 200€ findet man immer wieder.

Gschwenni schrieb:
Ich meinte Customkarten nicht selber Übertakten.

Der Vergleich ist im Moment nicht zu ziehen, es muss also stattdessen solange das nicht ausgeräumt ist über übertaktete Vega-Referenzkarten geredet werden.

Gschwenni schrieb:
Das glaub ich ned so ganz denn die Taktraten dürften hübsch bei 6% mehr liegen.

Der höhere Takt bringt kaum Mehrleistung, wenn Du Dir die Übertaktungsergebnisse aus diesem Test anschaust kommt Mehrleistung aus höherem HBM-Takt. Die Frequenz der GPU ist also kein Indikator dafür, was Du behaupten willst.

Gschwenni schrieb:
Custom vs Custom kein OC ebend so wie die Karten auf den Markt kommen.

Siehe oben.

Gschwenni schrieb:
Wenn i hergeh und nur ein paar Spiele aufzähle wo Vega schnell is, dann ist das Cherry-Picking.
Das geht andersrum genauso, also lass doch stecken.

Und warum? Das ist ein legitimes Anwendungsszenario, in dem die Preis/Leistung der entsprechenden AMD- oder nVidia-Karte besser ist als die des Konkurrenzprodukts. Man kann solche Spiele auch schon spielen wollen, bevor man die entsprechende Hardware besitzt, und für jemanden der genau das will, ist der mittlere Abstand einer GTX 1070 von einer Vega 56 vollkommen wurstegal, egal in welche Richtung.

Gschwenni schrieb:
Ich beobachte einfach nur dass Preise bei Nvidia kritisiert und bei AMD verteidigt werden.

Unterschied hier ist: Die UVP in Rede kommt von Sapphire und nicht von AMD, bei den Founders Editionen kommt der Preis von nVidia. Äpfel mit Birnen verglichen.

Die Preise von nVidia können nicht kritisiert werden, die wären auch dumm wenn sie das Zeug für den Preis verkaufen könnten und nicht täten. Nur machen die mit ihren Verkäufen den Megagewinn, einmal in die Quartalszahlen geschaut und man weiß, dass der größte Teil der nVidia-Produkte im Markt für dediziierte Desktoplösungen abgesetzt werden und dass von dort auch ein sehr beträchtlicher Gewinn reinkommt, es kann also nicht von günstigen Preisen, oder "Karten für lau naushauen" geredet werden. Diese Aussagen können deshalb sehr wohl kritisiert werden und werden es zum Glück auch.

Gschwenni schrieb:
Stromhungrig und heiß aba dafür 20% schneller in Directx11 ned nur bei Tesselation.;)

Ja, bei exorbitant höherem Stromverbrauch, sogar noch höher als der einer HD 5970, die eine GTX 480 für gewöhnlich unangespitzt in den Boden gestampft hat. Schön bei der Wahrheit bleiben. Dass nVidia in der GTX400er Serie keine Dual-GPU-Lösung gebaut hat, ist nicht AMDs Problem (bzw. damals ATI) gewesen.

Gschwenni schrieb:
Ich weiß goar ned wieso man sich ausmalt dass AMD Kunden nur Spiele spielen in denen AMD schnell ist, aba du machst des.
Ist halt nur Null Logik enthalten.
Verglichn wird Performance/Preis/Leistungsaufnahme und so ist es eben da muss man sich ned aufregen.

Bist Du nicht in der Lage zu begreifen, dass ich nicht behaupte, eine RX Vega 56 ist im Allgemeinen besser als eine GTX 1070? Ich behaupte aber, dass eine GTX 1070 im Allgemeinen nicht unbedingt besser als eine RX Vega 56 ist, weil es Anwendungsszenarien gibt, in denen eine RX Vega 56 jede GTX 1070 in die Tasche steckt, und ob es Dir gefällt oder nicht: das ist der Fall. Für ein entsprechendes Anwendungsszenario kann eine RX Vega 56 einer GTX 1070 durchaus überlegen sein, und Beispiele dafür habe ich auch gegeben.

Gschwenni schrieb:
Bei den vielen Spielen die es gibt dürfte es sehr schwer sein nur das zu spielen was auf AMD bessa als auf Nvidia läuft.
Sowas interessiert keinen. Es wird das gespielt was angesagt ist.

Du verdrehst mal wieder meine Aussagen, sehr schön. Der Mittelwert interessiert im Einzelfall keinen, das ist der Punkt. "Es wird gespielt was angesagt ist" -- Nein! Es wird gespielt, was man interessant findet, und danach kann man sehr wohl auch beim Grafikkartenkauf entscheiden!
 
GTX1080 ist im durchschnitt oftmals klar schneller.

http://www.3dcenter.org/artikel/lau...ch-analyse-nvidia-geforce-gtx-1070-ti-seite-2

Die GTX1080 macht alles besser als das "konkurrenzprodukt"

Performance, Lautstärke, Stromverbrauch und dann braucht man noch ein 3x8 Pin Netzteil für die AKrte hier, warum nicht gleich 4x8 ?:rolleyes: Sry, indiskutabel.
Wieviele user haben so ein Netzteil ? Ich denke nicht gerade viele.
AMD beherrscht nicht einmal DX11 richtig und mit OPENGL titeln gibt es auch noch massive probleme
http://www.pcgameshardware.de/Nvidi...ts/Geforce-GTX-1080-Test-Review-1195464/2/#a1

Volta ist die Zukunft, wie viele Spiele wurden fürs nächste Jahr angekündigt ?
Was ist mit der Vergangenheit ?
VEGA RX64 ist nichteinmal in der Lage 60FPS in Mafia 3 oder AC Origins zu halten.
Es ist doch den kunden egal warum und weshalb AMD eine immense DX11 schwäche hat. Er sieht die Balken und kauft das bessere produkt und das ist in dem fall ganz klar GTX1080

In 95% aller Spiele zieht RX64 klar den kürzeren gegen GTX1080.
Doom ist nicht das neue METRO, grafisch eher durchschnitt und läuft auf jeder krücke mit stabilen 60FPS.

PS; Was zeigt den Shadow of Mordor ? Auch in diesem Spiel ist GTX1080 schneller : http://www.pcgameshardware.de/Mitte...erde-Schatten-des-Krieges-Benchmarks-1240756/

Es sind nicht einmal ein handvoll Spiele wo RX64 schneller rendert als GTX1080.
Nichts spricht für die Karte.
 
Zuletzt bearbeitet:
Die 1080 ist aber nicht maßgeblich schneller unterwegs als Vega 64. Die sind beide mehr oder weniger auf einem Niveau. Mal liegt die 1080 leicht vorne, mal die 64. Bei dem Preis der Nitro 56 ist allerdings die 1080 definitiv vorzuziehen, wenn man nicht vehement darauf besteht FreeSync nutzen zu wollen.
 
@sundersun: Ich weiß nicht an wen Du schreibst, deshalb äußer ich mich einfach mal. Ich habe davor schon lang und breit erklärt, warum es Fälle gibt, in denen der Durchschnitt nicht entscheidend ist und in diesen Fällen kann auch eine Vega 64 die bessere der beiden Karten sein. Der Durchschnitt interessiert im Einzelfall nicht.

Die Sapphire-Karte läuft auch mit 2x8Pin, das ist also auch kein Problem. Netzteile mit 2x 6+2-Steckern sind keine Seltenheit, sowas kriegt man auch bei 450W Netzteilen mittlerweile. Übertaktungen ist dann natürlich eine gewisse Grenze gesetzt.

Dass AMD-Karten in DX11 und OpenGL oft Auslastungsschwierigkeiten haben, ist nichts neues, das war auch schon bei Hawaii-Karten so.

Mafia 3 ist fürchterlich optimiert, also kein Maßstab für Leistungsfähigkeit. AC Origins ist ein Ubisoft-Spiel, in denen schneiden AMD-Karten oft nicht so toll ab.

In Shadow of War ist nach PCGH eine Custom GTX 1080 schneller als eine Referenz Vega 64 und als eine Vega 64 Liquid Cooled, in Referenz gegen Referenz geht das Leistungsduell laut ComputerBase leicht zugunsten der Vega 64 aus.

"Klar"... das meiste ist innerhalb von Messungenauigkeiten wenn man Äpfel mit Äpfeln vergleicht, also höchstens bei der Effizienz ein Nachteil auf Seiten der Vega-Karte.

Es gibt mehr als 5 Spiele, in denen eine Vega 64 schneller ist als eine GTX 1080, mindestens nämlich Star Wars Battlefront 1,2, Battlefield 1, Doom, Wolfenstein 2, Dirt 4.
 
In BF 2 nur, wenn man keine Custommodelle nimmt. Und die Vega 56 ist immer noch langsamer. Und genau über die Karte reden wir. Im Worst Case bei Wolfenstein 2 ist übrigens die 1080 schneller.
 
Rage schrieb:
Mit Gebrauchtteilen kann hier nicht argumentiert werden, weil ja auch die Grafikkarten nicht gebraucht gekauft werden. Mit günstiger kann hier nur argumentiert werden, wenn der entsprechende Bildschirm technisch nicht schlechter ist.

Finde mal einen Freesyncmonitor mit den Hertz Raten eines G-sync, also 165 bis 200 Hertz, da wirds schwer und auch auf Seiten AMD teuer. G-sync Monitore beherrschen oft Overclocking, Adaptive Sync oda Freesync ned.

Der Vergleich ist im Moment nicht zu ziehen, es muss also stattdessen solange das nicht ausgeräumt ist über übertaktete Vega-Referenzkarten geredet werden.

Kann man schon ziehen. Aus 10% mehr Takt macht die Custom 6 bis 7% mehr Leistung draus.
Ohne übertakteten HBM sieht das legit aus und das ist ebend weniger als bei GTX 1070 Customs, die bringen bis zu 14% mehr Performance nicht nur 6.

Der höhere Takt bringt kaum Mehrleistung, wenn Du Dir die Übertaktungsergebnisse aus diesem Test anschaust kommt Mehrleistung aus höherem HBM-Takt.

Nua hat Sapphire den HBM nicht übertaktet und deshalb isst halt nicht so doll.

Und warum? Das ist ein legitimes Anwendungsszenario, in dem die Preis/Leistung der entsprechenden AMD- oder nVidia-Karte besser ist als die des Konkurrenzprodukts.

Ich sag mal so es ist Wunschdenken, mehr ist es nicht.
Menschen kaufen Spiele nach Interessen und nicht danach welchen Grafikprozessor sie haben, das ist aber auch logisch da muss ma ned drüber reden.

a, bei exorbitant höherem Stromverbrauch, sogar noch höher als der einer HD 5970, die eine GTX 480 für gewöhnlich unangespitzt in den Boden gestampft hat. Schön bei der Wahrheit bleiben.

Stromverbrauch war in der selben Kategorie wie jetz bei Vega. 150 Watt mehr als ne 1080/5870.
Und 20% schneller als eine 5870, bleibe doch bei der Wahrheit, weiß ned was du hast und ne 5970 is ne Dual also Mickroruckeln.

Ich behaupte aber, dass eine GTX 1070 im Allgemeinen nicht unbedingt besser als eine RX Vega 56 ist, weil es Anwendungsszenarien gibt, in denen eine RX Vega 56 jede GTX 1070 in die Tasche steckt, und ob es Dir gefällt oder nicht:

Gibts andersherum auch, was genau is da nun dein Argument?

Du verdrehst mal wieder meine Aussagen, sehr schön. Der Mittelwert interessiert im Einzelfall keinen, das ist der Punkt.

Na das stimmt wohl - jeder spielt verschiedenes, den mittelwert kannma sich also selber aussuchen von den Spielen die man spielt.;)
Aber komm mir ned mit Usern die nur Spiele spielen wo AMD gut abschneidet, sowas gibts einfach ned denn dann wär meine Auswahl recht begrenzt.
Und es wär langsam recht wenn ma die Diskussion langsam beenden es kimmt eh nix raus.:n8:

Edit:

Rage schrieb:
@sundersun: Ich weiß nicht an wen Du schreibst, deshalb äußer ich mich einfach mal. Ich habe davor schon lang und breit erklärt, warum es Fälle gibt, in denen der Durchschnitt nicht entscheidend ist und in diesen Fällen kann auch eine Vega 64 die bessere der beiden Karten sein.

Dann müssn genau die Spiele gespielt werden die AMD gut liegen und das macht keiner.
Überleg doch mal ein bisserl.
 
Zuletzt bearbeitet:
"amd" spiele für vega als benchmark ins gespräch bringen ist cherry picking.
"nvidia" spiele für 1080 als benchmark ins gespräch bringen ist der durchschnitt.

mafia ist ein bugfest und assassins creed glänzt auch nicht gerade mit einer sauberen technischen umsetzung - das soll maßstab sein?
aber doom, das so gut optimiert ist, dass es von allen spielen in letzter zeit die beste grafik/performance ratio hat und amd und nvidia gleich gut performen, ist nicht geeignet?

nur weil ein spiel viel performance frisst, heißt es nicht, dass das spiel die leistung "braucht", sondern dass es in 90% der fälle einfach schlecht optimiert ist. der marktführer mit 80% marktanteilen, etwas vitamin b und einem speziell auf dx11 ausgerichteten software scheduler kommt hier natürlich besser weg.

es gibt aber genug spiele, die auf vega sehr gut laufen - offensichtlich liegts nicht an vega - sondern am spiel, sonst könnte vega in den positivbeispielen nicht so gut performen.

und ich kann dir jetzt schon versprechen, dass das neue metro auf radeon karten mal wieder unterirdisch laufen wird - so wie die anderen metro teile auch. ob ein spiel gut auf radeons läuft oder nicht hängt maßgeblich vom beteiligten entwickler und der engine ab.

blizzard, ubisoft, epic games, 4a games, bethesda (alt), crytek -> pro nvidia
dice, valve, rebellion, bethesda/id neu, respawn -> neutral/pro amd

um mal ein paar beispiele zu nennen.

wer entscheidet denn jetzt, welche spiele mehr gewicht haben? 2/3 vom CB benchmark sind pro-nvidia spiele. darauf stützt sich doch erst das gebashe. man könnte den parkour auch so anpassen, dass radeonkarten 10-15% besser dastehen, ohne "nischenspiele" dafür heranziehen zu müssen.

wer meint anno 2205, dishonored 2 und shadow warrior 2, die im jahre 2017 vielleicht auf 13 aktive spieler kommen, seien relevanter als die "cherry picked amd benchmarks" sollte seinen kompass mal neu ausrichten.

OiOlli schrieb:
Im Worst Case bei Wolfenstein 2 ist übrigens die 1080 schneller.

das "worst case" szenario ist nachweislich ein grafikfehler. wieviel wert man den zahlen beimisst kommt wohl aufs lager an. als nvidia fan sind die zahlen natürlich belastbar. jeder andere wird feststellen, dass eine 180° wende im performanceabbild nicht so ganz stimmig ist und die zahlen für die tonne sind.
 
Zuletzt bearbeitet:
duskstalker schrieb:
"amd" spiele für vega als benchmark ins gespräch bringen ist cherry picking.
"nvidia" spiele für 1080 als benchmark ins gespräch bringen ist der durchschnitt.

Er bringt ja den Link, da ist die 1080 7% in Full HD im Schnitt schnella.
In 4K noch 3%.

mafia ist ein bugfest und assassins creed glänzt auch nicht gerade mit einer sauberen technischen umsetzung - das soll maßstab sein?
aber doom, das so gut optimiert ist, dass es von allen spielen in letzter zeit die beste grafik/performance ratio hat

Doom ist grafisch gegen Assassins Creed Origins ned so der Hammer und als Maßstab würd ich jetz eher Directx11 sehn.
Vulkan und das 12er is zu wenig verbreitet.

etwas vitamin b und einem speziell auf dx11 ausgerichteten software scheduler kommt hier natürlich besser weg.

Müsst halt AMD endlich auch mal was tun.

offensichtlich liegts nicht an vega - sondern am spiel, sonst könnte vega in den positivbeispielen nicht so gut performen.

Des schreit nach einem Nachweis, kannst du den bringen?

wer meint anno 2205, dishonored 2 und shadow warrior 2, die im jahre 2017 vielleicht auf 13 aktive spieler kommen, seien relevanter als die "cherry picked amd benchmarks" sollte seinen kompass mal neu ausrichten.

Ob Doom noch so hohe Spielerzahlen hat?
 
Es soll doch tatsächlich auch noch andere Tech Seiten geben, bei denen die Ergebnisse in etwa gleich sind und die nicht die gleichen Spiele benchen wie CB, letztendlich ist nur ein minimaler Unterschied in den Leistungen Vega56/64 vs. 1070/80, der Umstand das Vega so spät und nur in geringen Stückzahlen daher kommt und nur einen Gleichstand schafft und dabei teurerer ist, macht die Karte in meinen Augen unattraktiv, Stromverbrauch würde mich persönlich nicht stören (die 980Ti zieht auch viel Strom). Ja, die 1070/80 waren Anfangs auch zu teuer, aber da hatte AMD leider nichts am Start um davon zu profitieren, jetzt mit der RX Vega kommt man halt zu spät, da die Pascal Generation jetzt einigermaßen zu vernünftigen preisen gibt (1080Ti/Xp ausgenommen) und dazu noch Volta/Ampere vor der Tür steht.

Die Geschichte das die Minner alle Vegas quasi von der Fabrik weg aufkaufen, glaube ich persönlich nicht, meine Vermutung geht einfach in die Richtung Fertigungsprobleme, AMD würde doch nicht ohne Not ihre eigenen Boardpartner so vor den Kopf stoßen, wie sie es ja gemacht haben....
 
was juckt die grafik, wenn das spiel nur wie grütze läuft?

crysis ist das beste beispiel, das läuft nichtmal mit heutiger hardware anständig.

außerdem immer schön weiter dx11 benchen, auf keinen fall vulkan. man könnte ja sonst ausversehen "fortschritt" machen. BUUUH! Dx11 masterrace.

amd tut was, und zwar vulkan anschieben. davon hat die ganze branche mehr als weiteres dx11 gegimpe. ist zwar schade, dass die radeon performance in dx11 titeln so schwankt - aber das ist mit nvidia nach vorne gerichtet genau das selbe - unterschiedliche strategien.

ich brauch das nicht nachweisen - 1. ist meine arbeit sowieso voll fürn eimer, weil dus nicht verstehen willst und nur dagegenredest und daher eigentlich jede art der konversation komplett verschwendet ist und 2. das relativ offensichtlich ist.

wieso sonst glaubst du sind die radeon karten in nvidia spielen alle nur 20% von schwächste bis stärkste karte auseinander und in "cherrypicked" spielen in so einem abstand zueinander, wie man ihn erwarten könnte? glaubst du ernsthaft es ist normal, dass ne 8tflop fury gegen ne 1060 verliert und 3% vor einer rx580 ist?

nein natürlich nicht - fury x (wqhd) sollte in der regel etwa 25% schneller sein als eine 480 - und daher etwa 20% schneller als eine rx580. und vega 64 sollte mindestens 30% vor fury sein.

was würdest du sagen, wenn gtx 1060 und gtx 980ti und gtx 1070 alle gleich viel fps ausspucken würden? ziemlich schlecht für die 980ti und 1070, oder? sind dann spiele, in denen die 980ti und 1070 schneller als die 1060 sind, cherry picked?

und genau das selbe ist auch bei radeon. wenn rx580, fury und vega 56 gleich schnell sind, stimmt was nicht.

und dann würde ich noch gerne wissen, was du glaubst, woher auf einmal die performance in den "cherry picked" spielen kommt, wenn vega doch "im schnitt" 20% langsamer ist? luft? göttliche fügung? der nikolaus? oder doch eher brachliegende performance, die nun endlich mal abgerufen / bzw sinnvoll genutzt wird?

Blueline56 schrieb:
Die Geschichte das die Minner alle Vegas quasi von der Fabrik weg aufkaufen, glaube ich persönlich nicht, meine Vermutung geht einfach in die Richtung Fertigungsprobleme, AMD würde doch nicht ohne Not ihre eigenen Boardpartner so vor den Kopf stoßen, wie sie es ja gemacht haben....

dann glaubs halt nicht. aber jetzt wo dus sagst find ichs auch durchaus realistisch, dass amd zusammen mit global foundry und drei (!!!) firmen fürs package zusammenfügen in zwei monaten gerade mal 40 vega packages für powercolor "deutschland" produzieren kann. nicht.

apple bekommt dann die vollständige lieferung an vega karten 2037.

glaubst du bei powercolor schließen die für ~400 karten für europa überhaupt die halle auf? das ist deren tagesproduktion.

OiOlli schrieb:
Liegt aber natürlich nur an der Unfähigkeit der Entwickler oder der bösen Konkurrenz.

klar, und wenn der bauer nicht schwimmen kann, ist die badehose schuld. wer außer den entwicklern entwickelt denn das spiel? nvidia stellt hier zwar mehr personal zur verfügung wie amd, das "beratend" zur seite steht - aber das hindert die entwickler eigentlich nicht daran eine einigermaßen ausgeglichene performance für beide seiten auf die beine zu stellen.

es gab schon immer spiele, die mal auf amd oder nvidia besser gelaufen sind. und in letzter konsequenz ist es immer das entwicklerstudio. auch wenn nvidia hier etwas nachhilft und hinterher mehr gameworks im spiel ist, als es dem spiel gut tut, war es immernoch die entscheidung vom studio gameworks zu benutzen.
 
Zuletzt bearbeitet:
Tja in den meisten Spielen ist die Performance aber eben nicht so. Liegt aber natürlich nur an der Unfähigkeit der Entwickler oder der bösen Konkurrenz. Da du mir ja Lagerdenken vorwirfst, meine letzten 3 Karten waren von AMD und hätte Amd es besser gemacht, hätte ich heute eine Vega.
 
duskstalker schrieb:
was juckt die grafik, wenn das spiel nur wie grütze läuft?

Das is nur deine Meinung und von der weiß man dasse quasi nie von Neutralität zeugt.

crysis ist das beste beispiel, das läuft nichtmal mit heutiger hardware anständig.

Läuft prima und die Grafik kann immernoch mithalten auch hier is deine Meinung wohl komisch.

außerdem immer schön weiter dx11 benchen, auf keinen fall vulkan. man könnte ja sonst ausversehen "fortschritt" machen. BUUUH! Dx11 masterrace.

Ja was willst du denn benchen außer Doom und Wolfenstein 2? BUhuu... Heul... Kindergarten is nix dagegen.

amd tut was, und zwar vulkan anschieben. davon hat die ganze branche mehr als weiteres dx11 gegimpe.

Beweise füa Gegimpe in Assassins Creed Origins kommen woher? Aus deina Glaskugel?

ist zwar schade, dass die radeon performance in dx11 titeln so schwankt - aber das ist mit nvidia nach vorne gerichtet genau das selbe - unterschiedliche strategien.

Nö, einfach ein schlechter Directx11 Treiber von AMD bei Nvidia schwankt nix unterm 12er Directx.

ich brauch das nicht nachweisen -

Das is halt imma das Problem du behauptest was mit der Attitüde dass du unfehlbar bist.
Nachfrage ist unerwünscht, schade dass man mit dir nicht diskutieren kann.

wieso sonst glaubst du sind die radeon karten in nvidia spielen alle nur 20% von schwächste bis stärkste karte auseinander

Beispielhttps://www.computerbase.de/artikel/grafikkarten/rangliste.2487/#abschnitt_gpuvergleich_die_aktuelle_gpurangliste_fuer_full_hd_bis_4k

Mafia 3 Vega 64 97% vor RX470, hab dich widerlegt.

und in "cherrypicked" spielen in so einem abstand zueinander, wie man ihn erwarten könnte? glaubst du ernsthaft es ist normal, dass ne 8tflop fury gegen ne 1060 verliert und 3% vor einer rx580 ist?

Wenn die alte Fury in einem CPU Bottleneck oda Frontendlimit hängt dann denk i mir dass das normal is und das is quasi x mal der Fall.

was würdest du sagen, wenn gtx 1060 und gtx 980ti und gtx 1070 alle gleich viel fps ausspucken würden? ziemlich schlecht für die 980ti und 1070, oder?

Geh mal auf 4K hoch in kleinen Auflösungen läufst du Gefahr ins Prozessorlimit zum laufn.
Da stimmt dann auch imma der Abstand.

und dann würde ich noch gerne wissen, was du glaubst, woher auf einmal die performance in den "cherry picked" spielen kommt, wenn vega doch "im schnitt" 20% langsamer ist? luft? göttliche fügung?

Async Compute, Shader Intrinsics, Zusammenarbeit mit AMD, Rapidpackedmath, keine göttliche Fügung.
Oder meinste ne Zusammenarbeit mit AMD die Entwicklerseitig eh wenig Ressourcen haben, würd allein nix bringen?
 
Glauben hier Leute ernsthaft, das Vega Chips nicht lieferbar wären?

Die Teile werden voll produziert ...

Ich würde sogar sagen 50 % Apple, 35 % Mining, Rest geht in den Markt ..

Der Gaming Markt ist mittlerweile quasi ein Monopol für nV.
Aber auch das kann (!) sich schlagartig ändern.
Wenn Ethereum nicht mehr rentabel ist, werden alle RX4xx und 5xx den Gebrauchtmarkt überfluten .... und sehr viele ältere Karten werden durch diese getauscht. Auch die Steam Statistik wird dies merken.

Wenn ich aber sehe wie der Bitcoin abgeht, ist es fast nicht mehr zu glauben, das die Blase platzt.

Nun ja, .. ich habe eine RX Vega 56 und bin vollends zufrieden mit der Karte.
Bei den aktuellen Preisen muss man sich trotzdem überlegen, ob man sie nicht verkauft.
 
Gschwenni schrieb:
Finde mal einen Freesyncmonitor mit den Hertz Raten eines G-sync, also 165 bis 200 Hertz, da wirds schwer und auch auf Seiten AMD teuer. G-sync Monitore beherrschen oft Overclocking, Adaptive Sync oda Freesync ned.

Was hat das mit der Sache zu tun? Willst Du nicht mich ärgern? Bei diesem speziellen Bedürfnis bei Monitoren ist eventuell die Preis-Leistung nicht (viel) besser als bei ner Geforce. Bist Du nicht in der Lage mein einziges Argument zu verstehen? Es gibt Situationen, in denen eine RX Vega 56, sogar zum Preis von 580€, ein besseres Preis-Leistungsverhältnis liefert, als jede GTX 1070 und manchmal auch als jede GTX 1080.

Gschwenni schrieb:
Kann man schon ziehen. Aus 10% mehr Takt macht die Custom 6 bis 7% mehr Leistung draus.
Ohne übertakteten HBM sieht das legit aus und das ist ebend weniger als bei GTX 1070 Customs, die bringen bis zu 14% mehr Performance nicht nur 6.

Das ist so schön was Du denkst, glaubst und findest, hat aber nichts mit der Diskussion zu tun. Irgendwoher wird die Mehrleistung kommen, das bestreitet keiner, was aber durchaus sein kann ist, dass das nicht alles ist, was bei dem Mehrtakt rumkommen kann, eben weil Vega-spezifische Optimierungen im Treiber eventuell hier noch nicht gegriffen haben, siehe Quelle. Und dann kann man die Leistung dieser Karte im Moment nicht abschließend bewerten.

Gschwenni schrieb:
Nua hat Sapphire den HBM nicht übertaktet und deshalb isst halt nicht so doll.

Es geht hier nicht um Essen. Das habe ich geschrieben um klarzumachen, dass die Karte im Bandbreitenlimit hängt und deshalb Mehrtakt nur bedingt bis nicht in zusätzliche Leistung umgesetzt wird.

Gschwenni schrieb:
Ich sag mal so es ist Wunschdenken, mehr ist es nicht.
Menschen kaufen Spiele nach Interessen und nicht danach welchen Grafikprozessor sie haben, das ist aber auch logisch da muss ma ned drüber reden.

Jetzt erzähl mal: Warum ist das Wunschdenken? Das ist absolut legitim, geht aber vielleicht über Deinen Tellerrand hinaus. Mein einziger Punkt hier ist, dass es Situationen gibt, in denen der Durchschnitt hier nicht interessiert, und der Durchschnitt bei HardwareUnboxed auch nicht (der sicherlich der repräsentativste aufgrund der über dreißig getesteten Spiele ist), weil der Käufer eventuell nur spezielle Spiele damit spielen will; ob das jetzt hauptsächlich spezielle nVidia-Spiele oder spezielle Spiele, in denen AMD-Hardware gut abschneidet, ist egal.

Und ich sags nochmal, das Bedürfnis Battlefield, Doom, Wolfenstein oder Shadow of War zu spielen kann auch entstehen, bevor Hardware gekauft wird. In diesem Fall sollte das auch beim Kauf in Betracht gezogen werden, weil dann der Durchschnitt vollkommen egal ist!

Gschwenni schrieb:
Stromverbrauch war in der selben Kategorie wie jetz bei Vega. 150 Watt mehr als ne 1080/5870.
Und 20% schneller als eine 5870, bleibe doch bei der Wahrheit, weiß ned was du hast und ne 5970 is ne Dual also Mickroruckeln.

AMD hatte eine schnellere Karte in Form der HD 5970, wie das technisch umgesetzt ist, ist egal, und die vernünftigeren Karten mit HD 5870 und HD 5850 -- die waren nämlich bedeutend günstiger. Mikroruckeln merkt man besonders bei Bildwiederholraten, in denen viele Leute, auch ich, niemals spielen würde, das muss also auch kein Argument gegen Multi-GPU sein, vorallem weil mans mit V-Sync im Zweifel immer richten kann. Und sogar diese Dual-GPU hat weniger Strom gebraucht, als das Monster von GTX 480.

Gschwenni schrieb:
Gibts andersherum auch, was genau is da nun dein Argument?

Genau das ist mein Argument, ich habs schon drei oder vier Mal geschrieben. Für jemanden, der hauptsächlich Spiele spielt, in denen Geforce-Karten gut abschneiden im Vergleich zur AMD-Konkurrenz, ist vollkommen egal, wie das Verhältnis im Mittel aussieht. Dann ist übrigens die RX Vega 56 von Sapphire kein guter Kauf.


Gschwenni schrieb:
Na das stimmt wohl - jeder spielt verschiedenes, den mittelwert kannma sich also selber aussuchen von den Spielen die man spielt.;)
Aber komm mir ned mit Usern die nur Spiele spielen wo AMD gut abschneidet, sowas gibts einfach ned denn dann wär meine Auswahl recht begrenzt.
Und es wär langsam recht wenn ma die Diskussion langsam beenden es kimmt eh nix raus.:n8:

Das ist dann aber nicht der Mittelwert von dem Du die ganze Zeit faselst, sondern genau das was ich gesagt habe. Pass mal auf, ich erkläre Dir jetzt mal, wie "wenn, dann"-Aussagen (Implikationen) funktionieren.

"Wenn Spieler hauptsächlich Spiele spielen, in denen Grafikkarten des Herstellers x gut wegkommen, dann ist das Verhältnis zu den Konkurrenzkarten im Durchschnitt irrelevant"

Wenn die Situation vorliegt, dass jemand hauptsächlich solche Spiele spielt, dann ist es für diesen Spieler nicht wichtig, wie die Situation üblicherweise aussieht. Der Teil vor dem Komma heißt Prämisse, der Teil nach dem Komma heißt die Schlussfolgerung. Hör auf das zu vertauschen und hör auf, kategorisch auszuschließen, dass es Leute gibt, die spezielle Spiele spielen wollen und deshalb beim Grafikkartenkauf darauf schauen, das gibt es. Und für die ist der Durchschnitt egal.

Gschwenni schrieb:
Dann müssn genau die Spiele gespielt werden die AMD gut liegen und das macht keiner.
Überleg doch mal ein bisserl.

Nein, das machst Du nicht. Aber das heißt nicht, dass das keiner macht. Ich hab auch nie behauptet, dass das jeder machen würde, sondern dass es Leute gäbe, die das machten. Es gibt Leute, die fast ausschließlich Battlefield-Teile spielen, es gibt Leute, die hauptsächlich Spiele spielen, wo die genaue Leistung letztendlich völlig egal ist, und es gibt Leute die eben vorallem Arena-Shooter wie Doom und Quake Champions spielen. Das hier führt zu nichts, weil Du hier schon mehrfach unter Beweis gestellt hast, simple Argumente nicht zu verstehen. Ich hab hier 3 oder 4 mal dieselbe Nachricht paraphrasiert geschrieben, mehr kann ich auch nicht machen. Wenn das nicht langt für Gschwenni, dann ist es so. Das Gespräch ist hiermit beendet.
 
Zurück
Oben