Test Radeon RX Vega 56 Nitro+ im Test: Sapphires 1,6-kg-Grafikkarte überzeugt auf ganzer Linie

OMG du begreifst es einfach wirklich nicht. Oder versuchst so hart gerade zu trollen.

Da eigentlich selbst der härteste nVidia Fanboy in der Lage ist, einfachste Zusammenhänge zu verstehen, du aber weiter dich komplett Doof stellst, kann es einfach nur reines getrolle sein mittlerweile.

Ich könnte jetzt, wie viele davor schon, dir nochmals erklären warum die Preise so sind wie sie sind im Moment. Aber da du ja immer straight nur Fakten haben willst (so fern sie deinem merkwürdigem Weltbild entsprechen), gebe ich dir jetzt ein Fakt.

Ignoreliste für dich.
 
Wadenbeisser schrieb:
@ tek9
Das ist ja das lustige wenn man sich über einen Vendor Lock beklagt und dann ausgerechnet den Hersteller mit dem Kauf belohnt der als einziger einen künstlichen Vendor Lock besitzt. :lol:

Tja bei aller Liebe, ich bin halt kein AMD Fanboy.

Auch wenn ich zwei AMD Karten in Folge verbaut habe, und insgesamt fünf AMD Karten besessen habe, beutetet es nicht das ich einfach nur aus Markenliebe oder politisch-strategischen Gründen mir eine Grafikkarte kaufe, die nicht das bietet was ich erwarte.

Wenn du meine Post zu Ende gelesen hättest, wäre dir aufgefallen das ich auch keine Pascal Karte kaufen werde. Wenn Ampere raus kommt und zu dem Zeitpunkt eine VEGA Refresh anstehen sollte, schaue ich mir das Thema wieder sehr genau an.

Das ist halt der Unterschied zwischen uns beiden. Ich handle nach objektiven Maßstäben, während du genauso ein missionarischer Fanboy bist wie die von dir sooo verhassten nVidia Lover.
 
Zuletzt bearbeitet von einem Moderator:
Dark_Knight schrieb:
Der Worstcase bei Wolfenstein ist eine verbuggte Szene im Spiel gewesen. Ich weiß nicht wie oft dies schon in zig Threads jetzt so oft schon gesagt wurde. Trotzdem hängt sich alle paar Seiten jemand dran auf.

Da hängt sich niemand dran auf, nur du lässt diese angebl. verbuggte Szene nicht zu und sagst dann gleichzeitig objektive oder berechtigte Kritik wird ned unterdrückt.:p
Tatsache is nunmal dass dort die Leistung so ausfällt woran es liegt kann ziemlich wurscht sein.

Aber das andauernde wiederholen von Dingen, die seit Monaten bekannt sind, wie z.B. dass Vega nicht so effizient beim Stromverbrauch ist wie die aktuelle nVidia Generation; sind für viele immer noch der Aufhänger.

Na logisch, darum geht's ja auch hier im Test oder sollma das ned mehr ansprechen, weil deine AMD Seele drunter leidet?
Kann niemand was dafür dass dies Custom Design den Verbrauch auf 300 Watt schraubt, aba so isses nunmal.
Und das absolut unreflektiert ohne auch nur im geringsten sich mal damit zu beschäftigen warum dies denn so ist.

Liegt am Powertarget/OC von Sapphire.

Dark_Knight schrieb:
OMG du begreifst es einfach wirklich nicht. Oder versuchst so hart gerade zu trollen.

Ich will mich erhlichgsagt ned streiten und nein ich begreife das nicht warum man so tut als würd es User geben die nur AMD spiele spielen. Sowas lächerliches und kindisches.

Dark_Knight schrieb:
Ich könnte jetzt, wie viele davor schon, dir nochmals erklären warum die Preise so sind wie sie sind im Moment.

Ich denk ned dass du das erklären musst, dann kann sich jeder seinen eigenen Reim drauf machen.
Liegts an AMD selber, an den Zulieferern, an Produktiosumstellungen, Mining. Wer weiß das scho genau. Keiner, aber du polierst ja jedesmal deine Glaskugel und dann gibst dus vor zu wissen.
 
Zuletzt bearbeitet:
Gschwenni schrieb:
Tatsache is nunmal dass dort die Leistung so ausfällt woran es liegt kann ziemlich wurscht sein.

Der Bug ist doch mittlerweile gefixt? Von daher kann einem das sogar ultrawurscht sein...
 
Volkimann schrieb:
Das einzige was nvidia für den PC Markt getan hat war nichts für den Gamer, sondern ausschließlich zum eigenen Nutzen.

Unternehmen machen das so, auch AMD. Welcome to Reality.

Nvidia bremst derzeit die Entwicklung eher aus. Schön auf DX11 beharren, DX12 & Vulkan stiefmütterlich behandeln.

Meinst nicht eher es liegt an den Entwicklern die in LowLevel einen zu großen Aufwand für ihre Projekte sehen?
Hat man scho viel drüber ghört und liest es ständig.

Was wurden alles für Märchen, Lügen und Übertreibungen in Foren verbreitet, um den Kauf von nvidia Hardware zu rechtfertigen.

Ach und jetz wird doch das gleiche über Nvidia erzählt damit man sich ne AMD kauft.:rolleyes:
duskstalker schrieb:
ja weil amd wie nvidia+intel ist, gibts von nvidia nur proprietären müll (gsync, gameworks, physx), von intel zukaufbare raid keys, cpus mit beschnittenen pcie lanes, 4core gemelke und bei amd open source, beinahe unendlich pcie lanes (TR) und die ersten spottbilligen 6 und 8 kerner für den mainstream. das gelaber ist nicht zum aushalten.

Ein Marktführer versucht seine Position durch proprietäre Entwicklungen zu zementiern das kann sich ein ewiger Zweiter ned leistn.
Nvidia geht da nen andren Ansatz und is damit recht erfolgreich.

ob das jetzt durch die marktsituation von amd kommt oder nicht - fakt ist, dass amd um welten userorientierter/kundenfreundlicher agiert als intel oder nvidia.

In ein paar Punkten schon [Freesync oder Gameworks] , aba generell würd i das ned so sehn.

ob die hinterher genau so auf proprietäre lösungen setzen werden wir feststellen, wenn amd mal marktführer ist.

Versuchte AMD ja eh scho mal mit Mantle, da gabs keine kleinen Effekte sondern gleich ne ganze API.
Daraus wurde nua nix.

nvidia hat schon dx 10.1 support wieder aus einem spiel herauspatchen lassen (assassins creed), weil ATi dadurch zugelegt hat und nvidia aufgrund von hardwareinkompatibilität nicht fähig war

Seg i genauso, mal einen Punkt wo wir uns einig sind.:)

und ob nvidia am festhalten an dx11 jetzt gänzlich unschuldig ist, darf zutiefst bezweifelt werden. würden sie den fortschritt blockieren, würde sich das nur kosequent mit ihrer historie decken

Nua fehlen da komplett de Indizien. Die ganzn Vulkan Extensions die Nvidia schreibt deuten auf was ganz andres hin.;)
 
Zuletzt bearbeitet:
ja weil amd wie nvidia+intel ist, gibts von nvidia nur proprietären müll (gsync, gameworks, physx), von intel zukaufbare raid keys, cpus mit beschnittenen pcie lanes, 4core gemelke und bei amd open source, beinahe unendlich pcie lanes (TR) und die ersten spottbilligen 6 und 8 kerner für den mainstream. das gelaber ist nicht zum aushalten.

ob das jetzt durch die marktsituation von amd kommt oder nicht - fakt ist, dass amd um welten userorientierter/kundenfreundlicher agiert als intel oder nvidia. ob die hinterher genau so auf proprietäre lösungen setzen werden wir feststellen, wenn amd mal marktführer ist.

nvidia hat schon dx 10.1 support wieder aus einem spiel herauspatchen lassen (assassins creed), weil ATi dadurch zugelegt hat und nvidia aufgrund von hardwareinkompatibilität nicht fähig war, die selbe performance abzuschöpfen. nvidia war auch schon zu half life 2 zeiten hinten dran; in einem magazin war zu lesen, dass nvidias "dx9" karten eigentlich nur dx8 beherrschen, und half life 2 deshalb auch nur im dx8 modus richtig rendern können.

falls du jetzt quellen dafür willst; hab ich alles schonmal in einem dialog mit dir gepostet - wenn du dich nich dran erinnern kannst, ist das nur ein beleg dafür, wie oberflächlich du beiträge liest.

und ob nvidia am festhalten an dx11 jetzt gänzlich unschuldig ist, darf zutiefst bezweifelt werden. würden sie den fortschritt blockieren, würde sich das nur kosequent mit ihrer historie decken.
 
Gschwenni schrieb:
Du müsstest dich nua ein wenig zurücknehmen und Kritik an Vega zulassen.
Wenn Vega jetz für nen guten Preis zu bekommen is spricht gar nix gegen einen Kauf aber für den Preis isses nunmal nicht das wahre.

Vielleicht kommt es irgendwann mal bei Dir an: Das kommt darauf an, was man damit machen will.

Gschwenni schrieb:
Nene, mehr Hertz sind immer besser und gschmeidiger.
Ich stimm dia doch zu dass der Aufpreis bei G-sync ne ganze Ecke Geld ist teilw. lohnt sich das aber auch.

Das hat aber mit meinem Argument nichts zu tun. Es ist kein Vorteil in dem Fall, dass die Preisdifferenz hoch ist bei technisch vergleichbaren Bildschirmen. Ich verstehe auch nach wie vor nicht was Du damit bezwecken willst, denn an den Fällen, über die ich rede, ändert das überhaupt nichts, gehört also nicht in die Diskussion.

Abgesehen davon: Du hast sicherlich schon 60 mit 100 und 120 und 144 und 200 und 240 Hz verglichen, damit Du auch so sicher sagen kannst, dass das tatsächlich nur immer besser wird?

Gschwenni schrieb:
Ja und du bist drauf eingegangen und lässt ned zu dass man die Customs so vergleicht wie sie aus der Fabrik kommen.
Es oced einfach ned jeder, sondern nutzt die Karten so wie sie sind.

Kannst Du wirklich lesen? Ich habe gesagt, dass man die Leistung der Sapphire im Moment nicht abschließend bewerten kann, weil die Karte aktuell noch vom Treiber (potentiell) gebremst wird im Vergleich zu einer Referenzkarte, die sonst identisch eingestellt ist, weil softwareseitige Optimierungen nicht genutzt werden (können).

Und ich habe gesagt, dass es in manchen Fällen trotzdem egal ist, ob eine Custom als Vergleich herangezogen wird, weil es Fälle gibt, in denen eine Referenz Vega 56 schneller ist als eine GTX 1080 FE, die man als gute obere Schranke für das ansehen kann, was eine Custom GTX 1070 zu Leisten im Stande ist -- sowohl aus der Schachtel, als auch übertaktet. Unter normalen Umständen (und sogar in jedem Test zu Customdesigns bisher) ist eine Custom Vega 56 mindestens so schnell wie eine Referenz Vega 56, das heißt der Abstand wird nicht kleiner wenn man von Referenz zu Custom geht bei einer Vega 56.

Davon, die Vegas zu übertakten, habe ich nicht geredet. Nur davon, was zu sicheren Leistungssteigerungen führt, weshalb der Taktratenvergleich bei Vega 56 Referenz und Custom im Moment (eventuell) anders aussieht, als wenn die Treiber offiziell richtig arbeiten.

Gschwenni schrieb:
Kann sein dass es 1% oder so sind das wird aber auch nix dran ändern dass 1070 Customs da locker mithalten.

Prozentrechnung also auch Fehlanzeige. Und jetzt nochmal, nur um es wirklich irgendwann man zu Dir durchzubringen: Nein, in den Fällen in denen eine Vega klar schneller ist, ist eine GTX 1070 nicht mindestens so schnell wie eine Vega! Im Schnitt über viele Spiele kann es sein, dass eine GTX 1070 mit einer Vega 56 mithalten kann, das bestreitet hier auch keiner. Sehrwohl aber, dass das für alles die richtige Metrik sei, das ist totaler Käse und scheinbar zu Dir nicht durchzukriegen.

Gschwenni schrieb:
Wie soll es dann nen AMD Nutzer geben der nua AMD Spiele spielt, wenn es so wenig gibt?
Dann muss er die schon gezielt aussuchen.

Du erzählst immer wieder: "Wenn AMD Hardware, dann für AMD günstige Spiele", was natürlich nicht zu stimmen braucht, ich argumentiere aber "Wenn für AMD günstige Spiele, dann AMD Hardware kaufen". Erkenne den Unterschied, das ist weit entfernt davon dasselbe zu sein. Jemand, der vorallen Spiele spielt, die auf AMD Hardware günstig laufen und er in den Spielen die Leistung auch unbedingt braucht (z.B. Shooter), dann sollte er beim Grafikkartenkauf auch die AMD Hardware in Betracht ziehen und in den relevanten Spielen mit den Geforce-Karten vergleichen -- Beispiele habe ich zu genüge gegeben. Nochmal: Jemand, der vorallem Battlefield spielt, der kann sich eventuell auch mit einer Vega 56 für 580€ anfreunden, weil er sonst mindestens irgendeine GTX 1080 bräuchte. Und nicht dass Du denkst das wäre ein Arugment mit rotem Hut: Genau dasselbe wenn jemand vorallem Assassins Creed oder Anno oder oft Indie spielt.
 
Also, ich habe ja schon so manche Argumentation für AMD gelesen, aber das es Spieler geben soll, die nur Spiele zocken, die auf AMD Hardware besser laufen ist dann doch neu.
 
Das ist keine Argumentation für AMD sondern einfach die Aussage, dass es sogar bei einer Vega darauf ankommt, was mit der Karte gemacht werden soll, wenn man Preis/Leistung bewerten will! Stur nach einem Schnitt über x Spiele eine Grafikkarte für alle Zwecke empfehlen ist Blödsinn, das gilt für Leute die haupstächlich Spiele spielen, die auf AMD-Hardware gut läuft und genau so für Leute, die auf nVidia-Hardware gut läuft.

Ich weiß jetzt nicht was ich von Deinem Kommentar halten soll, diese "Diskussion" läuft schon seit ein paar Seiten, und dass Du genau wie Gschwenni von "spielen" und nicht "spielen wollen" schreibst, macht mir fuchsig! Obwohl es sicherlich Leute gibt, die ausschließlich einige wenige Spiele spielen, sind das nicht mal die einzigen die bei einem Kauf von Hardware genau danach schauen sollten, auch diejenigen die nur bei ein paar Spielen (weil da die Leistung wichtig ist, meinetwegen Sportspiele und Shooter) die Leistung wirklich brauchen, können nach der Leistung in den paar wenigen Spielen schauen!

Obwohl man das nicht macht (weil das in einer Argumentation nichts zu suchen hat), sage ich jetzt mal was ich so in letzter Zeit gespielt habe und spiele: Im letzten Jahr habe ich 850 Stunden Rocket League und 250 Stunden Battlefield gespielt, dazu kam noch ein kleines bisschen Doom in der letzten vorlesungsfreien Zeit. Ich wusste ganz genau, wie mein Spieleverhalten aussehen würde und habe da natürlich auch drauf geachtet, als ich meine Grafikkarte ausgesucht habe. In Battlefield 1 brauche ich so viel Leistung wie möglich, in Rocket League ist es ziemlich egal, da schaffe ich konstant 143 fps ohne irgendwelche Probleme. Eigentlich war auch Star Wars Battlefront 2 eingeplant, das kann man aber ja so verbrennen (als Dice-Spiel übrigens auch sehr gut mit AMD Hardware). Dass ich die Spiele spiele hat aber nichts damit zu tun, dass ich ein AMD-Fanboy wäre, sondern einfach damit dass mir die Spiele äußerst gut gefallen und ich bin mir äußerst sicher, dass ich nicht der einzige damit bin. Wenn ich mich auf Battlefield so umschaue mit den Leuten, die regelmäßig die neuen Ranggrenzen knacken, die werden sehr hauptsächlich Battlefield spielen, wenn die noch ein Berufs- und Privatleben haben.
 
Ach komm, diese Argumentation deinerseits ist doch völlig daneben, weißt du heute schon was du in einen Jahr spielst oder in zwei Jahren? so teure Hardware gezielt für 3 bis 5 Spiele zu kaufen mag es geben, aber diese Leute laufen und ferner liefen....ganz abgesehen das man mit einer Vega56 oder GTX 1070 so gut wie alle Spiele mehr als vernünftig spielen kann, auch auf Auflösungen die höher als FullHD sind.

Im Prinzip geht es doch eigentlich nur darum, ob Vega eine gute Alternative zur anvisierten Konkurrenz ist oder nicht und da bin ich der Meinung, so lange man keinen FreeSync Monitor hat, ist Vega aus Preis/Leistung Sicht das etwas schlechtere Paket. Mich als Spieler interessiert es nicht sonderlich, ob die eine oder andere Karte die modernere Architektur/Technik hat oder nicht, entscheidend ist wie flüssig meine Spiele dargestellt werden und welchen Aufwand ich für die Kühlung betreiben muss.

Für mich war zb. das Ende von 3dfx traurig, trotzdem bin ich nicht wie viele andere auf die Idee gekommen, daß Nvidia schuld am Ende von 3dfx war, das haben die schon alleine versemmelt, darum finde ich auch immer lustig, wenn ich lese das Nvidia die Entwicklung aufhält, für Spiele zb. zu starkes Tessellation verwendet und so AMD Karten ausbremst oder so an DirectX 11 festhält und auch damit die Entwicklung behindert (wobei die Titan V zeigt, das Volta anscheinend gut auf DirectX 12 läuft), nun, dann muss halt AMD versuchen zb. Tessellation im Treiber besser zu realisieren.
 
Blueline56 schrieb:
Ach komm, diese Argumentation deinerseits ist doch völlig daneben, weißt du heute schon was du in einen Jahr spielst oder in zwei Jahren?

Ne und Du? Schaust Du beim Kauf in die Zukunft? Das was in naher Zukunft gespielt werden soll kann doch der einzige Anhaltspunkt dafür sein, den man beim Kauf hat.

Blueline56 schrieb:
so teure Hardware gezielt für 3 bis 5 Spiele zu kaufen mag es geben, aber diese Leute laufen und ferner liefen....ganz abgesehen das man mit einer Vega56 oder GTX 1070 so gut wie alle Spiele mehr als vernünftig spielen kann, auch auf Auflösungen die höher als FullHD sind.

Ich bin weit ab davon zu behaupten, das würden alle Leute machen. Aber zum Beispiel wenn man moderne AAA-Spiele in 1440p mit 144Hz spielen will, ist das mit der Leistung im Moment so ne Sache, dieser Markt ist nach wie vor so schnelllebig, wie es eben die Hardware zulässt, weil die Leistung für sowas nur bei High End Karten da ist. Aber auch darum geht es nicht, wenn Du Dir das nicht vorstellen kannst heißt das noch nicht, dass man so nicht argumentieren kann.

Blueline56 schrieb:
Im Prinzip geht es doch eigentlich nur darum, ob Vega eine gute Alternative zur anvisierten Konkurrenz ist oder nicht und da bin ich der Meinung, so lange man keinen FreeSync Monitor hat, ist Vega aus Preis/Leistung Sicht das etwas schlechtere Paket. Mich als Spieler interessiert es nicht sonderlich, ob die eine oder andere Karte die modernere Architektur/Technik hat oder nicht, entscheidend ist wie flüssig meine Spiele dargestellt werden und welchen Aufwand ich für die Kühlung betreiben muss.

Ob es das schlechtere Paket ist hängt davon ab, was Du damit machen willst. Das und nur das sage ich. Ob eine Grafikkarte für einen persönlich besser geeignet ist oder nicht muss mit einem Leistungsdurchschnitt in x Spielen nichts zu tun haben.

Blueline56 schrieb:
Für mich war zb. das Ende von 3dfx traurig, trotzdem bin ich nicht wie viele andere auf die Idee gekommen, daß Nvidia schuld am Ende von 3dfx war, das haben die schon alleine versemmelt, darum finde ich auch immer lustig, wenn ich lese das Nvidia die Entwicklung aufhält, für Spiele zb. zu starkes Tessellation verwendet und so AMD Karten ausbremst oder so an DirectX 11 festhält und auch damit die Entwicklung behindert (wobei die Titan V zeigt, das Volta anscheinend gut auf DirectX 12 läuft), nun, dann muss halt AMD versuchen zb. Tessellation im Treiber besser zu realisieren.

Wer hat denn jetzt bitte die GameWorks-Baustelle aufgemacht???
 
Zuletzt bearbeitet: (Rechtschreibung)
tek9 schrieb:
Wenn Ampere raus kommt und zu dem Zeitpunkt eine VEGA Refresh anstehen sollte, schaue ich mir das Thema wieder sehr genau an.

Ja, passt schon, darauf wird es bei mir auch hinaus laufen, denn die aktuelle RX Vega Preisgestaltung (bei Sapphire und ASUS) und Verfügbarkeit (bei Powercolor und anderen AMD/RTG Boardpartnern) ist leider problematisch und einen potentiellen Free-Sync Preisbonus haben AMD/RTG GPUs bei mir leider nicht.

Mein aktueller Monitor wird weiter schaffen müssen (dann wohl erstmalig down-/supersamplen), und Sync ist mir (noch alleinig) nicht wichtig genug und ich dürfte erst bei 4K/UHD HDR 120+Hz DP1.4 bei einigermaßen vernünftiger Modell- und Herstellerauswahl wohl zugreifen (und WQHD überspringen).

Naja, 'mal sehen was es dann wird, Ampere GA104 oder RX Vega 56 Refresh ... noch maximal 6 Monate warten (bitte nicht länger, AMD/RTG) und hoffen auf nachlassende Mining-Aktivitäten und wieder moderatere GPU-Preise.

Bin 'mal gespannt, ob in 2020 schon Intel mit Koduris neuen Schöpfungen auch im Gaming-Markt auf Kundenfang gehen wird können, mehr Konkurrenz und dann wieder fallende Preise im GPU Markt wären schon eine Aussicht, die mir gefallen könnte?
 
Zuletzt bearbeitet:
tek9 schrieb:
Wenn du meine Post zu Ende gelesen hättest, wäre dir aufgefallen das ich auch keine Pascal Karte kaufen werde. Wenn Ampere raus kommt und zu dem Zeitpunkt eine VEGA Refresh anstehen sollte, schaue ich mir das Thema wieder sehr genau an.

Wenn du mein Posting verstanden hättest dann wäre dir vielleicht aufgefallen das du noch nicht einmal gemeint warst aber gut, hat ja vielleicht seine Gründe.
 
Noch kann man Monero auch in Deutschlang sehr profitabel minen, ich glaube nicht dass das in absehbarer Zeit abreißt. Da sind die Vegas aber wirklich allererste Sahne, was besseres zum Monero minen bei dem Preis gibt es eigentlich nicht.
 
duskstalker schrieb:
achja? prima? meine meinung komisch? deine vielleicht.

Ich denk das liegt wieder dran, dass in Crysis ein Nvidia Logo drinn war, wieso du das Spiel jetzt so fertig machst.:D
Die offene Welt, die Sichtweite, die Grafk, die NPC´s, Auflösung der Texturen, Effekte, Directx10 usw hald.
Das spiel war n Meilenstein. Dagegen gibt es x Games die nicht besser aussehen und in 4K weit! unter 80 FPS laufen.
Crysis könnte als 2015er Game durchgehn.

crysis war damals optisch ne ziemliche granate, aber wenn man sich mal vor augen führt, dass man einen high end pc aus 2017 braucht, um das ding aus 2007 flüssig spielen zu können, war crysis wohl einen ticken zu weit seiner zeit voraus.

Früha gabs kein 4K nurmal so, daraus war das Spiel auch ned ausglegt.
Flaschenhälse seh ich ned ne 460 läuft etwa 3 mal so schnell wie ne 8800GTX passt also.
Damals spielte ich das Spiel auf 720P. Üba 90 Frames läuft das Spiel in ein CPU Bottleneck, der offenen Welt geschuldet.

und da wären wir wieder bei meiner andauernden kritik am benchmark parkour, den du aber vehement verteidigst, weil der ja ein ach so tolles bild der durchschnittsperformance zeigt.

Ja nur die Kritik is ned von Substanz, weils dia darum geht AMD besser zu stelln und nicht irgendwie was gutes für die Nutzer zu tun.
Niemand mag nen Parkour der langweilige Schlauchspiele enthält die du vorschlägst.

der parkour zeigt eigentlich streng genommen nur, wie viel mühe sich die studios bei der optimierung geben

Das kannst du gar ned beurteilen weil du in die Entwicklung gar keinen Einblick hast.
Schlauchshooter performant zu machen is nun wirklich keine allzugroße Kunst oder was soll denn deiner Meinung noch performant sein? Tetris?

duskstalker schrieb:
amd hat sich im treiber tessellation angenommen (begrenzung auf 8x oder individuell) - aber CB bencht mit voller tessellation. so und jetzt?

Na gottseidank wird so getestet wie es vorgesehen ist. Als nächstes kommt AA drann und übermorgen dann die Details.:freak:

duskstalker schrieb:
der aktuelle parkour bevorteilt halt nvidia, aber das ist ja egal :rolleyes:

Das tut er ned, das is ein Querschnitt aus beliebten Games und wenn AMD weniger Spiele unterstützt dann is das nunmal so, also heul woanders.

also erzähl mir nix von wegen wie studios was machen, wie spiele funktionieren und was wie wo performance kostet und was nicht und wie man optimiert.

Na dann leg doch mal Argument vor wieso die Spiele von denen du redest schlecht optimiert sein sollen.
I hab davon nix bisher gelesen außer haltlose Behauptungen.

gibt auch genug schlecht performende schlauchshooter - bspw. cod oder shadow warrior 2 - die auch zufällig im parkour sind. austauschen? ja nein vielleicht?

Wieso sollte man das austauschen? Glaubst du es interessiert ieinen Gamer was da vielleicht nicht gut optimiert ist?
Und wo is da was schlecht optimiert? Wird mal konkret, bisher isses über Behauptungen ja ned rausgegangen und zwar nirgends.

ja wäre ja n unding, wenn man nvidia den tessellationshahn zudrehen würde

Damit drehst du Nvidia ned den Tesselationshahn zu, sondern drehst normalen Spieleentwicklern ihren gewählten Tess-Grad ab du Phantasierer.
X Spiele nutzen x16 Tesselation ganz ohne Nvidia.

und amd karten nicht künstlich ausgebremst werden.

Hatten wir alles schon, Godrays oder Hairworks (Witcher) könnten auch mit x32 laufen um gut auszusehen.
Auf de andern Titeln ist das ned zutreffend, und ich hatte dich mehrfach widerlegt, dort wird kein x64 Tesselation genutzt , sondern 8 und teilw. auch 16 wie in Andromeda. Trotzdem lügst du weiter zu dem Sachverhalt.
 
Zuletzt bearbeitet:
Crysis hat nicht nur das nvidia Logo drin, wenn ich mich richtig erinnere dann hatte nvidia damals ganze Teile des Shader Codes geliefert.
Die stecken da ziemlich tief im Spiel drin.
 
Gschwenni, Du redest teilweise einfach Mist. Als ob ein paar der momentan meist gespielten und technisch anspruchsvollsten und AMD zuträglichen AAA Titel "Schlauchshooter" wären... Bei Doom magst Du vielleicht noch recht haben, aber bei allem anderen nicht ! Unabhängig wie einem die Spiele gefallen wären das unter anderem Battlefield 1, Star Wars Battlefront II, Mass Effect Andromeda, vor ein paar Monaten noch Prey 2017 (CryEngine die totz allem sehr gut performt auf AMD Karten!) usw...
Lass mal die Kirche im Dorf !

Ich weiß das ist alles sehr "Frostbite II"- lastig. Aber mal davon abgsehen, ist das imho momentan die best optimierte Engine wo am am meisten Qualität für die FPS bekommt. Dagegen kann man Crysis einfach weg werfen in allen Belangen. Aber das zeigt mal wieder schön zwei Dinge und zwar erstens, wie eine moderne Engine auszusehen und zu performen hat und zweitens wie diese Engine mit aktueller Hardware skaliert und alle technischen Gegebenheiten zu Nutzen zieht. Stichwort Multicore usw... Da können sich sehr viele Entwickler ne Scheibe dran abschneiden ! Aber ne ganz Fette !

Und genau deshalb kann ich auch die Argumentation sehr gut nachvollziehen, das aktuelle Hardware auch mit aktuellen Engines gebencht werden sollte, nicht komplett, aber zum größten Teil. Und wenn heutzutage ein Entwicklerstudio noch auf maximale Leistung aus einem Kern optimiert, dann haben die den Zug einfach verpasst.
 
Zuletzt bearbeitet:
Natürlich sollte aktuelle Hardware mit den neusten Spielen getestet werden.
Für die alten Titel hatte man bereits in der Vergangenheit ausreichend leistungsfähige Hardware.

Niemand kauft sich einen neuen Rechner weil 2010-16er Titel auf dem alten Rig nicht laufen. Man kauft idr. neue Hardware weil neue Spiele auf der alten Hardware nicht mehr ausreichend flott laufen ;)

Ich habe es schon einige male erlebt das ältere Titel auf meiner neuen Hardware nicht sonderlich gut skalieren weil sie nicht an die neue Technik angepasst wurden. Warum laufen wohl einige alte Spiele auf Skylake-X, Threadripper oder Ryzen deutlich schlechter als es die gebotene Leistung erwarten lässt?

Von daher halte ich überhaupt nichts von Benchmark Parcours wo viele alte Kamellen dabei sind.
 
Rage schrieb:
Vielleicht kommt es irgendwann mal bei Dir an: Das kommt darauf an, was man damit machen will.

Für Mining oda professionele Sachn sicher ne gute Investition in manchen Fällen auch für nen Mondpreis.

Das hat aber mit meinem Argument nichts zu tun. Es ist kein Vorteil in dem Fall, dass die Preisdifferenz hoch ist bei technisch vergleichbaren Bildschirmen. Ich verstehe auch nach wie vor nicht was Du damit bezwecken willst, denn an den Fällen, über die ich rede, ändert das überhaupt nichts, gehört also nicht in die Diskussion.

Das is imma dasselbe. Du ziehst enge Grenzen wo deine Argumente geltn sollen. Vorteile vo Nvidia sind es nicht wert, werdn einfach vo dia geleugnet.
Der Aufpreis is hoch, trotzdem eben oftmals auch bessere Specs, is halt einfach so ob dus wahrhaben willst oda ned.

Abgesehen davon: Du hast sicherlich schon 60 mit 100 und 120 und 144 und 200 und 240 Hz verglichen, damit Du auch so sicher sagen kannst, dass das tatsächlich nur immer besser wird?

Jetzt wird das auch noch in Zweifel gezogen. Nein weniger Hertz sind besser weißte, unglaublich.

Kannst Du wirklich lesen? Ich habe gesagt, dass man die Leistung der Sapphire im Moment nicht abschließend bewerten kann, weil die Karte aktuell noch vom Treiber (potentiell) gebremst wird im Vergleich zu einer Referenzkarte, die sonst identisch eingestellt ist, weil softwareseitige Optimierungen nicht genutzt werden (können).

Da wird nix relevant gebremst, wenn de Karte mit 10% mehr Takt 6 bis 7% schnella arbeitet.
Schau den Launchtest was dort der Takt bringt. 1:1 dasselbe.

Und ich habe gesagt, dass es in manchen Fällen trotzdem egal ist, ob eine Custom als Vergleich herangezogen wird, weil es Fälle gibt, in denen eine Referenz Vega 56 schneller ist als eine GTX 1080 FE

Und anderesrum gibt's das genauso, also ist das "ich spiele nur Spiele wo AMD geil läuft" nicht sehr logisch.

Davon, die Vegas zu übertakten, habe ich nicht geredet.

Doch doch, das haste, lies es hald nach. Da ne gute 1070 Custom 14% schnella läuft als ne Stock wird die dann trotzdem aus der Fabrik schneller sein als die Vega56.
Sehrwohl aber, dass das für alles die richtige Metrik sei, das ist totaler Käse und scheinbar zu Dir nicht durchzukriegen.

Jaja, ned die richtige Metrik. Die richtige Metrik besteht bei dia nua aus AMD Spielen sags doch wie es is.


Erkenne den Unterschied, das ist weit entfernt davon dasselbe zu sein. Jemand, der vorallen Spiele spielt, die auf AMD Hardware günstig laufen und er in den Spielen die Leistung auch unbedingt braucht (z.B. Shooter), dann sollte er beim Grafikkartenkauf auch die AMD Hardware in Betracht ziehen und in den relevanten Spielen mit den Geforce-Karten vergleichen

Und du weißt also heute schon welche Spiele du nächstes Jahr spielen wirst. Die Glaskugel is wieder da, diesesmal noch bessa poliert.

Beispiele habe ich zu genüge gegeben. Nochmal: Jemand, der vorallem Battlefield spielt, der kann sich eventuell auch mit einer Vega 56 für 580€ anfreunden, weil er sonst mindestens irgendeine GTX 1080 bräuchte.

Und im nächsten Battlefield is die Nvidia Karte vielleicht schneller, dann hat ihm sein Kauf wenig bracht.
I glaub es wad ned vermessen wenne sage, dass deine AMD Argumente so dünn wie Parmaschinkn sand.
 
Zuletzt bearbeitet:
Zurück
Oben