News Asus: Auch RX Vega 56 Strix bekommt den 2,5-Slot-Kühler

SKu schrieb:
Settings sind hoch statt Ultra. Außer Texturen, die sind auf Ultra bei mir. Hairworks nutze ich nicht. Sieht beschissen aus. Man sieht also, alleine der Umstand, dass man von Ultra auf Hoch stellt und beim Spiel selbst kaum Qualitätsverlust hinnehmen muss (in der Regel achtet man beim Spielen nicht auf Details), mündet das in einem Performance-Boost. Meine 1080 läuft auch an einem FreeSync Monitor. Tearing nehme ich nicht wahr. Da bin ich aber wahrscheinlich rein menschlich betrachtet relativ unempfindlich für. Ich nehme aber 60fps bereits als Ruckeln wahr, auch bei The Witcher.

Mit diesen Settings habe ich das Spiel auf meiner Gtx 660 gespielt :evillol: Zwar mit 30 fps, aber trotzdem. Dafür kaufe ich keine 500 EUR Grafikkarte.
 
Schrank schrieb:
Für mich ist es auch deutlich spürbar, wenn die FPS unter 60 fallen, auch ohne FPS-Counter. Liegt aber wohl daran, dass 1 FPS nicht denselben Frametime-Unterschied bedeutet, es kommt auf den FPS-Bereich an. Der zeitliche (Frametime) Unterschied zwischen 60 und 61 FPS (270 µs) ist nicht derselbe wie 100 und 101 FPS (99 µs).
Anhang anzeigen 639227

Entweder ich stehe gerade auf dem Schlauch oder 27 Millisekunden entsprechen 27.000 µs und nicht 270. 1 Millisekunde = 1000 Mikrosekunden.
Ergänzung ()

tidus1979 schrieb:
Mit diesen Settings habe ich das Spiel auf meiner Gtx 660 gespielt :evillol: Zwar mit 30 fps, aber trotzdem. Dafür kaufe ich keine 500 EUR Grafikkarte.

30fps sind für mich quasi mit Bild steht still gleichzusetzen. Für mich unspielbar. Auflösung WQHD, nicht FullHD.
 
DarkerThanBlack schrieb:
Die VEGA-56 wird sich verkaufen wie geschnitten Brot.

Sofern das Ding für weniger als 450€ in Custom Designs verfügbar ist.
 
SKu schrieb:
Entweder ich stehe gerade auf dem Schlauch oder 27 Millisekunden entsprechen 27.000 µs und nicht 270. 1 Millisekunde = 1000 Mikrosekunden.

Der Unterschied von 60 auf 61fps ist 16,66ms zu 16,39ms = 0,27ms, also 270µs

SKu schrieb:
30fps sind für mich quasi mit Bild steht still gleichzusetzen. Für mich unspielbar. Auflösung WQHD, nicht FullHD.

So unterschiedlich kann doch das Empfinden sein^^
Mit meiner 7950 hatte ich in Witcher 3 immer nur zwischen 25 und 35fps, das war schon oft ruckelnd, mit der 980 und allem möglichen hochgedreht waren es immer über 40 und für mich total flüssig.

Und +40fps würde ich auch im allgemeinen bei allen Spielen außer Shootern als flüssig bezeichnen, ich schätze ich habe Glück mit meinem Empfinden und kann mir ne Menge Geld sparen^^
Wobei ich ne neue Karte auch für höheres SS in VR bräuchte, also für 90fps... tja da geht das Geld dahin
 
Zuletzt bearbeitet:
Taxxor schrieb:
Der Unterschied von 60 auf 61fps ist 16,66ms zu 16,39ms = 0,27ms, also 270µs

Mein Fehler. Habe das mit der Differenz überlesen. :) Aber bei der angefügten Grafik kann ich keine Differenz von 0.099 Millisekunden zwischen 100fps und 101fps ablesen. Dafür ist sie zu ungenau.
 
Zuletzt bearbeitet:
SKu schrieb:
Aber bei der angefügten Grafik kann ich keine Differenz von 0.099 Millisekunden zwischen 100fps und 101fps ablesen. Dafür ist sie zu ungenau.

Ich glaube genau das war auch die Aussage der Grafik, der Unterschied in höheren fps Zahlen ist viel kleiner also schwerer zu bemerken.
 
Taxxor schrieb:
Ich glaube genau das war auch die Aussage der Grafik, der Unterschied in höheren fps Zahlen ist viel kleiner also schwerer zu bemerken.

Ja, das habe ich verstanden. Aber ich habe mich gefragt woher er die Werte nimmt. Wenn ich mir die Einteilung ansehe, dann fängt es bei 0 fps an und geht direkt auf 200. Da jetzt zu bestimmen wo 101 fps liegen, ist eher schätzen.

Aber um beim Thema zu bleiben: Ja, die Vega 56 ist interessant. Allerdings glaube ich nicht, dass sie zu einem akzeptablen Preis, erst recht nicht die Strix mit der Kühllösung, auf den Markt kommt. Gehe da eher von aus, dass es sich wie beim Vega 64 Launch verhalten wird. Anfangs ein paar Karten, die für UVP + Händleraufschlag weggehen und danach liegt die Karte schon eher Richtung 500€ mit Referenzdesign.

Jetzt kann man natürlich sagen, dass eine Vega 56 mit UV auf GTX1080FE Niveau, in ausgewählten Titeln auch teils schneller, ist, doch ich glaube auch nicht, dass 25% Leistungsplus bei jeder Karte möglich sein werden. Allein durch die Serienstreuung bedingt. Die Karten sind nicht 100% identisch. Ist dann wieder Lotto, ob man ein gutes Exemplar erwischt hat. Und dann gibt es da noch die Unbekannte namens Treiber bei AMD. Was in Zukunft dann die bislang deaktivierten Features dann noch real auf die Straße bringen, ist völlig unklar. Da muss ich schon sehr großes Vertrauen in das Software Engineering von AMD besitzen.
 
Zuletzt bearbeitet:
Die Grafik braucht es dafür doch gar nicht, du kannst doch einfach rechnen.
100fps ist 1/100 = 1ms, und 101fps ist 1/101= 0,99ms
Differenz 0,01ms = 100µs(gerundet)

Zur Vega und Treiber: Wie ich das sehe kann es doch nur in eine Richtung gehen und die heißt mehr Leistung.
Also im schlechtesten Fall hat man eben eine Vega56 UV mit der Leistung gleich oder etwas oberhalb der 1080 FE bei etwas weniger Verbrauch. Und im Besten Fall sehen wir sie in einem Jahr 10% hinter einer 1080Ti.
Falsch machen kann man da bei 500€ für Customs nichts.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Die Grafik braucht es dafür doch gar nicht, du kannst doch einfach rechnen.
100fps ist 1/100 = 1ms, und 101fps ist 1/101= 0,99ms
Differenz 0,01ms = 100µs(gerundet)

Zur Vega und Treiber: Wie ich das sehe kann es doch nur in eine Richtung gehen und die heißt mehr Leistung.
Also im schlechtesten Fall hat man eben eine Vega56 UV mit der Leistung und Verbrauch einer 1080 FE

Das kommt aber nicht hin, weil die Differenz 0.099ms betragen muss. 0.099ms = 99µs. Bei 0.01ms sind es 10µs.
 
Vielleicht hat Schrank sich verrechnet^^ Wobei das Verhältnis von 60 zu 100fps und 270 zu 99µs richtig aussieht...

Edit: Nein ich hab falsch gerechnet(hätte dir auch auffallen können :P )

1/100 ist natürlich 0,01 und damit 10ms und nicht 1ms(das wären 1000fps lol)
Und 1/101 folglich auch 9,90099099...ms

Damit Different 0,1 = 100µs
 
Zuletzt bearbeitet:
Überprüfe ich deine Rechnung? Nein. :P
Aber jetzt stimmt es, ja.
 
SKu schrieb:
Überprüfe ich deine Rechnung? Nein. :P
Aber jetzt stimmt es, ja.

Ja, so habe ich es gemeint, ein 1 FPS unterschied ist nicht immer dasselbe.
Viele Leute sagen, "1 FPS, das merkt man eh nicht", das stimmt aber nicht 1 FPS Unterschied zwischen 30 und 31 ist genau so ein großer zeitlicher unterschied wie zwischen 100 und 112 FPS.

Das was man spürt ist der zeitliche Unterschied in Frametime.
Der Zeitliche Unterschied zwischen den Frames zwischen 60 und 61 FPS sind 270 µs = ((1s/60)-(1s/61)).
Hier noch ein Plot der Zeigt, wie die Frametime exponentiell mit sinkenden FPS ansteigt und daher auch der input lag.
Rastergrafik.png
Falle ich also von 31 auf 30 FPS, habe ich genau so viel zusätzlichen Input Lag wie wen ich von 112 auf 100 FPS falle. Je niedriger die FPS, desto größer ist der Spürbare Unterschied. Wenn ich unter 60 FPS falle, wird es für mich schon spürbar ruckelig.
 

Anhänge

  • Mappe1.png
    Mappe1.png
    39,6 KB · Aufrufe: 481
Zuletzt bearbeitet:
Taxxor schrieb:
Tearing wird erst eliminiert, wenn deine fps auch der Herzzahl entsprechen(besser noch ein Stück darüber), darum ging es ja, dass man bei 144Hz trotzdem noch ASync braucht, es sei denn man hat wirklich konstante 144fps dazu, also wirklich exakt alle 7ms ein Bild von der GPU.
.

Hast du nen 144hz? Anscheinend nicht.

Jedes Game, welches bei mir läuft ruckelt nicht, zeigt kein Tearing etc.
Egal ob 60 oder 140 fps. Allea supersmooth.
Bei Rennspielen Shootern etc drehe ich sogar die Details runter denn da fühlen sich mehr Fps sehr gut an, egal ob Vsynch Freesync oder Gsynch.
Ich deaktiviere in diesen Games diesen Kram (weniger Inputlag) denn bei 100+ fps (144hz Moni) braucht es nicht einmal Vsynch gegen Tearing ;)

Bin gespannt auf nen gescheiten Test zw. 56/64 und 1070/80 UV+OC.
 
DrFreaK666 schrieb:
Das dürfte dir eher helfen, als die vielen Kommentare hier... ;)
https://youtu.be/_jiXkrRoD4w
Ersetze die 1070 einfach durch eine RX56

Danke für den Link, sehr aufschlussreich. Von allen getesteten Spielen interessiert mich nur Witcher 3 :D, also geht mein Plan auf.

Holzinternet schrieb:
Hi Mike,

wenn Du VR in vernünftigen Dimensionen betreiben magst brauchst Du High-End Hardware. Zumindest was die GPU anbelangt. Eine GTX 1080 oder 1080Ti muss es da sein. Bei der CPU wenn sie von AMD kommt mindestens nen 1600 oder besser.

Bei Intel die i7 der 2. Generation aufwärts.


Mit weniger bekommst Du die einfachen VR Programme zum laufen, keine Frage. Möchtest Du aber Dinge wie Elite: Dangerous oder The Solus Project laufen lassen und nicht nach 5 min die Bewegungskrankheit bekommen brauchst Du Dampf in der Kiste.

Ich glaube der FX8350/70 wird unterschätzt. VR mit der Vive geht mit meine System einwandfrei (FX8350@4,4 / 16GB RAM / RX290), nur bei Actionkrachern wie RawData oder Dead Effect 2 merkt man die Grenzen vom System. Aber da gehts meinem Freund mit nem i7 4te und einer 980er genau so. Gegen Bewegungskrankheiten dürfte ich immun sein, Arizona Sunshine und EVE Valkyrie beim ersten Kontakt gleich 3-4h die Brille nicht abgenommen :freak:

Nvidia kommt mir nicht in die Kiste, die Firmenpolitik geht mir zu sehr gegen den Strich und Geschmäcker sind eben verschieden.
 
Caramelito schrieb:
Hast du nen 144hz? Anscheinend nicht.

Jedes Game, welches bei mir läuft ruckelt nicht, zeigt kein Tearing etc.
Egal ob 60 oder 140 fps. Allea supersmooth.
Ja ich habe einen 144Hz Monitor mit Freesync, aber leider eine Nvidia Karte, muss also bis jetzt noch VSync aktiv haben weil ich sonst Tearing habe.

Du ja anscheinend auch, denn erst schreibst du egal ob 60 oder 140fps du hast kein Tearing.
Danach schreibst du bei 100+ fps machst du VSync aus, weil du bei über 100fps auch kein Tearing hast(was falsch ist, du bemerkst es nur nicht weil es durch die höheren fps stark abgeschwächt ist, messbar verschwunden wäre es erst bei 144fps).

Aber warum musst du bei diesen Games extra VSync ausmachen, wenn du es doch sowieso nie benutzt?
Oder benutzt du es doch und hast im Bereich um die 60fps ohne Sync etwa stärker sichtbares Tearing, so wie jeder andere auch?
 
Zuletzt bearbeitet:
Taxxor schrieb:
Ja ich habe einen 144Hz Monitor mit Freesync, aber leider eine Nvidia Karte, muss also bis jetzt noch VSync aktiv haben weil ich sonst Tearing habe.

144 Hz mit V-Sync stelle ich mir nicht schön vor, dann fällst du ja auf effektiv 72 FPS zurück, wenn du nicht die 144 FPS erreichst. Das heißt du hast in einem Moment eine Frametime von 1s/144~=7ms und im nächsten Moment 1s/72=~14ms, je nachdem ob du grade die 144 FPS erreichts.
Ich würde Adaptive V-Sync aktiveren, dann ist V-Sync aus wenn du weniger als 144 FPS hast und an wenn du 144 FPS oder mehr hast, spielt sich um einiges flüssiger, dafür aber mit Tearing unter 144 fps.
 
Zuletzt bearbeitet:
Ist auf jeden Fall besser als 60Hz mit Vsync, und komm mit ner 980 mal auf 144fps in 1440p^^
40-80fps ist so der Bereich in den ich mich die meiste Zeit bewege. Was auch okay wäre, wenn ich Freesync denn nutzen könnte. Daher hoffe ich auf die Vega56.
 
Taxxor schrieb:
Ist auf jeden Fall besser als 60Hz mit Vsync

Stimmt, so wechselst du effektiv zwischen 72/48/36 Hz, mit einem 60 Hz-Monitor währen es 60/30/20.
 
Und wie sieht es mit Fast Sync oder Enhanced Sync dann aus? Input-Lag liegt zwar höher als ohne Sync aber definitiv niedriger als mit VSync. Ist der Unterschied zwischen Fast oder Enhanced Sync im Vergleich zu Free Sync/GYSYNC überhaupt noch spürbar? Ich empfand schon 144Hz ohne FreeSync smoother als 90Hz mit FreeSync.
 
Ich habe schon öfter gelesen, dass die Einstellung "Fast" in der Nvidia Systemsteuerung nur dann zu empfehlen ist, wenn die GPU die ca doppelte fps Zahl der Bildwiederholrate packt. Also in meinem Fall 288fps lol.

Ansonsten ist wohl stottern und flackern zu bemerken.
 
Zurück
Oben