News Teaser: AMD zeigt die Radeon RX 6000 mit RDNA 2

Linmoum schrieb:
Alle FreeSync-Monitore, die als untere Range 48Hz haben und nach oben hin 120Hz+ haben, bieten auch unterhalb von 48Hz VRR. Ich wundere mich langsam wirklich, dass selbst in Nerd-Foren derart viele nichts von LFC wissen.

das bedeutet lediglich: er verdoppelt die gelieferten Bilder aber 1:1 synchronisieren tut er sie nicht unter 48 Hz,
bei Nvidia G-Sync beginnt die Verdoppelung glaub ich unter 30 FPS,
das hab ich auch schon mal provoziert mit entsprechenden Grafikeinstellungen,
das Ergebnis ist leider Grütze, man merkt ein deutliches lag bei Maus und Tastatur Befehlen. Es sieht zwar
"nicht schlecht" aus, aber es taugt halt nichts wegen der latancy.
 
engineer123 schrieb:
das Ergebnis ist leider Grütze, man merkt ein deutliches lag bei Maus und Tastatur Befehlen. Es sieht zwar
"nicht schlecht" aus, aber es taugt halt nichts wegen der latancy.
Es ist halt ein Kompromiss um die Hz vom Monitor trotz geringer FPS noch in einem angenehmen Bereich zu halten. Nur der perfekten Synchronisation wegen die Wiederholrate auch unter 30 bzw. 48 Hz zu betreiben, dürfte auf dauer auch nicht angenehm sein. Da fängt man doch irgendwann so langsam schon an, die Wiederholrate "zu sehen" in Form von Flimmern.
 
@think->write!

Das erinnert mich ein wenig an die Lüfter auf dem Radiator der Vega LC, auch wenn der Verbindungsring nun an den Rand der Schaufeln gewandert ist

@SavageSkull

Die Ausführung war doch vollkommen korrekt.
Unter dem Oberbegriff Adaptive Sync fallen am Ende alle Varianten da diese von der grundlegenen Arbeitsweise her gleich sind (Bildrefresh wird erst ausgelöst wenn ein neues Bild kommt)
AMDs Freesync Umsetzung kam zwar vor der VESA Umsetzung aber das beruht am Ende nur darauf das AMD sich um die Aufnahme darin bemüht hatte.
Am Ende beruht aber alles auf einer Technologie die beim embedded Displayport als Stromsparfunktion diente (kein Bild Refresh wenn kein neues Bild kommt) und lediglich uminterpretiert wurde. War das VBLANK?

Der größte Unterschied zwischen FreeSync/adaptive-Sync und G-Sync ist am Ende auch nur das nvidia dafür einen eigenen Bildprozessor verwendet, was damals am Ende auch erforderlich war weil es damals praktisch keine Bildprozessoren für normale Monitore gab die das Stromsparfeature besaßen. (wozu auch bei einem Gerät fürs Stromnetz?)
 
  • Gefällt mir
Reaktionen: stevefrogs und Mcr-King
@mibbio ^^absolut, die (geplante) Grafikkarte sollte nach unten hin immer so mindestens 30-50 fps bei G-Sync Monitoren bereitstellen können, sonst fällt man halt irgendwann in die Frame Verdopplung.
Bei FreeSync Monitoren mit Beginn 48 Hz, sind entsprechend 50-60 Frames ein gutes Minimum.
 
  • Gefällt mir
Reaktionen: Mcr-King
think->write! schrieb:
Adaptiv Sync war für embeded displayPort schon vorher 2014 standardisiert.

Aber es war ursprünglich nicht wirklich dafür gedacht, die Framerate des Displays zwecks besserem Gaming-Erlebnis dynamisch mit den FPS der Grafikkarte zu synchronisieren. Adaptive Sync war auf embeded-DP begrenzt, weil es bis dahin nur als Stromsparfeature genutzt wurde. Also um die Bildfequenz des Displays bei bestimmten, unkritischen Inhalten runter zu stellen und so den Stromverbrauch des Mobilgerätes zu reduzieren.

Es musste erstmal Nvidia mit ihrem propritären G-Sync-Modul kommen, bevor AMD später mit seinem Freesync nachzog und dabei die clevere Entscheidung traf, dafür einen (in einem anderen Segment) schon existierenden Vesa-Standard "zweckzuentfremden".

(Wobei man klarstellen muss, dass Freesync viel mehr ist, als nur Adaptive Sync. Die eigentliche "Zauberrei" passiert in den Treibern und GPUs und die wurde von AMD selbst als "Secret Sauce" bezeichnet. Adaptive Sync ist nur die standardisierte "Schnittstelle", die vom propritären Freesync zur Kommunikation mit dem Display genutzt wird.)

Die Wahrheit liegt also irgendwo dazwischen. Grundsätzlich ist es besser, auf offene Standards zu setzen, aber oft muss halt doch erstmal jemand mit einer eigenen, propritären Innovation kommen, um die Sache in Bewegung zu setzen, ohne vorab alle anderen mit an Bord holen zu müssen.
 
  • Gefällt mir
Reaktionen: Mcr-King und Tzk
RonnyVillmar schrieb:
Ich verstehe nur nicht, warum die Stromanschlüsse auf die Seite der Karte müssen,
wenn man doch dort offenbar die warme Luft abführt.
Da währen die Stromanschlüsse am Kartenende doch besser aufgehoben,
zumal es sich auch besser verkabeln ließe.
Ich lach mich schlapp früher hatten die Karten ihre Stromanschlüsse immer am Ende und alle haben abgekotzt weil man dann Probleme mit der Verkabelung bekommt wenn die Karte lang ist und die Festplatten im weg sind. Ich bin froh das die Anschlüsse auf der Seite sind und hoffe das bleibt auch so.
 
  • Gefällt mir
Reaktionen: nikky, McFritte, Kalsarikännit und 5 andere
Hoffe der Preis wird okay sein. Eine Karte zwischen 3070 und 80er Niveau würde mir schon reichen. Dazu 16GB RAM und die Software sollte drauf laufen. Diese Treibergeschichten halten mich halt wirklich von einem Kauf einer AMD Karte ab. Hab hier noch ne 5500XT rum liegen....
 
KCX schrieb:
Geht mir genauso.. So gerne ich auch mal wieder eine AMD drin haben möchte, fällt mir der Wechsel schwer. Auch ich habe eine Gsync Monitor, drei Shields und nutze den Inhome Stream schon recht häufig.
Ergänzung ()


Klar, demnächst sogar bei den RTX 2000 und GTX 1600 über HDMI 2.0

Hinzu kommt, dass ich wirklich sehr zufrieden bin mit den Nvidia Karten und auch mit Gsync. Es gibt für mich keinen Grund auf AMD zu wechseln.

Im Gegenteil. Ich hatte vor ein paar Monaten zunächst eine 5700XT hier und dann 2x 5700 im CF. Die Treiberprobleme (Black-Screen) haben mich in den Wahnsinn getrieben. Die Leistung war soweit aber ganz ordentlich.

Ich hatte zu dem Zeitpunkt einen 34" Gsync compatible Monitor von LG. Der Monitor selbst war super. Man merkt aber, dass natives Gsync eine andere Hausnummer ist, als Freesync, auch wenn die AMD Fanboys das nicht wahr haben wollen. Lediglich die absoluten Highend G-Sync compatible Geräte sind da wirklich gut.

Das Gsync von 1-X Hz funktioniert, ist einfach toll. Von daher ist es eben auch dementsprechend teurer.
 
  • Gefällt mir
Reaktionen: KCX
ok auch wenns etwas in VRR abdriftet... wenn ich das jetzt hier so lese und auch andere infos aus dem netz reinnehme dann sind die Unterschiede GSync und Freesync 2 schon recht klein.

Um mal bei dem Monitor ohne Gsync und ohne Lüfter zu bleiben:
https://geizhals.de/lg-ultragear-38gn950-b-a2302705.html?hloc=at&hloc=de

Auch wenn da typisch 48hz als kleinste Refrehsrate angegeben ist (was Sinn macht, ist selbst bei den Gsync Panels nicht anders) dann kann man dennoch darunter angenehmes Spielgefühl ohne Tearing geniesen, LFC sei Dank.
Bei Gsync macht dabei das Gsync Modul die Frame Dopplung (30 FPS werden zb als 90 oder 120 hz ausgegeben) und wenn kein Modul da ist wie bei AMD und einer Geforce am Freesync Panel - dann macht die GPU eben die FrameDopplung und gibt quasi dasselbe Bild X fach an den Monitor aus - right?

Quelle zb Hier
 
  • Gefällt mir
Reaktionen: Mcr-King
mibbio schrieb:
Es steht aber jedem Hersteller frei, das auch zu unterstützen, weil es ein gebührenfreier, offener Standard ist.

Nicht bei Freesync 2 (HDR). Das ist eine AMD-Marke (heißt jetzt übrigens FreeSync Premium und Premium Pro).
Die Spezifikationen hat AMD festgelegt und gibt sie nicht an andere raus.
Der gemeinsame "gebührenfreie Standard" bleibt Adaptive Sync, also quasi Freesync 1.

https://www.heise.de/newsticker/mel...ium-und-FreeSync-Premium-Pro-ein-4630561.html
 
  • Gefällt mir
Reaktionen: noxon
Herdware schrieb:
aber oft muss halt doch erstmal jemand mit einer eigenen, propritären Innovation kommen, um die Sache in Bewegung zu setzen
Soweit stimme ich dir da zu. Nur hätte Nvidia sich dann ja auch aktiv am freien Standard beteiligen können, nachdem die Sache an Fahrt aufgenommen. Sie hätten G-Sync ja auch nicht komplett einstampfen müssen sondern die Punkte, in denen es besser ist, in die Weiterentwicklung von Adaptive Sync einbringen können. Sie setzen aber weiterhin primär auf G-Sync und unterstützen den freien Standard per "G-Sync compatible" eher halbherzig.
 
aldaric schrieb:
Keine Ahnung wie man da versuchen kann, AMD den schwarzen Peter zuzuschieben.
Alles korrekt. Was mich allerdings immer wundert ist, dass die ganzen Nvidia Kritiker kein Wort über die propritären Elemente In FreeSync 2 verlieren, die AMD dort implementiert hat.
Die darin enthaltende Low Latency API zum Beispiel müsste man genau so kritisieren wie Nvidias GSync Modul.
Auch die funktioniert nur zwischen FreeSync 2 Monitoren und AMD Karten und kann von Nvidia nicht implementiert werden.
Das Gleiche gilt für das HDR Tone Mapping Feature, das in FreeSync 2 enthalten ist. Das muss von den Entwicklern sogar speziell in den Spielen implementiert werden, ähnlich wie PhysX, damit es funktioniert.
All das sind keine VESA Standards, sondern ein propritäre AMD Features, die seltsamerweise niemals erwähnt werden, wenn man sich ständig über Nvidia und deren propritäre Techniken aufregt.
 
  • Gefällt mir
Reaktionen: Mcr-King
DocWindows schrieb:
Der gemeinsame "gebührenfreie Standard" bleibt Adaptive Sync, also quasi Freesync 1.

Das ist wie gesagt (soviel ich weiß) auch nicht ganz richtig. Adaptive Sync ist der offene Standard (VESA). Freesync ist und war hingegen schon immer AMDs eigene, propritäre Technologie. Der anspruchsvollere Teil passiert vor allem in AMDs (und inzwischen auch Nvidias) Treibern. Adaptive Sync ist nur die Methode, wie das Display angesteuert wird.

So ist es durchaus möglich und wahrscheinlich, dass Intel mit einer eigenen VRR-Technik kommen wird, die Adaptive Sync nutzt, aber das wird kein Freesync sein.

Genau wie bei Nvidias auf Adaptive Sync aufsetzenden Technik. Das wird nicht nur auf Marketingründen "G-Sync compatible" genannt, sondern funktioniert auf Seiten des Treibers und der Grafikkarte auch anders als AMDs Freesync, obwohl es auf die selbe Art mit dem Display kommuniziert. (Deswegen kann es auch je nach Monitor zu anderen Ergebnissen führen.)
 
Verstehe nicht wie man GSync Monitore gut findet also ohne HDR sowieso Käse und viel zu Strom fressend. 😉

HDR auf den Konsolen ist traurigerweise weiter verbreitet und bringt bei der Bild Qualität viel mehr. Zumindest meine Meinung dazu hoffe ja mal dass es auf dem PC auch noch vorran geht.

So jetzt aber mal zurück zum Thema die RX5900 und RX5800 sehen jetzt mal nicht so schlecht aus 👍
 
Designtechnisch gibt's dieses mal aber wirklich nichts zu meckern. Allen Recht kann man es sowieso nicht machen :D
 
Herdware schrieb:
Das ist wie gesagt (soviel ich weiß) auch nicht ganz richtig. Adaptive Sync ist der offene Standard (VESA). Freesync ist und war hingegen schon immer AMDs eigene, propritäre Technologie. Der anspruchsvollere Teil passiert vor allem in AMDs (und inzwischen auch Nvidias) Treibern. Adaptive Sync ist nur die Methode, wie das Display angesteuert wird.

Wenn man etwas zum besseren Verständnis vereinfacht ausdrückt, ist es selten 100% korrekt.

Ich hoffe dass der Bezug trotzdem klar ist.

Adaptive Sync = Freesync 1 = GSync Compatible
Freesync = AMD Markenname, GSycnc Compatible = nVidia Markenname

Freesync 2 = Adaptive Sync + AMD Secret Sauce = nicht von nVidia implementierbar, da Secret Sauce drin ist

Das ist zwar jetzt auch vereinfacht, aber ein bißchen genauer.
 
mibbio schrieb:
Sie hätten G-Sync ja auch nicht komplett einstampfen müssen sondern die Punkte, in denen es besser ist, in die Weiterentwicklung von Adaptive Sync einbringen können. Sie setzen aber weiterhin primär auf G-Sync und unterstützen den freien Standard per "G-Sync compatible" eher halbherzig.
So gesehen doch ein clever Schachzug, in jedem 5 Kommentar in dem Thread steht doch, das die User nicht warten, weil sie eh nicht auf AMD wechseln würden, weil das Feature-Set (unter anderen sehr häufig genannt Gsync) fehlt. Somit bindet nV die Gamer langfristig an sich selbst, da die ganzen Leute halt Gsync Monitore haben und daher nicht wechseln.
 
  • Gefällt mir
Reaktionen: Ernie75 und SavageSkull
@Mcr-King der PC Gamer ist für seine Engstirnigkeit und Misstrauen bekannt. Dauert immer bisschen bevor es nicht mehr ohne geht ;)

Man muss aber auch Sagen dass es dem Monitormarkt noch an bezahlbaren Produkten fehlt die man ernstnehmen kann ohne dass sie gleich 2500 Euro Kosten.
 
  • Gefällt mir
Reaktionen: Mcr-King
noxon schrieb:
Alles korrekt. Was mich allerdings immer wundert ist, dass die ganzen Nvidia Kritiker kein Wort über die propritären Elemente In FreeSync 2 verlieren, die AMD dort implementiert hat.
Vielleicht sollte man da auch noch unterscheiden, was ist das Grundgerüst (AdaptSync) und was dazu eine Erweiterung die nur den Umfang an Feature (Freesync 2) erweitert. Ist ein kompliziertes Thema, denn wo genau zieht man halt die Grenze, denn das ganze verschwimmt ja auch untereinander.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben