Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Teaser: AMD zeigt die Radeon RX 6000 mit RDNA 2
- Ersteller Frank
- Erstellt am
- Zur News: Teaser: AMD zeigt die Radeon RX 6000 mit RDNA 2
noxon
Admiral
- Registriert
- Sep. 2004
- Beiträge
- 7.570
Insbesondere, da Nvidia mittlerweile ja auch Gsync auf Basis von AdaptiveSync anbietet.canada schrieb:Vielleicht sollte man da auch noch unterscheiden, was ist das Grundgerüst (AdaptSync) und was dazu eine Erweiterung dir nur den Umfang an Feature (Freesync 2) erweitert. Ist ein kompliziertes Thema, denn wo genau zieht man halt die Grenze, denn das ganze verschwimmt ja auch unter einander.
GSync und FreeSync sind halt ganz einfach nur Markennamen der Hersteller zum Bewerben des adaptiven Refreshes.
Dieses Feature kann aber je nach Hersteller auf unterschiedlichen Technologien basieren und dazu unterschiedlliche zusätzliche propritäre Features enthalten.
t3chn0
Fleet Admiral
- Registriert
- Okt. 2003
- Beiträge
- 10.266
aldaric schrieb:FreeSync war die Bezeichnung des Treibers von AMD. Der Standard ist Adaptive Sync und kann von jedem Hersteller genutzt werden.
Keine Ahnung wie man da versuchen kann, AMD den schwarzen Peter zuzuschieben. nVidia ist doch derjenige, der ein Modul entwickelt hat um die Konkurrenz auszuschließen. Und es hat die Preise der Monitore unnötig in die höhe schießen lassen.
Oh, erinnert sich noch wer an den tollen ASUS Monitor der sogar gekühlt werden musste, weil das G-Sync Modul so heiß lief?
Den Monitor habe ich und ja, dieser hat einen aktiven Lüfter, genau wie die 65" 4K Monitore auch.
Im laufenden Betrieb hört man nichts davon. Lediglich wenn man den Rechner ausmacht und den Monitor ausschaltet, bleibt ein störendes Surren für ca. 2 Minuten, weil der Lüfter nachläuft.
Die Belüftung braucht man jedoch, wenn man auf so einer großen Fläche mit 512 Dimming Zones und HDR1000 arbeiten möchte. Hier entstehen schon gewaltige Temperaturen.
https://www.prad.de/testberichte/test-asus-pg35vq-luxus-hdr-gaming-monitor/
RonnyVillmar
Lieutenant
- Registriert
- Apr. 2020
- Beiträge
- 812
Und du hast dein Gehäuse von 2003 noch im Einsatz?Haffke schrieb:Ich lach mich schlapp früher hatten die Karten ihre Stromanschlüsse immer am Ende und alle haben abgekotzt weil man dann Probleme mit der Verkabelung bekommt wenn die Karte lang ist und die Festplatten im weg sind. Ich bin froh das die Anschlüsse auf der Seite sind und hoffe das bleibt auch so.
Sind in deinem Gehäuse die ollen Festplatten noch vor der Grafikkarte verbaut?
Als bei mir sieht das heute ganz anders aus und ich habe da sehr viel Platz!
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.898
DocWindows schrieb:Adaptive Sync = Freesync 1 = GSync Compatible
Freesync = AMD Markenname, GSycnc Compatible = nVidia Markenname
Wie gesagt, ich bin sehr sicher, dass das so nicht korrekt ist.
Sowohl Freesync als auch "G-Sync compatible" sind nicht einfach nur andere Namen für Adaptive Sync.
Adapitve Sync ist nur eine Erweiterung des DP- (und HDMI-) Standards, über die die Grafikkarte dem Display sagen kann, wann (oder in welchen Zeitabständen) das seinen nächsten Refresh machen soll. Man könnte es sich als eine zusätzliche Signalleitung für diesen Zweck vorstellen. (Natürlich keine echte, physikalisch vorhandene Leitung.)
Um die Refreshrate aber mit den FPS der Grafikkarte ohne Latenzen dynamisch zu synchronisieren, gehört wesentlich mehr als nur ein zusätzlicher direkter Draht zum Display-Contoller. Die ganze, dafür nötige Arbeit wird in Treibern und eventuell auch in den GPUs geleistet (und bei Nvidias ursprünglichen G-Sync wahrscheinlich teilweise auch in SoC des Moduls). Dieser Teil ist sowohl bei NVidia als auch AMD propritär und wird es bei Intels sicher kommender VRR-Technologie auch sein.
Das einzige, was AMDs (Freesync), Nvidias ("G-Sync compatible") und zukünftig auch Intels VRR-Technologien gemeinsam haben, ist das Protokoll, über das sie mit dem Display kommunizieren. Der Rest ist herstellerspezifisch und der viel relevantere Teil, in dem die meiste Entwicklungsarbeit steckt.
M
Murasame
Gast
Optisch gefallen mir beide (2 sowie 3 Lüfter) sehr gut.
DocWindows
Vice Admiral
- Registriert
- Mai 2013
- Beiträge
- 6.811
@Herdware Naja, aber auf die Unterstützung des Protokolls kommt es ja auch am Ende für den Consumer an. Welche Güte oder Technik hinter der Implementierung steckt, ist ja für die Erfüllung des Standards nicht relevant. Da ist ja eh so gut wie nichts vorgegeben.
Falls AMDs Implementierung von DXR schwächer sein sollte als nVidias, würde man ja auch nicht sagen dass beide nicht die gleich Funktionalität erfüllen. Wenns um die Güte der Implementierung geht, würde ich jederzeit blind nVidia kaufen. Allein aus den Lehren der Vergangenheit. Aber ich würde nicht sagen dass AMD DXR irgendwie falsch unterstützt oder dass es am Ende nicht dasselbe ist.
Falls AMDs Implementierung von DXR schwächer sein sollte als nVidias, würde man ja auch nicht sagen dass beide nicht die gleich Funktionalität erfüllen. Wenns um die Güte der Implementierung geht, würde ich jederzeit blind nVidia kaufen. Allein aus den Lehren der Vergangenheit. Aber ich würde nicht sagen dass AMD DXR irgendwie falsch unterstützt oder dass es am Ende nicht dasselbe ist.
Das ist richtig, aber ein Vergleich von Tiled Rendering zwischen Vega und Maxwell ist doch sehr weit von den Features von DX12 entfernt.Wadenbeisser schrieb:Viele Features werden nur schrittweise umgesetzt, bei allen Herstellern.
https://i.imgur.com/u5aCwAC.png
Den Denoiser gibt es aber nicht für Spiele, deswegen meine Einschränkung. Da wird RT nicht von beschleunigt, nur von DLSS.noxon schrieb:und deshalb werden dort so Dinge, wie DLSS, RTX Voice oder auch der KI Denoiser implementiert.
Und ob RTX Voice mittlerweile die Tensor-Cores nutzt, weiß ich nicht. Aber bei der Vorstellung war das noch nicht der Fall. Deswegen meine Einschränkung auf DLSS.
Zuletzt bearbeitet:
engineer123
Banned
- Registriert
- Jan. 2009
- Beiträge
- 3.783
Krautmaster schrieb:ok auch wenns etwas in VRR abdriftet... wenn ich das jetzt hier so lese und auch andere infos aus dem netz reinnehme dann sind die Unterschiede GSync und Freesync 2 schon recht klein.
Um mal bei dem Monitor ohne Gsync und ohne Lüfter zu bleiben:
https://geizhals.de/lg-ultragear-38gn950-b-a2302705.html?hloc=at&hloc=de
Auch wenn da typisch 48hz als kleinste Refrehsrate angegeben ist (was Sinn macht, ist selbst bei den Gsync Panels nicht anders) dann kann man dennoch darunter angenehmes Spielgefühl ohne Tearing geniesen, LFC sei Dank.
Bei Gsync macht dabei das Gsync Modul die Frame Dopplung (30 FPS werden zb als 90 oder 120 hz ausgegeben) und wenn kein Modul da ist wie bei AMD und einer Geforce am Freesync Panel - dann macht die GPU eben die FrameDopplung und gibt quasi dasselbe Bild X fach an den Monitor aus - right?
Quelle zb Hier
Ja, das Tearing ist auch in der Frame-Verdopplung nicht zu finden, zumindest nicht bei meinem G-Sync Monitor, wenn ich unter 30 FPS im Spiel liege. Technisch gesehen, kommt die Grafikkarte nicht mehr "nach" rechtzeitig den neuen Frame zu berechnen, deshalb hat Nvidia definiert, dass unterhalb 30 Frames (was landläufig noch als "flüssig" angesehen wird), das letzte Bild zweimal an den Monitor weitergegeben wird, und genau da entsteht dann dieser delay, weil ich z.B. auf w drücke, der Befehl dann aber nicht im 2. Bild sondern erst im 3. Bild auf dem Bildschirm zu sehen ist. In der Millisekunde des Tastendrucks sieht man den Befehl also nicht auf dem Schirm, sondern eben ganz leicht verzögert. Das ist meinem Empfinden nach immer noch besser als wenn das Bild praktisch ständig kurz "stoppt" und starkes Tearing zu sehen ist (bei Monitoren ohne G- und FreeSync), allerdings wirklich eine Notlösung. Die Grafikkarte sollte Frame-Raten über der Frame-Verdopplung ausgeben.
in Bezug auf den LG-Monitor und die 3080 folgende Hinweise:
3840x1600p sind ca. 74% der Pixelmenge von UHD, schau Dir die 2080 Ti in den worst case Szenarien
"Red Dead Redemption 2" und "Horizon Zero Dawn" an.
Rechne bei den UHD Werten 26% dazu, dann noch 30-40% für die 3080 - je nachdem was heute der Test
im UHD Performancerating als Zugewinn zur 2080 Ti ausweist.
Gemäß dieser Rechnung dürfte man mit einer 3080 bei 3840x1600p immer noch klar über 60 fps in diesen Titeln liegen, also ist man in der Spanne drin.
Viele andere Spiele sind weniger teils deutlich weniger fordernd was die GPU betrifft und Du kommst locker in
die Spanne über 48 Frames.
Cpt.Willard
Commander
- Registriert
- Juni 2005
- Beiträge
- 2.358
Japp, war richtig "nice" die Stecker rauszuziehen, bzw. die Karte mit Steckern raus- oder reinzubekommen.Haffke schrieb:und alle haben abgekotzt weil man dann Probleme mit der Verkabelung bekommt wenn die Karte lang ist...
Mit der 8800 GTX hatte ich derart viel Spaß im Chieftec Mesh Big Tower und dem Festplattenkäfig 🤮
Es ist nicht die optisch schönste Entscheidung mit den Steckern an der Seite, doch die praktikabelste, wenn man doch ein wenig mehr Kompatibilität reinbringen will, gerade in Zeiten, in denen manche Karten die 30cm sprengen.
Zum Kühlerbild - hauptsache das Ding ist leise und kühl, man muss es auch mal von der Warte betrachten, dass dann so ein Amor-Scheiß von MSI z.B. obsolet wäre und die im Gegensatz zur Referenz sich mal wirklich mehr Mühe geben müssten, bisher macht das bei AMD eigentlich nur Sapphire, Powercolor und MSI mit der GamingX-Serie, der Rest ist mit So lala-Ausnahmen wie den Aorus Versionen ... Schrott.
KCX
Commodore
- Registriert
- Aug. 2007
- Beiträge
- 4.504
Gsync, Freesync, Adaptive Sync, VRR... Hauptsache keine Risse im Bild und ein flüssiges Ergebnis. Wenn ich bei der PS dieses endlose Tearing sehe, kann ich jedes Mal 🤮. Zocke gerade mit meiner Frau Lego DC an der PS Pro, da sie am Fuß operiert wurde und nicht viel machen kann. Im Splitscreen ist das einfach nur krass. Es macht mir keinen Spaß mehr so zu spielen, Ruckeln, Risse und generell wenige Frames. Ich bemitleide die Konsolen Spieler immer, wenn ich das sehe... 30fps mit Tearing und Drops ist einfach als verwöhnter PC Zocker Höchststrafe. Hoffe ja wirklich, dass sich das mit den neuen Konsolen und TVs erledigt. Evtl. macht mir PS Zocken dann auch wieder Fun!?
dynastes
Banned
- Registriert
- Apr. 2007
- Beiträge
- 1.413
mibbio schrieb:Mit dem Unterschied, dass es auch allen anderen Herstellern frei stand, auf dem Adaptive Sync Standard aufzubauen (was anderes ist das bei AMD nicht). Nvidia hat sich aber zu einen eigenen Technik entschieden, ohne die Möglichkeit, dass andere Hersteller das nutzen können selbst wenn sie gewollt hätten.
... und relativ kürzlich haben sie dann begonnen, sich dem offenen Standard doch zu öffnen, weil ihnen bewusst wurde, dass nur eine kleine Minderheit der Kundschaft noch zusätzlich zu einem G-Sync-Monitor greift, wenn das künftig potenziell weniger Flexibilität bei der Grafikkartenwahl bedeutet. Deshalb hat man ja G-Sync-Compatible eingeführt und neuere Versionen des G-Sync-Moduls für Radeon-Karten freigegeben.
Den jetzt herrschenden Status Quo finde ich daher relativ begrüßenswert: Günstigere VRR-Monitore für alle und solche mit G-Sync-Modul für jene, die dies als Premiumfeature wünschen - ohne jedoch künftig auf Radeons verzichten zu müssen.
Alles davor war allerdings ziemlicher Käse, wenn man mich fragt ^_^
aldaric schrieb:FreeSync war die Bezeichnung des Treibers von AMD. Der Standard ist Adaptive Sync und kann von jedem Hersteller genutzt werden.
Falsch! Freesync funktioniert sowohl über DP als auch über HDMI. HDMI VRR gibt es erst seit HDMI 2.1 und bis dahin war dies rein proprietäre AMD Technik.
Ja, FreeSynch Technologie hat HDMI von Anfang an unterstützt. Viele für FreeSync zertifizierte Monitore haben schon lange vor der Einführung von HDMI 2.1- und HDMI VRR-Technologie für variable Aktualisierungsraten unterstützt. Mit dem Kauf eines für FreeSync zertifizierten Monitors, der FreeSync über HDMI unterstützt, erhält man sofort die Vorteile einer variablen Aktualisierungsrate, selbst wenn das Display HDMI 2.1 nicht unterstützt.
https://www.amd.com/de/technologies...dukte-unterstützen-AMD-FreeSync™-Technologie?
W
Wadenbeisser
Gast
Aber auch nur weil nvidia sich geweigert hatte beim Desktop Einsatz den Vesa Standard entsprechend zu unterstützen.dynastes schrieb:Alles davor war allerdings ziemlicher Käse, wenn man mich fragt ^_^
Das es prinzipiell möglich war sah man ja im mobilen Einsatz wo es in Laptops auch ohne G-Sync Modul möglich war.
SavageSkull
Fleet Admiral
- Registriert
- Mai 2010
- Beiträge
- 14.454
Das Problem wird mit DLSS, Rtx Voice und Nvidia Broadcast immer schlimmer.canada schrieb:So gesehen doch ein clever Schachzug, in jedem 5 Kommentar in dem Thread steht doch, das die User nicht warten, weil sie eh nicht auf AMD wechseln würden, weil das Feature-Set (unter anderen sehr häufig genannt Gsync) fehlt. Somit bindet nV die Gamer langfristig an sich selbst, da die ganzen Leute halt Gsync Monitore haben und daher nicht wechseln.
Darauf beruht ja meine Kritik an AMD, es muss einfach mehr kommen als nur FPS Leistung und ein gutes Preis Leistungsverhältnis und vielleicht mehr Speicher. Vor allem müssen sie den Mund aufmachen.
Payne19
Lieutenant
- Registriert
- Nov. 2008
- Beiträge
- 736
Du weißt doch noch gar nicht was sie an Software mit ankündigen werden im Oktober? Lassen wir uns überraschenSavageSkull schrieb:Das Problem wird mit DLSS, Rtx Voice und Nvidia Broadcast immer schlimmer.
Darauf beruht ja meine Kritik an AMD, es muss einfach mehr kommen als nur FPS Leistung und ein gutes Preis Leistungsverhältnis und vielleicht mehr Speicher. Vor allem müssen sie den Mund aufmachen.
W
Wadenbeisser
Gast
@xexex
Warum soll die Aussage jetzt falsch gewesen sein?
Das ein Teil des DisplayPort Standards, das nicht im HDMI enthalten ist mit eienr Herstellerspezifischen Lösung dennoch möglich sein kann ist wenig verwunderlich aber warum sollte das dann irgendjemanden hindern es über DisplayPort zu nutzen?
Warum soll die Aussage jetzt falsch gewesen sein?
Das ein Teil des DisplayPort Standards, das nicht im HDMI enthalten ist mit eienr Herstellerspezifischen Lösung dennoch möglich sein kann ist wenig verwunderlich aber warum sollte das dann irgendjemanden hindern es über DisplayPort zu nutzen?
Wadenbeisser schrieb:Das ein Teil des DisplayPort Standards
DP Adaptive Sync ist ein offener Standard, Freesync hingegen wie es mit diversen HDMI Monitoren genutzt wird, ist/war reine proprietäre AMD Technik.
Erst mit HDMI VRR gibt es einen offenen Standard über HDMI, der nun auch von Intel und Nvidia genutzt werden kann.
Ähnliche Themen
- Antworten
- 97
- Aufrufe
- 14.467
- Antworten
- 128
- Aufrufe
- 17.359
- Antworten
- 501
- Aufrufe
- 78.433
H
- Antworten
- 314
- Aufrufe
- 37.629
- Antworten
- 124
- Aufrufe
- 25.682