News Teaser: AMD zeigt die Radeon RX 6000 mit RDNA 2

Dass stimmt leider die meisten Monitore sind schlechter al mein TV was eigentlich traurig ist es fehlt an allem. Hauptsache ein 360hz Monitor mit 27" in 1080p für 500er Verkaufen.
 
  • Gefällt mir
Reaktionen: Andy4, McFritte und PS828
canada schrieb:
Vielleicht sollte man da auch noch unterscheiden, was ist das Grundgerüst (AdaptSync) und was dazu eine Erweiterung dir nur den Umfang an Feature (Freesync 2) erweitert. Ist ein kompliziertes Thema, denn wo genau zieht man halt die Grenze, denn das ganze verschwimmt ja auch unter einander.
Insbesondere, da Nvidia mittlerweile ja auch Gsync auf Basis von AdaptiveSync anbietet.
GSync und FreeSync sind halt ganz einfach nur Markennamen der Hersteller zum Bewerben des adaptiven Refreshes.
Dieses Feature kann aber je nach Hersteller auf unterschiedlichen Technologien basieren und dazu unterschiedlliche zusätzliche propritäre Features enthalten.
 
  • Gefällt mir
Reaktionen: Mcr-King und stevefrogs
aldaric schrieb:
FreeSync war die Bezeichnung des Treibers von AMD. Der Standard ist Adaptive Sync und kann von jedem Hersteller genutzt werden.

Keine Ahnung wie man da versuchen kann, AMD den schwarzen Peter zuzuschieben. nVidia ist doch derjenige, der ein Modul entwickelt hat um die Konkurrenz auszuschließen. Und es hat die Preise der Monitore unnötig in die höhe schießen lassen.

Oh, erinnert sich noch wer an den tollen ASUS Monitor der sogar gekühlt werden musste, weil das G-Sync Modul so heiß lief? :volllol:

Den Monitor habe ich und ja, dieser hat einen aktiven Lüfter, genau wie die 65" 4K Monitore auch.

Im laufenden Betrieb hört man nichts davon. Lediglich wenn man den Rechner ausmacht und den Monitor ausschaltet, bleibt ein störendes Surren für ca. 2 Minuten, weil der Lüfter nachläuft.

Die Belüftung braucht man jedoch, wenn man auf so einer großen Fläche mit 512 Dimming Zones und HDR1000 arbeiten möchte. Hier entstehen schon gewaltige Temperaturen.

https://www.prad.de/testberichte/test-asus-pg35vq-luxus-hdr-gaming-monitor/
 
  • Gefällt mir
Reaktionen: aldaric
Haffke schrieb:
Ich lach mich schlapp früher hatten die Karten ihre Stromanschlüsse immer am Ende und alle haben abgekotzt weil man dann Probleme mit der Verkabelung bekommt wenn die Karte lang ist und die Festplatten im weg sind. Ich bin froh das die Anschlüsse auf der Seite sind und hoffe das bleibt auch so.
Und du hast dein Gehäuse von 2003 noch im Einsatz?
Sind in deinem Gehäuse die ollen Festplatten noch vor der Grafikkarte verbaut?

Als bei mir sieht das heute ganz anders aus und ich habe da sehr viel Platz!
 
DocWindows schrieb:
Adaptive Sync = Freesync 1 = GSync Compatible
Freesync = AMD Markenname, GSycnc Compatible = nVidia Markenname

Wie gesagt, ich bin sehr sicher, dass das so nicht korrekt ist.

Sowohl Freesync als auch "G-Sync compatible" sind nicht einfach nur andere Namen für Adaptive Sync.

Adapitve Sync ist nur eine Erweiterung des DP- (und HDMI-) Standards, über die die Grafikkarte dem Display sagen kann, wann (oder in welchen Zeitabständen) das seinen nächsten Refresh machen soll. Man könnte es sich als eine zusätzliche Signalleitung für diesen Zweck vorstellen. (Natürlich keine echte, physikalisch vorhandene Leitung.)
Um die Refreshrate aber mit den FPS der Grafikkarte ohne Latenzen dynamisch zu synchronisieren, gehört wesentlich mehr als nur ein zusätzlicher direkter Draht zum Display-Contoller. Die ganze, dafür nötige Arbeit wird in Treibern und eventuell auch in den GPUs geleistet (und bei Nvidias ursprünglichen G-Sync wahrscheinlich teilweise auch in SoC des Moduls). Dieser Teil ist sowohl bei NVidia als auch AMD propritär und wird es bei Intels sicher kommender VRR-Technologie auch sein.

Das einzige, was AMDs (Freesync), Nvidias ("G-Sync compatible") und zukünftig auch Intels VRR-Technologien gemeinsam haben, ist das Protokoll, über das sie mit dem Display kommunizieren. Der Rest ist herstellerspezifisch und der viel relevantere Teil, in dem die meiste Entwicklungsarbeit steckt.
 
  • Gefällt mir
Reaktionen: Mcr-King und noxon
@Herdware Naja, aber auf die Unterstützung des Protokolls kommt es ja auch am Ende für den Consumer an. Welche Güte oder Technik hinter der Implementierung steckt, ist ja für die Erfüllung des Standards nicht relevant. Da ist ja eh so gut wie nichts vorgegeben.

Falls AMDs Implementierung von DXR schwächer sein sollte als nVidias, würde man ja auch nicht sagen dass beide nicht die gleich Funktionalität erfüllen. Wenns um die Güte der Implementierung geht, würde ich jederzeit blind nVidia kaufen. Allein aus den Lehren der Vergangenheit. Aber ich würde nicht sagen dass AMD DXR irgendwie falsch unterstützt oder dass es am Ende nicht dasselbe ist.
 
Wadenbeisser schrieb:
Viele Features werden nur schrittweise umgesetzt, bei allen Herstellern.
https://i.imgur.com/u5aCwAC.png
Das ist richtig, aber ein Vergleich von Tiled Rendering zwischen Vega und Maxwell ist doch sehr weit von den Features von DX12 entfernt.
noxon schrieb:
und deshalb werden dort so Dinge, wie DLSS, RTX Voice oder auch der KI Denoiser implementiert.
Den Denoiser gibt es aber nicht für Spiele, deswegen meine Einschränkung. Da wird RT nicht von beschleunigt, nur von DLSS.
Und ob RTX Voice mittlerweile die Tensor-Cores nutzt, weiß ich nicht. Aber bei der Vorstellung war das noch nicht der Fall. Deswegen meine Einschränkung auf DLSS.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
ok auch wenns etwas in VRR abdriftet... wenn ich das jetzt hier so lese und auch andere infos aus dem netz reinnehme dann sind die Unterschiede GSync und Freesync 2 schon recht klein.

Um mal bei dem Monitor ohne Gsync und ohne Lüfter zu bleiben:
https://geizhals.de/lg-ultragear-38gn950-b-a2302705.html?hloc=at&hloc=de

Auch wenn da typisch 48hz als kleinste Refrehsrate angegeben ist (was Sinn macht, ist selbst bei den Gsync Panels nicht anders) dann kann man dennoch darunter angenehmes Spielgefühl ohne Tearing geniesen, LFC sei Dank.
Bei Gsync macht dabei das Gsync Modul die Frame Dopplung (30 FPS werden zb als 90 oder 120 hz ausgegeben) und wenn kein Modul da ist wie bei AMD und einer Geforce am Freesync Panel - dann macht die GPU eben die FrameDopplung und gibt quasi dasselbe Bild X fach an den Monitor aus - right?

Quelle zb Hier

Ja, das Tearing ist auch in der Frame-Verdopplung nicht zu finden, zumindest nicht bei meinem G-Sync Monitor, wenn ich unter 30 FPS im Spiel liege. Technisch gesehen, kommt die Grafikkarte nicht mehr "nach" rechtzeitig den neuen Frame zu berechnen, deshalb hat Nvidia definiert, dass unterhalb 30 Frames (was landläufig noch als "flüssig" angesehen wird), das letzte Bild zweimal an den Monitor weitergegeben wird, und genau da entsteht dann dieser delay, weil ich z.B. auf w drücke, der Befehl dann aber nicht im 2. Bild sondern erst im 3. Bild auf dem Bildschirm zu sehen ist. In der Millisekunde des Tastendrucks sieht man den Befehl also nicht auf dem Schirm, sondern eben ganz leicht verzögert. Das ist meinem Empfinden nach immer noch besser als wenn das Bild praktisch ständig kurz "stoppt" und starkes Tearing zu sehen ist (bei Monitoren ohne G- und FreeSync), allerdings wirklich eine Notlösung. Die Grafikkarte sollte Frame-Raten über der Frame-Verdopplung ausgeben.

in Bezug auf den LG-Monitor und die 3080 folgende Hinweise:
3840x1600p sind ca. 74% der Pixelmenge von UHD, schau Dir die 2080 Ti in den worst case Szenarien
"Red Dead Redemption 2" und "Horizon Zero Dawn" an.
Rechne bei den UHD Werten 26% dazu, dann noch 30-40% für die 3080 - je nachdem was heute der Test
im UHD Performancerating als Zugewinn zur 2080 Ti ausweist.
Gemäß dieser Rechnung dürfte man mit einer 3080 bei 3840x1600p immer noch klar über 60 fps in diesen Titeln liegen, also ist man in der Spanne drin.
Viele andere Spiele sind weniger teils deutlich weniger fordernd was die GPU betrifft und Du kommst locker in
die Spanne über 48 Frames.
 
Haffke schrieb:
und alle haben abgekotzt weil man dann Probleme mit der Verkabelung bekommt wenn die Karte lang ist...
Japp, war richtig "nice" die Stecker rauszuziehen, bzw. die Karte mit Steckern raus- oder reinzubekommen.
Mit der 8800 GTX hatte ich derart viel Spaß im Chieftec Mesh Big Tower und dem Festplattenkäfig 🤮

Es ist nicht die optisch schönste Entscheidung mit den Steckern an der Seite, doch die praktikabelste, wenn man doch ein wenig mehr Kompatibilität reinbringen will, gerade in Zeiten, in denen manche Karten die 30cm sprengen.

Zum Kühlerbild - hauptsache das Ding ist leise und kühl, man muss es auch mal von der Warte betrachten, dass dann so ein Amor-Scheiß von MSI z.B. obsolet wäre und die im Gegensatz zur Referenz sich mal wirklich mehr Mühe geben müssten, bisher macht das bei AMD eigentlich nur Sapphire, Powercolor und MSI mit der GamingX-Serie, der Rest ist mit So lala-Ausnahmen wie den Aorus Versionen ... Schrott.
 
  • Gefällt mir
Reaktionen: Mcr-King und stevefrogs
@Colindo

Wäre das nicht tiled resources was bei beiden auf Stufe 3 ist? (Vega = GCN 5)
Pauschal wäre Maxwell ja auch falsch da dies erst ab der zweiten Maxwel Generation auf Stufe 3 unterstützt wurde.
 
Gsync, Freesync, Adaptive Sync, VRR... Hauptsache keine Risse im Bild und ein flüssiges Ergebnis. Wenn ich bei der PS dieses endlose Tearing sehe, kann ich jedes Mal 🤮. Zocke gerade mit meiner Frau Lego DC an der PS Pro, da sie am Fuß operiert wurde und nicht viel machen kann. Im Splitscreen ist das einfach nur krass. Es macht mir keinen Spaß mehr so zu spielen, Ruckeln, Risse und generell wenige Frames. Ich bemitleide die Konsolen Spieler immer, wenn ich das sehe... 30fps mit Tearing und Drops ist einfach als verwöhnter PC Zocker Höchststrafe. Hoffe ja wirklich, dass sich das mit den neuen Konsolen und TVs erledigt. Evtl. macht mir PS Zocken dann auch wieder Fun!?
 
mibbio schrieb:
Mit dem Unterschied, dass es auch allen anderen Herstellern frei stand, auf dem Adaptive Sync Standard aufzubauen (was anderes ist das bei AMD nicht). Nvidia hat sich aber zu einen eigenen Technik entschieden, ohne die Möglichkeit, dass andere Hersteller das nutzen können selbst wenn sie gewollt hätten.

... und relativ kürzlich haben sie dann begonnen, sich dem offenen Standard doch zu öffnen, weil ihnen bewusst wurde, dass nur eine kleine Minderheit der Kundschaft noch zusätzlich zu einem G-Sync-Monitor greift, wenn das künftig potenziell weniger Flexibilität bei der Grafikkartenwahl bedeutet. Deshalb hat man ja G-Sync-Compatible eingeführt und neuere Versionen des G-Sync-Moduls für Radeon-Karten freigegeben.

Den jetzt herrschenden Status Quo finde ich daher relativ begrüßenswert: Günstigere VRR-Monitore für alle und solche mit G-Sync-Modul für jene, die dies als Premiumfeature wünschen - ohne jedoch künftig auf Radeons verzichten zu müssen.

Alles davor war allerdings ziemlicher Käse, wenn man mich fragt ^_^
 
aldaric schrieb:
FreeSync war die Bezeichnung des Treibers von AMD. Der Standard ist Adaptive Sync und kann von jedem Hersteller genutzt werden.

Falsch! Freesync funktioniert sowohl über DP als auch über HDMI. HDMI VRR gibt es erst seit HDMI 2.1 und bis dahin war dies rein proprietäre AMD Technik.
Ja, FreeSynch Technologie hat HDMI von Anfang an unterstützt. Viele für FreeSync zertifizierte Monitore haben schon lange vor der Einführung von HDMI 2.1- und HDMI VRR-Technologie für variable Aktualisierungsraten unterstützt. Mit dem Kauf eines für FreeSync zertifizierten Monitors, der FreeSync über HDMI unterstützt, erhält man sofort die Vorteile einer variablen Aktualisierungsrate, selbst wenn das Display HDMI 2.1 nicht unterstützt.
https://www.amd.com/de/technologies...dukte-unterstützen-AMD-FreeSync™-Technologie?
 
  • Gefällt mir
Reaktionen: SavageSkull
dynastes schrieb:
Alles davor war allerdings ziemlicher Käse, wenn man mich fragt ^_^
Aber auch nur weil nvidia sich geweigert hatte beim Desktop Einsatz den Vesa Standard entsprechend zu unterstützen.
Das es prinzipiell möglich war sah man ja im mobilen Einsatz wo es in Laptops auch ohne G-Sync Modul möglich war.
 
  • Gefällt mir
Reaktionen: mibbio
canada schrieb:
So gesehen doch ein clever Schachzug, in jedem 5 Kommentar in dem Thread steht doch, das die User nicht warten, weil sie eh nicht auf AMD wechseln würden, weil das Feature-Set (unter anderen sehr häufig genannt Gsync) fehlt. Somit bindet nV die Gamer langfristig an sich selbst, da die ganzen Leute halt Gsync Monitore haben und daher nicht wechseln.
Das Problem wird mit DLSS, Rtx Voice und Nvidia Broadcast immer schlimmer.
Darauf beruht ja meine Kritik an AMD, es muss einfach mehr kommen als nur FPS Leistung und ein gutes Preis Leistungsverhältnis und vielleicht mehr Speicher. Vor allem müssen sie den Mund aufmachen.
 
SavageSkull schrieb:
Das Problem wird mit DLSS, Rtx Voice und Nvidia Broadcast immer schlimmer.
Darauf beruht ja meine Kritik an AMD, es muss einfach mehr kommen als nur FPS Leistung und ein gutes Preis Leistungsverhältnis und vielleicht mehr Speicher. Vor allem müssen sie den Mund aufmachen.
Du weißt doch noch gar nicht was sie an Software mit ankündigen werden im Oktober? Lassen wir uns überraschen :D
 
@xexex

Warum soll die Aussage jetzt falsch gewesen sein?
Das ein Teil des DisplayPort Standards, das nicht im HDMI enthalten ist mit eienr Herstellerspezifischen Lösung dennoch möglich sein kann ist wenig verwunderlich aber warum sollte das dann irgendjemanden hindern es über DisplayPort zu nutzen?
 
Wadenbeisser schrieb:
Das ein Teil des DisplayPort Standards

DP Adaptive Sync ist ein offener Standard, Freesync hingegen wie es mit diversen HDMI Monitoren genutzt wird, ist/war reine proprietäre AMD Technik.

Erst mit HDMI VRR gibt es einen offenen Standard über HDMI, der nun auch von Intel und Nvidia genutzt werden kann.
 
Zurück
Oben