News Teaser: AMD zeigt die Radeon RX 6000 mit RDNA 2

SavageSkull schrieb:
so bescheiden umgesetzt, dass es gut zwei Jahre gedauert hatte bis Freesync eine ernsthafte Alternative zu G-Sync war.

Wenn ich so etwas lese wundere ich mich immer, was mit meinem Asus MG278Q los ist. Der ist aus dem gleichen Jahr in dem die ersten G-Sync Monitore rauskammen und funktioniert top... :confused_alt:

Aber ist vielleicht einfach wegen des fehlenden "Gs" keine ernsthafte Alternative.
 
  • Gefällt mir
Reaktionen: mibbio
noxon schrieb:
Insbesondere, da Nvidia mittlerweile ja auch Gsync auf Basis von AdaptiveSync anbietet.
GSync und FreeSync sind halt ganz einfach nur Markennamen der Hersteller zum Bewerben des adaptiven Refreshes.
Ich bin den umgekehrten Weg gegangen. Habe einen Gigabyte-Monitor mit freesync und GSync compatible, damit ich gerade beide Varianten offenhabe. Ich habe eine vnidia-Karte.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
xexex schrieb:
DP Adaptive Sync ist ein offener Standard, Freesync hingegen wie es mit diversen HDMI Monitoren genutzt wird, ist reine proprietäre AMD Technik.

Erst mit HDMI VRR gibt es einen offenen Standard über HDMI, der nun auch von Intel und Nvidia genutzt werden kann.
VESA adaptive Sync beruht auf AMDs FreeSync das wiederum wie G-Sync auf VBLANK des DisplayPort Standards beruhte und HDMI hat jetzt was mit VESA Organisation zu tuen? Für deren Specs sind meines Wissens nach andere zuständig.

Edit:
Gab es überhaupt FreeSync Monitore ohne DisplayPort Anschluss?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: NMA
xexex schrieb:
DP Adaptive Sync ist ein offener Standard, Freesync hingegen wie es mit diversen HDMI Monitoren genutzt wird, ist/war reine proprietäre AMD Technik.

Aha, und wie war die Bezeichnung für Adaptive Sync über den DP1.2a Standard bei AMD?

Tada, FreeSync.

Über HDMI hat AMD dies auch nur realisiert um das in den nächsten Standard zu drücken. DP1.2a kam ja auch nur auf drängen von AMD heraus.
 
  • Gefällt mir
Reaktionen: xexex
aldaric schrieb:

Man muss ja grundsätzlich eine Unterscheidung treffen, was unter den Begriffen letztlich verkauft wird. Freesync und G-Sync sind einerseits Markenbezeichnungen für die VRR Technik bei den jeweiligen Herstellern, unter dem Namen werden aber auch ganze Featuresets vermarktet (G-Sync Ultimate, Freesync Premium) und letztlich fallen auch diverse proprietäre Sachen darunter.

Letztendlich sollte man aber vor allem eines wissen. Freesync kann genauso wenig von Nvidia oder Intel genutzt werden, wie G-Sync von AMD genutzt werden könnte und beides sind keine "offene Standards". Was von allen genutzt werden kann ist DP Adaptive Sync und HDMI VRR.
 
  • Gefällt mir
Reaktionen: aldaric
Wadenbeisser schrieb:
@think->write!

Das erinnert mich ein wenig an die Lüfter auf dem Radiator der Vega LC, auch wenn der Verbindungsring nun an den Rand der Schaufeln gewandert ist
Sehe da kaum Ähnlichkeiten. zur Strix ist sowohl die lüftergeometrie, die kühlergeometrie, als auch der gewählte lüftertyp identisch Nur die Abdeckung weicht ab.
 
@xexex

Warum beziehst du dich so krampfhaft auf HDMI obwohl es aus der DisplayPort Welt kommt und vor HDMI 2.1 nur per Erweiterung ab HDMI 1.2 nutzbar war?
 
Colindo schrieb:
Den Denoiser gibt es aber nicht für Spiele, deswegen meine Einschränkung. Da wird RT nicht von beschleunigt, nur von DLSS.
Ich glaube nicht, dass etwas dagegen spricht, den auch in Real Time zu verwenden.
Hier hat das mal jemand getestet: Real-Time Ray Tracing using the OptiX Deep Neural Network Denoising AI

Die Performance ist zwar wie erwartet schlecht und nimmt die üblichen 50% der Leistung in Anspruch, die man auch bei anderen Verfahren benötigt, aber bei den Ampere Karten ist es ja jetzt möglich alle Kern-Typen parallel zu nutzen und da sollte das ja jetzt nicht mehr all zu extrem in's Gewicht fallen, wenn man etwas clever ist.
Wichtigster Vorteil scheint momentan die hohe Qualität des Denoisers zu sein, weswegen man die Anzahl der ursprünglich zu berechnen Rays reduzieren kann und dennoch zum gleichen Ergebnis kommt. Das erhöht also die Performance beim tatsächlichen Raytracing.

Letztendlich wird das aber wohl niemand nutzen, denn kein Entwickler wird ein herstellerunabhängiges Raytracing via DirectX implementieren und dann ein herstellerspezifisches Denoising implementieren, welches wiederum anpassungen am Raytracing erfordert um seine Vorteile auszuspielen.
Von daher wird das so viel Einsatz finden, wie Nvidias hardwarebeschleunigtes PhysX.

Und ob RTX mittlerweile die Tensor-Cores nutzt, weiß ich nicht. Aber bei der Vorstellung war das noch nicht der Fall. Deswegen meine Einschränkung auf DLSS.
Naja. Kommt immer darauf an, was du unter RTX verstehst. Das Raytracing findet auf den RT Cores statt. Das Denoising könntest du auf den Tensor Cores durchführen. Hängt aber wie gesagt vom Entwickler ab und wird sicherlich so gut wie nie vorkommen.

Was ich mir allerdings von möglichst vielen Entwicklern erhoffe ist, dass sie DLSS implementieren oder es sich von Nvidia implementierne lassen. Das ist ja quasi als Leistungsverdoppler zu betrachten und sollte nach Möglichkeit schon implementiert werden.
 
DenMCX schrieb:
Bezüglich der GDDR6 / HBM-Diskussion:
Da wäre ich mir nicht so sicher denn ich bin mir sicher das ich bei Geforce Karten schon ähnliche Befestigungspunkte gesehen habe.
Ergänzung ()

Ah gefunden, es war das GTX1080 PCB
https://www.techpowerup.com/img/16-05-11/60b.jpg

Edit:
Die scheinen bei der Pascal Generation im Referenz Design wohl allgemein recht verbreitet zu sein.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: p4z1f1st und ZeroStrat
noxon schrieb:
All das sind keine VESA Standards, sondern ein propritäre AMD Features, die seltsamerweise niemals erwähnt werden, wenn man sich ständig über Nvidia und deren propritäre Techniken aufregt.

Joah stimmt, mir fällt dazu lediglich ein, das NV es schon über 10 Jahre so macht, AMD 2-3?
Opensource hat sich für AMD bei PC GPus nie ausgezahlt, ggf. jetzt mit den konsolen dank mantle was ja weiterentwicklung da drauf läuft.
 
Da geht Buildzoid ja auch "halb" drauf ein bzw. erklärt, dass GDDR6 für die höheren Taktraten eine höhere Signalqualität voraussetzt und der Speicher daher so nah wie möglich am Chip liegen muss (beim aktuell NV-exklusiven GDDR6X ist ja nochmal extremer) - und die gezeigte Pascal-Karte hatte ja noch GDDR5(X), weshalb die Speichersteine auch "entfernter" zur GPU liegen (können/dürfen?).

Nur zur Klarstellung: Ich argumentiere hier nicht "für HBM" - sollte nur ein Hinweis & etwas zum diskutieren sein :D
 
jo, pack mers Buam, F5 Tourette ist angesagt, noch 6 Minuten 💪
 
noxon schrieb:
All das sind keine VESA Standards, sondern ein propritäre AMD Features, die seltsamerweise niemals erwähnt werden, wenn man sich ständig über Nvidia und deren propritäre Techniken aufregt.

Das liegt vielleicht daran das AMD darum bemüht ist solche Funktionen in allgemeinen Standards unterzubringen (mit Sicherheit nicht allso uneigennützig) wärend nvidia es idR. auf die eigenen Produkte beschränken will und erst öffnet wenn sich so damit ohnehin kein Geld mehr verdienen läßt.
Auch sind Elemente die die HDR Abstufungen bei FreeSync keine besonderen Technologieen sonden lediglich Mindestanforderungen um die jeweilige Spec zu erfüllen. Welchen Monitor Hersteller hindert das denn es auch ohne das Logo umzusetzen?
 
  • Gefällt mir
Reaktionen: mibbio
DenMCX schrieb:
Da geht Buildzoid ja auch "halb" drauf ein bzw. erklärt, dass GDDR6 für die höheren Taktraten eine höhere Signalqualität voraussetzt und der Speicher daher so nah wie möglich am Chip liegen muss
Das sehe ich jetzt aber nicht als ernsthaftes Hindernis, vor allem wenn es "nur" um GDDR6 Speicher geht denn es ist z.B. bei der 5700XT wäre ja dennoch genug Platz für die Bohrungen vorhanden gewesen und vieles hängt eher vom Routing auf dem PCB selbst ab.
Das von der Rückseite ablesen zu wollen ist allerdings ohnehin nur Kaffeesatz Leserei, erst recht wenn noch nichtmal klar ist ob es überhaupt um das richtige Produkt geht. :D
 
  • Gefällt mir
Reaktionen: p4z1f1st
Zurück
Oben