News „Adaptive Sync“ wird Teil von DisplayPort 1.2a

da lagen die nvidia-fans ja wieder mal total falsch^^
...es wird ja NIE in den standard aufgenommen und es fallen ganz sicher lizenzgebühren an^^
 
PiPaPa schrieb:
Was doch die Frage ist: nvidia ist Mitglied bei der VESA und muss gewusst haben was dort mit DP 1.2a Standard auf den Markt kommt bzw das darüber gesprochen wurde.
Schon vor dem G-Sync release, denn immerhin entscheidet man ja sowas nicht von "heut auf morgen", gerade bei der Anzahl der VESA Mitglieder. Hat man also bei nvidia noch schnell mit G-Sync versucht die Kuh (Kunden) zu melken, bevor die neuen Spezifikationen bekannt werden. Daher vermutlich die eigentlich reine Software Lösung des G-Sync, weil das Modul ja kein spezialisierter Chip ist, sondern ein frei programmierbarer FPGA Chip mit 768MB Speicher.

Klingt für mich auf jeden Fall nach schnell noch ein paar Kröten absahnen und noch Marketing machen bevor dann der freie Standard als A-Sync herauskommt... :rolleyes:

Weißte, das trollige ist ja:
G-Sync unterstützt alles bis runter zur GTX680 - eine mehr als zwei Jahre alte Grafikkarte.
Project Freesync gerademal 6 Monate alte Hardware. Selbst neuste umbenannte Karten im Angebot von AMD werden nicht unterstützt - z.B. r9 270X oder 280X. Ich hoffe, dass du als AMD Mitarbeiter hier dann auch vom Kauf dieser Hardware abrätst.

G-Sync existiert seit Oktober - seitdem konnten Leute es sehen und testen. Freesync existiert weiterhin nur als Powerpointfolie und in Internetforen.

Sieht ziemlich nach AMD Eigenentwicklung aus. Erklärt auch, warum der einzige, der sich dazu äußert im PR, ein AMD Mitarbeiter ist. :evillol:
 
guru meditation schrieb:
Das menschliche Auge gibt sich mit etwa 30 Bilder pro Sekunde zufrieden.

Das menschliche Auge überträgt rund 240 Bilder pro Sekunde zu deinem Hirn.

guru meditation schrieb:
Wenn dieser Bereich bei der Bildwiedergabe nicht unterschritten wird, nimmt unser Gehirn das als flüssig wahr.

Was das Hirn aus den Bildinformationen macht ist entscheidend.

In Filmen sind in jedem aktuellen Bild auch immer Bilder aus dem vorherigen enthalten, auch als Bewegungsunschärfe bekannt.
Diese Bewegungsunschärfe die durch die Belichtungsdauer der Kamera entsteht, ist es die deinem Hirn vorgaukelt es wäre alles "im Fluss".

Bei computergenerierten Bildern ist jedes Bild scharf und auch 30fps ruckeln hier immernoch wenn man nicht Bewegungsunschärfe aka Motion blur dazugibt.

Kleines Browserbespiel.
http://boallen.com/fps-compare.html

guru meditation schrieb:
Deswegen sehe ich von beiden Herstellern hier eher den Nutzen für die hauseigene Marketing-Abteilung, aber halt nur marginalen Nutzen für uns User.

Der Unterschied wird wie Tag und Nacht sein.
 
Zuletzt bearbeitet:
Nun warte doch mal ab, welche nv-karten es unterstützen.
Außerdem vergiss mal nicht was so ein gsync Monitor gekostet hätte.

für das geld hättest deine alte gurke gegen eine neue tauschen können.
Also hat es für alle künftig vorteile, nur für dich nicht :p

mfg
 
fanatiXalpha schrieb:
@hrafnagaldr: könnte das ein grund sein, warum ich beispielsweise keine höhere auflösung per downsampling an meinem Monitor erzwingen kann?

Ich vermute das mal. Mein Dell U2713HM erlaubt per HDMI zB max. 1920x1080, wenn man da nicht nachhilft. Aber nutze da ohnehin DP 1.2.
Über den Treiber sollten sich höhere Auflösungen erzwingen lassen.
 
Garack schrieb:
No way. 60 FPS alles darunter ruckelt warnehmbar.

Naja. Vorallem auch deshalb weil dein TFT alles zwischen 30 und 60hz nur kacke mit Ruckeln darstellen kann, genau das was ja das Topic angeht ;)

Spiele sind da eh schlecht für. Nimm nen Video mit definierten 30 fps. Das ruckelt deutlich weniger als ein Game bei selber FPS oder 45 fps.

Wenn die errechnete Bewegung im Spiel zb schon ungleichmäßig ist... dann resultiert das auch bei 60 hz. als ruckeln. Logisch oder. Es geht also nicht nur um die reine Ausgabe, die muss am besten 1 Bild zu einem kompletten Bildaufbau führen ja, aber auch der Inhalt des Spiels muss möglichst gut ohne µRuckler errechnet werden.
 
Sontin schrieb:
G-Sync existiert seit Oktober - seitdem konnten Leute es sehen und testen. Freesync existiert weiterhin nur als Powerpointfolie und in Internetforen.
Wo kann ich denn G-Sync testen? Soweit ich weiss gibt es dort immer noch keine erhältlichen Monitore;)
FreeSync ist nur AMD's Implementation von A-Sync. Das wirst du Testen können sobald du nen A-Sync fähigen Monitor hast.

Dagegen kannst du schon seit Jahren Implementationen von Adaptive Sync kaufen. Wie das ganze Implementiert wird, ist dann dem jeweiligen Hersteller überlassen.


Sontin schrieb:
Sieht ziemlich nach AMD Eigenentwicklung aus. Erklärt auch, warum der einzige, der sich dazu äußert im PR, ein AMD Mitarbeiter ist. :evillol:
FreeSync mag ne AMD eigenentwicklung sein, Freesync ist aber nur die Implementation der API für DP welches Adaptive Sync implementiert.
Wie heisst es so schön: Namen sind schall und Rauch.
 
Wenn es AMD gelingt, das Ganze zügig umzusetzen, könnte dies ein deutlicher Vorteil gegenüber Nvidia sein. Nvidia's G-Sync kostet ja nicht unerheblich(150+).
Wichtig ist, dass dies schnell geschieht, damit sich G-Sync nicht erst groß etablieren kann. Und Free-Sync sollte nicht mit horrenden Kosten verbunden sein, max. 25,-€ extra für ein Free-Sync-fähiges Display wären Ok.
AMD macht ja in der letzten Zeit einiges besser und entwickelt mMn. in die richtige Richtung(Mantle/Freesync). Nur die Effizienz der High-End-GPU's müßte deutlich verbessert werden, denn z.B. die R9 295x2 überschreitet verbrauchstechnisch einige nicht ungefährliche Grenzen(z.B. PCIe-Kabel).
 
Sontin schrieb:
Weißte, das trollige ist ja:
G-Sync unterstützt alles bis runter zur GTX680 - eine mehr als zwei Jahre alte Grafikkarte.
Project Freesync gerademal 6 Monate alte Hardware. Selbst neuste umbenannte Karten im Angebot von AMD werden nicht unterstützt - z.B. r9 270X oder 280X. Ich hoffe, dass du als AMD Mitarbeiter hier dann auch vom Kauf dieser Hardware abrätst.

G-Sync existiert seit Oktober - seitdem konnten Leute es sehen und testen. Freesync existiert weiterhin nur als Powerpointfolie und in Internetforen.
m
Sieht ziemlich nach AMD Eigenentwicklung aus. Erklärt auch, warum der einzige, der sich dazu äußert im PR, ein AMD ++Mitarbeiter ist. :evillol:

Was laberst du da? CB selbst hat doch von der Vorführung von Freesync berichtet. Nicht Folien, sondern lauffähig mithilfe eines Notebooks bzw. zweien....

Es ist schon krass wieviel Pseudo-Nvidia-Fanboys hier im Forum rumtreiben ... Augen zu und durch scheint bei denen die Devise zu sein.... (meine nächste Graka wird im Moment zu 100% ne AMD)

Wegen der ganzen Sache um den Standard - hier wurde standardisiert, wie über den Port kommuniziert wird. Eventuell wurde auf Monitorseite auch noch die generelle Umsetzung dargelegt. So und diese Art der Kommunikation können nun alle Beteiligten nutzen und sich darauf verlassen.
Es ist nicht mehr oder weniger standardisiert worden. Das AMD seine Art und Weise wie Sie es im Treiber umsetzen keinem anderen zur Verfügung stellen (müssen) sollte wohl jedem halbwegs intelligentem Menschen klar sein...
Deswegen ist der Standard aber trotzdem offen- denn der regelt nur die Schnittstelle (Kommunikation) aller beteiligten in diesem Fall der GPU mit dem Monitor...
 
Garack schrieb:
No way. 60 FPS alles darunter ruckelt warnehmbar.

Oh, dann musst du vom Fernsehen ja richtig Kopfschmerzen bekommen, oder? Immerhin sind das nur 24 oder 25 fps. Ich bin schon so alt, für mich sieht das flüssig aus. So kann's gehen...
Was ich damit sagen will ist, ist die Tatsache das man solche Aussagen nicht pauschal treffen kann. Ein kontinuierlich mich 30 Bilder/Sekunde geliefertes Bild ruckelt nicht spürbar. Die Problematik liegt in der Kontinuität. Es gibt bei Spielen immer Framedrops (bei jeder Eingabe des Spielers) und Ziel ist es schlicht diese Drops zu lindern, bis die Schwankungen in einem bestimmten Rahmen liegen. Das kann man nicht mit einer Bildrate fest machen, denn wie eingangs erwähnt kann ein Bild mit 24fps als "flüssig" betrachtet werden.

Zum Thema: Ich finde diese Nörgelei hier schon ein starkes Stück, vor allem die nVidia-Anbeter, die nicht realisieren, dass AMD hier den deutlich besseren Schachzug gemacht hat. Hier wurde ein offener Standard geschaffen, der vielleicht nicht ganz so gut ist, wie nVidias G-Sync, aber dafür der breiten Masse verfügbar gemacht wird. Da es teil des Standards wird, muss jeder Hersteller, der sich das 1.2a auf den Monitor packen will das unterstützen. Und da man so mehr "Gaming"-Monitore an den Mann bringt, werden das genug Hersteller machen. Bei Office- und Multimedia-Rechnern ist das in der Regel vollkommen uninteressant, also interessiert es auch keinen, dass diese per HDMI oder sogar noch per VGA angeschlossen werden.

Eigentlich ist es traurig, dass sich so viele beschweren, dass ein großer Hersteller versucht mit offenen Technologien das Spielerlebnis zu verbessern. Und AMD zeigt in diesem Punkt wahrlich Motivation. Aber es wird von zu wenigen honoriert. Mal ganz ehrlich, wann hat Intel als Marktführer und Goliath der Computertechnik das letzte Mal etwas getan, das dem gesamten Markt geholfen hat und das nicht um damit mehr Geld zu scheffeln? Das "aktuellste", was mir dazu einfällt ist die x86-Technologie und das lassen die sich noch heute ordentlich bezahlen.

Also hört auf zu nöhlen und freut euch lieber, dass jemand was tut, damit ihr mehr Spaß vor der Kiste habt, ohne zu tief in die Tasche greifen zu müssen!
 
tic-tac-toe-x-o schrieb:
Das ist die "mir egal" oder sagen wir mal verwandt dazu "hauptsache die günstigste Karte mit hohem FPS also Preis/FPS" Fraktion. Das ist fakt. :) Bisher hat keiner aus voller Überzeugung AMD gewünscht. Oder? Denk mal nach.

Ich hab als voller Überzeugung AMD gekauft, weil ich halt ein Fanboy bin, weiter nichts nur als reiner Fanboytum. Aber mittlerweile will ich auf HOHEM NUTZEN UND VERTRAUEN umsteigen. Nvidia ist was das angeht bisher besser dran. Das kann sich natürlich ändern. Ich wart noch 1-2 Jahre auf die Entwicklungen, es hat Zeit. ;)

Edit: Ich mag in der Hinsicht evtl. den Tunnelblick haben. Jede pro AMD Argumentation ist willkommen. Vielleicht ändert ihr ja noch meine Gefühle. Obwohl ich fast nicht mehr daran glauben kann.
Da fällt mir vielleicht noch die OpenCL Performance ein... Sonst noch was?

Hier ICH ICH ICH ...

Gründe?
- Nach der Voodoo 5 5500 nur ATI/AMD Karten und bisher nicht ein Problem.
- Dagegen mit einer onBoard Geforce einmalig keine Chance ein Bild auf den TV zu bringen.
- Günstiger, bei nicht ansatzweise weniger Qualität
- AMD bringt Mantle, und übt damit Druck auf MS aus, das die mal aus dem Arsch kommen ... sehr positiv.
- AMD kontert G-Sync mit einem offenen Standard ...
- voller DirectX 11.2 Support

und ja ... auch du würdest als gewinnorientiertes Unternehmen, erstmal deine neuen Karten unterstützen.

Fakt ist, die Gründe gegen nVidia, wiegen für mich aktuell weit höher als gegen AMD.
- Meist proprietäre Standards ..
- völlig überteuert
- PhysX kommt auch aus dem Nischendasein nicht raus .. Obwohl die Technik gut ist..
- kein DirectX 11.2

AMD hatte jetzt in den letzten Monaten doch einige gute bis sehr gute Ankündigungen, denen meist auch direkt Taten folgten...
- Kaveri
- AM1 Plattform
- Mantle
- R9 295x2 (zwar teuer, aber NICHTS gegen die 3000 Tacken die nVidia will)
- FreeSync
- Mullins/Beema

Dagegen stehen Totgeburten von nVidia ...
- Shield
- Tegra kommt auch nicht wirklich gut an...


Und zu guter letzt ... gibt es natürlich Sachen, die beide Lager nicht wirklich gut da stehen lassen ..
z.B. ..Umlabeln von alten Karten

Es gibt nur einen nennenswerten Grund aktuell nVidia Karten zu kaufen,... und das ist im High End Segment der Energieverbrauch.
In den MidRange Klassen, stehen beide Lager wieder gleich da, wobei die AMD Karten meist günstiger sind.

***
Zum Thema...

Freut mich, das es Neuigkeiten gibt. Jetzt wird es sicherlich schwer werden für nVidia, die teuere Hardware an die Monitor Hersteller zu verticken.
Mal sehen was kommt.
 
Krautmaster schrieb:
Naja. Vorallem auch deshalb weil dein TFT alles zwischen 30 und 60hz nur kacke mit Ruckeln darstellen kann, genau das was ja das Topic angeht ;)

Spiele sind da eh schlecht für. Nimm nen Video mit definierten 30 fps. Das ruckelt deutlich weniger als ein Game bei selber FPS oder 45 fps.

Man kann das einfach nicht so generell sagen. Ein Film mit 30FPS ruckelt in bestimmten Situationen auch eckelhaft. Z.B. bei schnellen Kameraschwenks. Da allerdings fast alle Kinofilme aus historischen Gründen mit mageren 24FPS produziert werden, vermeiden die Filmemacher schon von sich aus solche Szenen.
Oder aber sie gehen hoch auf 48FPS, so wie z.B. bei den Hobbit-Filmen. Dann müssen sie auf solche Beschränkungen nicht mehr so stark Rücksicht nehmen. Und offensichtlich bemerkt man auch den Unterschied in den FPS, was viele puristische Kino-Fans am Hobbit nicht so toll fanden, weil damit ein etwas anderer Eindruck entsteht, als bei den gewohnten Kinofilmen mit niedriger Bildfrequenz.

Genau das selbe ist es auch bei Computerspielen. Es kommt auf die Umstände an. Bei einem Spiel wie z.B. Civ5 oder Starcraft 2 ruckelt auch mit unter 30FPS meist kaum, bzw. höchstens wenn man wie wild über die Karte scrollt. Bei einem schnellen Ego-Shooter ist es wiederum komplett anders. Da ist sogar der Unterschied zwischen 60 und 120Hz spürbar.

Deshalb sollte man endlich aufhören das zu verallgemeinern. Es gibt keine feste Grenze, ab der etwas flüssig ist oder nicht. Das hängt sowohl vom Betrachter als auch von der Situation ab.

Ein Spiel, das Gras beim Wachsen zeigt, ist auch mit einem Bild pro Minute perfekt flüssig. Womit wir sogar wieder beim eigentlichen Thema sind, denn genau dieses Konzept steckt hinter dem ursprünglichen Adaptive-Sync. Man muss den untätigen Windows-Desktop nicht mit 60 FPS/Hz darstellen, damit er "flüssig" wirkt. Das frisst auf einem Notebook nur unnötig Strom. Mit Adaptive-Sync wurde deshalb die Möglichkeit eingeführt, dass der Monitor in Zusammenarbeit mit der Grafikkarte nur dann ein neues Bild aufbaut, wenn sich der Inhalt ändert. Z.B. wenn man ein Fenster verschiebt. Dazwischen hält man quasi ein Standbild.
AMD hat diese Stromspartechnik für Free-Sync "zweckentfremdet", um wie bei G-Sync Tearing und Framepacing zu verbessern.
 
Kommt jetzt ernsthaft die Diskussion darüber, ob man den Unterschied zwischen 30 und 60Hz merkt? Schaut euch mal die 60Hz Videos an, die es auch online gibt, da sieht doch ein Blinder, dass der Ablauf wesentlich flüssiger ist. Das selbe bei Kino Filmen, z.B. Der Hobbit in HFR, wesentlich besser als in Standard.
 
Novasun schrieb:
Was laberst du da? CB selbst hat doch von der Vorführung von Freesync berichtet. Nicht Folien, sondern lauffähig mithilfe eines Notebooks bzw. zweien....

Ja, aber

sodass AMD auf der CES eine erste, kleine Techdemo auf zwei „Satellite Click“-Notebooks von Toshiba zeigt, die laut Anandtech gut funktioniert. Jedoch ist das nur ein sehr kurzer Ersteindruck, da die Demo zum Beispiel keine variablen Frameraten zulässt, sondern nur V-Sync mit 30 FPS und FreeSync mit 50 FPS zeigt.

Und damit genauso aussagekräftig wie ne Standardrede von Angela Merkel ;)
 
Schöne Ankündigung. Jedoch nervt mich, dass der Standard nicht zwingend in den Spezifikationen für DP 1.2a steckt, sondern gesondert integriert werden kann. Wie ich die unfähigen Monitorhersteller so kenne, verbauen die Adaptive Sync wahrscheinlich nur in Gamer Monitoren mit TN-Panel. Mark my words.
 
Schöne Ankündigung. Jedoch nervt mich, dass der Standard nicht zwingend in den Spezifikationen für DP 1.2a steckt, sondern gesondert integriert werden kann. Wie ich die unfähigen Monitorhersteller so kenne, verbauen die Adaptive Sync wahrscheinlich nur in Gamer Monitoren mit TN-Panel. Mark my words.

Seh es auch so. Besonders erschließt sich mir der Sinn nicht etwas in einer Spezifikation aufzunehmen wenn es eh nicht zwingend vorgeschrieben ist. Den Spaß kennen wir ja schon von HDMI wo man ganz genau gucken muss was das verbaute HDMI nun kann und was es nicht kann.

Man hätte AS nicht in DP aufnehmen müssen käme letztendlich aufs selbe raus
 
Zurück
Oben