News AMD sieht FreeSync bei den Kosten vor G-Sync

Erinnert stark an Nvidias Pendulum Demo - auch dort präsentierte man "nur" gleichbleibende Frameraten.

Wie aus dem Text hervorgeht, scheint AMDs Freesync der proprietären Nvidiaumsetzung G-Sync gar überlegen und das zu mutmaßlich deutlich niedrigeren Kosten!

Ich bin gespannt, wie lange es dauert bis Nvidia auch auf eine Adaptive Sync basierte Umsetzung umschwenkt und ihren überteuerten Platinensondermüll in Rente schickt.:evillol:
 
Hoffe diese Technik setzt sich bald auch endlich durch. Besseres Bild, gleiche Leistung, bei womöglich sogar etwas weniger Energiebedarf. Klingt wirklich klasse.

Dass die Demo abstürzt obwohl nichtmal die Bildrate dynamisch geregt wurde klingt allerdings nicht so gut. Wenn AMD tatsächlich bereits "vor Jahren" mit der Entwicklung begonnen hat, dann macht das einen schlechten Eindruck. (Ich glaube die hatten die Idee vor Jahren schonmal, aber dass sie es gerade jetzt marktreif machen wollen liegt mMn eindeutig an Nvidias Gsync. Macht mir doch nichts vor, AMD.)
 
Natürlich ist Freesync viel besser als G-Sync, schon ohne die Nvidia-only Limitierung hat das niemals eine Chance auf eine weite Verbreitung, wenn es den Monitor mal eben 20€ teurer macht. Die meisten Leute kaufen sich einfach keine 200+€ Monitore, da sind 20€ mehr oder weniger schon ein deutlicher Wettbewerbsnachteil.

Es ist eigentlich eine Schweinerei, dass sowas wie Freesync noch nicht überall verbreitet ist. Von Spielen vollkommen abgesehen, auch bei Filmen ist das extrem nützlich. 3:2 Pulldown Judder kann damit perfekt an der Wurzel ausgetrieben werden und macht Unfug, den Leute teilweise betreiben (Frame Blending, zumindest für meine Augen sieht das ziemlich mies aus) um dem entgegenzuwirken, nutzlos. Jeder Monitor sollte das können …
 
Zehkul schrieb:
Natürlich ist Freesync viel besser als G-Sync, schon ohne die Nvidia-only Limitierung hat das niemals eine Chance auf eine weite Verbreitung, wenn es den Monitor mal eben 20€ teurer macht. Die meisten Leute kaufen sich einfach keine 200+€ Monitore, da sind 20€ mehr oder weniger schon ein deutlicher Wettbewerbsnachteil.

Wo siehst du denn da Informationen zu konkreten Kosten? Wo kommen die 200 Euro, bzw. 20 Euro mehr oder weniger her? Ich würde nicht damit rechnen dass dir die Monitorhersteller die Adaptive Sync Technik billig hinterherschmeißen. Die Monitorhersteller werden sich nicht an den Produktionskosten orientieren, sondern den Preis nehmen den der Markt hergibt. Eben so wie sie es schon immer gemacht haben, neben anderne Peripherie- und PC-Hardwareherstellern auch.
 
Colonel Decker schrieb:
Dass die Demo abstürzt obwohl nichtmal die Bildrate dynamisch geregt wurde klingt allerdings nicht so gut.

Könnte es nicht sein, dass AMD einfach schnell nen Programm zusammengezimmert haben um etwas vorzeigbares zu haben.
Ich vermute, dass das Programm und nicht FreeSync buggig ist...
 
DocWindows schrieb:
Wo siehst du denn da Informationen zu konkreten Kosten?

War das nicht der Preis, den Nvidia für das lächerliche Modding Kit verlangt hat? Mir ist klar, dass der Preis mit dem, was ein Monitorhersteller zahlt, nichts zu tun hat, ich brauchte einfach irgendeine Zahl. Ich bin mir aber ziemlich sicher, dass es schon irgendwas kosten wird, der Monitor muss ja mehr Arbeit leisten als bei Freesync.

Die Idee hinter G-Sync ist definitiv nett und dahin sollte die Entwicklung in der Zukunft auch gehen, ein Monitor refresht nur, wenn er tatsächlich auch ein neues Bild bekommt, nicht früher und nicht später, aber zuerst einmal sollten wir schon sehr glücklich sein, wenn sich überhaupt irgendetwas anderes als stumpfe statische 60hz Displays verbreiten.
 
Athlonscout schrieb:
Erinnert stark an Nvidias Pendulum Demo - auch dort präsentierte man "nur" gleichbleibende Frameraten.

Wie aus dem Text hervorgeht, scheint AMDs Freesync der proprietären Nvidiaumsetzung G-Sync gar überlegen und das zu mutmaßlich deutlich niedrigeren Kosten!

Ich bin gespannt, wie lange es dauert bis Nvidia auch auf eine Adaptive Sync basierte Umsetzung umschwenkt und ihren überteuerten Platinensondermüll in Rente schickt.:evillol:

Vaporware ist immer realen Produkten überlegen. Das macht es ja so toll für den Vaporwarenanbieter. :evillol:

Halten wir doch mal die Fakten fest:
6 Monate nach der selben Demonstration zeigt AMD immer noch die selbe Windmühlendemo - diesmal nur mit haufenweisen Abstützen.
Immer noch gibt keine Vorführung mit Spielen und Leute können es immer noch nicht selbst "anfühlen".

Aber es ist natürlich G-Sync überlegen. Lol. AMD und deren virale Marketingmenschen.

Und die Pendel-Demo lief zwischen 40 und 60 FPS: https://www.youtube.com/watch?v=Lg5TAUrtXxo
Und man konnte Tomb Raider testen: https://www.youtube.com/watch?v=Vs1Jf9FLQwQ
 
Zehkul schrieb:
Natürlich ist Freesync viel besser als G-Sync, schon ohne die Nvidia-only Limitierung hat das niemals eine Chance auf eine weite Verbreitung, wenn es den Monitor mal eben 20€ teurer macht. Die meisten Leute kaufen sich einfach keine 200+€ Monitore, da sind 20€ mehr oder weniger schon ein deutlicher Wettbewerbsnachteil.

nicht richtig,
der einzige in der eu erhältliche asus mit gsync kostet 240euro mehr als sein gegenspieler ohne
292 VS 529 euro
 
Zuletzt bearbeitet:
Selbe Demo wie auf der CES.

Zeigt weder "Low Latency" noch variable Frames. Gleichmäßige Wiedergabe von Bildern ist mit genug Buffern realisierbar. Hat aber nichts mit G-Sync zu tun.

Halten wir fest: Freesync in der Form, wie es von AMD beworben wird, existiert zur Zeit nicht. Vielleicht sollte man die Berichterstattung daher mal ein wenig überdenken...
 
Krautmaster schrieb:
wenn du bei 35 FPS ein superflüssiges Bild kommt kannste die Details aber deutlich hochdrehen ... du musst also nicht unnötig Rechenleistung verbraten um zwanghaft 60 Hz zu erreichen. Abgesehen davon soll selbst 60hz mit Vsnc nich so flüssig wie Gsync bei um 45 FPS wirken.

Die AMD Demo kann ziemlich genau 0 mehr als die die sie im Herbst gezeigt haben... und nicht annähernd das was Nvidia heute laufend hat.

Das 60 Hz via Vsync nicht so flüssig wie 45 hz g sync sein sollen, ist absoluter schmarrn. Bei vsync ist die Standzeit der Bilder absolut gleichmäßig, noch dazu kürzer als bei 45 hz, beides die perfekte Kombi für absolut flüssige Bildwiedergabe. Nur scharf sind die Bewegtbilder nicht. Statt 1080p erreichen LCD gerade mal 300 Linien Bewegtbildauflösung. Für 600 Linien dürfen es schon 120hz respektive Frames sein. Stichwort Sample Hold. Wer der Meinung ist selbst mit gleichmäßigen 35 fps super flüssig und scharf spielen zu können, muss schon sehr unempfindlich sein oder salopp gesagt Tomaten auf den Augen haben :-)
 
Zehkul schrieb:
Es ist eigentlich eine Schweinerei, dass sowas wie Freesync noch nicht überall verbreitet ist. Von Spielen vollkommen abgesehen, auch bei Filmen ist das extrem nützlich. 3:2 Pulldown Judder kann damit perfekt an der Wurzel ausgetrieben werden und macht Unfug, den Leute teilweise betreiben (Frame Blending, zumindest für meine Augen sieht das ziemlich mies aus) um dem entgegenzuwirken, nutzlos. Jeder Monitor sollte das können …

24p auf dem Monitor geht mal garnicht. Das Pulldown Ruckeln erregt bei mir einen Brechreiz. Zum Glück ist eine native 24p Annahme im TV Sektor lang Standart
 
Warum zeigt AMD nicht mal ein paar Spiele wenn sie schon seit Jahren an ihre vBlank Umsetzung arbeiten?
Muss ja nicht auf einem Desktop Monitor sein, wenn die Entwicklung hier noch nicht soweit ist, aber auf einen Notebook muss das doch mittlerweile gehen oder was?! :confused_alt:
 
Wo bitte ist denn das überlegen?
-Eliminierung des Inputlags = noch nicht bewiesen. Nvidia hatte sich das fett auf den Hut geschrieben. Bei FreeSync sehe ich noch keine technischen Ansätze hierfür.


-gleichbleibende Frames
Ist das ein Witz?
47 bis 48 Frames pro Sekunde sind doch nicht variabel. Es müssen bei Framedrops Sprünge von 20-40 FPS abgefangen werden können. Gerade die Radeons leiden stark darunter.

Wie schnell kann FreeSync bei Schwankungen umschalten? Darüber ist noch nicht ein Wort gefallen!


-"DisplayPort 1.2a zertifizierte Scaler selbst – es sind keine Zusatzbauteile nötig"
Ja, wenn das mal nicht die halbe Miete ist. Lächerlich! Auch ein zertifizierter 1.2a Scaler muss die "optionalen Bestandteile" nicht unterstützen. Ich fange an diese Halblügen zu verurteilen!

-kein Leistungsverlust?
Das AMD angeblich keine Leistung verliert, halte ich für ein falsches Gerücht! Ich zitiere aus dem Artikel:

"soll Adaptive Sync keine Verluste aufweisen. Die bei G-Sync notwendige „Sicherheitsabfrage“, ob der Monitor das fertig berechnete Bild auch wirklich anzeigen könne, findet bei Adaptive Sync nicht statt, "

Für mich klingt das nach einer Mogelpackung. Einfach auf gut Glück die Bilder rausschießen und hoffen, dass der Monitor ohne Kontrolle alles richtig macht, ist keinesfalls überlegen.


Lachen musste ich über:
"Die Arbeit an der Basis Adaptive Sync habe „bereits vor Jahren begonnen“.

Dafür ist das AMD-Gerüst aber noch ziemlich im Alpha-Stadium. Das Ganze wirkt nach wie vor eher wie ein Schnellschuss!
Also für mich ist das wenig glaubhaft!
 
Während G-Sync im 3D-Betrieb eine leicht geringere Leistung als ohne die Technik liefert, soll Adaptive Sync keine Verluste aufweisen. Die bei G-Sync notwendige „Sicherheitsabfrage“, ob der Monitor das fertig berechnete Bild auch wirklich anzeigen könne, findet bei Adaptive Sync nicht statt, erklärt AMD.
G-Sync ist Adaptive Sync bzw. AMD FreeSync technisch unterlegen und funktioniert nur mit Nvidia GPUs.

Tja, das wird wohl nix mit einem Nvidia G-Sync Monitor Z für 3000 Euro. Der hätte auch so gut zur Titan Z SLI für 6000 Euro gepasst. :(

RIP G-Sync...



^^
 
Hardware_Hoshi schrieb:
Ist das ein Witz?
47 bis 48 Frames pro Sekunde sind doch nicht variabel. Es müssen bei Framedrops Sprünge von 20-40 FPS abgefangen werden können. Gerade die Radeons leiden stark darunter.

Wenn du die Propaganda noch belegen könntest, dass Radeon GPU´s unter mehr Framedrops leiden, wäre ich dir sehr verbunden.
Ich habe diverse Fachzeitschriften zuhause und noch nie etwas derartiges gelesen, weder dort noch online.

Für mich klingt das nach einer Mogelpackung. Einfach auf gut Glück die Bilder rausschießen und hoffen, dass der Monitor ohne Kontrolle alles richtig macht, ist keinesfalls überlegen.

Was soll denn der Monitor falsch machen? Ich glaube du bist etwas überkritisch was Freesync angeht, während du bei G-sync gar nicht kritisch bist.

"Die Arbeit an der Basis Adaptive Sync habe „bereits vor Jahren begonnen“.

Dort sind die Monitorhersteller gemeint, sicherlich nicht AMD.
Dass das Konzept vorliegt, kann aber durchaus sein.

Hardware_Hoshi schrieb:
Dafür ist das AMD-Gerüst aber noch ziemlich im Alpha-Stadium. Das Ganze wirkt nach wie vor eher wie ein Schnellschuss!
Also für mich ist das wenig glaubhaft!

Und warum wirkt es so?
 
Zuletzt bearbeitet:
Wenn die Monate später immernoch keine variierende Framerate zeigen könnten zweifel ich generell daran ob man das so umsetzen kann.
 
Zurück
Oben