News Im Interview: AMD und Nvidia über FreeSync und G-Sync

PiPaPa schrieb:
@Faust
Es gibt kein Synonym o.ä.
Der VESA Standard heißt Adaptive Sync.

Der Treiberpart/die Funktion von AMD, der Adaptive Sync nutzt, heißt FreeSync.

Nvidia vermarktet ihre proprietäre Technik als G-Sync, nutzt aber vermutlich demnächst zu mindestens bei Notebooks auch Adaptive Sync per eDP und nennt es auch G-Sync.

AMD ist damit von Anfang an mit Freesync kompatibel zu AdaptiveSync und Nvidia zieht nun undercover nach?
 
Ich finde das ist eine ganz tolle Idee. Sowas hätte eigentlich schon eher erscheinen müssen. Auch bei der Videowiedergabe halte ich G Sync bzw Freesync für sehr vorteilshaft. Viele Filme sind in 24, 25, 29 oder 30 fps codiert.

Sofern der Monitor sich in der Bildwiederholrate soweit verschieben kann, dass es sie sich verdoppelt, ist alles gut. Wenn der Monitor 40-80 oder 30-60 oder auch 60-120Hz unterstützt passt es. Jeder dieser Monitore wäre so in der Lage Wiederholraten von z.B. 45 fps flüssig darzustellen. Letzterer nimmt einfach 90fps durch 2. Das geht gut. Jeder könnte auch 27 fps darstellen. Indem sie einfach 54Hz bzw 81Hz ansteuern und diesen Wert teilen. Die Monitor-Hz-Zahl muss durch die FPS teilbar sein. Also wären 45FPS bei einem fix 60Hz Monitor etwas laggy, da der Wert 1,5 ist.
 
Zuletzt bearbeitet:
PiPaPa schrieb:
Warum? Weil Asus es vergeigt hat und die Firmware fehlerhaft ist und auch schon ein Rückruf bzw vor Ort Tausch gibt.
https://www.computerbase.de/2015-05...or-kann-durch-fehler-keine-144-hz-darstellen/

Das Eine hat mit dem Anderen überhaupt nichts zu tun?
mata.gif

Du erzählst auch ziemlich viel Unsinn, wenn der Tag lang ist.

@Faust
Freesync baut auf Adaptive Sync auf. Freesync ist eine Softwarelösung, die mit Adaptive Sync arbeitet, um das Tearing-Problem zu lösen.
G-Sync ist eine proprietäre Hardwarelösung von Nvidia. Vieles von dem, was AMD macht, übernimmt bei ihnen der Chip.
Nichtsdestotrotz weiß Nvidia, wie man Adaptive Sync nutzen muss, um ähnliche Erfolge zu erzielen.
 
Laphonso schrieb:
Wenn ich spontan die Top 3 meiner Hardware Anschaffungen der letzten 20 Jahre bezogen auf Enthusiasten-, Erlebnis-, und WoW!- Effekt nennen müsste, wären das die 3dfx Voodoo...
OHH JAA! Ich kann mich noch sehr genau daran erinnern als ich "meinen ersten, echten 3D-Beschleuniger in das System gepflanzt habe" u. ich damit NHL98, Fifa98 oder Incubation gedaddelt habe.
Ein absoluter Wow-Effekt! Auch gleichzusetzen mit der ersten, echten GeForce mit T&L(^^) oder meinen damaligen geilen Röhrenmoni mit 19 Zoll von NEC & einer Streifenmaske, denn Lochmaske war out ...^^

Übrigens, mein Swift vermittelt mir ebenfalls das Gefühl, dass ich vor einer Röhre sitze, nur mit besserem Bild & mehr Features ...und das Sahnehäubchen ist noch 3D-Vision. :freaky:
 
Diese Entwicklung hier zeigt ganz klar auf, wieso wir Konkurrenz brauchen.
 
ich sehe das ähnlich, solange da kein standard ist welcher von allen gpu herstelllern getragen wird:
intel, amd, nvidia, werde ich keine der sync techs beim kauf eines monitors in erwägung ziehen. ende.

was kommt als nächstes?

spezieller ram oder hdds, welche nur mit einem speziellen motherboard hersteller funktionieren?
motherboards mit sonder anschlüssen, für zb. asus / gigabyte zertifizierte 5 polige sonderlüfter?

standard her oder kein geld aus meiner tasche, so sehe ich das.
 
Wie oft denn noch? Es gibt einen offiziellen VESA Standard. Dieser nennt sich Adaptive Sync.

Mit dem FreeSync Treiber nutzt AMD den VESA Standard.
Nvidia nicht. Höchstens inoffiziell für Notebooks.

Wer also will das die Hersteller den VESA Standard nutzen kann sich schon mal bei nvidia beschweren.
Gebt dem Hersteller entsprechendes Feedback.
 
Auch wenn das ganze nur Marketing-Geblubber auf beiden Seiten ist, muss ich Nvidia Recht geben, was die Untergrenze angeht: Mittlerweile konnte ich beide Technologien ausgiebig testen, und GSync liegt da noch klar vorne. Erst bei FreeSync wurde mir bewusst, wie oft man doch Framedrops erhält, die unter 40FPS kommen, obwohl man durchschnittlich 60-70 hat. Und bei FreeSync merkt man es sofort, wenn diese Grenze unterschritten wird, vermutlich weil das Bild über 40 FPS so unglaublich flüssig ist, man ist also sensibilisiert. Bei GSync dagegen musste ich mich konzentrieren, damit ich einen Sprung auf unter 30 FPS bemerke.
Natürlich spielt das keine Rolle bei Low-Details-Max-FPS-Shootern, da kommt man nicht auf diese Werte. Aber ich denke, dass gerade in Zukunft, mit Blick auf Auflösungen über FullHD, und mit Blick auf die durchschnittliche Leistung einer Grafikkarte in den Gaming-Rechnern dieser Welt, die Minimum-Hz bzw. der Umgang mit dem Unterschreiten dieser Grenze enorm wichtig ist. Für mich persönlich ist das noch ein K.O.-Kriterium, ich werde also noch weiter auf einen Monitor warten müssen. Obwohl ich dieses Feature wirklich umwerfend finde...
 
Zuletzt bearbeitet:
Laphonso schrieb:
Ein einheitlicher, offener Standard wäre selbstredend besser für alle. Aber wir sehen im Markt ja, was Microsoft, Apple oder Google von offenen Standards halten.

Microsoft geht doch an vielen Stellen gerade genau den "offenen Weg"?!
 
Naja finde die situation oder leute die die nvdia only monitore kaufen bisschen gaga 30 vs 40fps ist kein echtes argument, dann steckt man halt die 200 euro aufpreis in ne teurere grafikkarte statt den teuren nvidia monitor zu kaufen. Nur leute denen geld voellig egal ist macht das sinn. Wenn man schon ne titan x fuer 1000 euro gekauft hat dann kann man den aufpreis der nvidia monitore auch nimmer in ne bessere grafikkarte stecken.
 
@blackiwid: Es geht nicht nur um die Untergrenze, es geht auch um das Unterschreiten dieser Grenze. Bei GSync ist auch unter 30 FPS noch alles in Butter. Außerdem hinkt dein Grafikkarten-Vergleich: Einen Monitor hast du bei weitem länger, theoretisch müsstest du alle 2 Jahre 200€ mehr ausgeben. Und gerade die Titan X Gamer profitieren unwahrscheinlich von GSync, da diese zum großen Teil auf UltraHD setzen, probier da mal, FPS-Drops auf unter 40 FPS zu vermeiden. Das schaffen oft nicht mal zwei von denen im SLI...
 
Freesync klingt sehr gut, aber warum gibt es noch keine 1920x1200 Monitore?
1080 ist echt sowas von daneben, da kann ich mir auch gleich ein Notebook holen.
 
Es gibt doch reichlich Auswahl mit 2560x1440 und Freesync. Grund zum Ärgern haben eher die AMD-Besitzer, die einen billigen FHD-Monitor mit 144 Hz haben wollen, weil das einzige angekündigte Modell (Nixeus) entweder vertrödelt oder Europa vorenthalten wird.
 
Zurück
Oben