Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AOC/Philips: „G-Sync ist Adaptive Sync überlegen“
- Ersteller MichaG
- Erstellt am
- Zur News: AOC/Philips: „G-Sync ist Adaptive Sync überlegen“
W
W4RO_DE
Gast
Athlonscout schrieb:
Ja, du solltest meinen Beitrag lesen und verstehen. Ich schrieb, dass das G-Sync Modul zugleich Features wie ULMB und 3D Vision mitbringt und nicht, dass diese gleichzeitig mit G-Sync nutzbar sind.
P4-Freak schrieb:gsync nutzt doch nix, da ich zb kein spiel hab, das wirklich mehr wie 60 fps hat^^ und ohne sli ist es wohl nicht möglich, ein aktuelles spiel so auszureizen, also ich sehe keinen sinn in gsync
Du brauchst für G-Sync nicht 60 FPS.
iHabAhnung
Banned
- Registriert
- Jan. 2014
- Beiträge
- 344
Athlonscout schrieb:War ja klar, dass diese Hersteller G-Sync über den grünen Klee loben, sie wollen ja noch ihre überteuerten Produkte an den Mann bringen, bevor G-Sync mutmaßlich endgültig beerdigt wird. Wahrscheinlich haben sie sich schon vertraglich mit Nvidia über eine bestimmte Abnahmemenge geeinigt und befürchten nun auf ihren Unkosten sitzen zu bleiben, deshalb wohl dieses virale Marketing.
Du mit deinem "über den grünen Klee loben"...
Warum lobst du eigentlich FreeSync so über deinen "roten Klee", wenn man es nicht einmal mit allen Karten des aktuellen Portfolios nutzen können wird?
Wartet doch einfach, bis beide Produkte auf dem Markt und getestet worden sind, bevor eines bereits abgeschrieben wird. Was sich durchsetzt, bestimmt am Ende immer der Verbraucher.
W
W4RO_DE
Gast
iHabAhnung schrieb:Du mit deinem "über den grünen Klee loben"...
Warum lobst du eigentlich FreeSync so über deinen "roten Klee", wenn man es nicht einmal mit allen Karten des aktuellen Portfolios nutzen können wird?
Wartet doch einfach, bis beide Produkte auf dem Markt und getestet worden sind, bevor eines bereits abgeschrieben wird.
Das ist von Usern wie ihm offenbar zu viel verlangt. Er weiß ja nicht mal was virales Marketing ist.
Athlonscout
Rear Admiral
- Registriert
- Jan. 2008
- Beiträge
- 5.935
Waro245 schrieb:Ja, du solltest meinen Beitrag lesen und verstehen. Ich schrieb, dass das G-Sync Modul zugleich Features wie ULMB und 3D Vision mitbringt und nicht, dass diese gleichzeitig mit G-Sync nutzbar sind.
Und ich kann an meinen Monitor 20 Endgeräte anschliessen. Zwar nicht gleichzeitig aber immerhin nacheinander.^^
iHabAhnung schrieb:Du mit deinem "über den grünen Klee loben"...
Warum lobst du eigentlich FreeSync so über deinen "roten Klee", wenn man es nicht einmal mit allen Karten des aktuellen Portfolios nutzen können wird?
Wo habe ich Freesync "über den roten Klee" gelobt? (übrigens ist Klee stets grün^^)
Weder in meinem Beitrag, noch in der News ist von freesync die Rede!
Mutmaßlich wird sich eine jeweilige Technologie, die herstellerübergreifend auf Adaptive Sync aufbaut durchsetzen.
Waro245 schrieb:Das ist von Usern wie ihm offenbar zu viel verlangt. Er weiß ja nicht mal was virales Marketing ist.
Na wenn solch eine News von CB ohne qualifizierte Quellangabe kein virales Marketing ist...
ExtremeRampage
Cadet 4th Year
- Registriert
- Nov. 2013
- Beiträge
- 97
Hab mir auch schon gedacht das G-Sync besser ist da ist ja immerhin nochmal extra Hardware drin. Was wohl eher die Frage ist, ist wie viel besser ist G-sync als Freesync? Ist es nur messbar besser oder auch richtig fühlbar besser und lohnt sich dafür der Aufpreis dann gegenüber Freesync?
B
Buzz
Gast
Gsync = PhysX = Totgeburten. Das Nvidia es immer noch nicht gelernt hat ist traurig und beängstingend zugleich. Propitäres ist Mist und wird und sollte sich vor allem niemals durchsetzen (Apple ausgenommen, die könnens).
Rollensatz
Admiral
- Registriert
- Jan. 2006
- Beiträge
- 8.609
Philips bringt doch auch als einer der ersten Hersteller einen Monitor mit G-Sync raus. Ergo, die können gar nichts anderes sagen. Und obs wirklich besser sein soll, sehen wir erst in Tests. Aber um ehrlich zu sein, vermute ich mal das es wahrs. etwas besser sein wird. Die Frage ist nur wieviel und ob sich deswegen ein wahrs. gewaltiger Aufpreis lohnt. Wenns nicht besser sein sollte, wäre es so eine Totgeburt wie die Titan Z...
Auch bei Freesymc ist mit einem Frequenzteiler extra Hardware verbaut.ExtremeRampage schrieb:Hab mir auch schon gedacht
Grossartig anders wird es NV auch nicht gelöst haben.
noxon
Admiral
- Registriert
- Sep. 2004
- Beiträge
- 7.570
Und genauso klar war, dass die AMD Fanboys wieder anfangen zu heulen und alles schlechtreden müssen, was sie nicht haben können.Athlonscout schrieb:War ja klar, dass diese Hersteller G-Sync über den grünen Klee loben, sie wollen ja noch ihre überteuerten Produkte an den Mann bringen, bevor G-Sync mutmaßlich endgültig beerdigt wird.
Aber AMDs Einsatz für die freie Bullet Engine hat richtig was gebracht, oder wie? Da war PhysX aber deutlich erfolgreicher.Buzz schrieb:Gsync = PhysX = Totgeburten.
Zuletzt bearbeitet:
smilefaker
Banned
- Registriert
- Feb. 2014
- Beiträge
- 1.161
Dass G-sync besser sein soll ist eine chöne Behauptung ohne Beleg, nicht mal Nvidia hat sich dazu hingerissen dies zu behaupten, insofern Marketingquatsch.
Also wenn FreeSync Monitoren zukünftig 5-10% Marktanteil zugeschrieben wird, dann wird GSync kaum noch eine Rolle spielen. Denn selbst 10% halte ich für viel zu hoch angesetzt. So gross ist der Anteil der User die entsprechende Hardware besitzen oder soviel Geld für Highend gaming ausgeben wollen nicht. Somit kann GSync noch so viele zusätzliche Features haben (was der Grund ist weshalb es für technisch besser gehalten wird, nicht dir bessere Lösung der adaptiven FPS), wenn keiner dafür extra Geld bezahlen will ist Gsync eben DOA.
iHabAhnung
Banned
- Registriert
- Jan. 2014
- Beiträge
- 344
Buzz schrieb:Gsync = PhysX = Totgeburten. Das Nvidia es immer noch nicht gelernt hat ist traurig und beängstingend zugleich. Propitäres ist Mist und wird und sollte sich vor allem niemals durchsetzen (Apple ausgenommen, die könnens).
Wusste gar nicht, dass G-Sync eine Physik-Engine ist und tot geboren wurde. Proprietäre Features oder Lösungen sind nicht Mist, sondern maßgeblich für den Erfolg von vielen Unternehmen, Marken und Produkten verantwortlich.
DaLexy
Lt. Commander
- Registriert
- Feb. 2006
- Beiträge
- 2.010
P4-Freak schrieb:gsync nutzt doch nix, da ich zb kein spiel hab, das wirklich mehr wie 60 fps hat^^ und ohne sli ist es wohl nicht möglich, ein aktuelles spiel so auszureizen, also ich sehe keinen sinn in gsync
Mach dich erstmal schlau was G-Sync überhaupt ist bevor du solch eine Aussage vom Stapel lässt.
Buzz schrieb:Gsync = PhysX = Totgeburten. Das Nvidia es immer noch nicht gelernt hat ist traurig und beängstingend zugleich. Propitäres ist Mist und wird und sollte sich vor allem niemals durchsetzen (Apple ausgenommen, die könnens).
Aha, und das weisst du alles woher ?
Hier geht es auch nicht ums durchsetzen, PhysX zb. ist ein Gimmick/Feature und nichts was man haben muss/brauch. Dasselbe gilt für G-Sync !
Smagjus
Rear Admiral
- Registriert
- Feb. 2011
- Beiträge
- 6.137
Wenn es tatsächlich auch den Stromverbrauch senkt, kann man das ruhig allen Usern anbieten. Schaden wird es nicht.Daedal schrieb:
Ice-Lord
Lt. Commander
- Registriert
- Apr. 2008
- Beiträge
- 1.396
Ich finde auch nVidia könnte langsam mit den ganzen Propitären Zeuch aufhören.
Wenns bei AMD was gibt kann das wenigstens von allen genutzt werden.
Wie TressFX, ist zwar ungefähr genauso sinnlos wie Physix dafür laufts aber auf allen Karten
Und wenn jetzt ein neuer "offener" Standard nieder gemacht wird, weil nVidia haufenweise
Geld in die Kampagne rein versenkt hat ist es wirklich nur mehr bedenklich!
Wenns bei AMD was gibt kann das wenigstens von allen genutzt werden.
Wie TressFX, ist zwar ungefähr genauso sinnlos wie Physix dafür laufts aber auf allen Karten
Und wenn jetzt ein neuer "offener" Standard nieder gemacht wird, weil nVidia haufenweise
Geld in die Kampagne rein versenkt hat ist es wirklich nur mehr bedenklich!