News Display-Technik: Intels künftige Grafikchips unterstützen Adaptive-Sync

Mal ne blöde Frage. Wenn ich jetzt ne grüne im PC habe und mir nen Monitor mit A-Sync hole, kann ich das dann auch nutzen?
 
Hallo,

die Dominanz von Intel ist demnach nicht immer und überall schlecht. Das verhilft Adaptive-Sync zum Durchbruch und zur Verbreitung. Auf das es dann hoffentlich immer mehr und mehr gute und Top Monitore damit geben wird. Damit ist dann auch die blöde Entscheidung zwischen nvidia und AMD Karte vom Tisch.
 
Hagen_67 schrieb:
Mal ne blöde Frage. Wenn ich jetzt ne grüne im PC habe und mir nen Monitor mit A-Sync hole, kann ich das dann auch nutzen?

Nein
 
Solange Nvidia A-Sync nicht unterstützt kannst du das mit ner Nvidia nicht nutzen. Ist aber imo nur eine Frage der Zeit. Sehr viele neue Monitore mit Gsync wird es nicht mehr geben.
 
Einige meinen, dass Nvidia jetzt Gsync nicht mehr unterstützen wird... Ehrlich gesagt, ist das doch ziemlich unrealistisch. Ich denke zwar auch, dass sie früher oder später Adaptive Sync unterstützen werden MÜSSEN, aber im Treiber wird Gsync drin bleiben. Sonst wären nämlich alle Gsync Monitore für die Tonne. Das wäre schon ziemlich unfair(und dumm) von Nvidia. Aber mittlerweile kann man denen ja alles zutrauen :D
 
Erinnert mich an die Blu-Ray vs. HD-DVD Geschichte.

Ganz klar das Ende für G-Sync.
Niemand bei Verstand wird sich jetzt noch einen 700€ TFT oder mehr der G-Sync kann, aber nicht Adaptive Sync kann, kaufen. Man wäre an NVIDIA gefesselt, dabei kann keiner sagen ob sie den Sprung auf 14/16nm nächstes Jahr gut schaffen, Zugriff auf HBM Speicher für Mainstream Grafikkarten erhalten oder ob sie bei Dx12 dank ihrer bisherigen Bauart weiter versagen.

Ich bin aber zuversichtlich das AMD diese Meldung gekonnt ignoriert und wieder mal kein Profit aus der Meldung schlägt oder einen anderen grausamen, extrem gravierenden Fehler macht. Man könnte bsp. 2 weitere Jahre damit verbringen nur einen engen Frequenzbereich bei Freesync zu supporten da man zu unfähig ist sich mit den Panel/TFT Herstellern zu verständigen^^

Im Notebookbereich unterstützt NVIDIA Adaptive Sync bereits, jedenfalls arbeitet dort kein G-Sync.
 
Hito schrieb:
simmer mal ehrlich. die Intel-Lösungen brauchen FreeSync aber auch dringen. Bei 15fps ist das Tearing ja ein übles Problem :D
Das mag bei Call of Battlefield Citizen 37 so sein. Es gibt auch Spiele, die von einer Intel HD2500/3000/4000 auf niedrigen..mittleren Details und 60 fps laufen. Mit AdaptiveSync könnte man die Details noch nach oben schrauben, sodass trotz sinkender fps kein Tearing auftritt.

Draco Nobilis schrieb:
Im Notebookbereich unterstützt NVIDIA Adaptive Sync bereits, jedenfalls arbeitet dort kein G-Sync.
Es gibt bereits Gaming-NoteBooks mit G-Sync-Unterstützung. Bei den mir bekannten Modellen ist dort jedoch die iGPU nicht nutzbar.
 
Meine Begeisterung hält sich in Grenzen!
Da KabyLake ja nur ein Skyläke Refresh ist, wird das doch erst 2017 mit CannonLake eingeführt.
 
Nee nee Leute, Acemonty meinte sicher Adeptive V-Sync und nicht Adeptive sync. Darauf bin ich mit nem anderen CB-Kollegen auch schon mal drauf rein gefallen.

Sonst ist das doch ein wichtiger Schritt von Intel. Besser alle supporten Adepive-Sync/free-sync. Wie schon mal von mir irgendwo geschrieben, NV nutzt auch Adeptive-Sync als G-Sync M. Demnach fällt G-Sync bald wohl gänzlich unter dem Tisch. Zu wünschen währe es ja. So brauchen wir nur noch variables back light strobing...
 
Rios schrieb:
Einige meinen, dass Nvidia jetzt Gsync nicht mehr unterstützen wird... Ehrlich gesagt, ist das doch ziemlich unrealistisch.

Ja, es ist unrealistisch, denn NVIDIA unterstützt Gsync nicht nur, sondern hat ein Patent drauf.

die richtige Wortwahl wäre:
NVidia wird Gsync aufgeben
oder
NVidia wird sich geschlagen geben müssen
Warum?
Nimm einfach die aktuellen Modelle - es gibt denselben Monitor einmal mit Gsync, einmal mit FreeSync. Beide Monitore bieten alles was der Konsument sich wünscht: selbes Display in 27er Diagonale, QHD, 1ms, 144Hz, alle sonstigen Extras und beide Geräte sind natürlich vom selben Hersteller. Es ist alles gleich bis auf das xSync-Feature.

Wieso sollte ich, der Kunde, 750€ zahlen, für ein Gerät, das nicht mehr kann als eines das 600€ kostet?

Monitore behält man meistens länger als Grafikkarten, da wird mir hoffentlich jeder zustimmen.
Und das von beiden GPU-Herstellern genug GPUs in allen Preissegmenten gibt, priorisiere ich natürlich den Monitor.

Wie soll sich G-Sync aktuell nach noch durchetzen oder gar überleben? Frag Betamax, HD-DVD, etc. :D




-

Es gab eine gute Idee:
"Lasst uns die Bildanzeige synchronisieren, um ein großes Manko der LCD Technik auszugleichen oder zu negieren."
Woher die Idee kam recherchiere ich jetzt nicht, aber DisplayPort1.2a ist sicher nicht auf NVidias Mist gewachsen.
Daß dieser Standard kommt war wohl ja vorher bekannt - AMD hat ja auch auf diesen Standard aufgebaut.
Solche Standards haben nicht selten eine recht lange Vorlaufzeit um den Herstellern genug Zeit für die Produktion/Adaption zu geben.
(Ausnahme ist wohl RAM)


Anstatt mit der VESA oder den Display-Herstellern zusammen zu arbeiten, hat sich ein "Geschäftsmann" bei NV dafür entschieden,
daß man eventuell dem Standard zuvorkommen könnte um damit Geld zu verdienen. War eventuell derselbe "Geschäftsmann", der entschieden hat, daß man das fehlerhafte Konzept der problembehafteten GTX970 trotzdem fortsetzt und Details verschweigt - das ist aber nur Spekulation hier.

Eventuell war geplant, daß man den Begriff G-Sync etabliert bevor der Standard offiziell verabschiedet und bekannt gemacht wird.
Nvidia hat vielleicht sogar eingeplant, daß man bei großem Erfolg irgendwann auch Monitore mit Nvidia-Logo vertreibt.

AMD war zum Glück (für uns alle) nicht untätig.

UND daß NV auf mobilen Geräten Gsync unterstützt obwohl der Gsync-Scaler nicht verbaut ist, ist schon ein sehr gutes Zeichen für frühzeitige Einplanung und Kenntnis des kommenden Standards.
->frage mich ob man(Endkunde oder Hersteller) für diese Geräte auch den Gsync-Aufpreis zahlen musste....
 
Die Entwicklung ist/war absehbar & NV wird für einen gewissen Zeitraum_X einfach zweigleisig fahren. Ich seh da absolut gar kein Problem, im Gegenteil ... ;)
 
Ja, zahlt man und das gsync problemlos auch auf einem async monitor läuft ist uch schon bewiesen worden.
Grund dafür liegt darin, dass das gsync modul nichts weiter ist als ein verdammt teurer speicherbaustein, welcher sagt, dass der monitor gsync beherrscht.
Diese Rückmeldung kann man dem teeiber aber auch vorgaukeln und prompt juckt es den nicht mehr, ob auf dem monitor gaync oder async läuft.
Solang der minitor dann den standard adaptive unterstützt läuft das ohne mucken, vorausgesetzt die grafikkarte kann das.

Ich sehe damit gsync in der versenkung verschwinden. Für die gleiche technik mehr geld auszugeben, nur weil n grünes logo aufm bildschirm klebt und n speicherchip von 5 cent drinsteckt macht selbst der dümmste fanboy nicht mit.
Allei, schon deshalb nicht, weil er auf jahre gebunden wäre und die entwicklung nicht nachvollzieehba weiter geht
 
Zuletzt bearbeitet: (Meinung erweitert)
MichiSauer schrieb:
Ja, zahlt man und das gsync problemlos auch auf einem async monitor läuft ist uch schon bewiesen worden.
Grund dafür liegt darin, dass das gsync modul nichts weiter ist als ein verdammt teurer speicherbaustein, welcher sagt, dass der monitor gsync beherrscht.
Diese Rückmeldung kann man dem teeiber aber auch vorgaukeln und prompt juckt es den nicht mehr, ob auf dem monitor gaync oder async läuft.

Hast du dich vorher informiert oder nur einen betrunkenen ITGuy konsultiert?
An deiner Aussage ist fast nichts richtig, außer daß man dir zustimmen kann daß G-Sync ein Nischenprodukt wird, wenns nicht ganz verschwindet.

Hab bisher noch kein Gsync mit einer AMD-Karte gesehen. Quelle?

Gsync ist kein Speicherbaustein den man umgehen kann.

Von der X-sync-RANGE mal ganz angesehen...

troll?








wenn das so einfach wäre, reicht auch ein treiberhack.
 
Hito schrieb:
Ja, es ist unrealistisch, denn NVIDIA unterstützt Gsync nicht nur, sondern hat ein Patent drauf.

die richtige Wortwahl wäre:
NVidia wird Gsync aufgeben
oder
NVidia wird sich geschlagen geben müssen
Warum?

Naja, im Grunde genommen habe ich in meinem Post nix anderes gesagt.

Mit "unterstützen" meine ich, dass Nvidia die Gsync-Funktion nicht einfach irgendwann aus dem Treiber entfernen wird, selbst wenn sie früher oder später async kompatible Treiber bereitstellen MÜSSEN und Gsync nicht mehr priorisieren.

Es wird wahrscheinlich so ablaufen, wie SuddenDeathStgt es schon erwähnt hat:

SuddenDeathStgt schrieb:
Die Entwicklung ist/war absehbar & NV wird für einen gewissen Zeitraum_X einfach zweigleisig fahren. Ich seh da absolut gar kein Problem, im Gegenteil ... ;)


Die Frage, die ich mir jetzt stelle:
Was ist mit den GPU's, die aktuell Gsync können? Meint ihr Nvidia könnte z.B. die GTX 970 einfach durch Anpassung des Treibers Async kompatibel machen?
 
Rios schrieb:
Die Frage, die ich mir jetzt stelle:
Was ist mit den GPU's, die aktuell Gsync können? Meint ihr Nvidia könnte z.B. die GTX 970 einfach durch Anpassung des Treibers Async kompatibel machen?

Adaptive Sync erfordert einen speziellen Hardwarebaustein in der Grafiklösung, weshalb auch die bisherigen Intel iGPUs (bis einschließlich Skylake) nicht AdaptiveSync-kompatibel gemacht werden können. Ich weis nicht, ob Geforce GPUs diesen besitzen.
 
Zuletzt bearbeitet: (Formalitäten)
Sehr gut das Intel auch auf "Freesync" setzt. Ich persönlich mag zwar NV lieber als AMD, aber diesen G-Sync Mist sollten sie wegschmeißen und auch auf AMD´s Verfahren wechseln. Damit ist allen geholfen, außer NV natürlich :D...
 
Hito schrieb:
Nimm einfach die aktuellen Modelle - es gibt denselben Monitor einmal mit Gsync, einmal mit FreeSync. Beide Monitore bieten alles was der Konsument sich wünscht: selbes Display in 27er Diagonale, QHD, 1ms, 144Hz, alle sonstigen Extras und beide Geräte sind natürlich vom selben Hersteller. Es ist alles gleich bis auf das xSync-Feature.

Wieso sollte ich, der Kunde, 750€ zahlen, für ein Gerät, das nicht mehr kann als eines das 600€ kostet?

Wenn ich z. B. den ASUS MG278Q und den Swift vergleiche:

-ULMB und 3DVision. ;)
-Niedrigere range (30Hz vs. 40Hz). Bislang erreicht selbst mit fummeln kein FreeSync Gerät die 30Hz.
-Rein subjektiv: zusätzlich hat der Swift einen noch schmaleren Rahmen.

Wäre mir persönlich den Aufpreis wert.

Ich habe übrigens keinen G-Sync und auch keinen FreeSync mehr nachdem ich beides getestet habe. ;)
AMDs Fury X war ein totaler Reinfall für mich, da habe ich den MG279Q gleich mit abgegeben.

Der MG279Q wird ja gerne als Predator Gegenstück gesehen, kann ihm aber in Sachen Schnelligkeit nicht das Wasser reichen (ich hatte beide hier).
Ist arg langsam für ein 144Hz panel.

FreeSync wird gewinnen, das steht aber auch für mich fest.
Noch gibts aber nicht den Monitor, es sind mir zu viele Kompromisse dabei.
 
Zuletzt bearbeitet:
http://www.planet3dnow.de/vbulletin...Nvidia-nutzt-AdaptiveSync-der-VESA-fuer-GSync
Hier ist det passende link, hito.
Nvidia nutzt für gsync den async standard.
Das betreiben von nvidia dir vorzugaukeln, dass gsync nur mit modul funktioniert ist somit unfug.
Und das amd gsync kann wurde von mir nie behauptet, nur das gsync ein schwindel ist, indem der chip in dem modul nur einen recode enthält, der dem treiber sagt: ich darf gsync
 
Besonders interessant finde ich:
Zudem soll es auf allen Monitoren mit DP 1.2 die nach 2010 hergestellt wurden lauffähig sein
Soll das heißen, dass jeder Monitor der Display Port 1.2 besitzt, auch adaptive Sync kann und sich somit von nvidia und AMD Karten ansteuern lässt?
Dann müsste man das ganze nur noch irgendwie freischalten. Besonders interessant fände ich wenn man dem Dell U2515H nun erst mal Freesync verleihen könnte.
Dann würde ich mir den holen statt den LG 29UM67-P.
Mit EDID-Manipulation kann man ja die Freesync Range erweitern, so müsste man doch bestimmt auch bei nem Monitor Freesync aktivieren können.
 
Zurück
Oben