News Display-Technik: Intels künftige Grafikchips unterstützen Adaptive-Sync

Ouch, nVidia :p ... leider zu hoch gepokert und daneben gelegen, denn es gibt immer noch einen größeren Fisch im Aquarium (Intel), der den Ton angibt. Soviel zur angeblichen "Dream Kombo" Intel/nVidia ... es spricht z.Z. nichts gegen Intel/AMD ;) ...

... am besten ist es natürlich für den Verbraucher, denn jetzt hat man Gewissheit welcher Standard sich durchsetzen bzw. zukunftssicher sein wird. Wenn dann noch DP1.3 bald standardmäßig bei Monitoren nachgelegt wird und das Frequenzlimit auf 25Hz oder so abgesenkt werden kann, wäre das schon genial ... dann kann ich mir langsam ernsthafte Gedanken um einen 4K Monitor machen :).
 
Das ganze ist doch ziemlich sinnlos. Die Grafiklösungen auf den CPUs schaffen es doch nicht, genügend fps bereitzustellen, um überhaupt in den Bereich zu kommen, wo FreeSync arbeitet.

FreeSync ist primär für Spieler gedacht. Wer spielen will, hat meist eine dedizierte Grafikkarte, auch im Notebook.

Wer mit CPU-Grafik spielt, hat andere Probleme als starre Bildwiederholfrequenzen des Monitors ;)
 
Morrich schrieb:
Schönen Gruß an alle NVidia Käufer, die sich bisher für G-Sync entschieden haben. Damit ist diese Technik praktisch schon tot und das Geld war umsonst rausgeschmissen.
Wieso? Ich kann mir nicht vorstellen, dass Nvidia damit sofort G-Sync aus dem Treiber schmeisst. Der Treiber wird G-Sync wohl noch lange unterstützen.

Das Nvidia über kurz oder lang weg von G-Sync gehen wird, ist sehr wohl möglich. Das muss aber nicht bedeuten, dass G-Sync gleich sofort fallengelassen wird.

Greetz
hroessler
 
Ich freue mich zwar darüber, aber man sollte die News jetzt auch nicht überbewerten. Intel hat zwar - bezogen auf alle PCs - einem recht großen Marktanteil, aber in Spiele computern werden sie bisher kaum genutzt und daran wird sich wahrscheinlich auch nicht viel geändert haben, wenn dann mal entsprechende ntel Prozessoren auf dem Markt kommen. Bis sich dieser Entscheidung also auf die Verbreitung von AdaptiveSync bei Monitoren auswirkt wird, dürfte also noch viel Zeit vergehen.
 
Ist ja schön das Intel zahlenmäßig Marktführer ist, ich habe auch eine Intel APU, die ich aber nicht nutze.

Das dürfte bei sehr vielen Nutzern mit I5/I7 gleich aussehen, ich halte nicht viel von solchen Statistiken. :p
 
Damit dürfte der Standard für die Zukunft gesetzt sein. Da kann ich mich endlich an den Monitorkauf machen. Sehr schön. Das NV das feature GSync weiter im Treiber unterstützt halte ich für sehr wahrscheinlich. Alles andere wäre ein epic fail.
 
Wie stehen jetzt AMDs FreeSync, VESA, AdaptiveSync und Intel in Zusammenhang? Letztlich hat VESA etwas standisiert, das sich 'Adaptive Sync' nennt und eine konkrete Implementierung davon ist Freesync? Letztlich können Freesync-Monitore dann von AMD Radeon-Grafikkarten genutzt werden und auch durch die iGPU von Intel?
 
der Unzensierte schrieb:
Damit dürfte der Standard für die Zukunft gesetzt sein.

AdaptiveSync ist schon seit längerem VESA Standard. G-Sync war noch nie Standard und hatte auch nie vor dies zu werden, sondern nVidia setzen da rein auf ihre proprietäre Kiste. Es bleibt abzuwarten, ob G-Sync jetzt mittelfristig (zwei/drei Jahre) ausstirbt. Das dürfte in erster Linie daran hängen wie viele LCD-Hersteller noch bereit sein werden extra G-Sync Modelle zu fertigen oder ob dies für nVidia und die Hersteller wirtschaftlich unsinnig wird. Im GeForce Treiber wird der Support vermutlich bis in die "Ewigkeit" erhalten bleiben. Warum auch nicht? Es spricht ja nix dagegen irgendwann eventuell beides parallel zu unterstützen.
 
Sorry, jetzt mal blöde Frage die vielleicht jetzt auch nicht gerade zum Thema passt, aber seit wann unterstützen die Grafik-Chips von Intel eigentlich T&L?
 
Adaptive-Sync finde ich jetzt sehr verwirrend, schließlich gab es doch bereits seit Jahren Adaptive-Sync bei Nvidia-Karten, die weiter Entwicklung von V-Sync. Ich weiß das ist ein anderer Bereich aber trotzdem diese doppelte Namen bezeichnung ist doch krum.
 
Morrich schrieb:
Schönen Gruß an alle NVidia Käufer, die sich bisher für G-Sync entschieden haben. Damit ist diese Technik praktisch schon tot und das Geld war umsonst rausgeschmissen.

Wieso rausgeschmissen?? Was für ein Blödsinn. Denkst du das Feature funtioniert dann einfach nicht mehr? Ich hab schon nen Jahr G-Sync und es war jeden Heller wert!!
 
Zuletzt bearbeitet von einem Moderator:
@m.Kobold: Meinst du Adaptive-V-Sync ? (:
Können ja schon Karten von beiden Herstellern ewig, normales VSync is ja blöd, dass man sofort auf 30 abfällt, wenn 60 nicht geschafft werden.
 
Zuletzt bearbeitet:
Wehrwolf schrieb:
Wer spielen will, hat meist eine dedizierte Grafikkarte, auch im Notebook.
Im Moment ist Optimus und G-Sync meines Wissens nach inkompatibel. Vielleicht ändert sich das durch diese Entscheidung Intels in Zukunft noch, egal ob nVidia bei G-Sync bleibt oder auf AdaptiveSync umschwenkt.
Bei Optimus übernimmt, glaube ich, die Intel-GPU die Displayansteuerung. Sofern hier keine Unterstützung dynamischer Bildwiederholraten gegeben ist, ist es dann wahrscheinlich egal, ob die dGPU G-Sync/AdaptiveSync beherrscht.

Außerdem kann man auch mit iGPU spielen. Es gibt eine Welt jenseits der AAA-Titel.
 
Theobald93 schrieb:
@m.Kobold: Meinst du Adaptive-V-Sync ? (:
Können ja schon Karten von beiden Herstellern ewig, normales VSync is ja blöd, dass man sofort auf 30 abfällt, wenn 60 nicht geschafft werden.

Wußte nicht das es Adaptive-V-Sync betitelt wird, alles klar.
 
Miuwa schrieb:
Ich freue mich zwar darüber, aber man sollte die News jetzt auch nicht überbewerten. Intel hat zwar - bezogen auf alle PCs - einem recht großen Marktanteil, aber in Spiele computern werden sie bisher kaum genutzt

Adaptive Vsync ist nicht nur für Spiele nützlich, sondern auch für Videowiedergabe. 24fps Content auf 60hz Bildschirmen hat schönen 3:2 Judder, weil jedes Bild abwechselnd für 2 bzw. 3 Vsync Intervalle angezeigt wird. Sieht ziemlich eklig aus. Alles auf 24/48/72Hz zu betreiben ist am PC auch Unfug, da passt dann 60/30fps Video (sehr verbreitet dank Twitch und Youtube) nicht mehr rein.

Außerdem ist das gerade für langsamere iGPUs nützlich, die schnellen dedizierten Karten erreichen ja meist 60fps, sofern man nicht das Neueste vom Neuesten spielt.
 
Zuletzt bearbeitet:
@Stefan1207:
Hardware T&L? Seit Mitte August 2007 zumindest auch per Treiber. Die Generation vor dem GMA x3100 hatte das zwar wohl schon integriert, aber mangels Treiber nie in Aktion.

Details siehe hier: http://www.golem.de/0708/54207.html

(War aber tatsächlich bissi OT...)

Regards, Bigfoot29
 
DirtyOne schrieb:
Das dürfte bei sehr vielen Nutzern mit I5/I7 gleich aussehen, ich halte nicht viel von solchen Statistiken. :p

Schaut man dann aber die Anzahl an Notebooks die mit reiner IGPU ausgeliefert werden oder die ganzen Bürokisten dann ist die Anzahl an diskreter GPU doch ziemlich gering und Intel guter Marktführer. Bis auf Gamer und co. juckt die Grafik so gar nicht. Da dürfte sogar Matrox einige haben, denn die sind so gut wie in allen IPMI/ILO/iDRAC/.. Lösungen verbaut also in zig Millionen Server für Remote Management.
 
simmer mal ehrlich. die Intel-Lösungen brauchen FreeSync aber auch dringen. Bei 15fps ist das Tearing ja ein übles Problem :D
 
Zurück
Oben