Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Gerüchte um Nvidias G-Sync aufgetaucht
- Ersteller gabbercopter
- Erstellt am
CyberdyneSystem
Fleet Admiral
- Registriert
- Okt. 2009
- Beiträge
- 10.857
Falls der Artikel noch nicht gepostet wurde...
http://www.pcgameshardware.de/Nvidi...c-Experimenteller-Treiber-Verwirrung-1149574/
http://www.pcgameshardware.de/Nvidi...c-Experimenteller-Treiber-Verwirrung-1149574/
L
Lübke82
Gast
Daedal schrieb:Es wurde genutzt seit 2010... wer sagt dass es nicht genutzt wurde? Du schnappst die eine falsche Prämise und fängst an wieder falsche Tatsachen zu verbreiten auf dieser Grundlage. Das sind keine Argumente.
das ist quatsch das es genutzt wurde... sonst würde ja nicht hier aufeinmal heißen das der neue Treiber der jetzt aufgetaucht ist dieses feature aktiviert...sehr unlogisch deine Aussage.
Sonst hätte auch amd nicht erst solange an dem freesync-treiber basteln müssen z.b. wenn es schon in ihren notebooktreibern seit 2010 vorhanden ist!
Zuletzt bearbeitet von einem Moderator:
Wenn eDP nicht genutzt würde könnte kein Treiber der Welt etwas aktivieren - wie logisch ist denn deine Aussage?
Ich schrieb nichts darüber, dass AMD in irgendwelche Treibern ASync aktiviert hatte. Auch nicht jemand anderes.
Nvidia ist mit Sicherheit das erste Unternehmen, welches adaptive Frameraten für Desktopmonitore in einem Treiber ermöglicht hat. Und das war es dann auch schon. Also so in etwa der Aufwand der auch bei Treiberoptimierungen für Spiele drauf geht, eher weniger da Monitore ja selber ein EDID Profil mit ihren gesamten Eigenschaften mitteilen und mann nicht so viel von Hand optimieren muss.
Ich schrieb nichts darüber, dass AMD in irgendwelche Treibern ASync aktiviert hatte. Auch nicht jemand anderes.
Nvidia ist mit Sicherheit das erste Unternehmen, welches adaptive Frameraten für Desktopmonitore in einem Treiber ermöglicht hat. Und das war es dann auch schon. Also so in etwa der Aufwand der auch bei Treiberoptimierungen für Spiele drauf geht, eher weniger da Monitore ja selber ein EDID Profil mit ihren gesamten Eigenschaften mitteilen und mann nicht so viel von Hand optimieren muss.
mershadies
Cadet 4th Year
- Registriert
- Aug. 2004
- Beiträge
- 66
CyberdyneSystem schrieb:Falls der Artikel noch nicht gepostet wurde...
http://www.pcgameshardware.de/Nvidi...c-Experimenteller-Treiber-Verwirrung-1149574/
Gamenab dementierte diese Aussage; zumindest bis heute nacht.
Sein Comment zu dem Thema ist mitlerweile von seiner Seite verschwunden.
Allerdings ist an einer anderen Stelle zu lesen was er über Hardware-Seiten und NV Politik hält:
http://gamenab.net/2015/01/28/infor...m-works-and-where-to-make-your-modifications/
Hope all you Nvidia fans are happy, you will have all the time to buy the expensive and false G-sync monitors.
PS :Have a lot of secret behind NVIDIA Products (and more behind Hardware Reviewer)
Critic by a guy who is only making few coding stuff (Widget?) and database based program (VisualStudio) OK sure and by a team of reviewer products being pay with materials or money by different company, off course they are the one who know everything ! they even know how you are drinking your coffee. Nerds Youtube team right ?
PS : Who you think made the 346.87 ? I was part of this build and different one.
Interessant auch seine Aussage, dass nicht nur die 970er das "Speicheradressierungsproblem" hat:
And to finish this year’s broken hard work, the GTX 970 is not the only one who had the allocation memory problem, you can also find it on GTX 980M and other nvidia GPUs
Ich kann mit der Grafik nichts anfangen, aber inwiefern das jetzt stimmt sollte von fachkundiger Seite einmal geprüft werden.
Noch interessanter diese Aussage:
Wenn es wirklich stimmen sollte, dass NV Userdaten sammelt müssten das doch andere findige Leute herausfinden können.More information ? Well NVIDIA Geforce drivers include a monitoring background task, everything you do, they know without asking you.
Das einzige was mich irritiert ist die angebliche Unwissenheit darüber, was die ganzen Infos für eine Auswirkung haben würden:
I don’t want anybody to promote and I never expected that the G-sync Modded drivers will have such importance.
Für jemanden, der an der Treiberentwicklung beteiligt sein soll ziemlich unwahrscheinlich.
So naiv kann man doch nicht ernsthaft sein, schon garnicht nach dem Debakel mit der 970.
L
Lübke82
Gast
Daedal schrieb:Wenn eDP nicht genutzt würde könnte kein Treiber der Welt etwas aktivieren - wie logisch ist denn deine Aussage?
Ich schrieb nichts darüber, dass AMD in irgendwelche Treibern ASync aktiviert hatte. Auch nicht jemand anderes.
Nvidia ist mit Sicherheit das erste Unternehmen, welches adaptive Frameraten für Desktopmonitore in einem Treiber ermöglicht hat. Und das war es dann auch schon. Also so in etwa der Aufwand der auch bei Treiberoptimierungen für Spiele drauf geht, eher weniger da Monitore ja selber ein EDID Profil mit ihren gesamten Eigenschaften mitteilen und mann nicht so viel von Hand optimieren muss.
Hab ich etwas über eDP geschrieben? Es geht um die Verwendung von Adaptive Sync in Games!!
Kommst etwas durcheinander hab ich das Gefühl
Und doch schriebst du das seit 2010 Adaptiv Sync verwendung findet auf meine Frage von 6:18 Uhr!
Zuletzt bearbeitet von einem Moderator:
Dann lies deine Beiträge nochmal und suche mal nach den Games die du erwähnt hast.
Adaptive Sync wird seit 2010 durch den eDP Standard bereitgestellt und auch in Notebooks genutzt. Ich bin sicher es gibt den einen oder anderen Gamer der das Notebook nutzt, auch wenn ich das für irrelevant halte in dieser Diskussion.
Adaptive Sync wird seit 2010 durch den eDP Standard bereitgestellt und auch in Notebooks genutzt. Ich bin sicher es gibt den einen oder anderen Gamer der das Notebook nutzt, auch wenn ich das für irrelevant halte in dieser Diskussion.
smilefaker
Banned
- Registriert
- Feb. 2014
- Beiträge
- 1.161
Interessant auch seine Aussage, dass nicht nur die 970er das "Speicheradressierungsproblem" hat:
Das wurde jetzt schon mehrfach getestet, es betrifft imho nur die GTX 970.
mershadies
Cadet 4th Year
- Registriert
- Aug. 2004
- Beiträge
- 66
smilefaker schrieb:Das wurde jetzt schon mehrfach getestet, es betrifft imho nur die GTX 970.
auch mit der 980M ?
Ja, die auch.
https://forums.geforce.com/default/...king-with-347-09-347-25/post/4430922/#4430922
Aber das Thema gehört in den/die anderen Thread(s).
https://forums.geforce.com/default/...king-with-347-09-347-25/post/4430922/#4430922
Aber das Thema gehört in den/die anderen Thread(s).
L
Lübke82
Gast
Daedal schrieb:Dann lies deine Beiträge nochmal und suche mal nach den Games die du erwähnt hast.
Adaptive Sync wird seit 2010 durch den eDP Standard bereitgestellt und auch in Notebooks genutzt. Ich bin sicher es gibt den einen oder anderen Gamer der das Notebook nutzt, auch wenn ich das für irrelevant halte in dieser Diskussion.
Entweder verwechselst du mich oder wir diskutieren aneinander vorbei! Welche Games hab ich wann, wo erwähnt? Und ich erwähnte nirgendwo das es eDP nicht seit 2010 gibt... Ich schrieb Adaptive Sync, welches nicht eingesetzt wurde
Zuletzt bearbeitet von einem Moderator:
Adaptive Sync gibt es in Notebooks, es war aber nur als Stromsparfeature vorgesehen.
Vielleicht nutzt sogar mein olles Dell E6510 schon Adaptive Sync, zumindest kann es im Stromsparmodus das Display auf 40 Hz umschalten. Die Funktion habe ich allerdings sofort abgestellt, ein mit 40 fps ruckelnder Mauszeiger ist mir zu viel des Schlechten
Vielleicht nutzt sogar mein olles Dell E6510 schon Adaptive Sync, zumindest kann es im Stromsparmodus das Display auf 40 Hz umschalten. Die Funktion habe ich allerdings sofort abgestellt, ein mit 40 fps ruckelnder Mauszeiger ist mir zu viel des Schlechten
L
Lübke82
Gast
Das hat aber nichts mit adaptiv sync zu tun da die Wiederholungsrate konstant ist Ich kann meinen Monitor auch mit 24Hz betreiben. Du verstehst da was falsch glaube ich.
Und sicher ist Adaptive Sync in vielen Notebooks möglich, jedoch wurde es bislang nicht genutzt. Sollte ja auch sonst irgendwo ein Video geben wo das verglichen wurde. Oder glaubt ihr, dass alle Welt auf die Tests warten würde von Free/Adaptive Sync, wenn es schon vor über einem Jahr mit G-Sync hätte verglichen werden können??
Und sicher ist Adaptive Sync in vielen Notebooks möglich, jedoch wurde es bislang nicht genutzt. Sollte ja auch sonst irgendwo ein Video geben wo das verglichen wurde. Oder glaubt ihr, dass alle Welt auf die Tests warten würde von Free/Adaptive Sync, wenn es schon vor über einem Jahr mit G-Sync hätte verglichen werden können??
Zuletzt bearbeitet von einem Moderator:
Lübke82 schrieb:Hab ich etwas über eDP geschrieben? Es geht um die Verwendung von Adaptive Sync in Games!!
Dieser Beitrag hier.
Lübke82 schrieb:Das hat aber nichts mit adaptiv sync zu tun da die Wiederholungsrate konstant ist Ich kann meinen Monitor auch mit 24Hz betreiben. Du verstehst da was falsch glaube ich.
Für eine Stromsparfunktion braucht man nicht unbedingt mehr als zwei Stufen. Der Vorteil von Adaptive Sync ist, dass es beim Wechsel der Bildwiederholfrequenz keinen Aussetzer gibt.
Das alte Dell scheint übrigens doch kein Adaptive Sync zu nutzen. Beim Wechsel wird das Bild für ca. 1 s schwarz.
Du hast nicht verstanden wie Adaptive Sync Strom spart mit Hilfe von eDP. Da gibt es keine 2 Frequenzen wie bei CPUs wenn sie runter takten. Der Stromsparmodus ist, dass der Bildschirm auf PanelSelfRefresh schaltet und die Verbindung zwischen GPU und Panel abgeschaltet wird. Das spart 85% Strom. Zusätzlich lässt sich dies dazu nutzen, dass der TFT wirklich nur dann aktualisiert wird, wenn von der GPU ein gerendertes Bild kommt. Das Display und die FPS adaptieren gegenseitig die Frequenz mit der ein Bild hergestellt wird. Dadurch taktet der Monitor keinen Takt zuviel und die GPU rendert keinen Frame zuviel wenn die VBLANK Signale an jedem Frame hängen.
Nochmals der Hinweis: entweder du liest jetzt mal irgendetwas darüber bei der VESA oder hörst auf dir die Funktionsweise aus den Fingern zu saugen und hier zu nerven.
Richtig Das Stromsparfeature nennt sich AdaptiveSync aka GSync aka Freesync. Wenn es nur adaptive Frequenzen gibt, gibt es keine Frequenzstufen zum Stromsparen wie du das meinst.
Nochmals der Hinweis: entweder du liest jetzt mal irgendetwas darüber bei der VESA oder hörst auf dir die Funktionsweise aus den Fingern zu saugen und hier zu nerven.
Richtig Das Stromsparfeature nennt sich AdaptiveSync aka GSync aka Freesync. Wenn es nur adaptive Frequenzen gibt, gibt es keine Frequenzstufen zum Stromsparen wie du das meinst.
Der Satz "Für eine Stromsparfunktion braucht man nicht unbedingt mehr als zwei Stufen." stellt nicht die Behauptung auf, dass es in diesem Fall tatsächlich so gelöst ist. Die hast Du - wie üblich - dazugedichtet.
Und wenn Du einfach Lübkes Frage beantwortet hättest, anstatt hier nur zum Nörgeln aufzutauchen, dann hätte ich gar nichts schreiben müssen.
Und wenn Du einfach Lübkes Frage beantwortet hättest, anstatt hier nur zum Nörgeln aufzutauchen, dann hätte ich gar nichts schreiben müssen.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.279
joe_nothingman schrieb:auch mit der 980M ?
natürlich betrifft das auch die 980M würde ich annehmen. Hätte mich schon gewundert wenn nicht
Interessant in sofern dass der beschnittene GM204 auf der GTX 980M mit bis 8 GB kombiniert wird. Dürften dann schnelle 7 GB sein.
Zuletzt bearbeitet:
Der Chip ist auf der GTX 980M aber anderst beschnitten als auf der GTX 970, d.h. es ist durchaus moeglich das hier tatsaechlich der ganze Speicher mit der vollen Bandbreite angesprochen werden kann. Laut dem Link von kisser trifft das sogar zu.
Zuletzt bearbeitet: