News Nvidia: G-Sync für Notebooks setzt auf offenen Standard

@Waro
Was hat das mit trollen zu tun wenn du schreibst Nvidias Panels könnten unter 30 Hz bieten? Verbreite doch einfach keine falschen Informationen, dann muss die keiner korrigieren.
 
Daedal schrieb:
@Waro
Was hat das mit trollen zu tun wenn du schreibst Nvidias Panels könnten unter 30 Hz bieten? Verbreite doch einfach keine falschen Informationen, dann muss die keiner korrigieren.

Es ging darum, dass G-Sync auch funktioniert wenn man eigtl. unter 30 Hz landen würde weil die 30 FPS drunter fallen, aber die Verdopplung das behebt. Ich weiß nicht ob mein Post im Kontext wirklich so missverständlich war oder du ihn nur missverstehen willst ... mir fällt allerdings gerade auf, dass die News auf CB im Gegensatz zu anderen Newsseiten das Thema Frameverfielfachung komischerweise ausspart, insofern will ich ersteres nicht ausschließen.
 
Ja das weiss ich - ich wies lediglich auf die oft falsch verwendete Kleinigkeit Hz!=FPS hin. Wo ist das Problem?
Du schriebst 30 Hz in dem von mir zitierten Teil wo FPS rein gehört. Warum man erstmal pampig werden muss bevor man richtig liest ist mir unklar.
 
In Shops und Datenblättern ist von einer 30 Hz-Grenze die Rede, nicht von einer 30 FPS-Grenze. Ich habe diese Formulierung übernommen, das war offenbar für dich missverständlich. Für mich halt nicht, weil ich im Satz zuvor von einer Frameverdopplung sprach. Das schließt ein unterschreiten von 30 Hz schließlich aus, da die Hz den FPS angeglichen werden, und wenn diese verdoppelt bzw. vervielfacht werden liegen sie ja wieder über 30 ... da die Aussage das die 30 Hz unterschritten werden können technisch unsinnig ist ist mit gar nicht in den Sinn gekommen das man das so deuten könnte.
 
@Waro245:

Gib's auf. Der meint mal wieder Anhand von Einheiten festlegen zu können ob hier vom Eingangssignal oder von der Panelrefreshfrequenz die Rede ist.
Als ob man die Bildfrequenz des Eingangssignals nicht auch in Hz angeben könnte.

Das Ganze ist in etwa so als ob man km/h nur für Autos verwenden dürfte und m/s nur für Personen.
 
Zuletzt bearbeitet:
Waro245 schrieb:
In Shops und Datenblättern ist von einer 30 Hz-Grenze die Rede, nicht von einer 30 FPS-Grenze.
Das weiss ich und es ist auch jedesmal falsch. Daher habe ich es erwähnt - du kannst natürlich gerne den falschen Terminus benutzen wenn du dich dann wohler fühlst. Die Panels bei GSync und Freesync kommen derzeit eben nicht unter 35 Hz. Wie sie die Frequenzen der Panels dann treiberseitig manipulieren um auch FPS unterhalb des Hz-Limits darzustellen ist dann eine andere Sache. AMD schraubt die Frequenz auf maximale 120/144 Hz und Nvidia versucht sie exakt zu verdoppeln

@noxon
Du darfst ja gerne in Zukunft die Monitor-Frequenzen in FPS angeben. Es spielt ja keine Rolle, nicht wahr? So kann man natürlich auch sein Verständnis für Technik jeden Tag etwas besser machen ;)

Nur weil AMD unterhalb von 40 FPS die Frequenz auf 144 Hz erhöht, hast du dann 144 FPS? Das mag man so sehen wollen, doch FPS beinhalten, dass jeder Frame ein eigener ist und kein doppelter mit selbem Inhalt. Wenn 4 mal der selbe Frame angezeigt wird bleibt es 1 Frame. Auch auf einem digitalem Foto-Bildrahmen der immer nur einen Frame zeigt. Wird dieser mit 15 Hz angezeigt, flimmert er bei einem Panel das mindestens 30 Hz braucht um die Pixel nicht verblassen zu lassen.
 
pcper.com hat getestet was passiert, wenn bei AMD die 40 Hz-Grenze unterschritten wird. Laut ihnen wir dann bei VSync Off nicht auf 144 Hz geschaltet, sondern man verbleibt leider bei 40 Hz.

Da du extra den Rest meines erklärenden Posts weggelassen hast gehe ich darauf nun nicht weiter ein.
 
Ja das stimmt aber nicht. Ein neuerer und besserer Test hat anderes ergeben:
http://techreport.com/review/28073/benq-xl2730z-freesync-monitor-reviewed/3
I asked AMD's David Glen, one of the engineers behind FreeSync, about how AMD's variable-refresh scheme handles this same sort of low-FPS scenario. The basic behavior is similar to G-Sync's. If the wait for a new frame exceeds the display's tolerance, Glen said, "we show the frame again, and show it at the max rate the monitor supports." Once the screen has been painted, which presumably takes less than 6.94 ms on a 144Hz display, the monitor should be ready to accept a new frame at any time.
Auf dem BenQ passiert genau das: 144 Hz.

Hier wurde auch mit AMD gesprochen und David Glen hat das erklärt, so wie Tom Petersen das bei PCper erklärt hat für GSync.
 
War das der selbe Monitor wie bei pcper? Vielleicht hatte der bei pcper einen anderen Scaler oder eine ältere Firmware die das noch nicht bietet. Ansonsten steht da Aussage gegen Aussage ...
 
noxon schrieb:
Intelgrafik ist aber, wie schon sagst, kaum für Spiele relevant und AdaptiveSync Techniken sind fast ausschließlich für Spiele interessant. Wenn jetzt noch hinzu kommt, dass eine der Beschränkungen von FreeSync momentan ein VRR Minimum von 40 fps ist und Intel GPUs meistens gar nicht so viel Leistung haben um solche Frameraten zu erbringen, dann ist das alles ziemlich sinnfrei für Intel.

http://store.steampowered.com/hwsurvey/ - ich seh da einen nicht unerheblichen Anteil Intel. Und ich seh auch nur 35% FullHD, ein Viertel der Steam-Nutzer hat 1366x768, je 5-7% spielen auf 1280x1024, 1680x1050, 1440x900, 1600x900 (die letzten beiden + 1366 als typische Notebookauflösungen) . Die Welt besteht nicht nur aus Leuten, die sich zwischen ner 970 und einer 290 entscheiden müssen, die meisten liegen da wesentlich drunter. Intel hat 3/4 Marktanteil und wird sich die Syncgeschichte sehr genau anschauen. Ist für die auch irgendwie blöd, wenn man es via eDP relativ einfach in jedes Billignotebook bringen kann, aber dem Standard-Mediamarktkäufer erklären muss, warum man bei nem externen Monitor (oder Fernseher?) ein spezielles Modell brauchen soll, nicht jede Intelgrafik es unterstützt und man die neusten Treiber dafür braucht.
 
Waro245 schrieb:
War das der selbe Monitor wie bei pcper? Vielleicht hatte der bei pcper einen anderen Scaler oder eine ältere Firmware die das noch nicht bietet. Ansonsten steht da Aussage gegen Aussage ...
Nun ich würde doch der Aussage des AMD Mitarbeiters, der die Technik entwickelt hat und dem dortigen Review, welches das eben bei VSYNC Off auch separat getestet hat, eher glauben. PCper ist einfach davon ausgegangen, dass VSync Off und ON die selben Frequenzen benutzen und haben es so in ihren Chart eingetragen. Sie haben lediglich geschaut ob das Bild besser ist, doch die Frequenzen nicht nochmal gemessen. Dies hat Techreport gemacht wie man den dortigen Ausführungen entnehmen kann.

Kein Vorwurf an die Redaktioon, denn dies konnten sie ja nicht wissen zu dem Zeitpunkt. Doch sie haben den Input von AMD eben nicht gehabt zu ihrem Review den Techreport hatte.
 
Morrich schrieb:
Und das beweist doch, dass G-Sync nichts weiter ist als AdaptiveSync bzw. FreeSync und die teuren Module bei normalen Monitoren eigentlich gar nicht nötig sind.
Danke für eine weitere Art der Abzocke NVidia.

Absolut richtig, dass lag ja schon länger in der Luft, aber CB hat nicht darüber berichtet (zumindest habe ich nichts gesehen).
Das kam doch erstmals ziemlich zeitnah nach der GTX 970 Täuschung auf.
Einfach nur lächerlich, dass die Quartalszahlen jedes mal besser werden.


MfG
 
DaBzzz schrieb:
http://store.steampowered.com/hwsurvey/ - ich seh da einen nicht unerheblichen Anteil Intel. Und ich seh auch nur 35% FullHD, ein Viertel der Steam-Nutzer hat 1366x768, je 5-7% spielen auf 1280x1024, 1680x1050, 1440x900, 1600x900 (die letzten beiden + 1366 als typische Notebookauflösungen) . Die Welt besteht nicht nur aus Leuten, die sich zwischen ner 970 und einer 290 entscheiden müssen, die meisten liegen da wesentlich drunter. Intel hat 3/4 Marktanteil und wird sich die Syncgeschichte sehr genau anschauen. Ist für die auch irgendwie blöd, wenn man es via eDP relativ einfach in jedes Billignotebook bringen kann, aber dem Standard-Mediamarktkäufer erklären muss, warum man bei nem externen Monitor (oder Fernseher?) ein spezielles Modell brauchen soll, nicht jede Intelgrafik es unterstützt und man die neusten Treiber dafür braucht.
Bei den Intel Grafikkarten handelt es sich aber fast ausschließlich um Intel HD Graphics 3000 und Intel HD Graphics 2000 Chips. Das sind DX 10 GPUs mit 6 bzw. 12 Shader-Einheiten. Wer damit spielt benötigt definitiv kein AdaptiveSync.
Ich vermute eher, dass dies sogar die ganzen Notbookbesitzer sind. Intels interesse läge wenn überhaupt darin ein AdaptivesSync auf Basis von ePD zu implementieren. An DP1.2(a) Montoren haben die wirklich kein Interesse.


Daedal schrieb:
Du darfst ja gerne in Zukunft die Monitor-Frequenzen in FPS angeben. Es spielt ja keine Rolle, nicht wahr? So kann man natürlich auch sein Verständnis für Technik jeden Tag etwas besser machen ;)
Ich habe gesagt, dass man jede FPS Angabe auch in Hz angeben kann, nicht das man jeden Wert der in Hz angegeben wurde auch in FPS angeben kann.
1*x/s (Hz) ist die allgemeingültigste Einheit für eine Frequenz während sich 1*frames/s (fps) auf eine gewisse Sache bezieht. Du kannst jederzeit die Spezialisierung aus der Einheit entfernen und sie durch die Allgemeinere ersetzen.

Zum Beispiel könntest du das Becquerel auch ganz einfach durch das Hertz ersetzen. Solche speziellen Einheiten werden nur eingeführt um Verwechselungen auszuschließen. Im Falle von Becquerel wäre es eventuell fatal wenn man es mit einer anderen Frequenz verwechselt, da es sich hier um radioaktive Zerfälle pro Sekunde handelt. Deswegen hat man die Einheit eingeführt. Zur besseren Unterscheidbarkeit und zur Sicherheit.

Gleiches gilt für fps. Das heißt aber nicht, dass es falsch wäre diese Einheiten wieder auf ihren Ursprung zurückzuführen. Gleichfalls heißt es aber auch, dass du radioaktive Zerfälle nicht in fps angeben darfst. Ich hoffe es wird klar, dass dieser Umkehrschluss nicht gegeben ist.
 
Sollen wir das eine Hz und das andere FPS nennen, damit wir nicht 3 Seiten um Begrifflichkeiten diskutieren müssen?
Vielleicht so wie es auch die Hersteller machen, nur um der Einfachheit willen und damit wir nichts neues erfinden müssen - Einverstanden?
 
noxon schrieb:
Bei den Intel Grafikkarten handelt es sich aber fast ausschließlich um Intel HD Graphics 3000 und Intel HD Graphics 2000 Chips. Das sind DX 10 GPUs mit 6 bzw. 12 Shader-Einheiten. Wer damit spielt benötigt definitiv kein AdaptiveSync.
Ich vermute eher, dass dies sogar die ganzen Notbookbesitzer sind. Intels interesse läge wenn überhaupt darin ein AdaptivesSync auf Basis von ePD zu implementieren. An DP1.2(a) Montoren haben die wirklich kein Interesse.

Ein Klick hätte gereicht, um die Intel HD Graphics 4000 als häufigste überhaupt dort eingesetzte Grafik zu erkennen...80% haben ne DX11-Karte, und davon sind über 10% jene Intelgrafiktypen (4000, 4400, 4600 zusammen). GTX 760 und 660 kommen gut dahinter mit 3,5% und 2,8%, dazu 2,8% der GTX 970 (oha!) und 2,4/2,2/2,2 % von GTX 650, GTX 770 und GT 630.
 
Nur zum Verständnis.
Das MSI GT72 mit der 880M, anstatt der 980M, ist trotz identischem Display (n173hge-e11) nicht fähig die G-Sync Technik zu nutzen?

lg
 
Ich habe den neuen Treiber (verfügbar)

GeForce Experience schrieb:
GeForce Game Ready Driver
As part of the NVIDIA Notebook Driver Program, this is a reference driver that can be installed on supported NVIDIA notebook GPUs. However, please note that your notebook original equipment manufacturer (OEM) provides certified drivers for your specific notebook on their website. NVIDIA recommends that you check with your notebook OEM about recommended software updates for your notebook. OEMs may not provide technical support for issues that arise from the use of this driver.

Before downloading this driver:


1. Please check to make sure that your notebook has a supported GPU (refer to the Products Supported tab below).
2. It is recommended that you backup your current system configuration. Click here for instructions.


Just in time for the highly anticipated title Heroes of the Storm, this new GeForce Game Ready driver ensures you'll have the best possible gaming experience. This driver is also aligned with today’s launch of the first notebooks featuring G-SYNC display technology. In addition, this new Game Ready driver provides a number of new gaming features and benefits based around G-SYNC technology, Dynamic Super Resolution, and enhancements for the latest new titles.

Also was genau würde mir das jetzt bringen? Und sollte ich besser warten, bis die OEM-Version kommt?
 
pipip schrieb:
Ähnliche Techniken waren seit Jahren bei Notebooks möglich. NV hätte nichts anders machen müssen und adaptiv Sync wie AMD promoten müssen, dann wäre die Technik jetzt in jedem kack Monitor verbaut und man müsse nichts extra für einen Chip zahlen.

Wieso gibt es eigentlich keine Notebooks mit Freesync, wo doch AMD diesen offenen Standard schon so lange promoted? Sind die zu unfähig, ihren Worten auch Taten folgen zu lassen? Ist das nicht peinlich für AMD, das Nvidia zuerst AdaptivSync des eDP Standard benutzt?
 
Ich habe mir vor nem Monat auch ein Asus G751 gekauft und es hat natürlich keinen G-Sync Support obwohl das benötigte LG IPS Panel verbaut ist.

Wie vielleicht bekannt hat der User "Gamenab" es ja geschaft mit der Nvidia Treiber Version 347.88 und seinem TOOL G-Tools Beta 2 die G-Sync Funktion freizuschalten. Es gibt auch im Asus Forum die Information das der User von Nvidia angehalten wurde das zu unterlassen.

Also wieder eine super Verasche.
 
Zurück
Oben