News Nvidia G-Sync: Das ist der aktuelle Stand zum Bildverbesserer

Sontin schrieb:
Wieso wird bei "Alternative" von FreeSync gesprochen, wenn das nichtmal existiert?
Wenn es eine Alternative wäre, müsste man dazu ja irgendwas schreiben können - Monitorunterstützung, Hardware, Treiber, Preise, Lieferbarkeit etc.

Weil Grafikkartenhersteller generell in der Lage sind Projekte zu leiten und etwas zu entwickeln und zu unterstützen und Freesync nunmal eine potenzielle Alernative sein wird, wie will man es sonst nennen?
Nvidia wird mit G-sync einen Vorsprung von etwa einem jahr haben, würde ich schätzen.

Es spricht nichts dagegen die VBlank Intervalle zu nutzen und die synchrone Bildausgabe zu erzeugen.

Das was AMD auf der CES gezeigt hat, war dass mittels der Vblank Intervalle die Framerrate verändert werden konnte, jetzt muss nur noch der Treiber funktionieren, damit es dynamisch wird.

Hardware_Hoshi schrieb:
Das ist mehr als AMD gezeigt hat. Besagte haben einfach ein Notebook mit "komplett anderer Technik" als Pseudo-Demo verwendet. Da ist noch nicht einmal wirklich Entwicklung gelaufen. Ein Prototyp hätte vollkommen gereicht, aber den hat AMD vermutlich nicht einmal.

Natürlich ist das deutlich mehr als AMD gezeigt hat, AMD kann aber nachziehen, mit einer offenen Lösung und die sollte prinzipiell immer besser sein wie eine proprietäre, weil von allen Herstellern nutzbar.
Ob die offene Lösung dann besser ist, sei dahingestellt, ich sage nur, dass die Hersteller dieser Monitore darauf schauen werden, dass sie nicht auf ihren Geräten sitzen bleiben.

Kasmopaya schrieb:
Das es AMD schafft nur mit einem Firmware Update der Monitore so gute Ergebnisse zu erzielen halte ich für ein Gerücht. Warum hat man das dann nicht schon viel früher gemacht? Nur weil NV was bringt, fällt einem zufällig ein das dies keine große Sache ist und jeder das haben kann?

Man kann Sachen immer auf zwei Wege lösen.
Erstmal Hardwareseitig oder auch Softwarseitig, wenn die Hardware prinzipiell dazu in der Lage ist und keine weitere Logik von Nöten ist.

Es kann auch nicht sein, dass wir von den Grafikherstellern mit Features zugeschüttet werden und der gemeinsame Weg das zu implementieren nicht gegangen wird.
 
GSYNC wird bei mir ein "must have" wenn ich mir einen UHD Fernseher kaufe.
Ich hoffe Nvidia wird das auch in Fernsehern implementieren.
 
BookerDeWitt schrieb:
Immerhin hat AMD in kürzester Zeit beweisen können, dass sie das was Nvidia mit einem sauteuren Modul löst mit bestimmter Hardware kostenlos und herstellerunabhängig(!?) lösen können.

Und genau das stimmt nicht. Denn bisher gab es bloß Demonstrationen beider Techniken auf einem Demogerät vor einem kleinen Publikum. Die Reaktionen waren salopp zusammengefasst: Das G-Sync Bild sieht gut aus, das FreeSync Bild sieht auch gut aus. Die abgefilmten Videos bringen die Effekte der Techniken nicht rüber weil, tja, weil sie eben abgefilmt sind. Mit ner Kamera die wieder ihre eigene Frequenz hat.
Es gibt kaum Leute die beides Live gesehen haben und es beurteilen können. Daher ist das Hochjubeln, bzw. Totschreiben von G-Sync oder FreeSync einfach nur albern.
 
Liebe Monitor Hersteller die G-Sync anbieten wollen/werden ... Beeilt euch !
 
Da wirst du aber entweder auf U-UHD warten müssen, oder einen CRT nehmen. Oder halt Balken akzeptieren, aber das ist ja auch immer unerwünscht...
 
Für Leute, die einen 100€ TN - Monitor stehen haben und ihn auf Amazon mit 5 Sternen und den Worten "Hervorragende Bildqualität" bewerten, ist G-Sync freilich nichts.

Diese Beschwerden über Nvidia's ach so bösen, proprietäre Entwicklungen sind auch herrlich. Unglaublich, dass ein Unternehmen mit den eigenen Entwicklungen Geld verdienen will und sie nicht einfach für den Konkurrenten öffnet.
 
Also mein alter HP w2408h hatte eine recht gute Skalierung und der Bildschirm kam vor 7 oder 8 Jahren raus. Damit konnte ich selbst Baldur's Gate 2 (mehrmals) in einer nicht nativen Auflösung durchspielen. Natürlich ist es nicht perfekt gewesen, aber ich würde es als wirklich sehr gut bezeichnen. Heutzutage dürfte es dort eher keine Rückschritte geben. Such dir einfach einen Bildschirm mit einer guten Interploation raus. Hier ist der Prad Test von damals, mit Bildern der Interpolation: http://www.prad.de/new/monitore/test/2007/test-hp-w2408h-teil14.html
 
TECC schrieb:
Und was ändert UHD bei diesem TFT Problem da genau?

Dass mehr Bildpunkte zur Verfügung stehen, um schiefkrumme Vergrößerungsfaktoren einigermaßen scharf hinzukriegen. Oder der nächste ganzzahlige Faktor näher dran ist, und somit die Ränder kleiner ausfallen können. Bleibt natürlich dem Monitorhersteller überlassen, der Elektronik eine anständige Skalierung zu spendieren, die bei passenden Werte (zumindest auf Wunsch) nur vergrößert und nichts verschlimmbessert. Bei diesen Auflösungen ist das auch dringender als momentan, weil dann halt nicht nur ein Stückchen Bildschirm dunkel bleibt, sondern alte Auflösungen in Briefmarkengröße erscheinen.

Mitschuld hat auch dieser 1080p-Krams, denn auf 1080 Höhenpixel krieg ich nichts sinnvoll unter, nichtmal EGA. Auf 1600 oder 1920 x1200 dagegen passen 800x600 prima, und auf die momentan gehobene Bildschirmhöhe mit 1440px passen 640x480 mit 3x3-Vergrößerung drauf. Passiert halt, wenn man die gewohnte Auflösungsverdopplung wegschmeißt und dafür ein Fernsehformat als den neuen Messias verkauft.

8K hat 4320px Bildhöhe. Das sind 7x7 Pixel, wenn man 800x600 darstellt, plus 120px Rand (3%). 640x480 passt mit 9x9 perfekt drauf. 480x320? 13x13, Rand 160px (4%). 320x240 geht 18x18. Andere Richtung: 1152x864 ist 5x5, FHD (naja, "ältere Spiele"...gell) formatbedingt genau 4fach. Die Schlepptopgröße 1400x1050 bringt wieder 120 schwarze Pixel bei 4x4.
Einzig bei 1024x768 haperts, das hat nen Faktor von 5,625, da geht recht viel verloren. Aber kein Vergleich zur 1:1-Darstellung auf FullHD...
 
SGCGoliath schrieb:
Weiss jetzt jemand schon genau ob damit auch Mikroruckler von SLI System beseitigt werden?
Oder kann dies nur durch die Grafikkarte eliminiert werden?
Mikroruckler bleiben. Die entstehen ja durch die falsche Aufteilung der Berechnungen (eine Grafikkarte muss nur wenig rechnen und die andere sehr viel und dann ruckelt es, da auf die andere Grafikkarte gewartet wird).

G-Sync verhindert das Bildzerreißen indem es den Monitor auf die Grafikkarte abstimmt - da ruckelt nichts.
 
smilefaker schrieb:
G-sync hat keine Chance sich gegen AMD´s Freesync durchzusetzen.

Normalerweise läuft eine Begründung folgendermaßen:
1. Aussage
2. Begründung
3. Beispiel


Bei deinem Post ist es nur eine Aussage, also absolut ohne Substanz. Dafür dass noch nicht einmal Informationen über FreeSync vorhanden sind, ist das schon arg traurig. Selbst wenn es die eigene Meinung ist, sollte man zumindest den Anstand haben eine Begründung zu geben.

Meinem Wissenstand nach wird kein FreeSync-Gerät vor 2015 (!) auf den Markt kommen. Das wäre dann der früheste Termin, wenn die Technik mit DP1.3-Monitoren funktionieren sollte. Beim gewohnten Tempo von AMD bei Neuerungen könnte es sogar noch viel später werden.

Falls jemand mehr Infos darüber hat, kann er mir sie gerne weitergeben.
 
Zuletzt bearbeitet:
Hardware_Hoshi schrieb:
Beim gewohnten Tempo von AMD bei Neuerungen könnte es sogar noch viel später werden.

Das Tempo liegt ja nicht AMD sondern bei den Display-Herstellern. Die müßen ihre künftige Panel-Steuerungen an einen variablen VBLANK-Standard anpassen. Wobei es schon Monitore geben kann, die es mit Firmware-Updates unterstützen könnten, da dynamische VBLANKS bereits ab DP 1.0 vorgesehen waren, jedoch (im Gegensatz zu eDP) noch nicht genau spezifiziert worden sind. GPUs von AMD, Intel und Nvidia unterstützen ja schon dynamische VBLANKS, da die Chips ja auch in Notebooks mit eDP eingesetzt werden. Da ist nur eine Treiberanpassung nötig.
 
Ist ja irgendwie seltsam - das lässt sich über Treiberanpassungen lösen - ich wiederhole nochmal - in alphabetischer Reihenfolge:

AMD - Intel - NVidia

Nvidia bietet ne kombinierte Hardware- und Softwarelösung bei ausschließlicher Verwendung von Kepler und nachfolgender Architekturen

Aber immerhin gab es schon mal was zum antesten. Das ist halt ComputerBase.

https://www.computerbase.de/2013-12/nvidia-gsync-test/

Bei AMD gibts dazu außer Störfeuer noch nix Verwertbares. Ne Breitseite wäre viel interessanter. Aber wirklich innovativ sind die halt net.

Bei guten Ideen sich mal kurz ranhängen, und wenn es passt nachmachen.

AMD ist im Moment ein Schatten seines eigenen Selbst. Die reagieren nur -

Bringt halt mal selber was, und wenn dann auch ordentlich. Mantle ist vielleicht net schlecht, aber mit AMD? Sorry, aber es läuft halt net auf den echten Preis-Leistungs-Krachern-AMD-GPU-s.

Ahh, muss mich anschnallen und ne Safe-Position einnehmen - denn jetzt werd ich hier liquidiert.
 
smilefaker schrieb:
G-sync hat keine Chance sich gegen AMD´s Freesync durchzusetzen.
Jop, so siehts aus.

FreeSync:
1. Ist ein offener Standard (wird im Mai als Teil von DP 1.2a bestätigt)
2. Ist kostengünstig. Die Monitorhersteller müssen ihre eigene Technik nur um DP 1.2a erweitern und keine überhöhten Lizenzgebühren zahlen.
3. Macht genau das gleiche wie G-Sync. Das heißt, die Grafikkarte übernimmt die Kontrolle über die sogenannten VBLANK-Intervalle.
4. Die Industrie begrüßt offene Standards.

G-Sync:
1. Ist eine proprietäre Technik von Nvidia
2. Ist sehr teuer, da Nvidia Chips mit ihrer Technik verkaufen wollen, zudem müssen sie auch hohe Lizengebühren an Onkel Huang von Nvidia abdrücken.
3. Macht aber absolut nichts anderes als FreeSync. Der Monitor zeigt einfach ein Bild solange an, bis die Grafikkarte den Befehl gibt das gezeigte Bild zu "löschen" und durch ein neues zu ersetzen.
4. Die Industrie setzt widerwillig auf proprietäre Techniken.

G-Sync hat also nur Nachteile und keine Vorteile, deshalb wird sich G-Sync nicht durchsetzen können. Außerdem ändern beide Techniken am Display selbst rein gar nichts, nur die Steuerung des Monitors wird um einen weiteren Befehl erweitert. Das Ergebnis wird also letztendlich gleich sein, nur dass Nvidia's Lösung viel teurer ist und nur mit Nvidia GPUs funktioniert.
 
Zuletzt bearbeitet:
dexplus schrieb:
FreeSync:
1. Ist ein offener Standard (wird im Mai als Teil von DP 1.2a bestätigt)
2. Ist kostengünstig. Die Monitorhersteller müssen ihre eigene Technik nur um DP 1.2a erweitern und keine überhöhten Lizenzgebühren zahlen.
3. Macht genau das gleiche wie G-Sync. Das heißt, die Grafikkarte übernimmt die Kontrolle über die sogenannten VBLANK-Intervalle.
4. Die Industrie begrüßt offene Standards.

Gehen wir diese Liste der Halbwahrheiten einmal langsam durch:

1. FreeSync wird ein offener und optionaler Teil eines Standards. Displayhersteller müssen sich nicht daran halten. Das wird eine schöne Sucherei beim Monitorkauf. Nicht jeder Monitor wird dazu in der Lage sein. Nach momentanem Stand eher Notebooks als Desktopmonitore.

2. Absoluter Unsinn! Die Hersteller müssen ihre gesamte Display-Steuerung überarbeiten. Das wird niemals kostenfrei an den Kunden weitergergegeben. Alles was AMD macht ist den Treiber hinstellen und sagen: "Na dann macht mal, ihr Hersteller!"
So einfach wie AMD es uns weiß machen will, ist es lange nicht!

3. Es ist noch nicht bewiesen in welchem Umfang die beiden Technologien gleich sind. Diversen Diskussonen zufolge ist AMDs FreeSync möglicherweise etwas besser als V-Sync aber noch schlechter als die Lösung von Nvidia, denn FreeSync hat keine Lösung gegen den auftretenden Inputlag.

4. Nicht ganz richtig! Die Industrie begrüßt offene Standards nur, wenn diese nicht mit zusätzlichen Kosten verbunden sind. Jedes neue Design kostet Geld und AMD wird alles andere tun als die Hersteller finanziell zu unterstützen. Immerhin sind sie seit Jahren selbst in den roten oder gerade so in den schwarzen Zahlen.



dexplus schrieb:
G-Sync:
1. Ist eine proprietäre Technik von Nvidia
2. Ist sehr teuer, da Nvidia Chips mit ihrer Technik verkaufen wollen, zudem müssen sie auch hohe Lizengebühren an Onkel Huang von Nvidia abdrücken.
3. Macht aber absolut nichts anderes als FreeSync. Der Monitor zeigt einfach ein Bild solange an, bis die Grafikkarte den Befehl gibt das gezeigte Bild zu "löschen" und durch ein neues zu ersetzen.
4. Die Industrie setzt widerwillig auf proprietäre Techniken.

Du machst es dir etwas zu einfach!
1. Ja

2. Böses Nvidia ... Zwang oder notwendig? Dein Fanlager gibt die jeweilige Richtung an ;)

3. Beweise das erstmal! Vorher ist alles nur Gerede! AMD hat jedenfalls noch nichts vergleichbares mit FreeSync gezeigt. Die einzige Demo war ein schlechter Witz!

4. Das ist zu kurz gedacht! Die Industrie denkt erst einmal nur an sich selbst. Proprietär oder nicht ist denen erste einmal egal!

Soweit man überall hört gibt es noch keine vergleichbare Hardwarelösung wie das Nvidia-Modul. Anstelle Millionen für Forschung und Entwicklung auszugeben, gehen die Hersteller lieber den leichten Weg und beziehen (bisher) einfach das Modul von Nvidia. Die Kosten werden dann an den Kunden weitergegeben.


dexplus schrieb:
G-Sync hat also nur Nachteile und keine Vorteile, deshalb wird sich G-Sync nicht durchsetzen können. Außerdem ändern beide Techniken am Display selbst rein gar nichts, nur die Steuerung des Monitors wird um einen weiteren Befehl erweitert. Das Ergebnis wird also letztendlich gleich sein, nur dass Nvidia's Lösung viel teurer ist und nur mit Nvidia GPUs funktioniert.

Welcher Befehl?
Ein Bildschirm ist 95% Hardware und nur 5% Software. Wenn die passende Hardware nicht da ist, kannst du noch so viel Software schreiben wie du willst. Es wird absolut lustig zu frickeln, wenn der AMD-Treiber dem Monitor etwas "befiehlt" und dieser es aber nicht umsetzen kann, weil der Hersteller das optionale FreeSYNC in DP1.2a+ nicht implementiert hat.

AMD lügt einfach! Von ihrer Seite wird alles kostenlos angeboten werden. Die wirklichen Kosten entstehen auf Seite der Hersteller. Man braucht so oder so einen neuen Monitor. Genau da ist es fraglich in wie weit die Hersteller die Preise erhöhen.
 
Zurück
Oben