Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIm Interview: AMD und Nvidia über FreeSync und G-Sync
Naja, wenn AMD alles mit "kommt (vielleicht) noch" beantwortet, dann warten wir mal mit dem Kauf ab bis es denn wirklich da ist. Eine Lösung die sich "in der Anfangsphase der Entwicklung" befindet möchte ich nur ungern kaufen. Hab gern Nägel wo auch schon Köpfe drauf sind.
Was FreeSync@HDMI betrifft, so hätte ich bei einer Erweiterung der Sync-Lösung auf andere Anschlüsse erwartet, dass diese auch offen ist, also auf ein offenes Protokoll seitens AMD setzt. Muss wohl rechtliche Gründe haben, dass das (noch) nicht so ist.
Oh mann... ist AMD, also Hauptsache meckern, nicht wahr? Dann kauf dir doch einen GSync Monitor und sei glücklich, aber fühle dich nicht gezwungen, einen Hersteller (permanent) zu kritisieren, der im Gegensatz zur Konkurrenz auf offene Standards setzt! FreeSync ist erst seit 2,5 Monaten da, es funktioniert genauso gut wie GSync, "Feintuning" wie Multi-GPU Support und Fenstermodus kommt noch, und man sollte vielleicht auch nicht vergessen, dass AMD kein Monitor Hersteller ist. Wenn die Minimalfrequenz eines Monitors 40Hz ist, dann kann man ja wohl kaum AMD kritisieren, wenn FreeSync darunter nicht funktioniert :s
Also unbrauchbar für schnelle Shooter @ inputlag. Dann kann man auch den triple buffer aktivieren, ist abgesehen von der Framerate nicht viel anderst, was die negativen Effekte in schnellen Ballerspielen angeht.
Was stänkerst du eigenlich wenn du keine Ahnung hast,
hier ist die Rede von unter <40fps und da wird dem Monitor einfach eine Verdoppelung der FPS vorgegaugelt so das er mit echten 38fps bei 76Hz läuft.
Spannend bleibt die Frage, wenn Adaptive-Sync sich durchgesetzt hat, wei lange wird es dauern, bis nvidia keinen support mehr für das G-Sync bietet? Fragen über Fragen.
Und Eine Übertragung von FreeSync über HDMI finde ich auch sehr begrüßenswert.
Wenn es auch keine wirklichen Vorteile bringt. Ist halt weiter verbreitet.
Ist aber auch nichts gescheites, wenn das nur über proprietäre Protokolle im AMD Treiber funktioniert. Dann ist es nämlich genau solch ein Mist wie G-Sync bei normalen Monitoren.
Technische Frage:
Soweit ich das verstehe kann G-Sync mehr als Freesync (ob sinnvoll oder nicht)
Warum kann nicht jeder Monitor der G-Sync unterstützt auch gleich Freesync? Das sollte ja eigentlihc nur ein Firmware Problem sein. Die Hardware für die Bildanpassung ist ja sowieso schon vorhanden...
@zeedy: Ich wollte nur meine Gedanken zu dem Artikel hinschreiben. Ist mir schon klar dass andere Leute auch andere Ansichten und Meinungen dazu haben. Schreib deine doch auch mal auf, statt nur an meiner Meinung rumzunögeln. Dann haben wir alle was davon.
@the_nobs: Steht doch im Text
Mittlerweile liegen die Argumente gegen diesen Schritt bei den technischen Einschränkungen aktueller Monitore. Nvidia sei sich sicher, dass Nvidia-Kunden aktuell von der Adaptive-Sync-Erfahrung enttäuscht wären, sodass zur Zeit nur G-Sync bei Nvidia Priorität hat
Der Witz an der Geschichte ist doch, dass sich durch die doppelte Darstellung eines Frames rein GAR NICHTS ändert. 28 fps bleiben 28 fps, egal ob das Bild einmal bei 28 Hz dargestellt wird oder zwei mal bei 56 Hz. Die Zeit, die du das Bild auf dem Bildschirm siehst ist die selbe. Nur, dass der Bildschirm bei 28 Hz wahrscheinlich ein wahrnehmbares Flackern produzieren wird. Die einzige Einschränkung: der Monitor muss auch die doppelte Bildwiederholungsrate beherrschen. 37 fps auf nem 60 Hz-Monitor zu verdoppelten klappt dann halt nicht.
Ich finde die Lösung genial wie einfach!
@the_nobs: weil Nvidia das nicht möchte. Die wollen ja die G-Sync-Module in den Monitoren und ihre eigenen GPUs verkaufen.
Schnell = wenig Reaktionszeit (ULMB), geringer Inputlag. Das bekommst du als Paket nur bei LCD mit TN Panels & Plasma TVs. 144 Hz sind nett fürs Feeling und bringen auch zusätzlich noch ein paar Vorteile für beide Punkte oben.
Allerdings werden viele auch trotzdem mit der Schnelligkeit eines 144 Hz IPS zufrieden sein. 144 Hz haben für mich aber auch nur in Verbindung mit ULMB (entweder das Feature oder einfach nur gute Werte) einen wirklichen Sinn. Wenn ich ein Panel habe was mir alles wegblurt, kann ich auch Zwischenbildberechnung nutzen.
Wobei NV das anscheinend AMDs trantütiger Treiberabteilung verdankt:
Nvidias Vorgehen, unterhalb von 30 Hertz ein Frame zwei oder drei Mal darzustellen, um Tearing und Stottern zu minimieren, sei eine Möglichkeit. Dass AMD diesen Weg gehen wird, bestätigte Hallock nicht.
Technisch möglich wäre es. Denn so hat Tom Petersen bestätigt, dass die mehrmalige Ausgabe desselben Frames bei G-Sync für Notebooks durch den Treiber erledigt wird. Bei der Variante für externe Monitore wird das „Frame Doubling“ hingegen noch durch das G-Sync-Modul erledigt, sollte sich aber auch in Software umsetzen lassen.
Technisch möglich wäre es. Denn so hat Tom Petersen bestätigt, dass die mehrmalige Ausgabe desselben Frames bei G-Sync für Notebooks durch den Treiber erledigt wird. Bei der Variante für externe Monitore wird das „Frame Doubling“ hingegen noch durch das G-Sync-Modul erledigt, sollte sich aber auch in Software umsetzen lassen.
"Nvidia sei sich sicher, dass Nvidia-Kunden aktuell von der Adaptive-Sync-Erfahrung enttäuscht wären, sodass zur Zeit nur G-Sync bei Nvidia Priorität hat."
Also ich bin begeistert! Habe seit zwei Tagen den neuen Treiber mit Adaptive-Sync und DSR auf dem Laptop! Es ist ein Traum!
Ich finde es weiterhin mittelmäßig das hier zog Begriffe durcheinander gewürfelt werden.
Es wurde hier min. 2x nach einem offenen Standard gerufen.
Den gibt es: Adaptive Sync, VESA Standard von AMD vorangetrieben.
AMDs FreeSync ist lediglich der Marketingname für die Software, welche auf den VESA Standard setzt. Das hier gerne Adaptive Sync und FreeSync zusammen geworfen werden...
Dann gibt es nvidias G-Sync Lösung die im Desktop Bereich per proprietärer Schnittstelle, realisiert durch einen FPGA, das angeht, und derzeit dabei ist im Notebookbereich per eDP ohne Zusatzchip realisieren will.
Witzig dabei ist das AMD dies bei der FreeSync Lösung per Notebook über eDP gezeigt hatte, als es noch keine Adaptive Sync fähigen Desktopmonitore gab.
Das wirklich interessante ist das AMD und Realtek zusammen an einer Lösung per HDMI arbeiten ist begrüßenswert und hält auch hoffentlich in den VESA Standard und somit hoffentlich auch in Fernseher Einzug.
Das dies natürlich "proprietär" derzeit ist, ist sicher kein Wunder.
Es ist weder VESA spezifiziert, noch läuft der Catalyst Treiber mit nvidia Hardware und warum sollte AMD einen Hack für nvidia Treiber schreiben?
Selbst wenn sie es gemacht hätten gäbe es Ärger, Urheberrechte pipapo und ganz nebenbei hätte man vielleicht damit bewiesen das nvidia Adaptive Sync kann.
Sie wollen einfach nur nicht einen VESA Standard unterstützen.
Ergänzung ()
JMP $FCE2 schrieb:
NV hat also "nebenbei" AMDs Baby auf den Stand von G-Sync gebracht
Und ganz nebenbei aufgezeigt das sie demnach den VESA Standard unterstützen können, wenn sie wollen und auch Adaptive Sync Monitore unterstützten könnten, und G-Sync Monitore bzw deren Modul nicht mehr nötig ist.
Ein offener Standard wäre wirklich besser. Man müsste so beim Grafikkartenwechsel auch gleich den Monitor mitwechseln, um diesen Vorteil noch benutzen zu können.
Oder man kauft halt dann die Karte vom jeweiligen Hersteller. Von der Leistung geben sich AMD und nVidia doch innerhalb einer Generation ohnehin nicht viel - von daher sehe ich jetzt kein Problem mich auf nVidia und G-Sync festzulegen. Im schlimmsten Fall kostet mich das später vielleicht 100 Euro Aufpreis, weil ich nicht die Preisbrecher-AMD-Karte kaufen kann. Und was sind 100 Euro wenn wir hier von 500+ Euro Monitoren und 350-800 Euro teuren Grafikkarten sprechen?
Dafür kann ich mit meinem ROG Swift schon seit Monaten sehr entspannt und frei von Frameratezwängen spielen. Bis es einen gemeinsamen Standard gibt, ist mein Monitor vermutlich ohnehin schon längst reif für eine Ablösung. Die Technik schreitet immer weiter voran - wir sind gerade im Bereich Spielemonitore nicht mehr in einer Situation wie unsere Großeltern, die den Fernseher nur alle 10-15 Jahre ersetzt haben, wenn man vor lauter Unschärfe schon lange keine Texte mehr lesen konnte.
In ein paar Jahren will man 4k-Monitore, oder 21:9-Modelle, neue Panel-Techniken, usw. Und bis dahin greife ich halt noch 1-2 Mal zu einer nVidia Grafikkarte.
Ergänzung ()
rudl schrieb:
=input lag? mich würde das sowas von nerven wenn dann quasi mitten im Spiel wenn die framerate mal runter rutscht auf triplebuffering umschaltet.
Es muss nicht einmal ein schneller shooter sein, auch bei einem SP-shooter bei dem ich nicht umbedingt 60fps+ brauche würde es mich sehr stören.
Die Bilder werden bei G-Sync erst unter 30fps wiederholt - unter 30fps will man in keinem Spiel fallen. Dieses Limit ist somit in der Praxis kein Problem.
Die Frage ist, ob wirklich jemand, der 700€ für nen Monitor ausgibt,
ein so lahmes System betreibt, das nicht mal mindestens 40 fps bringt.
Ob sich für den dann so ein Monitor lohnt, ist meine persönliche Frage.
Ich werde auf den Zug sehr gerne aufspringen, sobald es einen und nur einen
einheitlichen Standard für alle Grafikchip und Monitorhersteller gibt. Vorher isses nix.
Gibt natürlich Ausnahmen, Spiele die 30fps Limit haben. Also alle C&C Spiele
und The Evil Within (was man mit Konsolenbefehl aber ändern kann).
Aber da kann man das doch ausschalten, oder?