Test AMD FreeSync im Praxistest

Kartenlehrling schrieb:
Seit wann soll G-sync mit ULMB (Ultra Low Motion Blur) funktionieren, das funktioniert auch unter G-sync nicht ??!!

Bei mir ging ULMB und g-sync, ka ob sich g-sync deaktiviert. Es wirkte aber als wäre es an. :lol:
 
Klar deaktiviert sich dann GSync & nein, ein zeitgleicher Betrieb ist nicht möglich. Parallelen zu 3D-Vision & GSync sind vorhanden ... ;)
 
G2xPQRmHnT schrieb:
Bei mir ging ULMB und g-sync, ka ob sich g-sync deaktiviert. Es wirkte aber als wäre es an. :lol:

Das geht rein technisch nicht, da das Bild bei 30HZ und Lightboost (bzw der Marketingbegriff ULMB) extrem flackern würde, was extrem stören würde. Deshalb funktioniert Lightboost ja auch erst ab 120/144Hz und nicht einmal bei 60HZ (mir ist zumindest kein Modell bekannt, welches das so kann)
 
Ist der Catalyst 15.3 auf CB der Presse Treiber oder der ganz offizielle Public von AMD?
 
Die Änderungen fallen aber sehr ernüchternd aus!
Viele Bugs, keine Performance Improvements für Single GPUs, nur Crossfire Verbesserungen und FreeSync Support. Da kann ich mir den eigentlich erstmal sparen und bleibe beim Omega.
 
Wieso muss es dann ein 120hertz G-syn MOnitor sein, wenn doch die 30 bis 40 Hertz so wichtig sind?
Dann wärst du ja predestiniert für einen 60 Hertzschirm...
Manche wiedersprechen sich auch nur deswegen, damit sie Nvidia in den Himmel loben können.
Gut erkannt, bin gegenüber einem 60Hz Monitor auf jeden Fall nicht komplett abgeneigt. Aber mit einer Titan-X weis man nie was man gerade hat, man kann nicht immer DSR Faktor 4 zum Einsatz bringen und dann liegen mehr FPS an als 30 und ich hab schon einen 60Hz IPS, da wäre es wirklich gut wenn der neue wenigstens 120Hz zum G-Sync dazu hat, damit sich der Kauf auch wirklich lohnt und nicht nur wegen dem G-Sync. Im Office Betrieb hat man durch die hohe Frequenz auch ein paar Vorteile, aber must have sind die 120Hz bei mir tatsächlich nicht.

Trotzdem, das der Sync ab 30FPS los geht ist Pflicht. Stand heute ist Free Sync damit nicht so überzeugend, erst recht nicht wenn teils 40-50 verlangt werden.
 
hm im Whitepaper http://www.amd.com/Documents/FreeSync-Whitepaper.pdf steht folgendes


da geht es auch um Videowiedergabe wo ja auch weniger FPS vorkommen können, also stimmt da irgendetwas nicht mit den minimum 40 hz in Games (da ist 30 angegeben).
Und wieso ist da überhaupt ein Unterschied, Bild ist Bild ob Video oder Game wenns im Vollbild läuft oder nicht?

denke man sollte da echt DP1.3 abwarten, da tut sich sicher noch einiges

Muss DocWindows zustimmen, irgendwie ist das alles noch halbgar umgesetzt.

Vertehe auch das Problem nicht warum da etwas flimmern muss wegen Selbstrefresh.
Wenn das Panel kein neues Bild innerhalb ner gewissen Zeitspanne von der Grafikkarte bekommt soll der Monitor halt selbstständig das letzte Bild aus seinem Buffer erneut darstellen.
 
Zuletzt bearbeitet:
Das liegt daran dass wohl die Leute einfach nicht unterscheiden können (oder wollen) zwischen AMDs Freesync und dem Adaptive Sync Standard verbunden mit den verbauten Scalern in den Monitoren.

Manche Leute wollen das Frequenzproblem mit aller Mühe AMD in die Schuhe schieben. Und es ist zugleich auch noch AMDs Schuld, dass die Scaler so unflexibel sind. Großes Kino.
 
Für die 40 Hz kann AMD in der Tat nichts, aber eine intelligentere Fallback-Strategie bei Unterschreiten der 40 fps müsste treiberseitig möglich sein. Die von pcper festgestellte an der Untergrenze "klebende" Bildwiederholfrequenz ist so ziemlich die schlechteste aller Lösungen (maximaler Judder bei Vsync, maximales Tearing ohne).

Der Treiber müsste wie das G-Sync-Modul vorausschauend Bilder wiederholen, also z.B. bei 30 fps auf 60 Hz takten und zweimal dasselbe Bild schicken.
 
Das ist jetzt der erste Treiber in dem Freesync integriert ist, und die ersten Monitore die es unterstützen. Wieso erwartet mann dass AMD hier alles perfekt hinkriegt? Noch dazu für umsonst.
 
r4yn3,
Natürlich ist es AMD schuld. Oder erkläre doch mal, wie man seine Technik mit Angaben ala 9-240Hz gegenüber 30-144Hz der Konkurrenz vergleichen kann, wenn die erhältlichen Produkte diese Frequenzbereiche nicht erreichen und sogar schlechter sind als bei G-Sync.

Du kannst ja nichtmal beweisen, dass GhostSync mit 9-240Hz arbeitet kann. Genausowenig kannst du beweisen, dass G-Sync nur innerhalb von 30-144Hz funktioniert. Aber AMD darf lügen und Grottenprodukte mit Produktionsfehler auf den Markt bringen - als Belohnung werden sie auch noch gelobt.

Immerhin weiß man wenigsten jetzt, dass Overdrive weder beim BenQ, Acer und den LG Monitoren mit Freesync funktioniert. Ein Vorteil gegenüber den GTX970 Käufern, die es erst 4 Monate nach dem Release erfahren haben, was Sache mit dem Speicher ist.
 
Och Gottchen Du...Junge dich hat ohnehin das ganze Forum aufm Kieker, was sollte mich da dein Gedöns interessieren?

Warum AMD das so bewerben kann? Ganz einfach, die Software kann es, Punkt. Solange das Gegenteil nicht bewiesen ist, muss ich als Käufer das so akzeptieren. Was die Monitore davon umsetzen liegt an denen.
Imo ist es auch Sache der Monitorhersteller die Produkte so zu gestalten, sie als echte Gamigmonitore mit weiträumingen Frequenzabdeckungen bewerben zu können. Dafür gibt es genug Internetseiten die sowas dann testen.

Aber als Jen-Hsun Huangs getreuer Schoßhund drehst du dir das sowieso wie du willst.
 
r4yn3 schrieb:
Warum AMD das so bewerben kann? Ganz einfach, die Software kann es, Punkt.
Und die GeForce 970 hat auch volle 4 GB VRam. Wen stört's, dass die letzten 500 MB davon kaum nutzbar sind, was?

Sontin hat vollkommen Recht. Wenn das beworbene Produkt nicht das liefern kann, was man versprochen hat, dann verarscht man hier den Konsumenten und das gilt natürlich auch dann, wenn dafür externe Komponenten verantwortlich sind auf die man angewiesen ist.

Dein Maushersteller wirbt ja auch nicht damit, dass das Signal mit 1 Ghz gepollt wird und verweist dann auf die Limitierung des USB Busses von 1 KHz und nutzt es als Ausrede dafür, warum die 1GHz nicht erreicht werden.
 
BiA Master schrieb:
Der Acer Predator ist vor einer Stunde geliefert worden, hab den Treiber von 3D Guru geladen und Free Sync aktiviert, aber egal was ich mache, irgendwie hab ich keine spürbaren Verbesserungen.
Welche Games, welche Settings & ~welche Performanceangabe?

BiA Master schrieb:
Also bei mir ist alles wie gehabt, egal was ich einstelle, der ganze Sync-Krams von Nvidia und AMD scheint nur Blendwerk zu sein...
Das ist kein Blendwerk, zumindest bei NV^^ & ich kann das absolut NICHT bestätigen.
Ich las allerdings auch mal von dir, dass Du von (d)einem FX zu einem i7 DC 4790K auch keine Unterschiede festgestellt hast & vielleicht war das damals auch schon ein Omen? ;)
 
Vielleicht nimmt er nicht starkes Tearing gar nicht wahr, so wie ich :D

Ich sehe auch in sooo vielen Fällen kein Tearing wo es fast alle anderen sehen xD
 
Zurück
Oben