Test AMD FreeSync im Praxistest

PiPaPa schrieb:
Ja weil Sontin ja auch bekannt dafür ist objektiv, neutral und unvoreingenommen zu sein.
Na Na Na! Ein @PiPaPa ist da objektiver und Neutraler?

Ich würde mir wünschen, das NVidia bei FreeSync mit macht oder uns mitteilt warum FreeSync nichts für NVidia ist.
 
Hier der Presse Treiber:

https://mega.co.nz/#!18QymYoT!DDinhPolyzFo7vJ30LIYqzaCeDjyHydVbrG9xTbbkno

Quelle
DJvOduS.png

Der Omega kommt aber noch. Dieser Beta hat nur FreeSync.
 
Zuletzt bearbeitet:
BlauX schrieb:
AMD kann man aber null komma null ankreiden, was die Hersteller entschieden haben

Das ist doch wieder mal typisches AMD-Fanboy-Gefasel: Immer sind die anderen schuld!
Egal, was bei AMD nicht rund läuft, seien es die Geschäftzahlen, Marktanteile oder was auch immer: immer sind es die anderen.

Weißt du was das Problem von AMD ist:
Die ziehen keine Sache komplett alleine durch, sondern verlassen sich immer auf andere. Das ist natürlich auch z.T. ihrer derzeitigen wirtschaftlichen Lage geschuldet. Trotzdem muss man mal genug Arsch in der Hose haben, Dinge allein durchzuziehen.

Ich zitiere mich mal aus dem November (https://www.computerbase.de/forum/t...ng-ab-maerz-2015.1415571/page-5#post-16594198):

Nvidia nimmt hier das Heft selbst in die Hand, während AMD mal wieder auf andere angewiesen ist. Wer sich immer nur auf andere verlässt, der kann damit schon mal auf die Schnauze fallen. [I/]

Weißt du, was für mich das Fazit dieses Tests ist:
Freesync ist theoretisch sehr gut, praktisch derzeit aufgrund der beschränkten Hz nur eingeschränkt nützlich, und der beste Scaler für adaptive Refresh-Raten kommt von Nvidia.
 
Dann wirds wohl nichts mit freesync. Gsync mit dem Modul als Framebuffer ist für <40 fps doch besser geeignet. schade.
 
Kisser, oder Sontin 2.0,

Tja. Offene Industriestandards erlauben eben kein rum fuschen dritter. Die Technik kann schließlich auch Intel nutzen, und es Intel-Sync nennen, und NV ebenfalls. Nur lehnt sich Intel/Nvidia eben zurück, bis es ausgereift ist, ehe die vermutlich irgendwann mitziehen werden.
Man macht sich immer von der Industrie abhängig, auch du, weil es leider oft unumgänglich ist.

Auch hat es nichts mit Rechtfertigung zutun, sondern, dass hier wieder Pauschal gehetzt wird, was nicht erwiesen ist....

Mir Fanboy zu unterstellen ist auch wieder die Höhe - ich bin Farbenblind. Du siehst nur CPU/GPU den Rest blendest du aus.
 
Zuletzt bearbeitet:
Ich dachte du wärst blau? :D
 
Sontin schrieb:
Richtig - es liegt an dem billigen Panel mit dem billigen Scaler und der billigen Elektronik in Verbindung mit der fehlenden händischen Optimierung...

GhostSync ist eben noch nicht marktreif. Proof of Concept. Wer jetzt kauft, wird in ein paar Monaten nur noch Schrott haben, weil die Nachfolgemonitore besser funktionieren. Wow. Wenn man darüber nachdenkt, ist GhostSync jetzt sogar teurer als G-Sync.

Ach komm, dich nimmt eh keiner mehr ernst, mit deinen selbst erfundenen Begriffen. Wie lange haste gesucht bis du eine schlechte review gefunden hast^^ Die Seite kannst sowas von knicken ;) Gibt nix erbärmlicheres als Fanboy´s die Jahre lange die selbe Ka.. erzählen.
Du kommst doch immer nur bei AMD/Nvidia Themen aus der Versenkung um die gleichen inhaltslosen Geschichten zu erzählen.
Wahrscheinlich springst du heute den ganzen Tag von Forum zu Forum um mal wieder alles in Grund und Boden zu quatschen. Du tust mir leid.

Edit:
@engineer123
genau die anderen Seiten wie du es nennst, haben alle keine Ahnung und pc per wiess Bescheid. Haha wie ignorant kann man den sein.
 
Zuletzt bearbeitet:
kisser schrieb:
Das ist doch wieder mal typisches AMD-Fanboy-Gefasel: Immer sind die anderen schuld!

Freesync ist theoretisch sehr gut, praktisch derzeit aufgrund der beschränkten Hz nur eingeschränkt nützlich, und der beste Scaler für adaptive Refresh-Raten kommt von Nvidia.

Und das von dir ust typisches Fanboygefasel par excellance.
Wie man es halt gewohnt ist von kisser und von Sontin. Die Frage ist sowieso, ob ihr nicht ein und denselben Account nutzt.
Wie bezeichnend, dass kein einziger Test dieses harsche Fazit teilt, von daher kann man eure nur negativen Kommentare schlichtweg ignorieren und lieber unvoreingenommene Tests lesen.
 
Insgesamt einigermaßen detaillierter Test, allerdings kann man das 40 Hz Problem von FreeSync nicht genug betonen und auch in diesem Artikel kommt es eher wie ein kleinerer Schönheitsfehler rüber.

Dazu schreibt und erklärt "PC Perspective" Tacheles
http://www.pcper.com/reviews/Displa...hnical-Discussion/Inside-and-Outside-VRR-Wind

The low end is where the G-Sync module kicks in and works some magic, effectively extending the VRR range (green line) down to handling as low as 1 FPS input while remaining in a variable refresh mode.

Mit G-Sync bekommt man nicht "nur" bis runter auf 30 FPS eine flüssige Erfahrung, sondern sogar durchaus noch mit 20-30 FPS weil das G-Sync Modul die Raten "hochrechnet" und damit sogar in diesem normalerweise schon üblen FPS Bereichen einigermaßen flüssig für das Auge abläuft.

Ich kann jedem nur raten den PC Per Artikel zu lesen. Glaubt nicht wenn es hier und anderswo heißt: F-Sync ist fast genauso gut wie G-Sync. G-Sync ist aktuell im Gesamten immer noch eine ganze Ecke besser. Mag sein, dass AMD treiberseitige Besserung erreichen kann, das müssen sie aber erst beweisen.
 
Der artikel ist wirklich aufklärend und echt schade das mit dem ghosting und den tearing oder stuttering unter 40 fps
 
etoo schrieb:
Dann wirds wohl nichts mit freesync. Gsync mit dem Modul als Framebuffer ist für <40 fps doch besser geeignet. schade.

Naja AMD könnte das Ruder rumreißen, wenn sie den Treiber der Grafikkarte für jedes am Markt befindliche Freesync Panel optimieren würden. Doch das bezweifle ich sehr stark. Wie sich zeigt haben sie es ja noch nicht mal geschafft den Treiber auf Monitore zu optimieren, die bereits seit fast nem Monat am Markt erhältlich sind.

Also wirds wohl irgendwann ein G-Sync Display. Kommt für mich auch billiger, weil ich dafür keine neue 200€ Grafikkarte brauche.
 
Wieso ist das bei Freesync ein Vorteil, dass man bei Frameraten über der Refreshrate des Monitors VSync deaktivieren oder aktivieren kann?
Das ist ein Nachteil von Freesync, das die Technik dort nicht mehr funktioniert und man entweder auf VSync ausweichen muss oder Tearing-Effekte in Kauf nehmen muss.

GSync hingegen erlaubt es weiterhin GSync auch jenseits der Refreshrate einsetzen zu können und so die Vorteile der geringen Latenz beizubehalten und dennoch keine Tearing-Effekte dafür in Kauf nehmen zu müssen.

Im nächsten Test würde ich auch gerne mal Latenz-Tests sehen.
Man siehe sich mal den Input-Lag vom kommenden Acer XB270HU an. Einen besseren Monitor hat TFTCentral noch nie zu Gesicht bekommen.

Total Display Lag (SMTT 2) = 3.00 ms
Pixel Response Time Element = 2.75 ms
Estimated Signal Processing Lag = 0.25 ms


Mich würde wirklich mal interessieren ob das jetzt am GSync Modul liegt oder daran, dass sich die Monitore jetzt mit den Grafikkarten synchronisieren.

Das ist nämlich schon kein schlechtes Wort mit den 3 ms. Im Vergleich zu meinem Eizo Foris wären das satte 15 ms die ich mit dem Monitor einsparen würde.


PS:
Man hätte im Übrigen auch mal ULMB erwähnen können. Das gehört genauso zu GSync dazu wie das Sync Feature an sich.
 
Zuletzt bearbeitet:
Ich denke nicht dass kisser und Sontin dieselbe Person sind, Beitrittsjahr und Anzahl der Beiträge lassen mich daran zweifeln.
Jedoch scheinen beide sehr ähnlich zu argumentieren und dasselbe "Weltbild" zu haben.
Ich glaube er so User wie blob oder maclight sind Fakes.
 
noxon schrieb:
Wieso ist das bei Freesync ein Vorteil, dass man bei Frameraten über der Refreshrate des Monitors VSync deaktivieren oder aktivieren kann?
Das ist ein Nachteil von Freesync, das die Technik dort nicht mehr funktioniert und man entweder auf VSync ausweichen muss oder Tearing-Effekte in Kauf nehmen muss.

Falsch, bei G-sync hat man dann V-sync, bei AMD Vsync oder kein Sync.
 
Ach ich hab mich so auf den 34um67 gefreut aber das VRR Windows ist doch echt sehr klein :(
Ergänzung ()

smilefaker schrieb:
Falsch, bei G-sync hat man dann V-sync, bei AMD Vsync oder kein Sync.


Unter 40fps werden die Frames verdoppelt ausgegeben sodass Gsync wieder funktioniert (zb bei 28fps werden 56 Bilder per Sek ausgegeben und der monitor läuft mit 56hz)
Das Modul mit ca. 700mb speicher arbeitet quasi als framebuffer
 
Zuletzt bearbeitet:
Die Bilder werden nicht verdoppelt ausgegen, sondern halbiert ausgegeben.
Das liegt daran, dass G-sync unterhalb von 30 Hertz nicht funktioniert, wahrscheinlich aufgrund das Panels.
Wir werden ja sehen wie es aussieht, wenn mehr Freesynmonitore kommen, und wie die Panels und Scaler arbeiten.
 
MikelMolto schrieb:
Na Na Na! Ein @PiPaPa ist da objektiver und Neutraler?
Auf dem "Argumentationsniveau" von Sontin bewege ich mich bei weitem nicht.

Nur weil ich etwas gegen Intel und nvidia macht mich das nicht zu einem AMD Fanboy... :rolleyes: Das ist leider ein Denkfehler.... Oder weshalb habe ich eine GTX570?

Ich bin hauptsächlich Konsument der seine Interessen schützt, was jeder von uns tun sollte....

Mir sind nunmal Firmen ein Dorn im Auge, die vorallendingen damit glänzen durch ihre Marktmacht den Markt zu ihren Gunsten, und zum Nachteil von Konsumenten zu manipulieren.
Sei es Intel die mir als Konsument durch illegale Marktmanipulation, manipulierte Benchmarks und Compiler geschadet haben oder sei es nvidia die Kunden mit 3,5GB Speicher verarschen, PhysX aus reiner Willkür auf einer nvidia Karte deaktivieren, nur weil eine AMD GPU als Hauptkarte im System steckt, der Gameworks Streich der hauptsachlich darauf abzielt die Konkuurenz künstlich am optimieren zu behindern oder eben G-Sync, das ganz offensichtlich hauptsächlich ein DRM Modul darstellt...
 
Zurück
Oben