Test AMD FreeSync im Praxistest

Also wenn ich das richtig verstanden habe, dann hat man ab einer bestimmten Hz Helligkeitsschwankungen, die aber weder an Gsync, noch an adaptive sync/FreeSync liegen, sondern an den Monitoren die noch nicht Technisch ausgereift sind?

Edit:
BlauX schrieb:
@CyberdyneSystem,

Ja...
Okay, danke dir :)
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Das Ghosting beim BenQ kann zumindest ich in Spielen nicht sehen. Da habe ich extra in mehreren Spielen drauf geachtet (hat nunmal ein Hersteller, ich sehe da aber nichts. In der FreeSync-Mühle bzw. der G-Sync Demo kann man da tatsächlich etwas sehen, doch sehe ich das fast genauso auf dem Asus G-Sync-Monitor.

Wäre schön wenn man diese Aussage noch in den Artikel einbauen könnte.

Fotos bzw. Videos mit einer normalen Kamera bilden zwar Pixelübergänge dar, das kann man aber nicht mit der visuellen Wahrnehmung des menschlichen Auges vergleichen. Dafür gibt es extra Motion Picture Response Time (MPRT) pursuit cameras, die die Augenbewegung simulieren und so ein sehr genaues Bild davon geben, was man visuell an Bewegungs-Artefakten wahrnehmen würde.
 
@CyberdyneSystem,

Ja...
Nvidia macht da engere Vorgaben, welcher Monitor was können muss, wohingegen AMD das lockerer sieht (muss!) und wohl 40hz nimmt, wo die Technischen Dinge nicht so dramatisch sind.
AMD hätte Geld - was sie nicht haben - in die Hand nehmen müssen und ein entsprechendes Referenzgerät da vorzeigen müssen, zusammen mit 1-2 Herstellern.

Mal sehen was Technisch von den Monitor-Herstellern verbessert wird. Ich denke mal bei den neuen kommenden 4K Teilen, da steckt ja die " Zukunft " ...
Zumindest hat Sharp ein Panel was sogar unter 9hz geht. Nur wäre solch ein Panel - jetzt - extrem teuer... das bezahlt keiner....
 
Zuletzt bearbeitet:
Freesync Zertifikate sind Funktionstests mit einer AMD GPU. Nvidia schreibt die 30-144 Hz vor - ob die Monitorhersteller das wollen oder nicht. Am Ende ist es der Monitor der flickert und der Kunde kauft sich einen anderen. Die GPU kann es ja nicht gewesen sein.

AMD hat keinerlei Firmenkultur anderen vorzuschreiben wie sie auf ihrer Seite eines Industirestandards die Implementierung gestalten, sondern sie stellen auf AMDs Seite die gesamte Bandbreite zur Verfügung. Ein Test ob es funktioniert und fertig.

Noch nie hat jemand gefordert von Nvidia sie sollen alle Ihre GPUs mit DP ausstatteten weil sie sich einen Monitor für 4K mit eben diesem kaufen. Warum soll AMD nun einen Frequenzbereich frei geben der dem Kunden ein schlechtes Erlebnis mit flickern bietet nachdem er Geld dafür ausgegeben hat für die GPU. Da weiss ich doch lieber wo die Hardwarelimits sind und kaufe entsprechend was benötigt wird, oder lasse es eben sein weil zu teuer und warte auf die nächste Generation.
 
DocWindows schrieb:
zu 2: nVidia legt z.B. fest, dass ein G-Sync Monitor im Bereich von 30 bis 144 Hz zu arbeiten hat. Wenn das Panel das nicht kann, wirds nicht für G-Sync hergenommen.

Und warum gibt es dann einen G-Sync Displays (der einzige der 4k auflöst), der eine maximale Refreshrate von 60Hz hat?:freak:

Zudem kannst du eine Quelle angeben, in der man diese angeblichen Mindestvoraussetzungen einsehen kann?
 
Wolfgang schrieb:
Wenn FreeSync etc. funktioniert, ist der Input-Lag minimal höher als ohne V-Sync. Aber ich bezweifle, dass man das wirklich spürt.
Eine Messung wäre aber nicht schlecht gewesen. Ich weiß, dass dies immer nicht ganz leicht ist, aber ich hoffe mal, dass ihr einen Test nachholt, wenn es mal vergleichbare Freesync und GSync Monitore auf dem Markt gibt.
Dann wäre es eigentlich am einfachsten und sinnvollsten den kompletten Lag vom Druck einer Maustaste bishin zum Anzeigen des geänderten Bildes zu messen. Ein einfaches Abfilmen würde im simpelsten Fall schon reichen. Etwas besser wäre, wenn man den Druck der Maus noch durch eine LED kenntlich macht. PS2 Anschluss wäre natürlich optimal. Naja. Es ist glaube ich klar, was ich meine.

Dann wüsste man jedenfalls welche Auswirkungen FreeSync und GSync auf den Gesamt-Lag haben. Nicht unbedingt im Vergleich zueinander, sondern vielmehr im Vergleich zu VSync On und VSync Off.

Also ich finde, dass so ein Test schon dazu gehört, da sich diese Sync-Techniken ja gerade an Gamer richten und damit werben Lags zu reduzieren. Für mich ist das der Hauptgrund so einen Monitor zu kaufen.


FreezR schrieb:
-AMD sagt, FS könnte bis runter zu 9 Hz arbeiten.
Fragt sich natürlich nur, wie sinnvoll das ist ein Spiel mit 9 fps zu spielen.

-AMD sagt auch, dass es unter 40Hz zu einem Flackern kommen kann. Bis jetzt habe ich noch nirgends gelesen, dass Gsync dieses Problem zu 100% nicht hätte.
Das Problem existiert grundsätzlich. Die Panels müssen regelmäßig neu refresht werden um ihre neuen Farbwerte zu erhalten. Kommt dieser Refresh nicht, dann verblassen die alten Farben immer weiter und das Panel ist irgendwann komplett weiß.
Die Panels gehen also für gewöhnlich davon aus 60 mal pro Sekunde ein Refresh zu bekommen, da sie normalerweise immer mit vollen 60 Hz arbeiten.
Jetzt kommt aber das Problem mit den Sync-Techniken. Der refresh kommt nicht mehr 60 mal pro Sekunde, sondern teilweise nur noch 30 mal pro Sekunde. Das ist für das Panel viel zu wenig und in der Zeit fangen die Pixel schon langsam an zu verblassen. Wenn dann der nächste Refresh kommt erhalten sie wieder ihre korrekten Farbwerte und der ständige Wechsel zwischen verblassten Pixel und korrekten Farben wird als flimmern wahrgenommen.

Ich nehme an, dass AMD absichtlich den Minimalwert auf 40 Hz gesetzt hat um ein zu starkes Flimmern zu vermeiden. Alles darunter hat ihren Qualitätsansprüchen wohl nicht mehr genügt.

Bei nVidia ist das etwas anders. Dort liegt das Minimum bei 30 Hz. Ich weiß nicht, ob deren Qualitätsansprüche einfach nur geringer sind oder ob die ihre Panelhersteller sorgfältiger auswählen, aber fest steht, dass die Frameraten bis hinab zu 30 fps erlauben.
Jetzt kommt aber noch hinzu, dass GSync eigentlich sogar noch darunter funktioniert indem nVidia künstliche Refreshes durchführt, selbst wenn kein neues Bild vorliegt.
Das zuletzt gepufferte Bild wird bei GSync einfach nochmal alle 33 ms aufgefrischt.

Es ist aber in der Tat so, dass nVidia aufgrund des GSync Moduls mehr Möglichkeiten zur Verfügung stehen etwas gegen das Flackern zu unternehmen als AMD.


Und verteidigt obendrein noch eine proprietäre Technik, die sofern sie sich durchsetzt, zu Ungunsten aller Konsumenten geht. Oder gibt es hier tatsächlich Leute, die sich mit der Wahl ihrer Graka / ihres Monitors gerne aufgrund der jeweils anderen Komponente von vornherein festlegen möchten? Ich definitiv nicht, eine Monitor sollte weiterhin universell sein.
Naja. Das ist wie damals mit H264. Das ist auch ein proprietärer Codec für den teilweise Lizenzgebühren fällig werden, aber ich finde ihn auch tausend mal besser als WebM und bin froh, dass die Browserhersteller endlich eingesehen haben H264 doch unterstützen zu müssen.
Was zu Gunsten und Ungunsten der Konsumenten ist, ist immer relativ. H264 ist einfach besser als WebM und genau so sehe ich das auch bei GSync vs. AdaptiveSync.
Ich nehme lieber die Technik, die mir die meisten Vorteile bietet und zahle dafür auch gerne einen Aufpreis.
Das ist meine Einstellung zu der Sache.

Daedal schrieb:
Diese halbgare Marktsituation ist eindeutig von Nvidia verursacht worden, die eben nicht warten wollten bis die Technik auch bei den Monitorherstellern gereift ist um daraus Nutzen zu ziehen ohne auf schon bestehende Features verzichten zu müssen.
Hä? Wie bitte? Ohne nVidia wäre gar keine auf die Idee gekommen so etwas zu versuchen.
Wenn AMD Vorstöße macht und Dinge wie Mantle entwickelt, dann ist das innovativ, aber wenn nVidia etwas entwickelt und es auf den Markt bringt, dann waren die zu ungeduldig bis jemand anderes auf die Idee gekommen wäre? Das ist ja eine interessante Sicht der Dinge.
 
Zuletzt bearbeitet:
Wenn AMD Vorstöße macht und Dinge wie Mantle entwickelt, dann ist das innovativ, aber wenn nVidia etwas entwickelt und es auf den Markt bringt, dann waren die zu ungeduldig bis jemand anderes auf die Idee gekommen wäre? Das ist ja eine interessante Sicht der Dinge.

Erzähl doch keinen Unfug.
NV sitzt genau so im Konsortium der VESA als AMD und andere Hersteller, die wussten ganz genau das dieser Standard kommt, schon lange lange vor uns. Bei Notebooks gibt´s den Standard sogar schon seit Jahren. Die wollten nur schnell machen, um die Kunden an ihre Hardware zu binden. Hätte ja auch fast funktioniert.

Mantel war auch ne andere Geschichte, weil es da bisher fast nur proprietäre APIs gab, die die Probleme nicht angegangen sind.
 
Chief_Rocker schrieb:
Was heißt da Ausrede???
Du sagst doch selber das es bei Nvidia / G-Sync anfängt zu flackern. Genau das was AMD auch sagt und es deswegen (aktuell) nicht frei gibt. Nur weil dir persönlich Flickern weniger missfällt als reduzierte Details, ist die Aussage doch nicht falsch.

das ergibt marketing-technisch nur keinen sinn, weniger zu bieten als Nvidia, wenn es nicht in wirklichkeit einen anderen grund dafür gäbe, nur bis 40hz runterzugehen(und wenn es auch nur ein grund für die monitorhersteller wäre).
D.h. sie beschönigen nur unzulänglichkeiten, die sich z.zt. praktisch für freesync ergeben.
 
noxon schrieb:
Es ist aber in der Tat so, dass nVidia aufgrund des GSync Moduls mehr Möglichkeiten zur Verfügung stehen etwas gegen das Flackern zu unternehmen als AMD.
Das stimmt. Nur sollte man die Frage stellen ob Nvidia mehr Möglichkeiten hat gegen das flackern etwas zu unternehmen als die anderen Controller-Hersteller. Und da bleibt übrig, dass Gsync ebenso flackert wie alle anderen unter 40fps.
AMD unternimmt folgendes: Flimmerfreies Freesync. Die Ruckler zwischen 30 und 40 FPS waren ohne AdaptiveSync auch nur für sehr wenige wirklich problematisch. Und waren sie es vorher, kauft sich niemand eine GPU die 40FPS nicht darstellen kann.

Wenn es allerdings flimmert kommt der Monitor als RMA zurück. Die wenigsten kommen mit flimmernden Bildschirmen zurecht und jeder bemerkt es.

Und ohne Nvidia wäre keiner auf die Idee gekommen? Das waren jahrelange Entwicklungen die auf Standards aus 2011 basieren und Branchenübergreifend synchronisiert werden sollten zum Release von DP 1.3. Dann hätte jeder Kunde genau das bekommen was hier bemängelt wird. Jetzt hat jeder die Wahl zwischen Pest und Cholera weil die Panels diese Preisregionen für Gamer noch nicht erreicht haben.
 
Nunja, was ich daraus lerne: Early Adopter nicht sinnvoll. Sowohl Freesync als auch G-sync. Wer wirklich ein ausgereiftes Produkt haben will, sollte lieber auf DP1.3 warten. Es gibt überall noch Problemchen und Kanten.
 
. das ergibt marketing-technisch nur keinen sinn, weniger zu bieten als Nvidia, wenn es nicht in wirklichkeit einen anderen grund dafür gäbe, nur bis 40hz runterzugehen(und wenn es auch nur ein grund für die monitorhersteller wäre).
D.h. sie beschönigen nur unzulänglichkeiten, die sich z.zt. praktisch für freesync ergeben.

Äh, ja, der Grund ist, das es anfängt zu flackern, grnau das, was in anderen Reviews zur Thematik den G-Sync Paneln attestiert wurde im Bereich von 30-40 HZ. Liest du denn auch was geschrieben wurde bevor du es zitierst?
 
Ich denke einigen Monitorherstellern kommen die Diskussionen, und der Fokus auf dieses eigentlich wirklich nur für einen kleine Teil der Käufer interessantes Feature, sehr gelegen.

Der Umsatz wird sicher höher Steigen als wenn es still u
Und leise einfach ein weiterer Haken in der Featureliste geworden wäre. Zumindest für Monitore.
 
Cat Toaster schrieb:
Klingt als müsste ich meinen 34UM95 bald veräußern. Funktioniert denn FreeSync auch im Mischbetrieb wenn ich drei Nicht-Free-Syncs dran habe und nur der primäre das kann auf dem ich spiele?

nur auf einem spielen stand im artikel.
 
DocWindows schrieb:
zu 1: Dass im Rahmen von FreeSync ein (kostenloses) Zertifikat an Monitorhersteller vergeben wird steht schon im Text. Die (meine) Frage ist welche Kriterien angelegt werden sollten um diese Zertifizierung zu bestehen.
Ich nehme mal an die stehen im White Paper:
http://www.amd.com/Documents/FreeSync-Whitepaper.pdf

Dort steht: AMD kann mittels freesync TM adaptive sync wie in der entsprechenden Spec steht umsetzen.

Ob du da andere Kriterien hast spielt hier keine Rolle. Dies sind die Kriterien die angelegt werden um das Zertifikat zu erhalten und mehr auch nicht.

Ob das Zertifikat also demnach "wertlos" ist wie z.B. "HD-Ready" oder "Bio-Joghurt" nicht kann man so nicht beantworten. Deswegen versteh ich auch deine "aufregung" darüber nicht. Zertifikate dienen nur zum anschaulich machen das bestimmte "Anforderungen" erfüllt sind.

Somit musst du deine Fragen umformulieren in:
"Welche Anforderungen sollte ein Variable Sync Monitor haben um Qualitätsmerkmal xyz zu haben (z.b. kein Ghosting, kein Tearing bei...usw."
Aber all diese Anforderungen sind merkmale die NICHTS mit der Technik Variable Sync zu tun haben - sondern einzig und allein etwas über die Qualität des Displays aussagen. Und AMD wird den Displayhersteller sicher nicht vorschreiben wollen was sie da tun und lassen sollen. Das ist nicht AMDs Baustelle.

zu 2: nVidia legt z.B. fest, dass ein G-Sync Monitor im Bereich von 30 bis 144 Hz zu arbeiten hat. Wenn das Panel das nicht kann, wirds nicht für G-Sync hergenommen.

Wo legt nVidia das fest ? Ich weiss nur dass bisherige G-Sync Monitore 144 Hz haben und mit refresh rates bis runter zu 30Hz operieren können...das liegt aber an den entsprechenden Monitoren dachte ich. Mir wäre neu das nVidia da eine "Spec" hat die dies "zwingend" fordert.

Das ist aber gar nicht die Frage. Die Frage ist was FreeSync zusätzlich als Einschränkungen verlangen müsste, damit der Kunde am Ende der Kette immer eine FreeSync-Kombi hat die genau gleich funktioniert und vor allem auch die Bedürfnisse des Gaming berücksichtigt. Adaptive Sync berücksichtigt dies nicht. Das ist auch nicht dessen Aufgabe. Es wäre die Aufgabe von AMD, da die ja Gaming-Produkte verkaufen wollen.

AMD bietet aber F-Sync nicht nur für Gaming an. Gaming ist einer der Hauptnutzniesser und so. Aber ja man könnte dahingehend noch ein bisschen härtere Kriterien anlegen welche halt aber über das reine adaptive Sync hinausgehen. (siehe oben - AMD verkauft keine Displays, ergo "ist die Qualität" der Displays nicht AMDs problem.

Freesync ist nur ein weiteres Merkmal mit dem Displayhersteller nun ihre Produkte anpreisen können - ein schlechtes Display das Ghosting etc. hat wird durch F-Sync halt in keiner Weise besser dadurch. Und genau DAS sollte jemandem der ein Display kauft klar sein.

Free-Sync ist keine "elitäres" Zertifikat das sagt DIESER Monitor ist besser als andere. Es sagt nur dieser monitor kann adaptive Sync mit AMD-Karten (die freesync können) umsetzen.

Ein Monitorhersteller könnte z.B. auch - rein hypothetisch - ein Panel verbauen welches nur im Bereich von 120Hz bis 240 Hz arbeitet. Da FreeSync im Bereich von 9 bis 240 Hz arbeitet wäre das per Definition und auch technisch kein Problem. Vielleicht wäre es sogar sinnvoll wenn man an Fernseher und Medienkonsum denkt. Fürs Gaming macht dieser Frequenzbereich aber wenig Sinn.

Ja.
Und AMD interessiert es einen Scheiss wofür ein Display hersteller sein display baut ob gaming, TV, whatever...verstehst du nun denn Sinn des "Freesync TM" ? (und der Displayhersteller wird sich da auch nicht von AMD oder jemand anderes gängeln lassen wollen.

Vielleicht hat es deswegen ja auch 7 Monate gedauert dass G-Sync monitore verfügbar wurden ?
 
DocWindows schrieb:
Eben. Die FreeSync-Zertifizierung sollte meiner Meinung nach noch viel mehr sagen, so dass sich der Kunde wenn er einen FreeSync-Monitor kauft eine gewisse Erwartungshaltung haben kann und diese auch nicht enttäuscht wird. Eben z.B. durch zu hohe Mindestfreuquenzen bei den Displays. So lax wie es anscheinend gehandhabt wird, verhält sich FreeSync auf unterschiedlichen Monitoren auch unterschiedlich. Nur zu sagen "wir können 9 bis 240 Hz. Der Rest ist uns wurscht. Nicht unsere Baustelle" ist mir einfach zu wenig. Es wirkt wie nicht zuende gedacht. Da bin ich aber vielleicht auch einfach zu anspruchsvoll. "Es funktioniert" reicht mir daher auch nicht. Es sollte immer das gleiche Ergebnis sein, egal welchen Monitor man kauft.
Das ist sehr interessant. Es ist nicht zu ende gedacht und AMD soll den Monitor Hersteller sagen, wie die Rahmenbedingungen auszusehen haben.
Doch bei der 970 und deren Debakel ist alles überspitzt und die Käufer sollen sich nicht so anstellen.
https://www.computerbase.de/forum/t...gen-am-speicher.1440060/page-15#post-16917742
https://www.computerbase.de/forum/t...gen-am-speicher.1440060/page-18#post-16918237
https://www.computerbase.de/forum/t...gen-am-speicher.1440060/page-20#post-16918500

Du solltest besser zu deinen Beiträgen schreiben, dass du je nach Hersteller unterschiedliche Maßstäbe ansetzt, damit Lesende wissen, wie deine Aussagen zu bewerten sind.

AMD kann den Monitor Hersteller keine Rahmenbedingungen auflegen, weil diese sich in der VESA Spezifikation befinden und es ist der Käufer gefragt, die Spezifikationen zu lesen und dann eben den Monitor kaufen soll, der die Bedürfnisse und Anforderungen erfüllt. Bei der 970 hatte der Käufer 4 Monate nicht die Chance, weil Nvidia die realen Spezifikationen nicht kommuniziert hat und nur deswegen kommunizieren musste, weil die falschen Infos aufgeflogen sind.
 
Zuletzt bearbeitet:
Vielleicht ist es noch nicht ganz klar - aber diese Frequenz-Limits für adaptive sync. Stammen wohl von den typischerweise verwendete controllern in den Monitoren.

http://support.amd.com/en-us/search/faq/222
What is the supported range of refresh rates with AMD FreeSync™ technology and DisplayPort Adaptive-Sync?

​AMD Radeon™​ graphics cards will support a wide variety of dynamic refresh ranges with AMD FreeSync™ technology. Using DisplayPort Adaptive-Sync, the graphics card can detect and set an appropriate maximum and minimum refresh rate based on the capabilities reported by the display. Potential ranges include 36-240Hz, 21-144Hz, 17-120Hz and 9-60Hz.

Das sieht für mich so aus als ob 240Hz displays eben aufgrund des controllers oder wie auch immer adaptive sync aussieht zwischen 36-240Hz operieren.

144Hz displays eben zw. 21-144 usw.

Ergo ist die Angabe 9-240Hz wie im Artikel steht so nicht ganz richtig...es hängt eben vom display ab.

Aber es war eh klar das freesync als mehr oder weniger softwareseitige Umsetzung ja quasi flexibel auf alle frequenzen reagieren kann. Und GPUs können schon seit Jahren ihren Output quasi im ms takt abstimmen.

Inwiefern das nun anders als bei G-Sync ist kann ich nicht sagen. Aber bei GS hat ja nVidia ein Hardwareteil (=scaler/controller) => der wird eben ein bestimmten Frequenzbereich haben - wodurch sich die G-Sync frequenzbandbreite wohl ergibt.

Ansonsten bietet es sich an einfach die FAQs auf AMD zu lesen oder auch das interview hier:
http://www.sweclockers.com/artikel/...ngsfrekvenser-med-project-freesync/2#pagehead

EDIT: und zusammen mit
http://www.amd.com/en-us/press-releases/Pages/support-for-freesync-2014sep18.aspx
und
http://support.amd.com/en-us/search/faq/227

ergibt nun die ganze warum erst jetzt und warum nur xx-yy Hz vielleicht endlich mehr Sinn.
 
Zuletzt bearbeitet:
Das Flimmern ist wirklich nun kein Problem. Wer ständig an der Grenze zu 30-40 FPS spielt sollte lieber in eine bessere Grafikkarte investieren als einem 600 Euro Monitor. Das Einzige, wo es wirklich auftritt ist bei Ladebildschirmen. Ja - wäre toll, wenn es dann nicht flimmert, aber zum Spielen total uninteressant.

Aktuell habe ich den Asus ROG Swift TFT mit einer 980GTX und habe auch kein Problem damit, beides zu verkaufen und auf Asus IPS-Freesync mit einer 390X zu wechseln, sollte die AMD-Karte einschlagen wie eine Bombe. Ob ich nun minimal 40fps erreichen muss oder 30fps ist mir recht egal. Wie es bei den Tests geschrieben steht sind beide >40fps ja gleichwertig.
 
Zuletzt bearbeitet:
KOKOtm schrieb:
Das Flimmern ist wirklich nun kein Problem. Wer ständig an der Grenze zu 30-40 FPS spielt sollte lieber in eine bessere Grafikkarte investieren als einem 600 Euro Monitor. Das Einzige, wo es wirklich auftritt ist bei Ladebildschirmen. Ja - wäre toll, wenn es dann nicht flimmert, aber zum Spielen total uninteressant.

Aktuell habe ich den Asus ROG Swift TFT mit einer 980GTX und habe auch kein Problem damit, beides zu verkaufen und auf Asus IPS-Freesync mit einer 390X zu wechseln, sollte die AMD-Karte einschlagen wie eine Bombe. Ob ich nun minimal 40fps erreichen muss oder 30fps ist mir recht egal. Wie es bei den Tests geschrieben steht sind beide >40fps ja gleichwertig.

Ich bin sehr erstaunt das es mal einer so nüchtern und wahrhaftig ausdrückt. Die Tests sagen klar aus, dass die Ergebnisse absolut gleichwertig sind. Das es qualitative Unterschiede bei den Monitorherstellern gibt, war und wird immer so sein. Dann wartet man eben auf die nächsten Modelle, die kleine Problemchen ausmerzen. Schade an FreeSync finde ich nur, dass meine 280X nicht unterstützt wird. Es lohnt sich nicht die Grafikkarte auszutauschen da sie noch genügend Power bietet, jedoch schade das ich so nicht in den Genuss von FreeSync komme.
 
Iscaran schrieb:
Ergo ist die Angabe 9-240Hz wie im Artikel steht so nicht ganz richtig...es hängt eben vom display ab.

Was du schreibst ist IMHO alles richtig, doch bin ich mit dieser Schlußfolgerung nicht einverstanden. Der Artikel beschreibt die Spezifikationen der AMD Lösung und nicht die eines bestimmten Monitors. Daher ist das ganz genau so richtig in diesem Artikel. Die genauen verwendeten Frequenzbereiche muss der jeweilige Monitor-Test ergeben.
 
Zurück
Oben