News AMD sieht FreeSync bei den Kosten vor G-Sync

Andregee schrieb:
Das 60 Hz via Vsync nicht so flüssig wie 45 hz g sync sein sollen, ist absoluter schmarrn. Bei vsync ist die Standzeit der Bilder absolut gleichmäßig, noch dazu kürzer als bei 45 hz, beides die perfekte Kombi für absolut flüssige Bildwiedergabe.)

so trivial ist es nicht. Deine Karte braucht unterschiedlich lange um jedes Bild zu rechnen, weswegen 60 hz vsync immer ruckeln werden wenn die einzelnen Bilder verschieden lang zu berechnen dauern oder aber... die Bewegung selbst ungleichmäßig ist. Da bringt auch puffern nix.
Es muss mehr als die reine Ausgabe passen.

Ich verlasse mich da auf einen renommierten Test einer sehr objektiven Seite wie Anandtech:

http://www.anandtech.com/show/7582/nvidia-gsync-review/3

in pathological cases the impact can be shocking, particularly if you’re coming from a 60Hz panel today (with or without v-sync). The smoothness afforded by G-Sync is just awesome. I didn’t even realize how much of the v-sync related stutter I had simply come to accept. I’d frequently find a scene that stuttered a lot with v-sync enabled and approach it fully expecting G-Sync to somehow fail at smoothing things out this time. I always came away impressed. G-Sync also lowered my minimum frame rate requirement to not be distracted by stuttering. Dropping below 30 fps is still bothersome, but in all of the games I tested as long as I could keep frame rates north of 35 fps the overall experience was great.

Mit Video ist das in keinster Weise vergleichbar. Es liegt nicht jedes Video/Abspielmedium in einer 100% genauen, abgestimmten Aufnahmezeit zur Verfügung die dann passgenau auf die hz des Wiedergabegerätes gemünzt werden kann. Bei Videoaufnahmen ist das einfach. Nimm 50 FPS auf und du hast ganz genau 20ms von Bild zu Bild. Immer. Bei ner GPU hast du bei 60fps und 60hz VSNC aber nicht immer 1000/60 = 16,66 ms von Bild zu Bild, dann wäre Vsync in der Tat quasi perfekt... Du musst quasi bei jedem Bild die FPS anpassen je nach Rechenzeit des jeweiligen Bildes.

Edit:
Man entsinne sich an die Problematik des 24p Bugs bei Intel. Da haben alle ein Fass aufgemacht weil vielleicht statt 23,968 hz (des TV in 24p) 24,000 hz von der Intel GPU ausgegeben werden. Mit Verlaub, der Ruckeleffekt der dabei Entsteht ist ein Bruchteil dessen was wir fortlaufend bei Videogames haben. Nur da ist man es gewohnt ^^

Edit:
Was auch wichtig is:

If you’re already running games at a fairly constant 60 fps, what G-Sync will allow you to do is to crank up quality levels even more without significantly reducing the smoothness of your experience. I feel like G-Sync will be of even more importance with higher resolution displays where it’s a lot harder to maintain 60 fps.

gilt natürlich für jede Technik nicht nur Gsync, aber Gsync hat sich schon bewiesen, AMDs Techdemo dagegen nicht mal im Ansatz wie ich finde.
 
Zuletzt bearbeitet:
smilefaker schrieb:
Wenn du die Propaganda noch belegen könntest, dass Radeon GPU´s unter mehr Framedrops leiden, wäre ich dir sehr verbunden.
Ich habe diverse Fachzeitschriften zuhause und noch nie etwas derartiges gelesen, weder dort noch online.

Schau dir doch nur die Frameverläufe der letzten Jahre bei den Radeons an. AMD versucht es ständig zu fixen, aber es tritt immer wieder auf. Moderne Beispiele wären Battlefield 3/4 und Watch Dogs. Selbstverständlich trifft das auch je nach Titel auch bei Nvidia auf. Dafür brauchst du keine Zeitschriften. Beobachte einfach einmal den Framecounter in deinem Lieblingsgame. Es kann durchaus vorkommen, dass saubere 100 FPS plötzlich für kurze zeit auf 20-40 FPS einbrechen.

So etwas müssen sowohl G-Sync als auch FreeSync gut wegstecken können. Ich habe bei FreeSync noch bedenken, weil AMD sich noch nicht mit einer Silbe zu den Umschalt- und Reaktionszeiten geäußert hat. Dieser Punkt macht eindeutisch den Unterschied aus zwischen "spielbar mit (leichten) Störungen --> gut spielbar --> flüssig spielbar.


smilefaker schrieb:
Was soll denn der Monitor falsch machen? Ich glaube du bist etwas überkritisch was Freesync angeht, während du bei G-sync gar nicht kritisch bist.

Ich sage es noch einmal:
-Was heißt optional?

Antwort:
-Es muss nicht unterstützt werden!

Wenn der Monitor sich nicht genau so verhält wie AMD das vorsieht, kann alles mögliche passieren. Von Farbverfälschungen, Tearing, Rucklern, Flimmern oder gar schwarzem Bildschirm ist da wirklich jede Kombination möglich.

G-Sync ist real erhältlich und auch bereits käuflich. An Nvidias Version gibt es durchaus noch Kritikpunkte, aber immerhin hat man Ansatzpunkte.


smilefaker schrieb:
Dort sind die Monitorhersteller gemeint, sicherlich nicht AMD.
Dass das Konzept vorliegt, kann aber durchaus sein.

Konzepte sind der Zustand, der am am weitesten vom fertigen Produkt entfernt ist. Ich werte Aussagen wie "seit Jahren..." mittlerweile eher als Nullphrase - egal von welchem Hersteller. Wenn ein Produkt seit Jahren in internen Tests am reifen ist, kommen in der Regel keine solchen Ergebnisse heraus.

Außerdem lässt sich in der Praxis nicht jedes Konzept perfekt übertragen. Konzepte sind nur "grob" und lassen viel Platz für Fehler. Je nachdem wie spitzfindig man ist, kann man sagen: "Hey, wir arbeiten seit über zwanzig Jahren an VBLANK"

Da müsste noch nicht ein Manntag in FreeSync (od. ähnl.) geflossen sein. Es ist einfach zu allgemein und enthält nicht im geringsten Informationsgehalt.


smilefaker schrieb:
Und warum wirkt es so?

Ich war auf genug Messen um schnell zusammengeschusterte Produkte erkennen zu können. Es ist immer auffällig wenn es nur wenige Details vom Hersteller gibt. Selten hat es mit Geheimhaltung zu tun, sondern eher mit dem Fakt, dass das Produkt entweder noch nicht voll funktional ist oder noch nicht sehr weit in der Entwicklung fortgeschritten ist.

Eine fixe Szene mit einer fixen Framerate überzeugt mich als Gamer jedenfalls nicht. Da muss schon mehr kommen! Wie gewohnt serviert AMD die Infos nur allmählich in Scheiben. Danach vergeht wieder einmal viel Zeit bis der nächste Happen folgt.
 
Zuletzt bearbeitet:
Hardware_Hoshi schrieb:
Das AMD angeblich keine Leistung verliert, halte ich für ein falsches Gerücht! Ich zitiere aus dem Artikel:

"soll Adaptive Sync keine Verluste aufweisen. Die bei G-Sync notwendige „Sicherheitsabfrage“, ob der Monitor das fertig berechnete Bild auch wirklich anzeigen könne, findet bei Adaptive Sync nicht statt, "

Für mich klingt das nach einer Mogelpackung. Einfach auf gut Glück die Bilder rausschießen und hoffen, dass der Monitor ohne Kontrolle alles richtig macht, ist keinesfalls überlegen.

Oh, ist nichts weiter wie virales Marketing. Hier werden einfach Buzzwörter und "technische" Gegebenheiten herausgehauen, die sowieso nur auf den G-Sync Fakten basieren.
Ohne Pulling wird das ganze Verfahren überhaupt nicht funktionieren. Ein Leistungverlust wird immer vorhanden sein, weil die Grafikkarte ohne zusätzliche Buffer überhaupt nicht weiß, wie lange das Bild zur Fertigstellung benötigt hat.

Aber wie brauchen uns zZ über sowas keine Gedanken zu machen. Freesync ist ja nochnichtmal in der Lage in einem Spiel zu funktionieren. Aber hey, AMD User sind auch keine Gamer, gell? :evillol:
 
Hardware_Hoshi schrieb:
-gleichbleibende Frames
Ist das ein Witz?
47 bis 48 Frames pro Sekunde sind doch nicht variabel. Es müssen bei Framedrops Sprünge von 20-40 FPS abgefangen werden können. Gerade die Radeons leiden stark darunter.

Naja. Demnach müsste der Intelsche bekannte 24p Bug ja auch ein Witz sein, da waren es nich mal 0,1 FPS Unterschied.
Ruckeln ist Ruckeln. Das sind nicht Framedrops um 20-40 idR sondern Abweichungen von wenigen ms bei einzelnen Frames oder kurzen Szenen.
Es ist schon wichtig gerade diese abzufedern. Lieber ein Drop von 45fps auf 25fps mit Gsync (merkste kaum) als kontinuierliches MicroRuckeln. Nicht umsonst sagt der Tester / die Tester (andere Seiten sehen es genau wie Anandtech) dass die Unterschiede gewaltig sein können. Natürlich, imho 100x gewaltiger als der ob man 24p mit ner alten Intel GPU oder Nvidia abspielt.
 
@Krautmaster
Nein, ich sehe das anders!

Innerhalb von 2-3 Frames ist nicht so der gravierende Unterschied festzustellen.

Die Bedingungen in der FreeSync-Demo sind absolut unrealistisch! Sie geben nur eine Achse in einer fixen Position fest. Die Augen können damit gut getäuscht werden. Sobald man auch nur einen Schwenk oder eine zusätzliche Drehung hinzu fügt, merkt das menschliche Auge den Unterschied sofort.

In 3D-Shootern wäre das ein schneller Schwenk oder in Aufbausimulationen ein Zoom. Da wäre real und alltagstauglich. Irgendetwas verschweigt AMD - oder möchte nicht darauf hinweisen. Flexibel sieht mir das nicht aus!

EDIT:
bei Fehlern wie dem Intel-Bug kommen noch diverse Faktoren wie Flimmern oder Flackern hinzu. Solche Unregelmäßigkeiten fallen dem menschlichen Auge auf, weil es darauf trainiert ist zu reagieren.
 
Amd ist billiger und Intel/Nvidia haben mehr Qualität, ist ja klar das Amd auf das Geiz ist Geil Publikum abzielt bei entsprechend formulierten meldungen.
Ps: Das war keine Fanboy meldung, nur Fanboys interpretieren dies so da solcher Personen dahingehend realitätsverlust sich selbst einreden.
 
Man sollte hier doch bitte aufpassen, über was man redet.
Der Intel 24p Bug beruht darauf, dass die Decoder nicht in der Lage waren das Videos mit der entsprechenden Hz wiederzugeben, wodurch es immer wieder zu einer Neusynchronisierung gekommen ist.
Das ist gleiche als wenn man 30FPS auf einem 50Hz Monitor per Triple Buffering anzeigen lässt.

Mit eDP kann man den Monitor vor einem neuen Bild auf eine neue Hz einstellen. Mit genug Buffern und Softwarelayer, kann man damit eine gleichmäßige Ausgabe auf einem Monitor erreichen.

Das ganze ist aber nur bei statischen Bildfolgen sinnvoll. Und mehr hat AMD bis heute auch nicht gezeigt.
 
@ Sontin so hab ich das auch verstanden.

Adaptiv Sync:
Letztes Bild hat 23 ms gedauert -> Meldung an Monitor: Bitte refreshe in 23 ms. Ist das nächste Bild dann nicht in 23 ms fertig hat man Pech -> funktioniert sehr gut bei Konstanten FPS wie in Filmen. Aber um so schlechter unregelmäßiger die FPS kommen. Hat den Vorteil, das es günstiger ist und keine Rückkanal braucht. So hat das zumindest bei der ursprünglichen Energiesparfunktion funktioniert, in dem man gesagt hat: "Monitor refresh dich das nächste mal erst in 100 ms und nicht in 20".

G-Sync:
Bild wird an Monitor gesendet -> Monitor erkennt neues Bild und beginnt refresh. Sobald der abgeschlossen ist kann ein neues dargestellt werden. Dafür braucht man aber auch einen Rückkanal. Damit die Graka weiß, wann sie das neue Bild schicken kann. Das ganze ist natürlich teurer funktioniert aber besser bei stark unregelmäßigen Frametimes.

Bitte korrigiert mich, wenn ich falsch liege.
 
Krautmaster schrieb:
so trivial ist es nicht. Deine Karte braucht unterschiedlich lange um jedes Bild zu rechnen, weswegen 60 hz vsync immer ruckeln werden wenn die einzelnen Bilder verschieden lang zu berechnen dauern oder aber... die Bewegung selbst ungleichmäßig ist. Da bringt auch puffern nix.
Es muss mehr als die reine Ausgabe passen.

Ich verlasse mich da auf einen renommierten Test einer sehr objektiven Seite wie Anandtech:

http://www.anandtech.com/show/7582/nvidia-gsync-review/3



Mit Video ist das in keinster Weise vergleichbar. Es liegt nicht jedes Video/Abspielmedium in einer 100% genauen, abgestimmten Aufnahmezeit zur Verfügung die dann passgenau auf die hz des Wiedergabegerätes gemünzt werden kann. Bei Videoaufnahmen ist das einfach. Nimm 50 FPS auf und du hast ganz genau 20ms von Bild zu Bild. Immer. Bei ner GPU hast du bei 60fps und 60hz VSNC aber nicht immer 1000/60 = 16,66 ms von Bild zu Bild, dann wäre Vsync in der Tat quasi perfekt... Du musst quasi bei jedem Bild die FPS anpassen je nach Rechenzeit des jeweiligen Bildes.


Edit:
Was auch wichtig is:



gilt natürlich für jede Technik nicht nur Gsync, aber Gsync hat sich schon bewiesen, AMDs Techdemo dagegen nicht mal im Ansatz wie ich finde.

Wir können ja mal eine Umfrage starten wer sich bei konstant 60fps mittels Vsync vom Judder geplagt fühlt. Das Ergebnis kann ich vorhersagen. Ich bin extrem kritisch was Microruckler betrifft, andere selbst empfindliche Personen erkennen die die ich noch sehe nicht mal im Ansatz. Mit Vsync habe ich jedoch keinerlei Probleme. Keine AHnung was der im Test gesehen haben will, aber da lief sicher etwas nicht rund, zumal nicht mal hervorgeht, ob überhaupt konstant 60fps gehalten wurden.Wahrscheinlich geriet bei dem Herren das Vsync Konstrukt aus dem Tritt weil die GPU kurzzetiig zu schwach war so das kurzer STocker zu sehen waren.Vsync funktioniert nur so lang wie die GPU mindestens 60fps liefern kann, wären mehrere Frames darunter die längere Berechnungszeiten benötigen würden, könnten die 60fps garnicht mehr gehalten werden. Ich werde auch mit G Sync oder Free Sync keinesfalls mit 30fps zocken,30fps videomaterial. perfekt synchron ruckelt abartig.Noch dazu wird die absolut miese 60hz LCD Bewegtbildschärfe noch übler. Da kann ich auch mit normalen 30fps zocken und ordentlich Blurr drüberjagen. Hast du shconmal auf einem Plasma gezockt, der auch bei Bewegtbildern 1080p Motion Resolution darbietet. Danach schmeißt du selbst einen 120hz LCD aus dem Fenster.
 
357 schrieb:
Amd ist billiger und Intel/Nvidia haben mehr Qualität, ist ja klar das Amd auf das Geiz ist Geil Publikum abzielt bei entsprechend formulierten meldungen.

War es absicht, dass du billig verwendet hast?
http://www.duden.de/rechtschreibung/billig

Mehr Qualität kannst du bestimmt beweisen ;)
Insbesondere wo Intel mehr Qualität hat würde mcih sehr interessieren ;)
 
derGrimm schrieb:
War es absicht, dass du billig verwendet hast?

Das Wort kommt schon der richtigen Bedeutung zugute! AMD ist im Regelfall mittel- und im Bestfall zweitklassig. Es gibt nämlich kein Gebiet auf dem sie weit vor der Konkurrenz sind. Einzig bei Preis-/Leistung hat man eine halbwegs gleichmäßige Konstante bei AMD. Wenn es nur über den Preis geht, man aber nicht selten Kompromisse eingehen muss, erinnert es stark an die "Geiz-ist-geil-Mentalität."


derGrimm schrieb:
Mehr Qualität kannst du bestimmt beweisen ;)

Er braucht nichts zu beweisen, das ist ein Fakt. Auch wenn das einige Fans ungerne hören wollen!

Sowohl Intel als auch Nvidia sind über längere Zeiträume mit besseren Produkten in Leistung(-sumfang) und Software wie z.B. Treiber aufgestellt. Die Kundenbetreuung ist besser als bei AMD oder wird subjektiv zumindest so wahr genommen.


derGrimm schrieb:
Insbesondere wo Intel mehr Qualität hat würde mcih sehr interessieren ;)

Lassen wir solche Formulierungen wie "besser, schneller, stabiler" einfach weg und gehen gleich auf den wichtigsten Punkt:
-Zuverlässigkeit

Auf Intel kann man sich einfach verlassen! Sie haben eine Menge Know-How und entsprechenden Einfluss in der Industrie. Noch dazu besitzt intel die notwendigen Mittel um Produkte, Weiterentwicklungen oder Entscheidungen durchzusetzen. Viele Kunden sehen das dies als wichtiges Qualitätsmerkmal an und haben deshalb großes Vertrauen in Intel.

Warum ich so auf FreeSync herum hacke, ist die typische AMD-Mentalität:
"Groß ankündigen, aber am Ende nicht wie versprochen halten"

Beispiele gibt es genügend:
-Sehen wir AMD TrueAudio. Vielleicht ein nettes Feature, aber bedeutungslos. Da muss noch wesentlich mehr kommen.
-AMD Mantle ist auch ein aktueller Teil von AMDs Strategie. Die Diskussionen laufen ja überall heiß bis hitzig. Vielleicht ein "nice-to-have", jedoch bei weniger als einer Hand voll Spiele verfügbar = keine Marktdurchdringung. Dazu wurden diese Titel Gerüchten zufolge sogar nur zugekauft. Das ist kein gutes Zeichen an potentielle Käufer/Interessenten/Partner.

AMD ist bekannt für halbgare Umsetzungen. Im Fall von AMD Crossfire wurden die User Jahre lang wie ungewollte Stiefkinder behandelt. Da ist einfach gar nichts passiert! Profile wurden nicht sauber released, Bugs nicht gefixt und das Problem mit den Mikroruckeln war/ist ein Dauerbrenner-Thema.

Jetzt behauptet eben jenes Unternehmen (AMD), sie könnten neue Technologien wie FreeSync besser / billiger auf den Markt bringen als die direkte Konkurrenz. Das ist wenig glaubhaft! Selbst falls FreeSync technisch besser wäre (=unwahrscheinlich)... wie zur Hölle will AMD die Technik am Markt durchsetzen?

Finanziell werden die Hersteller von AMD sicherlich nicht unterstützt. Die Preise hat AMD also garantiert nicht in der Hand und kann also auch keine Aussagen über Kosten treffen.

Ich habe bei FreeSync die Befürchtung eine halbfertig vor sich hin dümpelnde Technik von AMD zu sehen.
 
Hardware_Hoshi schrieb:
Das Wort kommt schon der richtigen Bedeutung zugute! AMD ist im Regelfall mittel- und im Bestfall zweitklassig. Es gibt nämlich kein Gebiet auf dem sie weit vor der Konkurrenz sind.
FreieSoftware-Treiber

In welchem Gebiet ist denn eigenlich Intel/Nvidia weit vor ihrer Konkurrenz?

Hardware_Hoshi schrieb:
Er braucht nichts zu beweisen, das ist ein Fakt. Auch wenn das einige Fans ungerne hören wollen!
Im Lexikon habe ich leider nichts zu "bei Intel und Nvidia ist Qualität fest mit dem Firmennamen vernabelt" gefunden... :rolleyes:


Hardware_Hoshi schrieb:
Sowohl Intel als auch Nvidia sind über längere Zeiträume mit besseren Produkten in Leistung(-sumfang) und Software wie z.B. Treiber aufgestellt.
Die Treiber sind nicht besser als von AMD.
Aber es ist bestimmt auch Qualität, wenn z.B. Grafikkarten wegen eines fehlerhaften Treibers aufrauchen :rolleyes:

Hardware_Hoshi schrieb:
Die Kundenbetreuung ist besser als bei AMD oder wird subjektiv zumindest so wahr genommen.
Subjektive Warnehmungen für das Label Qualität verwenden, interessant... :rolleyes:


Hardware_Hoshi schrieb:
-Zuverlässigkeit

Auf Intel kann man sich einfach verlassen! Sie haben eine Menge Know-How und entsprechenden Einfluss in der Industrie. Noch dazu besitzt intel die notwendigen Mittel um Produkte, Weiterentwicklungen oder Entscheidungen durchzusetzen. Viele Kunden sehen das dies als wichtiges Qualitätsmerkmal an und haben deshalb großes Vertrauen in Intel.
subjektive Warnehmung, Träumereien die für das Prdukt nichts bringen haben nichts mit Qualität zu tun :rolleyes:

Du meinst bestimmt Weiterentwicklungen wie x86_64 ;)

Hardware_Hoshi schrieb:
Warum ich so auf FreeSync herum hacke, ist die typische AMD-Mentalität:
"Groß ankündigen, aber am Ende nicht wie versprochen halten"
Was haben sie denn bei FreeSync denn bisher versprochen, was sie bisher nicht eingehalten haben?
Denn würde das potenzielle nicht einhalten inder Zukunft liegen hättest du ja kein Grund jetzt auf FreeSync einzuhacken... ;)

Hardware_Hoshi schrieb:
Beispiele gibt es genügend:
-Sehen wir AMD TrueAudio. Vielleicht ein nettes Feature, aber bedeutungslos. Da muss noch wesentlich mehr kommen.
Physx, G-Sync, ... - nettes Feature, aber durch seine Geschlossenheit Bedeutungslos.
 
Zuletzt bearbeitet:
derGrimm schrieb:
FreieSoftware-Treiber

In welchem Gebiet ist denn eigenlich Intel/Nvidia weit vor ihrer Konkurrenz?

In genau dem. Also Intel natürlich. Von Intel kommt ja auch fast alle Arbeit an Mesa. Für Nvidia ist jede Form von Freiheit böser Kommunismus, das ist klar. :D

Aber die Qualität bei Intel gilt auch nur für die Linuxtreiber. Die Windowstreiber sind … ehh. :)
 
derGrimm schrieb:
In welchem Gebiet ist denn eigenlich Intel/Nvidia weit vor ihrer Konkurrenz?

Ein 4770K verbraucht unter Vollast ganze 56% (immerhin satte 169 Watt) weniger Strom als ein FX-9590 und das bei ~15% mehr Leistung. Das ist durchaus als "weit vor der Konkurrenz" zu bewerten.
 
TurboTsunami schrieb:
Ein 4770K verbraucht unter Vollast ganze 56% (immerhin satte 169 Watt) weniger Strom als ein FX-9590 und das bei ~15% mehr Leistung. Das ist durchaus als "weit vor der Konkurrenz" zu bewerten.

Weit im Seinn von Qualität stand zur Debatte ;)
 
Dann solltest du aber nicht offen fragen auf welchem Gebiet, denn das schließt Leistung wieder mit ein ;)
Wenn wir von reiner Material- und Softwarequalität sprechen, sehe ich keine großen Unterschiede. Lediglich nVidias Treiber sagt mir noch immer deutlich mehr zu. Hier allerdings weniger die Qualität sondern der Umfang.
 
Zuletzt bearbeitet:
Bei PC Perspective hat man sich die FreeSync-Demo genauer angesehen, und auf ein interessantes Detail hingewiesen (Hervorhebung im Original): http://www.pcper.com/news/Graphics-...ync-Monitor-DisplayPort-Adaptive-Sync-Feature
pcper schrieb:
The monitor is running at 2560x1440 and is the very first working prototype of the new standard. Even more interesting, this is a pre-existing display that has had its firmware updated to support Adaptive Sync. That's potentially exciting news! Monitors COULD BE UPGRADED to support this feature, but AMD warns us: "...this does not guarantee that firmware alone can enable the feature, it does reveal that some scalar/LCD combinations are already sufficiently advanced that they can support some degree of DRR (dynamic refresh rate) and the full DPAS (DisplayPort Adaptive Sync) specification through software changes."
Es könnte also sein, dass existierende Monitore durch ein Firmwareupgrade zumindest teilweise Adaptive-Sync fähig gemacht werden können.

Hardware_Hoshi schrieb:
Ich sage es noch einmal:
-Was heißt optional?

Antwort:
-Es muss nicht unterstützt werden!

Wenn der Monitor sich nicht genau so verhält wie AMD das vorsieht, kann alles mögliche passieren. Von Farbverfälschungen, Tearing, Rucklern, Flimmern oder gar schwarzem Bildschirm ist da wirklich jede Kombination möglich.
Was ist den das für eine gequirlte Aussage? Für DisplayPort Adaptive-Sync wird es ein Zertifizierungsprogramm geben. Nur Monitore die es bestehen dürfen das Adaptive-Sync Logo tragen:
Being a formal part of the standard, DisplayPort Adaptive-Sync - as the technology is now known - will come with a full suite of compliance testing and a certification system to guarantee compatibility between DisplayPort Adaptive-Sync graphics chips and external displays.
 
Wer hat eigentlich recht?

CB sagt die Demo läuft zwischen 47 und 48 FPS
PC Perspective sagt die Demo läuft zwischen 40 und 60 FPS.

PCPer schrieb:
Though they aren't talking about what monitor it is or who the manufacturer is, the demo is up and running and functions with frame rates wavering between 40 FPS and 60 FPS - the most crucial range of frame rates that can adversely affect gaming experiences.
 
Also PC Perspective recht hat, hat auch automatisch CB recht XD
 
Zurück
Oben