News FreeSync-Monitore zum Jahreswechsel im Handel

Krautmaster schrieb:
Der offene Vesa Standard Ansatz ist gut, wichtig ist aber eben was hinten rauskommt.
Danke für den Verständnis. G-Sync funktioniert, aber mit nur TN Panel und IHV beschränkt ist es gerade noch nicht sonderlich interessant. Ein Vergleich mit Freesync ist völlig unsinnig zum jetztigen Zeitpunkt, da noch ungetestet.

Es bleibt die Zukunftsprognose. Wir werden am Jahreswechsel sehen, ob Eizo gleich die komplette Palette umkrempelt. Wir werden sehen ob G-Sync so schnell verschwindet und Intel mitmacht.

smilefaker schrieb:
Vorher hast du die Aufteilung des Marktes davon abhängig gemacht, ob ein Monitor G-sync unterstützt oder Freesync, jetzt ist nochmal eine Aufteilung dazu gekommen die im Zusammenhang gar keinen Sinn ergibt, weil die "normalen" Monitore ja mit jeder Grafikkarte funktionieren und gar kein Adaptive Sync haben.
So sieht es aus, es wird zunächst 3 Lager geben. Ist das schwer zu bereifen?

Wenn du dafür bist, dass der Markt nicht sinnfrei aufgeteilt wird, musst du Freesync ( Adaptive Sync) supporten.
Du stößt hier nur auf ein Problem. Es ist von AMD, deswegen dieser ganze Popanz.
Erklär doch endlich mal wie ich AS supporten soll.

Dazu fällt mir jetzt eigentlich nix mehr ein, zu so einem Quatsch.
Verstehe, wenn ich die Hoffnung habe AS setzt sich nach und nach durch ist dies Quatsch und negativ für AMD. Sag doch gleich das es irrelevant ist was ich schreibe und deine Antwort schon fessteht.

Aber du willst ja lieber nur G-sync haben und dass es AMD am besten gar nicht gibt, anders kann man deine Logik nicht nachvollziehen.
Das ist eine glatte Lüge, siehe meinen Beitrag zuvor:
"Da liegt der Unterschied zwischen uns. Mich interessiert G-Sync nicht."

"Und schon ist Tahiti aka 7900/280 veraltet. AMD verdient am Verauf neuer Radeons. nvidia verdient an den neuen Monitore."

Das spielt darauf an, dass G-sync viel besser ist, weil Nvidia ja Kepler noch in vollem Unfang unterstützt und quasi Nvidia ein edleres Motiv vertritt, ja lediglich Monitore anzubieten. Bei AMD muss man " ja beides kaufen.
Mal wieder völlig falsch. Typische Schwarz Weiß Sichtweise. Du witterst AMD Kritik und dichtest hinten ran G-Sync Loberei.

Ich weiß nicht ob ich weinen oder lachen soll, aber G-sync hat sich bisher sogut wie gar nicht verbreitet, es gibt hierzulande gerade mal 3 lieferbare Monitore.
Hinzukommt deine immerwiederkehrende Betonung, dass ja ein geteilter Markt keine Freude sei ( so kommt es ja unweigerlich auf uns zu ), weil da hat AMD schuld.
Es ist schon erstaunlich, da schreibt man etwas negatives über nvidia "werden an G-Sync festhalten" und du nimmst es als AMD Kritik wahr.

Also nochmal für dich ganz deutlich und fett und rot:
Grund zur Freude besteht erst, wenn Intel und nvidia bei AS mitmachen, sowie eine breite Masse Monitoren es unterstützt und AS im Einsatz gut funktioniert.

Bis dahin besteht kein Grund zur Freude!

Und Nvidia verdient nicht an Keplerkarten, die gezwungenermaßen dafür nötig sind?
Aha, bei dir haben wohl alle Nutzer mindestens eine GTX 680 verbaut.
Falls es dir aufgefallen ist, die ersten Kepler sind doch etwas älter. Aber wie wir festgestellt haben ist es so oder so nicht schön, wenn nur die neuere Hardware reif für das ein oder andere ist.

Bisher war das deinen Beiträgen nicht zu entnehmen.
Ach meinst du ich kritisiere die kommende Situation weil ich zufrieden damit bin?

Und trotzdem willst du die AMD Lösung madig reden, also irgendetwas stimmt mit dir nicht.
Nochmal Leseschwäche. FreeSync habe ich mit keinem Wort krisiert, im Gegenteil.
An die Gestalten, die es tun traust du dich nicht ran. Also ist es doch ein persöhnlicher Rachefeldzug. Selbst wenn ich nvidia krisiere noch an G-Sync festzuhalten reicht es dir nicht aus.
 
Zuletzt bearbeitet:
Mr Smith84 schrieb:
Ich unterstütze eine Firma wo ich in meinen Augen mehr fürs Geld bekomme bzw für meine Bedürfnisse oder andere Aspekte.

Das versucht AMD ja gerade durchzusetzen.

Jeder hat andere Wünsche. Ich kann teilweise auch nicht diese Geiz ist Geil verstehen.

Darum geht es eigentlich gar nicht. Nvidia kann ihr G-sync von mir aus günstig anbieten, es geht um Lösungen für alle und nicht für einen kleinen Teil der Menschen, die sich dafür einschränken müssen.

Allein im TV Markt, Hauptsache billig aus Korea aber das in DE auch welche gibts oder gabs vergessen wohl auch viele und das Arbeitsplätze und Wirtschaft schädigt, ist es wohl den meisten egal.

Es ist nicht die Schuld des Verbrauchers, sondern die Art und Weise wie Globalisierung stattfindet und die Arbeiterschaft dadurch auspresst, weil jeder gegen jeden mit Ellenbogen und Füßen.

Es kommt aber so rüber, wie manche Leute sich dazu äussern bzw verteidigen ;-)

Oder wie manche das angreifen, weil sie nicht wollen, dass AMD etwas gleichwertiges wie Nvidia bringt.

Nur man muss auch die Negative Seiten sehen. Weil dann würde keine Firma viel Geld in Entwicklung Investieren, da ja alles Open Source , offenen Standard ist. Warum auch? Wenn ich was entwickel und viel Geld investiere, dann will ich auch was davon haben bzw muss sich ja rentieren.

Die positiven Seiten gibt es auch wenn ich es nichtgeschlossen halte.
Mehr Leute wollen neue Grafikkarten die das unterstützen und neue Monitore.
So stärke ich den Gamingmarkt, anstatt irgendetwas exclusiv und vom Absatz her in unbedeutenden Zahlen zu haben.

Daher muss FreeSync sich erstmal beweisen und was wäre, wenn die Technik nicht ansatz weisse gut ist wie G-Sync? Was dann?

Dann muss AMD liefern, weil dann Nvidia etwas hat, was AMD nicht hat.
Genauso sieht es aus mit DSR, das nur bei nvidia über den Treiber einzustellen geht.

Andersrum wäre es schön wenn Nvidia True Audio oder Mantle unterstützen würde.
Denn ich denke nicht, dass Directx12 es schafft die Effizienz von Mantle zu bieten, denn immerhin muss Directx12 einen größeren Rattenschwanz hinter sich herziehen, wie Mantle.

Beispiel Physx: Da habe ich noch nichts vergleichbares gesehen was so gut ist.

GPU-Pysx ist ineffizient, drückt die Performance und bot bisher in keinem Spiel wirklich notwendige Anreize.
Gibt Leute die sehen das anders. Aber auch hier wäre eine offene Lösung wünschenswert, dass mehrere Spiele Fluidsimulationen oder ähnliches integrieren.

Auch bei diesem Punkt unterstützt AMD mit TressFX wieder die offene Schiene und nicht die proprietäre.

Und zum Thema Firma an sich binden: Alleine wenn du ein Handy kaufst, bindest du dich an die Software des Handy Herstellers.

Das ist ein nichtsagender Erklärungsversuch, um denen die Argumente zu nehmen, die eine unnötige Bindung zwischen Grafikkarte und Monitor sehen.
Handy ist mit einer Grafikkarte sicherlich nicht zu vergleichen.

Richthofen schrieb:
Natürlich ist das normal. Ich gehe sogar einen Schritt weiter. Das wird zukünftig in der gesamten Unterhaltungselektronikindustrie, und dazu zähle ich auch PCs - überlebenswichtig sein. Mit reiner Produktion von Hardware wird sich immer weniger Geld verdienen lassen.

Das ist ein Irrglaube, denn wenn der Hardwareabsatz sinkt, lassen sich auch keine Produkte mehr gebundled verkaufen.
Es geht immernur um die Hardware, primär und sicherlich auch um Lizenzen.
Und ob Nvidia an G-sync verdient, bezweifel ich mal, wenn man sich den bisherigen Verlauf ansieht.

4 Monitorhersteller haben bereits Adaptive Syncmontore angekündigt; Für G-sync ist kein weiterer Monitor mehr angekündigt.

Man muss seinen Kunden über die Hardware hinaus weitere Mehrwerte liefern und sich am besten ein Ökosystem mit Zusatzleistungen schaffen.

Woran verdient Nvidia denn da? Das sind doch alles außer der Hardware Peanuts.
Die Adaptive Sync Monitore werden günstiger sein, Nvidia verbaut einen FPGA, der teuer ist.
Bisher ist immernoch kein Asic verbaut. Wie soll Nvidia damit Geld verdienen? Ist das dein ernst?

Nvidia ist schon ordentlich dabei sich in genau diese Richtung zu bewegen.

Welches Beispiel außer G-sync gibt es denn da noch? Die Shield? Mit Streaming auf die Shield vom PC?
Das macht kein Mensch. Die Große Masse dieShield kaufen, kaufen sie wegen des Tablets und nicht wegen irgendwelchen Synergieeffekten.
Nvidia verdient nach wie vor an der Hardware, wie AMD auch.

Nvidia wählt nur einen unbeliebten Weg ihren Marktanteil zu vergrößern. Mit exclusiven Features.
AMD wählt hier einen anderen Weg.

AMD versucht es hier und da, m.E. aber nur halbherzig.

Ja natürlich. Nvidia macht das supi und AMD halbherzig.
Mantle selbst ist ja auch nur halbherzig. Nvidias G-sync und GPU Physx ( letzteres eingekauft von einer Firma ) ist natürlich nicht helbherzig, vor allem deswegen nicht, weil Nvidia GPU-Physx ja so super weiterentwickelt hat.

Deswegen wird es ja als Marketinglabel ausgenutzt, aber ansonsten extrem stiefmütterlich behandelt, aber ja da ist Nvidia voll dabei und keinesfalls halbherzig.

Selten so gelacht.

Das Argument was man hier anführen kann ist 3D Vision, für das du dich nicht entschieden hast. Denn dort ist es in der Tat so, dass Nvidia die deutlich bessere Unterstützung bietet und AMD´s HD3D halbherzig ist.

Was mich nur besonders stört ist die Selektivität wie du Argumente vorbringst und vor allem dein Schwarz/Weiß Schema.
AMD = schlecht und halbherzig Nvidia=super, obwohl G-sync und vor allem auch diese Streaminglösungen auf die Shield genau das sind, was man als halbherzig beschreiben kann.

Aber das gibt es ja nur von AMD.

Q4 wird wahrscheinlich im negativen Sinne nochmal eine Schippe drauf legen.

Und das hat jetzt was mit dem Thema zu tun?

Schlussendlich laufen AMD die Kunden davon und es fehlt an Geld um das R&D auf hohem Niveau zu halten.

Dass AMD die Kunden weglaufen ist wieder so ein typischer Fanboymist.
Vor allem dann wenn nvidia gerade die neue Generation gebracht hat. Aber natürlich, AMD laufen alle Kunden davon.
Schwarzmalerei par excellance.

Das ist üblich wenn ein Hersteller neue Karten ausliefert, das hatten wir in den letzten Jahren gefühlt 200 mal.
Und die AMD Kunden müssen ja schon seit 2000 immer weniger werden, die laufen halt alle AMD davon.

Der Marktanteil hat sich seit damals nicht sonderlich bewegt.
 
Unyu schrieb:
So sieht es aus, es wird zunächst 3 Lager geben. Ist das schwer zu bereifen?

Und bei Monitoren werden es zwei Lager sein. Monitore mit AS die auf allen GPUs laufen dafür auf Nvidia ohne GSync und Monitore die auf lediglich an der Hälfte aller verfügbaren GPUs ein Bild ausgeben werden können und dafür GSync haben für 130,- € Aufpreis - Stand Heute wird ja hier immer wieder gepredigt der zählt.

Ich weiss auch gar nicht warum hier erneut alles das was schon als Unsinn entlarvt wurde erneut von vorne durchgekaut wird. Da kann man einfach bei Seite 4 wieder anfangen.
 
Falsch es wird 3 Lager geben: Monitore mit AS, mit G-Sync und ohne Beides.
Den Aufpreis für G-Sync kennst übrigens nicht. Er wird zweifelsfrei niedriger als jetzt für Early Adopter sein. Ebenso kennst du den AS Aufpreis nicht. Nur das vermutlich deutlich geringer ist als G-Sync hier und heute sein wird. Also belanglose Information. Das einzig interessante ist, wie lange AS braucht.
 
Stand Heute ist der Aufpreis mindestens 135,- € schau bei geizhals nach oder klick die links die hier im Thread an.
Für AS ist Stand heute der Aufpreis Null weil keine zusätzliche Hardware verbaut wird. Es kommt lediglich die nächste Version des Scalers zum Einsatz. Das ist der heute bekannte Stand - du bestehst doch die ganze Zeit darauf.

Und stand heute können die GSync Monitore an der Hälfte aller GPUs im Markt nicht angeschlossen werden um überhaupt ein Bild auszugeben. 50% kompatibel stand heute.
 
Zuletzt bearbeitet:
smilefaker bei Physx muss ich wieder sprechen. Es gibt Games da sieht man den unterschied sofort ob man Physx an hat oder nicht.

Sonst stimme ich fast überein mit den Punkten aber ich binde mich jetzt nirgendswo fest. Und ob ich ein G-Sync kaufen werde, steht noch in den Sternen, obwohl mich es schon reizt.

Und von mir aus kann AMD was gleichwertiges rausbringen. Spricht doch nichts dagegen.

Aber du redest was von offenen Standards wo jeder Hersteller was davon hat. Mit Mantle sehe ich es momentan nicht so bzw das es in nahe Zukunft so sein wird. Sieht für mich im mom nach AMD Only aus. Nicht das ich es brauchen würde, aber ich wollt es mal erwähnt haben.

Und noch ein kleines beispiel: CF ist fast bei jeden Mainbord standard geworden. Nur bei denn teueren Mobos ist SLI auch mit drauf.
Also können NV User Hauptsächlich nur bei den Teueren Mobos SLI benutzen, wo die mehrheit der Boards CF haben, egal welche Preisklasse. Das CF auch nicht so gut Arbeitet wie SLI wird dabei vergessen. Da könnte auch mehr Bewegung sein.

Oder NV Chipsätzen: Gibts von NV auch nicht mehr, da AMD und Intel ihre eigene haben und somit alles selber anbieten können und somit NV aus dem Markt gedrängt haben.

Ist das auch in Ordnung?
 
Zuletzt bearbeitet:
Mr.Smith84 schrieb:
smilefaker bei Physx muss ich wieder sprechen. Es gibt Games da sieht man den unterschied sofort ob man Physx an hat oder nicht.
Aber nur, weil z.B. die Partikeleffekte komplett weggelassen wurden (richtig simuliert wird mangels Rechenleistung in Spielen ja sowieso nichts). Hätte man sie als Alternative einfach über übliche Mechanismen dargestellt, würden die Unterschiede wohl kaum jemanden auffallen...
 
Mr.Smith84 schrieb:
Aber du redest was von offenen Standards wo jeder Hersteller was davon hat. Mit Mantle sehe ich es momentan nicht so bzw das es in nahe Zukunft so sein wird. Sieht für mich im mom nach AMD Only aus. Nicht das ich es brauchen würde, aber ich wollt es mal erwähnt haben.

Das Mantle (noch) kein offener Standard ist, ist einzig und allein Schuld deines Nvidia. Der Initiator von Mantle (Dice) hatte ja bei allen drei Playern angefragt (Intel, Nvidia, AMD). Einzig AMD erklärte sich zu einer Zusammenarbeit bereit.
Ich wollte es nur mal erwähnt haben.

Mr.Smith84 schrieb:
Und noch ein kleines beispiel: CF ist fast bei jeden Mainbord standard geworden. Nur bei denn teueren Mobos ist SLI auch mit drauf.

Das liegt daran, dass Nvidias SLI (mal wieder) proprietär ist und Nvidia im Gegensatz zu AMD Lizenzgebühren für SLI kompatible Boards verlangt.

Mr.Smith84 schrieb:
Das CF auch nicht so gut Arbeitet wie SLI wird dabei vergessen. Da könnte auch mehr Bewegung sein.

Was ist an SLI besser als an CF? Ich konnte in den letzten Artikeln darüber nichts mehr lesen. Bitte bringe wenigstens mal aussagekräftige Quellen zu den vagen Behauptungen die du andauernd tätigst. Danke!

Mr.Smith84 schrieb:
Oder NV Chipsätzen: Gibts von NV auch nicht mehr, da AMD und Intel ihre eigene haben und somit alles selber anbieten können und somit NV aus dem Markt gedrängt haben.

Ist das auch in Ordnung?

AMD hat Nvidia nicht aus dem Mainboardmarkt gedrängt. Nvidia hat die Entwicklung freiwillig eingestellt, da wohl zu wenig lukrativ für AMD-Prozessoren Chipsätze weietrzuentwickeln.
Ganz anders bei Intel. Hier hatte Intel mit einer zweifelhaften Patentrechtsklage Nvidia aus dem Chipsatzmarkt gedrängt.
Beides in einen Topf zu werfen ist der reinste Hohn!
 
Unyu schrieb:
Nur das vermutlich deutlich geringer ist als G-Sync hier und heute sein wird. Also belanglose Information. Das einzig interessante ist, wie lange AS braucht.

Na dann schaun wer mal wie lange AS braucht. Und das es günstiger ist, ist natürlich völlig belanglos, schließlich gibt jeder einfach mehr Geld aus, weil Geiz geil ist und Produkte aus China bei uns nicht gekauft werden.
 
Seppuku schrieb:
Aber nur, weil z.B. die Partikeleffekte komplett weggelassen wurden (richtig simuliert wird mangels Rechenleistung in Spielen ja sowieso nichts). Hätte man sie als Alternative einfach über übliche Mechanismen dargestellt, würden die Unterschiede wohl kaum jemanden auffallen...
Richtig, und das weglassen der Partikel hat nichts damit zu tun das andere GPUs das nicht berechnen könnten. Es ist schlichtweg eine künstliche und unnötige Reduzierung von Details zugunsten PhysX.
Viele der tollen PhysX Effekte sind fürn A.... Bestes Beispiel sind wehende Flaggen oder auch flatternde Mäntel. Flaggen werden einfach komplett weggelassen. Wäre dies nicht der Fall so würde es keiner Sau auffallen.
Auch geil die "Physik" Effekte bei Mafia 2. Mauerpfeiler welche beschossen werden und rausbröckeln per PhysX. Aber anscheinend unendlich Baumaterial verfügbar ist und man eine ganze Kiesgrube - und noch mehr - aus 1m³ Pfeiler schießen kann, was mit Physik rein gar nichts am Hut hat.
Das ging bei anderen Spielen auch schon - ganz ohne PhysX. :freak:
Selbst Battlefield Bad Company 2 hat mit der Havoc Physik Engine per CPU bessere physikalische Eigenschaften gezeigt.
 
Ich verstehe nicht, warum das so kompliziert sein muß.
Heute würde ich nichts von beiden kaufen. Weder einen FreeSync noch einen GSync Monitor. Einfach noch zu neu, zu teuer und noch nicht gescheit getestet.
Für die Zukunft also 2015 oder 2016 wenn ein neuer Monitor gekauft wird plane ich mit dem was NVidia unterstützt. Wenn das dann GSync ist, dann wird es GSync.

So einen gescheiten hochauflösenden Monitor kauft man ja nicht jedes Jahr und wenn, dann kauft man einen gescheiten. Da jeder sein eigenes Süppchen kocht, muß man sich heute halt festlegen. Bei dem einen ist das dann AMD und bei dem anderen NVidia.
Ich denke und hoffe, das es in einem Jahr Monitore gibt, die beides können.
 
Mr.Smith84 schrieb:
Das CF auch nicht so gut Arbeitet wie SLI wird dabei vergessen. Da könnte auch mehr Bewegung sein.

CF arbeitet genau sogut wie SLI, spätestens nach dem AMD das Framepacing eingeführt hat.
Ihc hab dazu erst vor kurzem einen recht ausführlichen Test gelesen, wo AMD als besser hingestellt wurde.
Ich sage sie liegen gleichauf.

MikelMolto schrieb:
So einen gescheiten hochauflösenden Monitor kauft man ja nicht jedes Jahr und wenn, dann kauft man einen gescheiten. Da jeder sein eigenes Süppchen kocht, muß man sich heute halt festlegen.

AMD bzw die VESA kocht das Süppchen aber für alle. Das ist der Unterschied.
 
Danke für die Info das du dir beides nicht kaufen würdest, aber wenn dann G-Sync, obwohl es noch zu neu ist, zu teuer und beides noch nicht gescheit getestet wurde... :rolleyes:
Auch erst in der Zukunft, also 2015... also frühestens erst in ~ 7 Wochen... :freak:
Sag doch einfach das du grundsätzlich nvidia bevorzugst.

Und AMD kocht kein eigenes Süppchen. Adaptive Sync ist ein offener und freier Industriestandard, welcher jedes VESA Mitglied nutzen kann. Mit Adaptive Sync legt man sich nicht auf AMD fest.
 
PiPaPa schrieb:
AMDs Firmenphilosophie ist eine ganz andere, was man daran erkennt das AMD allesmögliche offenlegt und die Nutzung durch Dritte ermöglicht.

Ach ja? Was hat AMD denn bis jetzt offengelegt?

Diese vermeintliche Firmenphilisophie kann man auch ganz anders sehen:
Nachdem AMD kläglich gescheitert ist mit dem Versuch, ihr proprietäres Stream SDK zu etablieren, hängt man sich jetzt an die Erfindungen anderer dran, z.B. OpenCL und propagiert die Unterstützung offener Standards.

Nebenbei:
CUDA ist offen und läuft auf x86 CPUs. Nur AMD boykottiert die CUDA-Unterstützung.

http://www.heise.de/developer/meldung/NVIDIAs-CUDA-Technik-bald-auch-fuer-AMD-GPUs-1395220.html
 
Daedal schrieb:
Stand Heute ist der Aufpreis mindestens 135,- € schau bei geizhals nach oder klick die links die hier im Thread an.
Es macht keinen Sinn den zukünftigen Aufpreis aus EarlyAdopter Preisen zu entnehmen. Das ist als ob du heute eine geute 7970 mit einer 290X vergleichst, mit dem Schluss die 7970 sei genauso teuer, nur weil sie vor Y Jahren bei dem Preis X gestartet ist.
Nochmal: Es steht zu vermuten, das G-Sync teurer bleibt, wenn es am Markt bleibt. Wie viel ist Spekulation. Wenn G-Sync nicht am Markt bleibt, kann es sogar zum Abverkauf günsiger sein.

Ändert natürlich nichts an restlichen G-Sync Aspekt, aber muss man hier ja immer wieder erwähnen wie mies G-Sync ist, um ernst genommen zu werden.

smilefaker schrieb:
Na dann schaun wer mal wie lange AS braucht.
Schon so zurückhaltend. Also ist es angekommen, das ich mir AS wünsche. Umfassend und nicht nur für bestimmte Kunden.
 
Also bei den letzten stand und die war vom diesen Jahr noch, das CF mit Microruckler zu kämpfen hatte und das SLI es schon früher in griff hatte. Das AMD es behoben hat, kann angehen. Und ich gebe das wieder, worauf mein letzter Stand beruht. Lese ja auch nicht jeden Tag News oder Beiträge durch^^


naja wir werden sehen was die Zukunft bringt.

Und so wie ich das gelesen habe mit CUDA, das NV den Quellcode offengelegt und AMD es nicht nutz, sollte ja nicht das Problem von NV sein.

Beide Firmen schenken sich nichts und sind kein Stück besser weder Rot oder Grün!
 
CUDA als offenen Standard hinstellen zu wollen?:freak:
Sag mal geht es noch?

Nvidia verlangt für CUDA Lizenzgebühren (die bis jetzt niemand, weder Intel noch AMD noch sonstwer bereit ist zu zahlen). Ein Merkmal offener Standards ist, dass dieser stest frei von zusätzlichen Lizenzgebühren ist!

@Smith84

Du tätest gut daran deine Zeit mehr in Lesen von News und Beiträgen zu investieren als in Foren dein Halbwissen zu spammen.;)
 
Zuletzt bearbeitet:
MikelMolto schrieb:
Da jeder sein eigenes Süppchen kocht, muß man sich heute halt festlegen. Bei dem einen ist das dann AMD und bei dem anderen NVidia.
Da unterliegst du aber einem Irrtum.
Das eine ist Nvidia mit ihrem Süppchen und das andere ist der ganze Rest der Industrie mit VESA: Intel, AMD, PowerVR, Imagination, ARM, Sony, Samsung, LG, Acer, Asus, BenQ, Nvidia, Apple etc. - die sind alle im VESA organisiert und haben AdaptiveSync mit verabschiedet. AMD wir lediglich als erstes diese Funktion in seinen GPUs unterstützen. So wie mit x64, DX11 und anderen früheren technischen Entwicklungen die entweder Nvidia oder Intel klein geredet und blockiert haben weil sie hinterher gehinkt haben.

Unyu schrieb:
Es macht keinen Sinn den zukünftigen Aufpreis aus EarlyAdopter Preisen zu entnehmen.
Also zunächst einmal bist du derjenige der zukünftige Entwicklungen für nicht relevant hält und nicht ich. Dann bitte hier auch. Soweit wir heute wissen wird GSync nicht billiger. Bisher sind das nur vage Spekulationen, dass vielleicht mal ein ASIC anstatt dem FPGA verbaut wird.
 
Zurück
Oben