Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
@Labberlippe Kartenlehrling hat bez. der ACE's schon recht.
Auch die meisten der FreeSync-Kompatiblen APU's haben (zumindest) 4 ACE's (aus dem Test). Was ich mir vorstellen könnte, ist dass das ganze mit der Leistung zu tun hat. Dass man durch die ACE's hier noch Leistungsreserven hat die das auch effizient bewältigen könnnen. Und man bei GPU's mit nur 2ACE's (oder gar keinen) hier doch Leistung für anderes abziehen müsste. Wenn bei AMD dann genauso wie bei G-SYNC hier und da leichte fps-drops kommen (wenn auch aus völlig anderen Gründen) werden wieder alle schreien, dass es der gleiche Dreck ist. Deswegen womöglich wirklich nur die Unterstützung für neue GPU's und die neueren APU's mit mehr ACE's. Aber rein technisch sehe ich soweit ich Einblick in die Technik habe nicht warum nicht auch ältere Modelle das könnten. Es erscheint mir eher als Ausrede um nur neuere Modelle unterstützen zu müssen. Na mal sehen was da noch kommt. (Und bevor wer fragt - nVidia geht hier anderes heran, das kann man nicht vergleichen).
Ich möchte mir aber erst einen neuen Monitor kaufen wenn er 4K/120 oder 144HZ/Freesync kann.
Was mich stark interssieren würde sind folgende Fragen:
1. Kann der Displayport 1.3 auch 3840x2160 mit 144 HZ darstellen? Oder reicht es für maximal 120 HZ, denn bis jetzt habe ich noch nichts davon gelesen das er mehr als 120 HZ kann, aber vieleicht ist ja noch genug Bandbreite da.
2. Wie stark kann Freesync die Frames eigentlich kontrolliert ausgeben? Können sie nur volle HZ Zahlen ausgeben oder auch Komma Werte. Also z.B. 48,67 oder so in etwa. Oder ist das irrelevant?
Es hindert auch niemanden AMD daran einen CUDA Compiler für ihre GCN Architektur zu schreiben. CUDA ist vollkommen Open Source und damit wäre es letztendich auch kein Problem PhysX auf AMD Karten zu implementieren.
Theoretisch ist also alles möglich. Praktisch ist das aber unrealistisch, weil natürlich niemand etwas bei sich implementieren möchte worüber er selbst nicht die Kontrolle hat.
Meinst du nVidia möchte eine API implemnentieren, die von AMD jederzeit geändert werden kann und zudem auf nVidia Karten noch suboptimal läuft?
Jetzt hört doch endlich mit dem dämlichen Argument auf nVidia könnte auch Mantle implementieren, wenn sie wollten.
@Noxon:
Erklär mir doch mal warum nVidias PhysX Treiber bei Detektion einer nicht-nVidia GPU auf das "sogenannte" CPU PhysX umschaltet (und darüberhinaus diese CPU-PhysX auf 1 Core limitiert läuft und deswegen quasi unbenutzbar ist)
bzw. warum GPU-PhysX nur auf einer zusätzlich nVidia Karte im System laufen lässt (und das auch nur wenn man einen HybridPhysX Hack durchführt) http://physxinfo.com/wiki/Configuration_types
"Hybrid PhysX configurations are not officially supported, and even chased by NVIDIA - if AMD GPU is detected in the system, NVIDIA card will lock its PhysX processing functionality. Special hack (Hybrid PhysX mod) must be applied to NVIDIA drivers to bypass these restrictions. "
Das ist also alles so frei dass AMD "nur" den CUDA code schreiben muss um es zu nutzen - offenbar NICHT.
Ich weiß nur das zuletzt der PhysX hack auch nicht mehr funktioniert seitdem nvidia damals die Treiber aktualisiert hat aber gut das sollte jetzt hier nicht Thema sein xD
Bis ich mich entscheide ein Freesync Monitor zu kaufen wird es noch dauern will mir die Tests ansehen mal gucken wie es wird könnte mir auch gut vorstellen das es mit einer R9 3xx besser läuft als mit einer R9 285 weil da die Treiber oder der scala Vllt noch etwas mehr ausgereift ist andererseits kann es ja nur besser werden
Es wäre ja auch eigentlich interessant eine 7790 auf 260 um zu flashen (sofern das geht) und dann sehen ob wirklich was am Display Controller geändert wurde.
Wobei es nicht wirklich daran Zweifel geben sollte das ja wirklich die 260er umbearbeitet wurde.
Eines muss man schon sagen, das einige hier bedenken sollten das bis sich Mantle (TruAudio zweifel ich dran) und Freesync wirklich durchgesetzt haben die GCN 1.1 Karten sowohl technisch als auch Leistungsmässig mit der neuen Generatrion schon ausgedient haben.
Deswegen sehe ich das ganze nicht so happig an wenn meine 7790er oder eine 270 etc eingeschränkt funktioniert, die Frage ist halt inwieweit das dann für die älteren Karten realisiert wird.
Ich schätze mal das es dennoch einige Zeit dauern wird bis Hersteller die neuen Monitor mit dem neuen Display Port austatten, gerade bei den günstigen Monitoren sind in der Regel nur mit DVI und VGA ausgestattet.
Meiner Meinung nach sollten die Bildschirme generell nur noch mit Display Port und HDMI ausgestattet werden, ist aber eher nicht möglich da noch genug mit DVI und VGA Karten im PC rumrennen.
Einen Privaten würde es sicher eher nicht jucken aber es gibt ja genug Firmen mit deren Office PCs wo man eben noch per DVI oder gar VGA die Monitoren ansteuert.
Vorallem würde es mehr helfen das DP schon bei den Einstiegsmodellen geben würde.
danke @ Towelie und Herdware, - wenigstens gibst noch n paar CBler die den Kommentarthread aufwerten und nicht wie manche hier, die sich jetzt zurecht angesprochen fühlen, gern abwerten und nur Geblubber von sich geben.
@ News
Ich warte auf den Vergleichstest und bin gespannt. Nvidia mag mit ihrem FPGA ja nur fehlende Monitor Funktionalität ersetzt haben - gut möglich dass Gsync dann genau wie Freesync einfach das Adaptice Sync mit DP1.2a nutzt, also quasi selbe Technik mit zwei Namen. Die Frage ist was GPU Seitig an HW nötig ist...
Was sich besser schlägt dürfte vor allem auch treiberseitig entschieden werden.
Was Freesync angeht muss man sich wohl wirklich noch einen kleinen Moment gedulden und auf aussagekräftige Tests warten. Ist mir ehrlich gesagt auch relativ schnuppe (obwohl ich aktuell eine 290x nutze). Grafikkarten Produktzyklen sind ja relativ kurz also was solls dann wird die AMD Karte geutzt so lange sie genug Leistung bringt und dann kommt Nvidia. Wer Markenfetischismus betreibt straft sich selbst!
Das wirklich tragische hier ist der geplatzte Traum vom spieltauglichen IPS. Ich hab mich seit einer halben Ewigkeit nicht mehr so über eine Ankündigung gefreut. 144hz,IPS,WQHD,27Zoll sowas brauch ich wenn dann noch Freesync/Gsync draufgepackt wird ist das schön aber kein muss. Naja aus der Traum.
Dann eben weiter warten vielleicht wird man ja belohnt und es kommt gar etwas ähnliches mit VA-Panel o.ä. dann hätte man oben drauf noch ein anständiges Schwarz und kein glow. Bitte bitte bitte!!! Ich brauch dirngend einen neuen Monitor hab aber das bestimmte Gefühl, dass ich einen Kompromisskauf in absehbarer Zeit bereuen werde. Ich hab noch Hoffung. Die Eierlegende Wollmilchsau wird kommen: Spieletauglich, Bildbearbeitungstauglich, schlicht im Design, bezahlbar, als WQHD dass gegnüber 4k einigermaßen Ressourcen sparend ist und weder zu großen noch zu kleinen 27-32 Zoll.
Edit: Mit dem Asus MG279Q gehts ja schon in die richtige Richtung. Ist nur die Frage wie lange das noch dauert. In der Entwicklung hört sich langwirig an
1. Kann der Displayport 1.3 auch 3840x2160 mit 144 HZ darstellen? Oder reicht es für maximal 120 HZ, denn bis jetzt habe ich noch nichts davon gelesen das er mehr als 120 HZ kann, aber vielleicht ist ja noch genug Bandbreite da
2. Wie stark kann Freesync die Frames eigentlich kontrolliert ausgeben? Können sie nur volle HZ Zahlen ausgeben oder auch Komma Werte. Also z.B. 48,67 oder so in etwa. Oder ist das irrelevant?
1. Eig. ne interessante Frage. Offiziell wohl nicht (mit 120Hz stößt man schon an die 25,92 GBit/s Grenze). Ob es per OC drinn ist - möglich aber das kann man nur testen. Es sind jedoch gute 200Mhz Pixeltakt mehr die auch die Transistoren bewältigen müssten (im Vergleich zu 1080p ist es doch die 4x Datenmenge die pro Frame übetragen werden muss - naja theor. - mit Kompression weniger aber dennoch genug deswegen, auch wenns selbst "nur 24Hz" sind ....), das ist nicht ganz ohne und da würde ich nicht meine Hand für ins Feuer legen.
Zum Vergleich: Bei 720p 60Hz sind wir bei 64Mhz, bei 1080p 120Hz bei 285MHz, bei 2160p 144Hz bei über 1300Mhz (also im Ghz Bereich!)
2. Auch da kann man nur mutmaßen. AMD hat hier noch nicht so viele Details preisgebeben (wie G-Sync beim Release) - nur grob wie das ganze funktionieren soll. Davon ausgehend (die ich nenne es mal "Minimal-Variante") ist das irrelevant. Ich denke hier (inkl. Kommentare vor allem von Superwip) ist das einiger maßen gut (hoff. verständlich) erklärt (jedenfalls könnt ich's wohl nicht besser ).
Labberlippe schrieb:
Es wäre ja auch eigentlich interessant eine 7790 auf 260 um zu flashen (sofern das geht) und dann sehen ob wirklich was am Display Controller geändert wurde.
Wobei es nicht wirklich daran Zweifel geben sollte das ja wirklich die 260er umbearbeitet wurde.
Einen Privaten würde es sicher eher nicht jucken aber es gibt ja genug Firmen mit deren Office PCs wo man eben noch per DVI oder gar VGA die Monitoren ansteuert.
Stimmt eig. die 260 basiert genau wie die 7790 auf Bonaire. Und vergleicht man 7790 mit R7 260 sowie R7 260X (und R9 260) liegt die iwo dazwischen - HW-Mäßig vermutlich eher bei der schnelleren R7 260X (bei 260 sind vermutlich Shader per Laser-Cut dauerhaft deaktiviert). Es wäre womöglich wirklich einen Versuch Wert. Irgendwie will ich nicht dran glauben, dass hier am Chip auf die schnelle was geändert wurde (was in dem Fall ACEs betrifft).
FabianX2 schrieb:
Edit: Mit dem Asus MG279Q gehts ja schon in die richtige Richtung. Ist nur die Frage wie lange das noch dauert. In der Entwicklung hört sich langwirig an
Achso, wolltest du nicht 144Hz? (da gibt es bis jetzt nur den Acer. Ja das der Benq doch kein IPS sein dürfte ist mehr als schade, aber 1ms war auch wirklich utopisch. Und Blacklight Strobing bei IPS-Type Panels sucht auch noch seines gleichen. Naja)
Das ist doch egal, was da limitiert. AMD betreibt hier Augenwischerei mit ihrer Angabe von 9-240 Hz, weil es keine Panels gibt, die den Bildinhalt stabil halten bei so tiefen Frequenzen.
Aber man preist es als Vorteil gegenüber G-sync und die rote Anhängeschaft fällt mal wieder drauf rein. Siehe:
Ich finde es gut dass AMD die Spezifikationen angegeben hat, so weiß man zumindest was möglich ist, ob das die Monitorhersteller dann so übernehmen bleibt abzuwarten, mal sehen ob es Panels geben wird die so weit runtergehen.
Das du dies AMD anlastest finde ich unsachlich und gehört nicht hierher.
Warum dein Beitrag neben Informationen noch Getrolle enthalten muss erschließt sich mir nicht.
SavageSkull schrieb:
Bei extrem niedrigen hz zahlen fangen die Monitore an zu schlieren. Lightboost (oder wie der entsprechende Monitor Hersteller das gerade nennt) funktioniert technisch bedingt auch nicht mit dynamischen hz zahlen genauso wenig wie 3D. Niedrige Fps/hz ist also so oder so nicht das Ziel.
Hier hast du natürlich recht, allerdings ist dein Beitrag hierzu viel zu selektiv. Wieso eigentlich?
Du solltest anfügen, dass dies nur bei sehr niedrigen Hertzzahlen vorkommt und Videos nativ oftmals mit nur 24 Hertz laufen.
Hier bringt es natürlich gegenüber G-sync einen Vorteil, sollten es die Panelhersteller unterstützen.
Wieviel wert der Vorteil dann ist, will ich nicht bewerten das muss man dann abwarten und vergleichen.
Prinzipiell allerdings schon.
der Endkunde kann dann aber nur 400km/h fahren, weil mehr technisch nicht möglich ist. Bei der Werbung etwas anderes zu versprechen ist Täuschung
Logikfehler. AMD bewirbt hier keinen Bildschirm, sondern ihr Freesync.
Wieso muss AMD bei der Bewerbung Ihrer Technik jetzt für alle Bildschirme sprechen die später herauskommen?
Denkst du eigentlich nach bevor du AMD an den Karren fahren willst? Offenbar hat diese Diskussionsstrategie bei dir und bei kisser den gleichen Charakter.
Enttäuschend. Kann man sich denn nicht mal sachlich darüber austauschen?
Habt ihr G-syncmonitore und ärgert euch jetzt?
Ich finde es gut dass AMD die Spezifikationen angegeben hat, so weiß man zumindest was möglich ist, ob das die Monitorhersteller dann so übernehmen bleibt abzuwarten, mal sehen ob es Panels geben wird die so weit runtergehen.
Das du dies AMD anlastest finde ich unsachlich und gehört nicht hierher.
Warum dein Beitrag neben Informationen noch Getrolle enthalten muss erschließt sich mir nicht.
AMD wirbt doch mit dieser Aussage und vergleicht FreeSync mit G-Sync, also müssen sie sich das auch anrechnen lassen. Denn die wissen sehr wohl, dass es keine Panels dafür gibt.
Auch G-sync dürfte technisch nicht auf 30-144Hz limitiert sein, aber das ist nunmal das, was mit den Panels nur machbar ist.
Und lass dein Fanboy-Gehabe mal stecken und spar dir deine persönlichen Anfeindungen.
Es gibt eine Reihe von Beschränkungen, die G-Sync nicht hat. Es funktioniert wohl auch definitiv (leider) anders als G-Sync. In der Theorie hört sich FreeSync gut an, in der Praxis ist es einfach limitiert.
Naja, die durch das Panel vorgegebene Ober- und Untergrenze gibt es bei G-Sync doch auch. Also ungefähr Gleichstand, nur der Schwindel mit den 9-240 Hz ist erwartungsgemäß aufgeflogen.
Interessant wäre jetzt, auf welche feste Refreshrate Freesync umschaltet, wenn die Framerate unter das Limit fällt. Ein Wechsel auf Vsync mit maximaler Bildwiederholfrequenz wäre ungefähr mit dem Autorefresh des G-Sync-Moduls vergleichbar, bliebe die Frequenz allerdings einfach bei 30 Hz kleben, wäre das Resultat grauenhaftes Ruckeln.
für mich läuft FreeSync bis auf weiteres als "alter Wein in neuen Schläuchen".
Tests gibt es bislang nur für G-Sync Monitore, und die bescheinigen dem Feature eine gute bis sehr gute Funktionalität. Klar, die Preise dieser Modelle sind noch zu hoch, wird sich aber ändern, wenn da mal rund ein Dutzend verfügbar ist.
Von AMD und diesem Bericht entnehme ich letztlich, dass sie eine allgemein verfügbare Technik - Adaptive Sync - als ihre eigene darstellen, die aber offenbar mit erheblichen Nutzungseinschränkungen je nach Panel zu tun hat. Sprich, wo FreeSync draufsteht ist immer was anderes drin - eine denkbar schlechte Situation vor allem für den Endkunden.
Nvidia baut was proprietäres, das auch lange nach der Markteinführung noch sauteuer und nur in FÜNF Produkten zwischen 24" und 28" (alles TN, alles 16:9) verfügbar ist -> Nvidia ist toll!
AMD treibt was ähnliches bei der VESA zur Standardreife ("Adaptive Sync", frei für alle verfügbar), labelt die dabei angefallene Erfahrung + Implementierung im eigenen Grafiktreiber "FreeSync", und wird dann beschuldigt, dass man etwas frei verfügbares als Eigenentwicklung verkauft, die zudem auch noch scheiße funktioniert, weil nämlich die Monitorhersteller, die rein garnichts mit AMD zu tun haben, bisher nicht die technischen Grenzen der "Adaptive Sync"-Spezifikation ausreizen.
24p heißt 24 Pictures/Frames. Weder der Monitor noch der Fernseher (im 24p Modus) laufen in 24Hz sondern einem vielfachen davon (48, 96, 120 oder 144Hz). Filme deren Framerate nicht durch eine Berechnung vom PC limitiert sind, kommen gar nicht in die Situation, dass die Frames unsynchron zur Hertzzahl werden. BluRays sind sicherlich kein Kandidat wofür man einen synchronen Monitor benötigt.
smilefaker schrieb:
Logikfehler. AMD bewirbt hier keinen Bildschirm, sondern ihr Freesync.
Wieso muss AMD bei der Bewerbung Ihrer Technik jetzt für alle Bildschirme sprechen die später herauskommen?
Was mich aufregt ist die Art wie AMD hier wirbt und wie in der Folie ganz klar G-Sync als abgrundtief schlecht im Vergleich zu FreeSync dargestellt wird. (Ich weiß dass Nvidia da auch nicht besser macht, scheiß Ami Pack)
Bleibt man dem Auto Beispiel, worauf meine Antwort sich bezog muß man mal ganz klar sagen: Ich gehe als Endkunde zu Corvette und kaufe ein komplettes Auto was "out of the box" funktioniert. Da kann Corvette schlecht sagen, ja unser Auto kann 450 Klamotten, aber die Reifen die drauf sind machen nur 400 mit. Wenn da auf dem Schild vom Auto steht 450km/h dann hat das für mich als Endkunde auch zu stimmen.
smilefaker schrieb:
Enttäuschend. Kann man sich denn nicht mal sachlich darüber austauschen?
Bei der Euphorie über das günstigere und bessere FreeSync was noch keiner in der Hand hat, wovon es noch keinen Test gibt, geht das derzeit leider nicht.
Dafür das ich meinen Monitor schon fast ein halbes Jahr habe und ich das nicht mal nutze, weil ich ihn für 3D Vision gekauft habe, eigentlich nicht. Zumindest mir war das klar, dass ich hier auch einen Early Adopter Aufpreis mitbezahle. In diesem Thread interessiert mich zumindest was der Benq kosten würde, da für mich damals 1440p bei 27" ein Kriterium waren und man das mit 3D leider ausschließlich auf dem Gsync Asus findet. Dennoch wäre der Benq keine Alternative, weil geht halt derzeit nicht mit Nvidia und kann kein 3D
Warum schreibst du dann hier in den Comments oder fühlst dich angesprochen? Sry, ich verstehe es nicht, warum sich das hier immer in einen persönlichen Krieg entwickelt.
Ergänzung ()
DaBzzz schrieb:
das muss man erstmal schaffen
Also, ich fasse zusammen:
Nvidia baut was proprietäres, das auch lange nach der Markteinführung noch sauteuer und nur in FÜNF Produkten zwischen 24" und 28" (alles TN, alles 16:9) verfügbar ist -> Nvidia ist toll!
AMD treibt was ähnliches bei der VESA zur Standardreife ("Adaptive Sync", frei für alle verfügbar), labelt die dabei angefallene Erfahrung + Implementierung im eigenen Grafiktreiber "FreeSync", und wird dann beschuldigt, dass man etwas frei verfügbares als Eigenentwicklung verkauft, die zudem auch noch scheiße funktioniert, weil nämlich die Monitorhersteller, die rein garnichts mit AMD zu tun haben, bisher nicht die technischen Grenzen der "Adaptive Sync"-Spezifikation ausreizen.
Die Antwort ist genauso AMD Trolling, wie der Ursprungsthread Nvidia Trolling war.
Wenn man mal die letzten News zu "synchronen" Hertzzahlen hier zu rate zieht, sieht man dass die Technik anscheinend schon proprietär (Kandidat für Unwort der Menschheit ever) in Laptops verbaut war.
VESA ist ein Konsortium aus verschiedenen Firmen http://de.wikipedia.org/wiki/Video_Electronics_Standards_Association die sich auf etwas einigen. Ich kann mir gut vorstellen, dass daran nicht alleine AMD beteiligt war und das hier Aufwand kostentechnisch auch gut aufgeteilt wurde, was AMD sicherlich auch gerne gehabt hätte.
Das es derzeit eine freiwillige Festlegung ist und nicht mal ansatzweise in Monitoren (mit DP 1.2a) üblich ist (für mich ist der Standard das was üblich sprich in der Mehrheit der erhältlichen Geräte verwendet ist) hat mich sehr geärgert. Wäre die Technik verpflichtend in allen DP1.2a oder DP1.3 Monitoren würde ich jetzt auch jubeln.
So toll ist nämlich das Ergebnis jetzt leider nicht, wie hier euphorisch behauptet wird. Leider und das ist auch der Grund, warum ich hier mitlese, mich interessiert wie sich das weiter entwickelt.
Schön finde ich dann übrigens deinen letzten Satz, wo du es bei AMD in Ordnung findest, dass deren Spezifikation von den Monitor Herstellern nicht erfüllt wird, aber dass andersherum Nvidia daran Schuld ist, dass die Monitore alle so teuer sind und es so wenige derzeit gibt.
Es gibt zwei Seiten, das ist leider mehr als Schade. Ein Ergebnis, dass jeder erhältliche Monitor mit egal welcher erhältlichen Grafikkarte synchrone HZ/FPS abliefert bleibt Zukunftsmusik.
24p heißt 24 Pictures/Frames. Weder der Monitor noch der Fernseher (im 24p Modus) laufen in 24Hz sondern einem vielfachen davon (48, 96, 120 oder 144Hz). Filme deren Framerate nicht durch eine Berechnung vom PC limitiert sind, kommen gar nicht in die Situation, dass die Frames unsynchron zur Hertzzahl werden. BluRays sind sicherlich kein Kandidat wofür man einen synchronen Monitor benötigt.
Ich hab die möglichen, aber seltenen Kandidaten mal markiert, denn niemand wird sich einen 120/144Hz-Monitor (TN!) für Filme kaufen. Alle übrigen laufen eben nicht framesynchron, und damit potentiell schlechter, als sie müssten. Das gleiche gilt für 25p, 23,976p, 29,97p, 48p und was es sonst noch so gibt. Für all das braucht man ne beliebig einstellbare Refreshrate des Bildschirms für die Dauer des Films, aber man braucht keine ständig wechselnde Framerate wie bei G-Sync/Adaptive Sync. Wobei man jeden Bildschirm, der das kann, sicherlich auf ein vielfaches von z.B. 23,976 Hz einstellen kann, das Problem wird also einfach nebenher erledigt.
SavageSkull schrieb:
Die Antwort ist genauso AMD Trolling, wie der Ursprungsthread Nvidia Trolling war.
Wenn man mal die letzten News zu "synchronen" Hertzzahlen hier zu rate zieht, sieht man dass die Technik anscheinend schon proprietär (Kandidat für Unwort der Menschheit ever) in Laptops verbaut war.
VESA ist ein Konsortium aus verschiedenen Firmen http://de.wikipedia.org/wiki/Video_Electronics_Standards_Association die sich auf etwas einigen. Ich kann mir gut vorstellen, dass daran nicht alleine AMD beteiligt war und das hier Aufwand kostentechnisch auch gut aufgeteilt wurde, was AMD sicherlich auch gerne gehabt hätte.
Ändert nichts daran, dass AMD den Standard unterstützt, während die bei Nvidia ihr eigenes Süppchen kochen.
SavageSkull schrieb:
Das es derzeit eine freiwillige Festlegung ist und nicht mal ansatzweise in Monitoren (mit DP 1.2a) üblich ist (für mich ist der Standard das was üblich sprich in der Mehrheit der erhältlichen Geräte verwendet ist) hat mich sehr geärgert.
Weißt du, als Troll werf ich dir mal die sortierte Liste von Geizhals (EU) der Monitoranschlüsse vor die Füße:
Code:
VGA (1748)
DVI (1412)
HDMI (794)
DisplayPort (511)
DisplayPort 1.2 (136)
MHL (131)
Composite (113)
Komponenten (92)
SCART (81)
HDMI 1.4 (53)
2x DVI (50)
Mini DisplayPort (36)
S-Video (30)
DisplayPort-Out (20)
USB 2.0 (Video) (10)
DisplayPort 1.1 (7)
Thunderbolt (6) / USB 3.0 (Video) (6)
HDMI 2.0 (2)
Standard ist also immer noch VGA, dann kommt DVI, mit großem Abstand HDMI, und dann mal DP. SCART ist (bei PC-Monitoren!) weiter verbreitet als HDMI 1.4. Auf Basis der "Mehrheit der erhältlichen Geräte" brauchen wir also gar nicht diskutieren, das ist Schwachfug. Das ändert sich nicht mal, wenn man auf Monitore aus 2014 eingrenzt, auch wenn da HDMI DVI denkbar knapp überholt.
SavageSkull schrieb:
Wäre die Technik verpflichtend in allen DP1.2a oder DP1.3 Monitoren würde ich jetzt auch jubeln.
In 1.2a ja nicht, ich hatte damals bei den News zu 1.3 gefragt und keiner wusste es. Also: Quelle, dass Adaptive Sync für DP1.3 weiterhin ein optionales Feature ist?
SavageSkull schrieb:
Schön finde ich dann übrigens deinen letzten Satz, wo du es bei AMD in Ordnung findest, dass deren Spezifikation von den Monitor Herstellern nicht erfüllt wird, aber dass andersherum Nvidia daran Schuld ist, dass die Monitore alle so teuer sind und es so wenige derzeit gibt.
Es ist keine AMD-Spezifikation, sondern die der VESA (...oben sagst du selber, dass ja AMD nicht alles alleine gemacht hat, und jetzt plötzlich isses wieder nur AMD?), allenfalls kann AMD über den Standard hinaus gehen, was dann aber für andere Hersteller kaum ein verbindliches Kriterium sein kann. Andersrum verlangt Nvidia scheinbar Lizenzgebühren UND man verwendet einen FPGA, ganz klar, dass das teuer ist. Wo da nun die Verbindung ist...? Wenn ich raten müsste, würde ich vermuten, dass du AMD nahelegst ein Art Verkaufsverbot für "minderwertige" Monitore zu erwirken, d.h. dass kein Gerät mit Adaptive Sync erscheinen soll, welches hinsichtlich der sonstigen Specs einem G-Sync-Monitor unterlegen sein könnte. Das macht aber auch keinen Sinn, man will ja möglichst schnelle Marktverfügbarkeit haben, und wird schon von genug Leuten hämisch darauf hingewiesen, dass eben noch keine Geräte zu haben sind.
SavageSkull schrieb:
Es gibt zwei Seiten, das ist leider mehr als Schade. Ein Ergebnis, dass jeder erhältliche Monitor mit egal welcher erhältlichen Grafikkarte synchrone HZ/FPS abliefert bleibt Zukunftsmusik.
Warts ab, sobald Intel einsteigt, ist der Käse in kürzester Zeit gerollt. Und ich sags gerne wieder: Ich hab so die Vermutung, dass Intel KEIN G-Sync-Lizenznehmer wird...
Nvidia baut was proprietäres, das auch lange nach der Markteinführung noch sauteuer und nur in FÜNF Produkten zwischen 24" und 28" (alles TN, alles 16:9) verfügbar ist -> Nvidia ist toll!
AMD treibt was ähnliches bei der VESA zur Standardreife ("Adaptive Sync", frei für alle verfügbar), labelt die dabei angefallene Erfahrung + Implementierung im eigenen Grafiktreiber "FreeSync", und wird dann beschuldigt, dass man etwas frei verfügbares als Eigenentwicklung verkauft, die zudem auch noch scheiße funktioniert, weil nämlich die Monitorhersteller, die rein garnichts mit AMD zu tun haben, bisher nicht die technischen Grenzen der "Adaptive Sync"-Spezifikation ausreizen.
Du bestehst darauf, dass man Technologie vom Monitor trennt aber vergleichst bereits verfügbare Monitore mit ... dem was aktuellem Trend entspricht .... weil? Weiters:
- engineer123 sagt nicht, dass nVidia toll ist sonder dann G-Sync nach ausreichenden Tests "gut bis sehr gut Funktioniert".
- er geht auf die Preise ein und es ist (davon unabhängig) 100% klar, dass die Preise noch sinken werden (wenn auch nie so weit wie es bei Freesync-Monitoren möglich ist - das hat aber nie jemand behauptet)
- nVidia hat sich mit G-Sync vermutlich übernommen (bzw. gehofft rechtzeitig eine Lösung zu finden). Ich bin mir sicher - gäbe es nicht noch einige Probleme wäre der XL2720G erschienen und hätte massig Käufer gefunden (so wie ich die Erwartungen in verschiedenen Foren rauslese)
- AMD hat mehrfach angekündigt, dass "Freesyc" Open Source werden würde, was es nicht ist.
- Und erzähle es bitte so wie es zutrifft: AMD hat zugegeben, dass man ohne G-Sync nicht auf die Idee mit A-Sync gekommen wäre, hat kurz überlegt, Vesa bez. etwas das seit DP 1.0 im Gespräch war um Aufnahme in den Standard gebeten (das optional angenommen wurde), die HW Ende 2013/Anfang 2014 darauf hin "etwas optimiert", unterstützt nur diese (obwohl es bis jetzt keinen Grund gibt ausser 1er Aussage, dass der gleiche Chip das HW-Seitig nicht unterstütze ohne anzugeben warum und warum das technisch einfach nicht hinhaut), ...
- und nun soll nVidia ohne irgendeinen Beweis, dass Freesync gleichwertig wäre (die Demo's auf der CES sind nett, zeigen aber noch keinen direkten Vergleich) aufgrund (ACHTUNG - noch mehr Übertreibung) utopischer Frequenzen in den Dreck gezogen werden?
- Das nVidia A-/Free- Sync kann oder nicht ist noch in keinster weise bestätigt oder dementiert.
Ach ich wollte noch was zu den Frequenzen schreiben: Ich zahle dir (ernsthaft) 10.000€ wenn sich ein Monitor-Hersteller traut eine dynamische vertikale Synchronisation von mind. 9Hz anzubieten und es danach nicht mind. 1.000 User gibt die den Monitor tatsächlich besitzen und (ohne Bescheid zu wissen) sich nicht über eine Diashow sonder gleichen (Sinngemäß) beschweren oder den gleichen Betrag wenn nachgewiesen werden kann, dass 240Hz in Relation zu 144Hz zumindest einen ausreichenden (das mag sicher Streitthema sein) Vorteil bietet. Wirklich - worauf du hier bestehst ist Lachhaft. Ich hoffe du trollst nur. (dabei nicht mal auf höchstem Niveau, wobei engineer123 gar nicht Trollt, er verleiht zwar auch seiner Meinung etwas zu starkes Gewicht, aber das ist kein Trollen).
Frage: gibst du mir 10.000€ wenn G-Sync (wenn auch womöglich mit FW-Update) A-Sync als auch NV-GPU's eine Freesync-Alternative plötzlich unterstützen?
So, das wäre so ungefähr meine NV-Fanboy Antwort! Oder?
Fazit: ich würde es sehr begrüßen, wenn man so gut als möglich sachlich bleiben könnte. Man kann sicher aufgrund bekanntem wenn man ne Anhnung hat mal Vermutungen aufstellen. Und ich versteh schon wenn man sein "derzeitiges Lager" verteigen möchte aber man darf auch gern darüber hinaus denken.
SavageSkull schrieb:
Es gibt zwei Seiten, das ist leider mehr als Schade. Ein Ergebnis, dass jeder erhältliche Monitor mit egal welcher erhältlichen Grafikkarte synchrone HZ/FPS abliefert bleibt Zukunftsmusik.
Das steht ja noch gar nicht mal fest, man weiß nur, dass Freesync soweit ist zu zeigen was es kann.
Ergänzung ()
DaBzzz schrieb:
Für all das braucht man ne beliebig einstellbare Refreshrate des Bildschirms für die Dauer des Films, aber man braucht keine ständig wechselnde Framerate wie bei G-Sync/Adaptive Sync. Wobei man jeden Bildschirm, der das kann, sicherlich auf ein vielfaches von z.B. 23,976 Hz einstellen kann, das Problem wird also einfach nebenher erledigt.
Korrektur: AMD nutzt eine (durch G-Sync inspirierte) eigens eingebrachte optionale Ergänzung in DP1.2a (das keine AMD Karte selbst kann, sie unterstützen nur offiziell die Änderung, also A-Sync) und nVidia nutzt bez. VBLANK das technisch gesehen das gleiche wie in der Ergänzung in DP1.2a vorgesehen (nur "noch mehr" - die Frage hier ist nur wie das FPGA Modul sowie Firmware der G-Sync Monitore programmiert sind um ev. auch nur Freesync zu unterstützen. Wenn nVidia schlau war ist das kein Thema. Asonsten wird's bei den GPU's eher machbar sein als bei all den Monitoren bedingt durch die bei den meisten fehlende Upgrade-Schnittstelle). (Ob der DP-Standard nun zu spät für nVidia kam um das zu ändern oder nVidia darauf beharrt, dass es ne eigene Lösung ist - IMO irrelevant).
DaBzzz schrieb:
Standard ist also immer noch VGA, dann kommt DVI, mit großem Abstand HDMI, und dann mal DP. SCART ist (bei PC-Monitoren!) weiter verbreitet als HDMI 1.4. Auf Basis der "Mehrheit der erhältlichen Geräte" brauchen wir also gar nicht diskutieren, das ist Schwachfug. Das ändert sich nicht mal, wenn man auf Monitore aus 2014 eingrenzt, auch wenn da HDMI DVI denkbar knapp überholt.
Ich denke SavageSkull geht hier von Monitoren aus, die "vergleichbar bez. Verwendungszweck/Zielgruppe" sind, nicht bez. möglichst aller verfügbarer Monitore (und dann ist Geizhals sicher nicht "die" Quelle - wenn auch möglicher weise repräsentativ - das will ich nicht abstreiten). Das scheint mir zumindest ein Irrtum/Missverständnis zu sein?
DaBzzz schrieb:
In 1.2a ja nicht, ich hatte damals bei den News zu 1.3 gefragt und keiner wusste es. Also: Quelle, dass Adaptive Sync für DP1.3 weiterhin ein optionales Feature ist?
Das würde mich auch interessieren. Etwas gewagt die ursp. Ausssage aber vl. auch nicht. Verdammt ich sollte bei nem Hersteller arbeiten um Zugriff auf wirklich all die interessanten Dokumente zu haben. ^^
DaBzzz schrieb:
Wo da nun die Verbindung ist...?
Warts ab, sobald Intel einsteigt, ist der Käse in kürzester Zeit gerollt. Und ich sags gerne wieder: Ich hab so die Vermutung, dass Intel KEIN G-Sync-Lizenznehmer wird...
Wo die Verbindung zu SavageSkull's Beitrag ist frage ich mich auch. Er schreibt was ganz anderes.
Bez. Intel - die Vermutung habe ich auch (ich sehe auch keinen Grund warum Intel bei G-Sync einsteigen sollte, nVidia zieht G-Sync sicher durch - alleine - und schaut ob's läuft. Das hat mit Freesync, soweit nVidia einzuschätzen ist, aber nur bez. der Absatzzahlen zu tun. Wann hingegen Intel bei Freesync einsteigt und ob - meine Vermutung, aber seeehr grob geschätzt: Ende des Jahres).
--------------------
Dennoch das ganze gerät zu sehr in eine AMD-Nvidia(-Intel) Diskussion - und das gerne auch ohne Bezug zu technischen Details also können wir uns bitte wieder auf das wesentliche konzentrieren? Sicher sind Vergleiche angebracht - aber bitte technische. Nicht "Hersteller A hat gelogen".
Ergänzung ()
DaBzzz schrieb:
Für all das braucht man ne beliebig einstellbare Refreshrate des Bildschirms für die Dauer des Films, aber man braucht keine ständig wechselnde Framerate wie bei G-Sync/Adaptive Sync. Wobei man jeden Bildschirm, der das kann, sicherlich auf ein vielfaches von z.B. 23,976 Hz einstellen kann, das Problem wird also einfach nebenher erledigt.
Korrektur: AMD nutzt eine (durch G-Sync inspirierte) eigens eingebrachte optionale Ergänzung in DP1.2a (das keine AMD Karte selbst kann, sie unterstützen nur offiziell die Änderung, also A-Sync) und nVidia nutzt bez. VBLANK das technisch gesehen das gleiche wie in der Ergänzung in DP1.2a vorgesehen (nur "noch mehr" - die Frage hier ist nur wie das FPGA Modul sowie Firmware der G-Sync Monitore programmiert sind um ev. auch nur Freesync zu unterstützen. Wenn nVidia schlau war ist das kein Thema. Asonsten wird's bei den GPU's eher machbar sein als bei all den Monitoren bedingt durch die bei den meisten fehlende Upgrade-Schnittstelle). (Ob der DP-Standard nun zu spät für nVidia kam um das zu ändern oder nVidia darauf beharrt, dass es ne eigene Lösung ist - IMO irrelevant).
DaBzzz schrieb:
Standard ist also immer noch VGA, dann kommt DVI, mit großem Abstand HDMI, und dann mal DP. SCART ist (bei PC-Monitoren!) weiter verbreitet als HDMI 1.4. Auf Basis der "Mehrheit der erhältlichen Geräte" brauchen wir also gar nicht diskutieren, das ist Schwachfug. Das ändert sich nicht mal, wenn man auf Monitore aus 2014 eingrenzt, auch wenn da HDMI DVI denkbar knapp überholt.
Ich denke SavageSkull geht hier von Monitoren aus, die "vergleichbar bez. Verwendungszweck/Zielgruppe" sind, nicht bez. möglichst aller verfügbarer Monitore (und dann ist Geizhals sicher nicht "die" Quelle - wenn auch möglicher weise repräsentativ - das will ich nicht abstreiten). Das scheint mir zumindest ein Irrtum/Missverständnis zu sein?
DaBzzz schrieb:
In 1.2a ja nicht, ich hatte damals bei den News zu 1.3 gefragt und keiner wusste es. Also: Quelle, dass Adaptive Sync für DP1.3 weiterhin ein optionales Feature ist?
Das würde mich auch interessieren. Etwas gewagt die ursp. Ausssage aber vl. auch nicht. Verdammt ich sollte bei nem Hersteller arbeiten um Zugriff auf wirklich all die interessanten Dokumente zu haben. ^^
DaBzzz schrieb:
Wo da nun die Verbindung ist...?
Warts ab, sobald Intel einsteigt, ist der Käse in kürzester Zeit gerollt. Und ich sags gerne wieder: Ich hab so die Vermutung, dass Intel KEIN G-Sync-Lizenznehmer wird...
Wo die Verbindung zu SavageSkull's Beitrag ist frage ich mich auch. Er schreibt was ganz anderes.
Bez. Intel - die Vermutung habe ich auch (ich sehe auch keinen Grund warum Intel bei G-Sync einsteigen sollte, nVidia zieht G-Sync sicher durch - alleine - und schaut ob's läuft. Das hat mit Freesync, soweit nVidia einzuschätzen ist, aber nur bez. der Absatzzahlen zu tun. Wann hingegen Intel bei Freesync einsteigt und ob - meine Vermutung, aber seeehr grob geschätzt: Ende des Jahres).
--------------------
Dennoch das ganze gerät zu sehr in eine AMD-Nvidia(-Intel) Diskussion - und das gerne auch ohne Bezug zu technischen Details also können wir uns bitte wieder auf das wesentliche konzentrieren? Sicher sind Vergleiche angebracht - aber bitte technische. Nicht "Hersteller A hat gelogen".
Du bestehst darauf, dass man Technologie vom Monitor trennt aber vergleichst bereits verfügbare Monitore mit ... dem was aktuellem Trend entspricht .... weil?
- er geht auf die Preise ein und es ist (davon unabhängig) 100% klar, dass die Preise noch sinken werden (wenn auch nie so weit wie es bei Freesync-Monitoren möglich ist - das hat aber nie jemand behauptet)
1 Jahr nach der Listung des ersten Monitors kann man schon was erwarten, finde ich. G-Sync war und ist teuer. Und der Preis eines Geräts sinkt nach Markteinführung normalerweise am stärksten, die Phase hat G-Sync hinter und AS vor sich. Ich seh da ohne ASIC und enorm stark steigenden Marktanteil keinen grünen Zweig für die Technik, preislich gesehen.
Towelie schrieb:
- nVidia hat sich mit G-Sync vermutlich übernommen (bzw. gehofft rechtzeitig eine Lösung zu finden). Ich bin mir sicher - gäbe es nicht noch einige Probleme wäre der XL2720G erschienen und hätte massig Käufer gefunden (so wie ich die Erwartungen in verschiedenen Foren rauslese)
Oookaaay...? Das würde ja auch Teile des Catalyst einschließen, imho unrealistisch. Haste mal nen Link für mich?
Towelie schrieb:
- Und erzähle es bitte so wie es zutrifft: AMD hat zugegeben, dass man ohne G-Sync nicht auf die Idee mit A-Sync gekommen wäre, hat kurz überlegt, Vesa bez. etwas das seit DP 1.0 im Gespräch war um Aufnahme in den Standard gebeten (das optional angenommen wurde), die HW Ende 2013/Anfang 2014 darauf hin "etwas optimiert", unterstützt nur diese (obwohl es bis jetzt keinen Grund gibt ausser 1er Aussage, dass der gleiche Chip das HW-Seitig nicht unterstütze ohne anzugeben warum und warum das technisch einfach nicht hinhaut), ...
Nachahmung ist ja auch eine Form der Wertschätzung, wobei diese VBLANK-Geschichte ja offenbar nicht neu ist und aus dem Mobile-Sektor (da als Stromsparmaßnahme) kommt. Wo genau erzähle ich, dass das eine unabhängige, frühere Erfindung seitens AMD wäre?
Und Nvidia pusht jetzt DX12, welches als Reaktion auf das lange verlachte Mantle auch mal die CPU entlasten soll. Hey, die sitzen alle im gleichen Boot, manche rudern konstruktiv, manche nicht.
Towelie schrieb:
- Das nVidia A-/Free- Sync kann oder nicht ist noch in keinster weise bestätigt oder dementiert.
Jupp, aber man kann sich seinen Teil denken. Ich vermute weiterhin, dass die das irgendwann mal als G-Sync Lite verkaufen werden, sollte G-Sync nicht doch noch einen massiven Marktanteil erreichen können. Sonst wäre ja das Zukunftsszenario folgendes: Intel und AMD können mit den Tonnen an günstigen Monitoren Adaptive Sync, Nvidia kann etwas vergleichbares nur mit sehr wenigen, stets teureren Modellen, möglicherweise aber besser. Wechsel Intel-AMD klappt problemlos, während man von und zu Nvidia stets Graka UND Monitor tauschen muss. Das hält eins der Lager nicht endlos durch, und auch wenn die Grafiksparte von AMD ein Mückenschiss gegen Nvidia ist, so ist Nvidia ein Minimückenschiss gegen Intel.
Towelie schrieb:
Ach ich wollte noch was zu den Frequenzen schreiben: Ich zahle dir (ernsthaft) 10.000€ wenn sich ein Monitor-Hersteller traut eine dynamische vertikale Synchronisation von mind. 9Hz anzubieten und es danach nicht mind. 1.000 User gibt die den Monitor tatsächlich besitzen und (ohne Bescheid zu wissen) sich nicht über eine Diashow sonder gleichen (Sinngemäß) beschweren oder den gleichen Betrag wenn nachgewiesen werden kann, dass 240Hz in Relation zu 144Hz zumindest einen ausreichenden (das mag sicher Streitthema sein) Vorteil bietet. Wirklich - worauf du hier bestehst ist Lachhaft. Ich hoffe du trollst nur. (dabei nicht mal auf höchstem Niveau, wobei engineer123 gar nicht Trollt, er verleiht zwar auch seiner Meinung etwas zu starkes Gewicht, aber das ist kein Trollen).
Inhalte werden aber nur mit 9 Hz dargestellt, wenn die Mühle dahinter auch bloß 9 FPS liefert. Das wird auch mit einem flüssiger bewegbaren Mauszeiger nicht schöner, man wartet ohne nur noch länger auf die Darstellung eines fertigen Frames. Wer bei 9 FPS die stockende Wiedergabe auf seinen AS-Monitor schiebt, der hat vielleicht eher weniger Ahnung, was er da sagt.
Wobei wir ich den Eindruck habe, als würden solche FPS-Zahlen immer statisch betrachtet. Sinn ist doch, bei nem langsameren Frame (Frameeinbruch oder stark schwankende FPS) immer "gleich" das Bild zu kriegen, wenn es fertig ist, und nicht auf die nächste reguläre Ausgabe bei 60 Hz Standardfrequenz warten zu müssen. 9 Hz heißt dann, dass der Monitor im Extremfall 111ms warten kann, bis er entweder das Bild nochmal zeigen muss, oder eben ein neues Bild fertig reinbekommen hat und das dann gleich darstellt. Bei den gezeigten Monitoren kann aber nur 33ms bzw. 25ms gewartet werden. Und wenn diese Zeit verstrichen ist, dann bestimmt die Maximalfrequenz, wann das nächste Bild gezeigt werden kann, wenn es "grade so" zu spät angekommen ist. Das wären dann 6,9ms bzw. 16,7ms.
Towelie schrieb:
Frage: gibst du mir 10.000€ wenn G-Sync (wenn auch womöglich mit FW-Update) A-Sync als auch NV-GPU's eine Freesync-Alternative plötzlich unterstützen?
Abgemacht, aber Nvidia muss eine offizielle Presseerklärung mit folgendem sinngemäßen Inhalt herausgeben:
"Die Konkurrenz kanns besser, also geben wir unsre teure Eigenkonstruktion "G-Sync" auf, deaktivieren sie sofort und unwiderruflich treiber- und hardwareseitig, und bieten AS (mit Werbeeinblendung "brought to you by AMD" beim Wechsel in den 3D-Modus) ab unserer kommenden Grafikkartenserie, beginnend mit der günstigen $3000-Einsteigerkarte "TITAN GTX CARBONBLACK 7.0 PRO" für alle Nvidia-Freunde an"
Tja ist ja alles gut und schön bloß ist bei den angekündigten Modellen schon wieder nix tolles dabei. Entweder falsches Panel, falsche Auflösung oder keine 144Hz und alle samt sind zu klein.
Warum bitte kein 32" 16:9 (bzw. 40" 21:9) WQHD (UHD) mit IPS oder VA, 144Hz und einer der Sync Technologien (welche ist mir persönlich egal solange es ordentlich funktioniert). Dafür zahle ich auch ungesehen 5000€, aber auf so was werde ich wohl warten dürfen bis ich schwarz werde. Immer diese Mini Monitore ist doch echt zum kotzen.
1 Jahr nach der Listung des ersten Monitors kann man schon was erwarten, finde ich. G-Sync war und ist teuer. Und der Preis eines Geräts sinkt nach Markteinführung normalerweise am stärksten, die Phase hat G-Sync hinter und AS vor sich.
Solange es keine Alternative zu G-Sync gibt wird es so teuer bleiben. Das gilt ganz allgemein für jegliche technischen Geräte und Errungenschaften. Das ist nichts Nvidia-spezielles.