News Nvidia G-Sync und 3D Vision nicht simultan möglich

Waro245 schrieb:
Was ein Blödsinn, und der Quatsch mit Mantle hat hier gar nichts verloren.



Sicher doch, kann mir nichts bequemeres vorstellen.

Zum Thema: Ist doch nichts neues? Zumindest für mich, und damit wohl jeden der sich mit G-Sync auseinandergesetzt hat.


Geh mal in den anderen Thread bezg. FreeSync und G-Sync - dann wirst du feststellen WARUM er das erwähnt, und kein Blödsinn ist.....
 
Zuletzt bearbeitet:
... ich wette, dass das mal wieder eine halb-funzende Lösung darstellen wird, bei der man das Vsync + TrippelBuffer dann doch aktivieren muss, da es immer noch leichtes Tearing geben wird. Wie es ja auch schon bei der 120hz-Technik oder dem Adaptiven VSync der Fall war. Nvidia + AMD sind nicht dämlich genug, um ihren eigenen Hardwareverkäufen zu schaden...
 
Muss nicht sein.wenn der Monitor schon Vblank unterstützt.falls es VESA STANDARD wird dann haben in Zukunft das auch alle Monitore.und bei manchen kann man es (voraussichtlich) per Firmware updaten.
 
Gott und schon fängt wieder das gebashe an.

Fakt ist doch ohne den Gsync Vorstoß wäre AMD nie auf Freesync gekommen und auch für Freesync wird man einen Monitor benötigen der das unterstützt. Ich denke auch nicht dass die Monitorhersteller die Monitore die das heute schon könnten updaten.

Lasst die Leute doch mal machen, wir werden schon sehen wer am Ende die Nase vorne hat eventuell setzt sich beides nicht durch.
 
PiPaPa schrieb:
Also ne Totgeburt wie GPU PhysX. Aber gleich kommt das Argument mantle sei auch eine Totgeburt, weil irgendwann ein megatolles DX12 kommt das alles revolutioniert.

GPU PhysX eine Totgeburt? Na ja, nicht wirklich. Technisch ist das ganze, bis hin zur Rauch und Fluid-Simulation, sehr gut. Der einzige Nachteil ist die Beschränkung auf Nvidia-Karten, was aber anscheinend keinen technischen Hintergrund hat. Die Implementierung von PhysX in Witcher 3 läuft z.B. auch auf GCN ohne Probleme. Nach Aussage der Entwickler liegt es allein an Nividia, ob es bei der finalen Version auch so sein wird, denn technisch spricht nichts dagegen. Das ist das einzig ärgerliche daran.

Und ja, DX12 ist Mantle vorzuziehen, aus dem gleichen Grund wie auch FreeSync G-Sync vorzuziehen ist... und ein PhysX ohne künstliche Beschränkung auf Nvidia wünschenswert wäre. Andererseits kann man es aber einem Unternehmen auch nicht übel nehmen, wenn es Vorteile aus eigenen Entwicklungen ziehen will bzw. Technologien entwickelt, mit denen es sich von der Konkurrenz absetzen kann.
 
Zuletzt bearbeitet:
Mikey158 schrieb:
Muss nicht sein.wenn der Monitor schon Vblank unterstützt.
Vblank kann meiner auch, das kann jeder der 1920x1200 über DVI anzeigen kann.
aber FreeSync unterstützt er trotzdem nicht.
Ergänzung ()

Dai6oro schrieb:
auch für Freesync wird man einen Monitor benötigen der das unterstützt.
nicht bei notebooks.
 
Iscaran schrieb:
Wenn du Brillenträger bist hat alles einen "miesen" 3D Effekt. Bedingt durch die doppelte Lichtbrechung an 2 Plastick bzw. Glasscheibchen (die auch noch unterschiedlich gekrümmt sind) auf der Nase des Trägers.

Wenn dann bräuchte man spezifisch auf die Augendefekte angepasste Shutterbrille oder 3D-Polarisationsbrillen mit Sehstärke integriert - selbst dann wird aufgrund des wahrnehmbaren Brillenrandes der Effekt gemindert.

3D Vision in der Form wie sie heute existiert ist für (native) Brillenträger einfach nur ein schlechter kompromiss.

Doofe frage, wirklich, aber ich bin nicht Brillenträger aber könnte eine Linse je nach dem nicht gegen diesen Effekt behilflich sein?
 
Waro245 schrieb:
Was ein Blödsinn,
Deine Argumente erschlagen einen

calluna schrieb:
GPU PhysX eine Totgeburt? Na ja, nicht wirklich.
Ach nein? Seit nvidias Übernahme gibt es wieviele GPU PhysX Spiele? Und wieviele erscheinen jährlich? Da kommt quasi nichts.
Der einzige Nachteil ist die Beschränkung auf Nvidia-Karten, was aber anscheinend keinen technischen Hintergrund hat.
Nein, sondern weil nvidia das nicht will, selbst wenn eine AMD Karte für die Grafikberechnung und eine nvidia Karte für PhysX verbaut ist, verbietet das nvidia indem sie es einfach per Treibererkennung deaktivieren. Aus reiner Willkür, denn Treiberhacks beweisen das es problemlos läuft.

Die Implementierung von PhysX in Witcher 3 läuft z.B. auch auf GCN ohne Probleme. Nach Aussage der Entwickler liegt es allein an Nividia, ob es bei der finalen Version auch so sein wird, denn technisch spricht nichts dagegen. Das ist das einzig ärgerliche daran.
Wenn in Witcher 3 GPU PhysX Anwendung findet, dann läuft es nur auf nvidia GPUs. CPU PhysX hat nichts mit der verwendete Grafikkarte zu tun, dann "läuft" es auch "mit" AMD Karten. Nur das dann die Hälfte der Effekte fehlt und es mit einem schlampigen CPU Code berechnet wird, der nicht mal MultiCore fähig ist. Das hat rein gar nichts mit mit GPU PhysX zu tun.
Und ja, DX12 ist Mantle vorzuziehen, aus dem gleichen Grund wie auch FreeSync G-Sync vorzuziehen ist... und ein PhysX ohne künstliche Beschränkung auf Nvidia wünschenswert wäre.
DX12 ist bisher ne Powerpoint Folie, sonst nichts vorzeigbares. Der CPU Overhead könnte reduziert werden. Was wirklich bei den Diagrammen rauskommt wird sich zeigen. Und wenn nvidia wollte könnten sie auch Mantle unterstützen, machen sie aber nicht.
Andererseits kann man es aber einem Unternehmen auch nicht übel nehmen, wenn es Vorteile aus eigenen Entwicklungen ziehen will bzw. Technologien entwickelt, mit denen es sich von der Konkurrenz absetzen kann.
Nein, ich verübel ihnen das nicht. Es ist keine persönliche Sache, aber ich muss so einen proprietären Rotz nicht noch unterstüzten, und die sich dann auch noch erdreisten Features wie PhysX zu deaktiveren, nur weil eine weitere GPU im System ist, welche von der Konkurrenz ist.
Aber alles was nvidia macht wird von den üblichen Verdächtigen verteidigt, schön geredet.
 
@strubo0

Ja. Ich trage deswegen auch lieber Kontaktlinsen, weil unabhängig von den Beeinträchtigungen etwa bei 3D Brillen allgemein das Sehen natürlicher ist als mit einer Brille - aber nicht jeder verträgt Kontaktlinsen.

@PiPaPa

Ich weiß das PhysX auch auf der CPU laufen kann... aber davon habe ich doch offensichtlich nicht geschrieben! Die Witcher 3 Entwickler haben von GPU PhysX auf AMD Grafikkarten gesprochen und dass dies ohne Probleme funktioniert, dass es einzig nur davon abhängt, ob Nvidia dies für die finale Version des Spiel auch erlaubt oder eben nicht.

Davon abgesehen sind neuere Versionen von PhysX auf CPUs multicore fähig.
 
Zuletzt bearbeitet:
SchmuseTigger schrieb:
Sollte ein Hersteller ein 120/144hz IPS auf den Markt werfen das dann auch eine annehmbare Latency hat, haben die sicher kein Problem damit das >100€ Modul rein zu packen und ihn als G-Sync Pro Gamer Monitor zu verkaufen.

Doch die werden damit ein Problem haben, weil das G-Sync-Modul in der aktuellen Version nur LVDS Support hat. Bei ordentlichen Panels wird man aber auf V-by-One HS und nicht auf LVDS setzen.
 
calluna schrieb:
Die Witcher 3 Entwickler haben von GPU PhysX auf AMD Grafikkarten gesprochen und dass dies ohne Probleme funktioniert, dass es einzig nur davon abhängt, ob Nvidia dies für die finale Version des Spiel auch erlaubt oder eben nicht.
Diese Aussage der Entwickler ist.... lächerlich. Wenn nvidia es erlaubt... Nicht nur das nvidia es in ihrer Software erlauben müsste, nein AMD müsste auch erstmal einen passenden Treiber dafür haben und Zugang zu den Information wie was und wo angesprochen wird. Und wie hoch stehen wohl die Chancen das nvidia das erlauben würde? Sorry, das ist eine absolut blödsinnige Aussage.
Genauso wie dieses Märchen das nvidia AMD eine PhysX Lizensierung angeboten hätte, die auch immer wieder hervorgeholt wird.

Davon abgesehen sind neuere Versionen von PhysX auf CPUs multicore fähig.
Ohja, die MC Qualität spricht Bände...
 
3D? Ich muss kotzen so schlecht sieht das jedes mal aus. Filme die in Kinos nur in 3D gibt werden vermieden, egal wie gut die Filme an sich eigentlich sind.
Mit einem Nvidia Logo drauf wird alles leider nicht viel besser.
 
Zuletzt bearbeitet:
Ja. Ich trage deswegen auch lieber Kontaktlinsen, weil unabhängig von den Beeinträchtigungen etwa bei 3D Brillen allgemein das Sehen natürlicher ist als mit einer Brille - aber nicht jeder verträgt Kontaktlinsen.

Ja exakt. Wobei es dennoch sein kann dass wegen den "Linsenkorrektureffekte" - die 3D Wirkung z.T. nicht richtig wirkt bzw. "aufgehoben" wird oder Nebeneffekte auftreten.

Bei Brillenträgern ist meiner Ansicht nach (trage Brille) am nervigsten dieser nahezu immer vorliegende "doppelrand" von Gegenständen - das wirkt insgesamt dann so unnatürlich das man lieber auf den 3D effekt verzichtet.

Btw. ~30% der 20-30 Jährigen in D sind Brillenträger - insgesamt fast 66% der Bürger in D sind Brillen/-Kontaktlinsenträger.

Allerdings finden nicht alle Brillenträger diese nebeneffekte bei 3D als störung so wie ich - der viel mit Schauen auf Bildschirme zu tun hat und da etwas "empfindlicher" reagiert.

Allgemein mit Polfilter sollte 3D + x-Sync durchaus funktionieren - mit shutter nur wenn die Brillen gesynced zu den blank signalen sind.

Ansonsten bin ich mal gespannt wenn es endlich infos/tests zu Freesync UND G-Sync gibt - aber auch ich denke der Aufpreis bei G-Sync + der gravierende Nachteil dass es für nur TN-Panele rauskommt....naja 2014 hätte ich schon gehofft dass man langsam flächendeckend auf IPS setzt.
Die Bildqualität im vgl. mit TN ist einfach soviel mehr wert als der bisschen mehrwert durch das Sync...

Noch dazu bei DEM aufpreis. Aber warten wir mal die Tests ab.
 
3D Vision interessiert mich zwar nicht, aber schmunzeln musste ich bei dem Eingeständnis schon ein wenig, denn die Inkompatibilität ist vermutlich darauf zurückzuführen, dass die Grafikkarte das Steuern der Bildwiederholfrequenz dem G-Sync Modul im Monitor überlässt und daher nicht weiß, wann sie das Umschalt-Signal an die 3D-Brille senden müsste.

Bei FreeSync, wo die Grafikkarte die vollständige Kontrolle über die Bildwiederholrate übernimmt, könnte sie auch die Brille mit dieser Information ansteuern. Wäre hier also ein Vorteil für AMD's Ansatz.

Disclaimer: Ich bin weder Nvidia- noch AMD-Fan. Habe selbst derzeit eine 780 GTX und würde mir wünschen, dass Nvidia auch FreeSync unterstützen würde.
 
Solange man die Shutterbrille nicht synchron zu den unterschiedlichen Intervallen durch G-Sync/FreeSync bekommt, kann das nicht funktionieren. Wer sinnvolles 3D haben will, soll sich eine
NeoTiger schrieb:
Habe selbst derzeit eine 780 GTX und würde mir wünschen, dass Nvidia auch FreeSync unterstützen würde.
Wenn FreeSync zum VESA Standard inkludiert wird, werden auch Nvidia GPUs das unterstützen wenn die den VESA Standard erfüllen wollen. Da zudem die Technik wohl sehr ähnlich ist (bei G-Sync ist wohl lediglich noch ein Bildpufferspeicher mehr dabei, als bei Freesync) wird das wohl auch der Fall sein, dass du dann mit deiner 780GTX dir dann aussuchen kannst, welchen Bildschirm du kaufst. Aber glaube nicht, dass die Monitorhersteller den technischen Aufwand für FreeSync kostenlos anbieten, das wird wohl genauso mit einem (wohl geringerem) Aufpreis verbunden sein, als G-Sync.
Es müssen nur erstmal Monitore auf den Markt kommen.

Vielleicht hat ja der der Nachfolger vom Eizo Fortris dann auch eine der beiden Techniken an Board und vor allem eine höhere Auflösung, dann würde ich wohl auch mal wieder einen Monitor kaufen.
 
Dai6oro schrieb:
Fakt ist doch ohne den Gsync Vorstoß wäre AMD nie auf Freesync gekommen [..]
Quelle? Du kannst doch gar nicht wissen, wie lange AMD an FreeSync gearbeitet hat.

Ich bezweifele, dass AMD die FreeSync-Technik, nach der Ankündigung von G-Sync, innerhalb von 2 Monaten einfach aus dem Boden hätte stampfen können.
 
Ich weiss zwar nicht was wirklich aus dem Occulus Rift Projekt entstehen wird, aber Nvidia Vision ist hochgekochtes schon da gewesenes, die Shutter Technologie ist nun wirklich nichts neues und bei mir bereitet sie nach gewisser Zeit Kopfschmerzen bzw. mir brummt der Schädel von dem geflimmer. Da muss besseres kommen oder die Herzzahl muss deutlich hoch damit der Effekt nicht mehr eintritt. Ich glaube das Gsync nichts weiter ist um ein Produkt besser an den Mann zu bringen sowohl Monitore als auch Grafikkarten.
 
PiPaPa schrieb:
Deine Argumente erschlagen einen

Bei AMD wird man auch einen neuen Monitor brauchen, damit das brauchbar funktioniert.
Ihr übertreibt es ja jetzt gewaltig mit der AMD Propaganda in diesem Thread.

Waro hat in dem Zusammenhang natürlich recht, schlicht und einfach Blödsinn.:rolleyes:

dexplus schrieb:
Ich bezweifele, dass AMD die FreeSync-Technik, nach der Ankündigung von G-Sync, innerhalb von 2 Monaten einfach aus dem Boden hätte stampfen können.

Was heißt da aus dem Boden stampfen?

Man hat eine Präsentation gezeigt in der man VBlank nutzte, dazu braucht man keine Entwicklung, das hätte jeder 0815 Informatiker auch tun können.
 
Zuletzt bearbeitet:
smilefaker schrieb:
Bei AMD wird man auch einen neuen Monitor brauchen, damit das brauchbar funktioniert.

Und trotzdem muss ich keine 200 Euro drauf zahlen, wo ein TN Monitor dann 400-600 Euro kostet. :D (Laut Geizhals.at liegts bei 530 im Moment).

Das Modul wird fehlen. Und Nvidiafanboy Aufschlag wird auch fehlen. :)
 
SavageSkull schrieb:
Solange man die Shutterbrille nicht synchron zu den unterschiedlichen Intervallen durch G-Sync/FreeSync bekommt, kann das nicht funktionieren.
Shutterbrillen können generell mit variabler Refreshrate angesteuert werden. Sie müssen ja sowohl 60, 120 und 144 Hz beherrschen. In der Regel richtet sich die Brille exakt nach dem Infrarot-Steuersignal des Senders.

Wenn FreeSync zum VESA Standard inkludiert wird, werden auch Nvidia GPUs das unterstützen wenn die den VESA Standard erfüllen wollen. Da zudem die Technik wohl sehr ähnlich ist (bei G-Sync ist wohl lediglich noch ein Bildpufferspeicher mehr dabei, als bei Freesync) wird das wohl auch der Fall sein, dass du dann mit deiner 780GTX dir dann aussuchen kannst, welchen Bildschirm du kaufst.
Ich hoffe zwar, dass du recht hast, aber dass FreeSync im DisplayPort standardisiert ist, heißt lediglich, dass ein entsprechender Monitor es können muss - aber nicht, dass auch die Grafikkarte bzw. der Treiber es nutzen muss. Und Nvidia ist leider durchaus zuzutrauen, dass sie es aus geschäftlichen Überlegungen nicht unterstützen werden um ihr eigenes G-Sync zu vermarkten.

Aber glaube nicht, dass die Monitorhersteller den technischen Aufwand für FreeSync kostenlos anbieten, das wird wohl genauso mit einem (wohl geringerem) Aufpreis verbunden sein, als G-Sync.
Die Monitorhersteller hätten dann aber im Gegensatz zu G-Sync, welches lediglich eine externe Option ist, dann das Problem ihre Monitore nicht mehr als kompatibel zum aktuellsten DisplayPort-Standard vermarkten zu können. Diese Blöße werden sie sich kaum geben wollen. Und da die Modifikation im Scaler - die ja anders als bei G-Sync immerhin keine zusätzlichen Speicherchips oder Linzenzgebühren benötigt - damit bald in großer Serie gebaut werden wird, werden die Mehrkosten vermutlich bald in den allgemeinen Kosten für Monitore untergehen. Oder hast du das Gefühl heute noch etwas "extra" für Dual Link DVI oder LED-Backlight bezahlen zu müssen?
Ergänzung ()

smilefaker schrieb:
Man hat eine Präsentation gezeigt in der man VBlank nutzte, dazu braucht man keine Entwicklung, das hätte jeder 0815 Informatiker auch tun können.

Ganz so einfach ist es nicht. "Variable VBLANK" können wirklich viele Monitore tatsächlich nicht von Haus aus. Es war zwar schon länger im VESA Standard, aber halt nicht verpflichtend gewesen. AMD spekuliert zwar, dass viele Monitorhersteller es per Firmware-Update nachrüsten können, aber da wäre ja ein Monitorhersteller ganz schön blöde, wenn er stattdessen auch ein neues Modell verkaufen könnte (denk' einfach an Telekom und Fastpath).

Man wird sich bestimmt neue Monitore kaufen müssen. Aber FreeSync wird definitiv billiger zu implementieren sein, da weder Kosten für Speicherchips noch Lizenzkosten an Nvidia oder AMD anfallen.
 
Zurück
Oben