News Nvidia G-Sync und 3D Vision nicht simultan möglich

tic-tac-toe-x-o schrieb:
Und trotzdem muss ich keine 200 Euro drauf zahlen, wo ein TN Monitor dann 400-600 Euro kostet. (Laut Geizhals.at liegts bei 530 im Moment).

Woher eigentlich die Gewissheit, dass es 200 Euro kosten wird?
Nvidia entwickelt zusammen mit den Monitorherstellern ja auch einen Asic. Das was bisher so teuer war war der FPGA.
 
Erstmal Danke für den Bericht, thumbs up!

Für uns 3D Visionäre ists ein Tiefschlag, leider, aber gut zu wissen.
Dann kann man seine bisherigen 3D Vision Monis beruhigt behalten.

Alle anderen Meinungen und Irrmeinungen zu 3D Vision, der völlig unpässliche Vergleich Kino 3D vs 3D Vision, Möglichkeiten für Brillenträger (Shutterclip) .... und vieles mehr ... steht alles in meiner Signatur.

Hier kann @ 3D Vision bei Interesse nachgelesen werden.
 
smilefaker schrieb:
Bei AMD wird man auch einen neuen Monitor brauchen, damit das brauchbar funktioniert.
Du hast also eine Quelle das bisherige Monitore nicht über den passenden Scaler verfügen?
Waro hat in dem Zusammenhang natürlich recht, schlicht und einfach Blödsinn.:rolleyes:
Also G-Sync ist keine Totgeburt, obwohl es im Grunde nur für testseiten ein paar Exemplare gab, das Umbaukit kein Verkaufsschlager war, Asus der einzige Hersteller mit einem Monitor im Portfolio ist, der nicht mal lieferbar ist und die anderen sich nicht mal die Mühe eine Produktbezeichnung zu veröffentlichen und hüllen sich in Schweigen.


das hätte jeder 0815 Informatiker auch tun können.
Nvidia hat es nicht hinbekommen...
 
dexplus schrieb:
Quelle? Du kannst doch gar nicht wissen, wie lange AMD an FreeSync gearbeitet hat.

Ich bezweifele, dass AMD die FreeSync-Technik, nach der Ankündigung von G-Sync, innerhalb von 2 Monaten einfach aus dem Boden hätte stampfen können.

CB-Artikel -> https://www.computerbase.de/2014-01/amd-zeigt-g-sync-alternative-namens-freesync/ letzter Absatz.

Im Oktober des Vorjahres wurde G-Sync erwähnt und im Dezember von CB getestet. Der Freesync-Artikel ist vom Januar.

Man kann also vermuten, dass AMD sich das - salopp formuliert - mal kurz in der Frühstückspause ausgedacht und ne notdürftige Demo zusammengeschustert hat, die aber lediglich V-Sync@30fps und FreeSync@50fps zeigt. Also nicht das gleiche was G-Sync macht.

Die Demo lief auf Notebookhardware weil man zwar theoretisch über das VBLANK Handwerkszeug verfügt, es die Monitorhersteller aber nicht für nötig hielten sowas in die Desktopmonitor einzubauen, sondern nur in Notebookbildschirme um Energie beim Bildaufbau zu sparen. Ne neue Technik musste AMD also gar nicht aus dem Boden stampfen, sondern bloß vorhandene Funktionen, bzw. Standards "zweckentfremden".
 
Jap, Vaporsync existiert nichtmal auf dem Papiert. G-Sync dagegen konnte schon von hunderten Leuten ausprobiert und von einigen erworben werden.

Und trotzdem meinen AMD Mitarbeiter in Internetforum über Vaporsync zu schreiben als wenn es real vorhanden wäre. Nervt nur noch. Vielleicht sollte diese Menschen erstmal warten, bis es überhaupt irgendwas davon zu sehen gibt. Alles andere ist lächerlich und mehr virales Marketing und Propaganda.
 
Ich frage mich persönlich in jedem G-Sync oer Freesync Thread, warum es nötig ist sich über so viele ungelegte Eier sich die Köpfe so einzuschlagen. Ist ja schlimmer als bei den Grafikkarten selbst.

Bis vor kurzem war man sich noch sicher, 3D und G-Sync läuft gleichzeitig, und nun plötzlich doch nicht...also war das ganze gebashe im Vorfeld für die Katz.

Lasst doch beide Techniken mal Marktreif werden, wo liegt das Problem? Beide haben ihr Pro und Cons...selten sieht man eine solche verbissenheit der Firmenzugehörigkeit wie hier.
 
@LZ: Halt Dir doch mal grad bitte selbst den Spiegel vor, ist ja nicht mehr auszuhalten. Echt jetzt.

Freesync ist, sofern es wirklich funktioniert und zumal es jetzt wohl tatsächlich im VESA-Standard integriert ist/wird, eine tolle Sache, ich weiß gar nicht, warum man das so zerreden muss. G-Sync hingegen ist das, was man von nVidia gewohnt ist, proprietär bis ins Letzte - und in diesem Fall wohl wie auch schon PhysX eher eine Totgeburt beziehungsweise ein Nischenprodukt. Mehr nicht.

Reality bites, huh? ;)
 
Sagt mal, ist euch allen der Lüfter von den Grafikkarten um die Ohren geflogen?
Was ist denn das für ne "Diskussion" hier.

Bomben schmeissen?

Nein, mehr kann ich dazu nicht sagen :mad:
 
Iscaran schrieb:
Allgemein mit Polfilter sollte 3D + x-Sync durchaus funktionieren

Absolut richtig und trotzdem anscheinend von fast jedem überlesen.

Wir haben gerade die Entwicklung, dass 4K-Monitore herauskommen und die Einstiegspreise bereits auf 600 € gepurzelt sind, was sich zügig fortsetzen wird. Das schreit geradezu nach 3D-4K-Monitoren auf Basis der Polfiltertechnik, wo die halbierte vertikale Auflösung nahezu irrelevant wird.

Bei TV-Geräten kann man ohnehin davon ausgehen, dass die meisten neuen Passiv-3D-Geräte mit HDMI 2.0 3D bei 4K-Auflösung in 60 Hz können werden, und da hoffe ich sehr auf FreeSync im VESA-Standard, weil man die Hersteller anders wohl kaum von variablen Framerates überzeugen kann.
 
PiPaPa schrieb:
Du hast also eine Quelle das bisherige Monitore nicht über den passenden Scaler verfügen?

Also G-Sync ist keine Totgeburt, obwohl es im Grunde nur für testseiten ein paar Exemplare gab, das Umbaukit kein Verkaufsschlager war, Asus der einzige Hersteller mit einem Monitor im Portfolio ist, der nicht mal lieferbar ist und die anderen sich nicht mal die Mühe eine Produktbezeichnung zu veröffentlichen und hüllen sich in Schweigen.



Nvidia hat es nicht hinbekommen...


für dich gilt auch nur eins ? und das ist "deine" meinung ....
mal alle post leicht überflogen von dir :evillol:
 
Suma schrieb:
Wenn ich mir angucke, wie 3Ds im Kino oder auf dem Fernseher teilweise aussieht, dann will man auch gar nicht in 3D zocken

Der 3D Effekt im Kino & TV ist sehr schwach! Das muss (leider) so sein damit alle Zuschauer damit klarkommen. Der Effekt richtet sich quasi nach demjenigen mit der schlechtesten Stereopsis. Auf manche Spiele trifft das ebenfalls zu: Metro 2033/Last light hat serienmäßig eine feste 3D Einstellung die m.M.n falsch ist. Man kann es aber unlocken und tweaken, was allerdings etwas Erfahrung benötigt.

---------

3D Vision Discover (Anaglyph 3D) sollte eigentlich mit G-Sync funktionieren weil es die Frames nicht halbiert.
 
Und wie schaut's in Kombination mit mehreren Displays aus? Wenn man schon über 3D Vision redet könnte man auch Surround erwähnen, das ist ein ähnliches Nieschenprodukt.
 
SchmuseTigger schrieb:
Wenn Occulus Rift raus kommt wird sich das ändern. Und dann braucht man auch kein G-Sync sondern ein Rift auf der Birne :)

Ich denke nicht das die Zahlen von Occulus Rift viel höher sein werden als die von diversen 3D Techniken, aufgrund der Brille ist es für viele ein No go. Bei Occulus kommt dazu das dort die Brille um ein vielfaches größer und schwerer ist und für viele ist auch der Kauf durch facebook abschreckend. Denke zwar schon das sich Occulus gut verkaufen wird aber der Markt wird trotzdem eine Nische bleiben und nicht Mainstream werden vermute ich, kann mich aber natürlich auch irren wir werden sehen.
 
Mikey158 schrieb:
Denke mal, dass das ganze G-Sync Dingens nicht unbedingt ein Durchbruch sein wird, da man ja einen G-Sync Monitor braucht. Kostet wieder einen Haufen und AMD macht das wieder anders. Bei AMD brauche ich mir keinen neuen Monitor kaufen!

Aber freue mich schon auf einen Test seitens CB.

Nein, du brauchst keinen neuen Monitor. Selbst wenn er es, wie der Großteil der Monitore, nicht unterstützt, wird es selbstverständlich ein kostenfreies Update seitens des Herstellers sogar für mehrere Jahre alte Modelle geben. Schließlich ist jeder Monitor so konzipiert worden, dass desses Software vom User selber aktualisiert werden kann. Mit Sicherheit werden sich die Hersteller auch ein kräftiges Kaufargument mit kostenlosen Updates selber zerstören. Schließlich handelt kein Unternehmen gewinnorientiert, sondern im Sinne des Kunden, welcher alles natürlich kostenlos haben will. Geiz ist schließlich Geil.

So, muss ich noch einen Ironie-Tag setzten?

eXtra schrieb:
Ist irgendwie schon lustig im Moment. Nvidia kündigt irgendwas an und kurz darauf kontert AMD mit einer besseren und günstigeren Lösung. Ist jetzt so mit G-Sync (AMD: FreeSync) und der GTX Titan Z (AMD: R9 295X2) passiert. Wenn aber AMD mit was neuem daherkommt, dann kann Nvidia nur mit einem mehr schlecht als rechten Konter dagegenhalten (Mantle --> Nvidia's "Wundertreiber").

Hast du G-Sync und FreeSync denn schon mit eigenen Augen gesehen. Nein? Wie willst du nun also belegen, dass FreeSync die bessere Lösung ist? Technisch gesehen ist G-Sync besser. Und G-Sync ist also auch teurer als ein Produkt, das noch nicht einmal verfügbar ist? Logisch. Wer sagt dir, dass ein Monitor, der FreeSync unterstützt, billiger als ein G-Sync-fähiger Monitor wird?

FreeSync hat noch nicht einmal bewiesen, dass es die Frequenz des Monitors dynamisch regeln kann. Die Präsentation lief schließlich mit fixen Hz und FPS, währen die G-Sync-Präsentationen stets mit schwankenden FPS und Hz liefen.

Aber scheinbar ist es momentan "cool", alle Nvidia-Entwicklungen schlecht zu reden, weil sie ja alle böse, teuer und proprietär sind. Schließlich ist es eine Sauerei, dass ein Unternehmen Eigenentwicklungen nicht einfach für die Konkurrenz öffnet, sondern sie dazu nutzt, um Kaufanreize für die eigenen Produkte zu schaffen.
 
iHabAhnung schrieb:
Aber scheinbar ist es momentan "cool", alle Nvidia-Entwicklungen schlecht zu reden, weil sie ja alle böse, teuer und proprietär sind. Schließlich ist es eine Sauerei, dass ein Unternehmen Eigenentwicklungen nicht einfach für die Konkurrenz öffnet, sondern sie dazu nutzt, um Kaufanreize für die eigenen Produkte zu schaffen.

Haha, was für eine Aussage und das auch noch von "iHabAhnung", 100% Nvidafanboy. Wenn ich deine ständigen, miesen Aussagen über AMD Entwicklungen lesen muß, ist das doch auch cool von dir oder?
 
Ich hab mich kritisch über AMD Mantle geäußert. Das war alles. Und ich halte es bis heute für eine Fehlentwicklung, die ab DX12 wieder weg ist. Aber genug OT.
 
Technisch könnte man das Ganze problemlos kompatibel machen.
Ich denke eher für nVidia hat sich 3D Vision mittlerweile erledigt.
Es war einfach ein Flop und nVidia will kein weiteres Geld mehr dafür investieren.
 
Ich denke da hat sich Nvidia mit den falschen angelegt: Der Bildschirmindustrie. Während AMD ihnen bereitwillig die Bauanleitung für Freesync gibt ist Nvidia bockig. Eigentlich seltsam, sonst schmücken sie sich doch immer damit den (Software-)entwicklern unter die Arme zu greifen. AMD wird dann eine Marktdurchdringung von nahezu 100% erreichen, und Gsync wird ein teuers Extra. Wer hat wohl mehr Marktchancen?
Da das mit dem VESA-Standard noch dauert wird die erste Rift wohl kein Freesync unterstützen. Das ist dann gleich ein toller PR-Grund für ein Update auf die Rift 2.0. Wetten?
 
marco_f schrieb:
Während AMD ihnen bereitwillig die Bauanleitung für Freesync gibt ist Nvidia bockig.

Oh bitte. Lies dich mal ins Thema ein. Bin bei stupiden Aussagen ja mittlerweile relativ schmerzfrei, aber manchmal auch nicht.

Die Monitorhersteller brauchen keine "Bauanleitung" für FreeSync. Das einzige was sie tun müssen ist ein Stück Hardware in Desktopmonitoren zu verbauen, welches sie bereits seit zig Jahren in Notebookdisplays verbauen. Oder warum hat wohl die FreeSync Demo auf einem ganz normalen Notebook funktioniert? Weil AMD sich extra eins nach der eigenen"Bauanleitung" hat bauen lassen?

FreeSync ist ein Name für eine von AMD erdachte Technik, die es ermöglicht die VBLANK-Funktion, die eigentlich zum Strom sparen bei Notebooks gedacht war, für die Manipulation der Refresh-Rate des Monitors zu nutzen. Und zwar als Reaktion auf G-Sync. Nicht mher und nicht weniger. Was am Ende besser ist, bzw. ob G-Sync den zwangsläufig anfallenden Aufpreis gegenüber FreeSync rechtfertigt werden wir sehen wenn beides da ist.
 
CD schrieb:
Und wie schaut's in Kombination mit mehreren Displays aus? Wenn man schon über 3D Vision redet könnte man auch Surround erwähnen, das ist ein ähnliches Nieschenprodukt.

Kann man im Moment nur darüber spekulieren. Aber mit einem Surround Display Setup dürfte G-Sync auch mehr Probleme haben als FreeSync. Nicht dass es nicht ginge, aber wenn die Monitore aufgrund ihrer Zwischenspeicher unabhängig von der Grafikkarte entscheiden wann sie zum nächsten Frame wechseln, dann entsteht dabei der Eindruck eines vertikalen Tearing zwischen den Monitoren wenn diese nicht gleichzeitig wechseln.

Bei FreeSync wäre es immerhin technisch denkbar, dass die GPU beide Monitore miteinander synchronisiert. Im Falle von unterschiedlichen maximalen VBLANK Zeiten würde die GPU vermutlich einfach die kürzeste davon für beide wählen.
 
Zurück
Oben