Leserartikel Nvidia 3D Vision - „Echtes“ 3D - Gimmick oder Gamer Zukunft?

Status
Für weitere Antworten geschlossen.
Wieso sollte er aber das Signal nicht annehmen? Kommen doch nur Daten rein..
Meinst es geht nur maximal 1080P @ 24Hz?
 
Wozu sollte er letzteres machen? Mit Tridef soll der Fernseher doch im 2D Modus bleiben oder nicht? Kann sein dass ich grad etwas verwirrt bin :D

Das Bild Horizontal teilen für 1920*540@60HZ ginge doch sicher auch....?
 
Wozu TriDef wenn man kein 3D will? Das ist doch ein 3D Treiber. In 2D kann man einfach 1920x1080 @ 60Hz einstelen, ganz ohne Zusatz und auch am HDMI.


SideBySide oder TopDown über den triDef würde auch bei 60Hz gehen, ja. Aber irgendwie sah das einfach nicht gut aus als ich das mal probiert hab. Irgendwie hab ich den Eindruck dass der Treiber dann auch die andere Auflösung mit halbiert und nur 960x540 berechnen lässt vom Spiel und eine Richtung verdoppelt für die Ausgabe...
 
Ich meine, ich hatte mal gelesen, dass bei Tridef der Fernseher nicht in den 3D Modus wechselt weil das Bild schon passend ausgegeben wird..

Meine Idee war ja auch nur ein Gedankenspiel.. ;)
 
Hm, ohne dass der TV auf 3D geht steuert er auch die Brillen nicht an. Was aber richtig ist, dass TriDef noch andere Möglichkeiten bietet als nur das Framepacking (das 3DTV Play verwendet). Eben SideBySide oder TopDown. Nur sah das bei mir nicht besonders gut aus. Und wenn ich dann noch die Spielperformance mit einbeziehe bestätigt das meine Befürchtungen mit 920x540 sogar. Dann ist 3D@720p60 Framepacking die bessere Wahl.
 
Durch die GTX 690 kann mir die Performance -hoffentlich- egal sein.
Das TopDown bzw. SidebySide verfahren würde wieder mit HDMI funktionieren oder?
 
Ja, das funktioniert auch mit HDMI. Es wird ja ein "normales" FullHD Bild mit 60Hz übertragen, das in 2 Hälften geteilt wird.

Das mit der Performance war auch eher anders rum gemeint, es lief verdammt gut... zu gut für FullHD. Vermutlich eben weil nur ein Viertel berechnet wird, was schlussendlich weniger ist als die kleine HD Auflösung.
 
Ok, danke für die Infos.
Dann warte ich mal ab bis die Kabel + Grafikkarte ankommen um dann weiter testen zu können. Hatte den ganzen Thread durchgelesen und leider keine Antwort gefunden ( Ok.. Seiten 2-9 hab ich weggelassen..)
 
Jo, 3D TVs sind hier auch eher ein Randthema ;-) Aber einfach mal ausprobieren, ich find das 720p auch noch ganz hübsch aussieht. Der 3D Effekt überwiegt da gegenüber der schlechtere Auflösung. Gemächlichere Spiele kann man auch ganz gut mir 24Hz zocken, da muss man aber mit den Einstellungen aufpassen, blos keinen TrippleBuffer aktivieren.
 
Dann warte ich mal ab bis die Kabel + Grafikkarte ankommen um dann weiter testen zu können. Hatte den ganzen Thread durchgelesen und leider keine Antwort gefunden ( Ok.. Seiten 2-9 hab ich weggelassen..)

Ja, in Sachen 3DTV oder Tridef sollte ein damit Vertrauter bei Gelegenheit mal einen Thread eröffnen.
Hier geht's halt wie dies der threadtitel vermuten lässt primär um 3D Vision.

Ich würde deiner Gtx 690 einen ordentlichen 3D Vision Monitor gönnen, glaub mir, damit fährst du am besten.
 
Ok mal kurz noch mehr Offtopic.
Wollte das "zocken" ins Wohnzimmer verlegen weil es dort einfach gemütlicher ist. :D
Interessiere mich schon länger für 3 D Vision aber irgendwie konnte mich nie dazu durchringen 500€ für Monitor + Brille zu investieren... die GTX690 ist von den sonstigen Investitionen her ein absoluter Ausnahmefall :D

PS: außerdem kriegt die Frau eine neue GPU nicht so schnell mit wie als wenn ich einen neuen Monitor kaufen würde.....:evillol:
 
Jesterfox schrieb:
Die Frage ist ob der TV am VGA-Eingang ein entsprechendes Signal annimmt. Ich würd eher auf nein tippen. Für 1920x1080 120Hz bräuchtest du auch n richtig gutes VGA Kabel damit da nichts verschmiert.

Wieso? Was er meint: ein DVI Kabel von CPU bis zum TV und nur dort einen DL-DVI-I/VGA Adpater. Ein VGA Kabel müsste mehrere 1000€ kosten dass es klappt (und da würde ich eher ein anderes Anzeigegerät holen). Beim Adpater - puh, möglich, es sollte zumindest was qualitatives sein. Ein Problem könnte durchaus die Qualität des (also Transistoren im) VGA Anschluss(es) sein, dass dieser keiner 120Hz erlaubt, hatte deswegen im Handbuch nachgelesen - dazu steht leider nichts. Das spielt für dich aber gar keine Rolle mehr. Das ist einfach ein TV-Monitor: Panel native 1920 x 1080 @ 60 Hz also 120Hz kannst du sowieso vergessen und @ 3D/Shutter hast du max 30Hz/Auge. 1080p 30/60Hz schafft auch HDMI wenn auch nicht offiziell freigegeben, mit deiner Nvidia Karte ist das aber kein Problem (korrektur: 24/Auge ist ja im Frame Packaging Format offiziell freigegeben also 1920x2205p@24Hz 3D - bei HDMi 1.4a). Ich hoffe du hast nicht vor Shooter damit zu Spielen, denn dafür ist der TV sowieso viel zu träge.

Jesterfox schrieb:
Die erste Frage ist ob er bei 120Hz nicht einfach out of sync meldet und die 2. Frage ist ob er beim VGA-Eingang überhaupt auf 3D Umschalten geht.

Würde er 120Hz können, wäre es wie gesagt fraglich obs funktioniert, aber durchaus Wert zu probieren. Auf 3D umschalten hingegen würde bei solch einer Konstellation was ich bisher so gelesen hab sicher funktionieren. Nur bleibt das jetzt alles Theorie.
 
Zuletzt bearbeitet:
Dafür bräuchte man aber einen aktiven Wandler von DVI auf VGA, gibts sowas überhaupt? Und dann ist noch die Frage was der für ne Qualität liefert und ob er 120Hz kann.

Ich spiel alles auf meinem TV, auch Shooter. Für 3D geh ich dann aber eben auf 720p. Da ich kein Profigamer bin stört mich das bissl Inputlag vom TV nicht.
 
Wieso aktiven Wandler? DVI-I da wird das DVI-D wie DVI-A (also auch das Analoge) Signal übertragen und du braucht nur nen Adapter, der die Pins entsprechend umleitet. Sowas liegt/lag bei manchen Monitoren sogar dabei. Allerdings nicht für Dual Link und k.A. ob es in anbetracht dessen noch so einfach wäre. Für 1080p 120Hz kann es trotz der kurzen Strecke zudem sein (wie bereits erwähnt), dass bei einem weniger qualitativen Adapter das Signal noch/auch recht verlustbehaftet ist.

Ich meinte einerseits speziell seinen Fernseher, andererseits kommt es nicht nur auf den Input Lag an (den ich wie viele andere durchaus wahrneme(n)) sondern auf Ghosting bedingt durch hohe Latenzen.
 
Und welchen Unterschied soll es dann machen ob das jetzt ein DVI-I Kabel oder ein VGA-Kabel ist? (Außer das DIV-I Kabel extrem selten sind, damit kann man nämlich nicht einfach einen handelsüblichen TFT per DVI anstewcken da sie nicht zu deren DVI-D Buchsen kompatibel sind). Die Übertragung ist in beiden Fällen analog und somit anfällig auf Störungen und Übersprechen. 1000€ muss so ein kabel nicht kosten, aber in beiden Fällen bräuchte man schon ein gutes doppelt geschirmtes.
 
Naja das 1000€ meinte ich wegen des nötigen Materials, um wirklich verlustfrei arbeiten zu können. Aber wenn man mit geringem Verlust leben kann reicht auch wie du sagst ein gut abgeschirmtes Kabel, vor allem da man gegen die D/A Wandler in GPU/TV eh nichts machen kann. DL-DVI-I weil das bereits gut abgeschirmt sein muss, da mehr gefragt günstiger als gleichwertig qualitative VGA Kabel und man infolge auch flexibler wäre. Allerdings nur mit Adaptern - mit rein einem qualitativen VGA Kabel wäre man sicher besser bedient, aber die GTX 690 hat keinen VGA-Ausgang mehr. Das hilft ihm jetzt eh nicht mehr - wenn er mit 30/Auge leben kann ist HDMI sicher die beste Wahl.
 
DVI-I Kabel sind wie gesagt eh schon extrem selten (das meiste ist DVI-D da man wie gesagt an handelsübliche Monitore nichts anderes anstecken kann) und diejenigen die ich mal in der Hand hatte erweckten nicht den Eindruck als hätten sie einzeln geschirmte Adern. Wobei man dann wohl ne Rohrzange zum Formen bräuchte und Biegeradien beachten müsste ;-)

Die Shutterfrequenz ist ja unabhängig von der Einspeisung trotzdem bei 120Hz, das machen die TVs zum Glück "richtig". Ansonsten wäre 24/30 Hz nicht benutzbar. So ist es nur für schnelle Spiele zu träge.
 
So selten nun auch nicht, Clicktronic z.B. (mit 3facher Abschirmung) ist jetzt weiß gott nicht das beste, sollte aber reichen. Auch sonst gibt es genug auf Amazon und erst recht im Fachhandel - sicher wird man so was nicht beim Libro & Co finden. Und da braucht man keine Rohrzange, gewisse Biegeradien muss man natürlich beachten, damit hatte ich aber noch nie ein Problem.

Hm, zu keinem Zeitpunkt erlaubt der Monitor 120Hz als Anzeigemodi - 74,984 Hz ist das Maximum - egal ob HDMI oder D-Sub/VGA. Man findet auch nichts zu 120Hz bei dem TV im Netz. Ansich wäre Shutter auch mit 48/60Hz-24/30Bilder/Auge machbar. Manche TVs sowie auch Monitor Nutzer (Stichwort 24p / ReClock) senken die Bildfrequenz auch @2D runter (auf das 1x/2x/3x) um mit der Bildrate synchron zu sein. Und von Samsung würde mich so ne Sparmaßnahme (nicht mal 120Hz) nicht überraschen. Natürlich wäre Ghosting dann noch viel eher ein Thema, das könnte man mit z.B. Sportsendungen und 2D/3D Konvertierung recht schnell testen.

Ansonsten wenn zumindest 120Hz angezeigt werden ist mehr als fraglich ob 120Hz machbar ist. Wie gesagt laut HB auch per D-Sub/VGA 60Hz. Das ist natürlich nur der offiziell unterstütze Modus. OCen kann man immer aber auf 120Hz nur wenn das Panel diese Intern verwenden kann und auch nur ohne weitere "Tricks". Und wenn das geschafft ist, bleibt es wie du schon sagst fraglich ob er dann in den 3D Modus schaltet, damit die Brille funktioniert.

Zur Aussage ob er damit leben kann: vl. etwas unglücklich ausgedrückt gemeint waren natürlich nur berechnete/übertragene 30Bilder/Auge.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Zurück
Oben