VR- der allgemeine Diskussions-Thread für alles

omega™ schrieb:
@Tunk Die PS4 war hardwaretechnisch schon veraltet wo sie erschien.
nur wenn man sie mit PCs vergleich die damals als die PS4 rauskam, das doppelte oder noch mehr gekostet haben
für den Preis der PS4 hast du damals auch keinen stärkeren PC bekommen


Tunk schrieb:
Ich frag mich nur immer wie das genau ablaufen soll.

Klar, langfristig wird das einiges bewegen. Vielleicht wirklich wie du sagst die "Grafikwelt auf den Kopf stellen". Wäre schon geil.
ich meinte das nicht wirklich aus Sicht von Verkaufszahlen..
da denke ich dass das Aufsetzen einer Brille immer "abschreckender" bleiben wird als das schauen auf einen Monitor

ich meinte das rein technisch..
derzeit: VR ist kack-Grafik -> Monitor ist super (4k, 5k Retina, 8k bei Fernsehern kommen) (zumindest schaffen Grakas in Spielen 4k heute was knackscharf ist)

in Zukunft könnte ich mir halt vorstellen:
in VR mit 2x4k Displays (oder mehr): Raytracing möglich, da nur ein Bruchteil davon wirklich gerendert werden muss (wobei Raytracing da vielleicht ne andere Geschichte ist, da ja Lichtstrahlen von überall her berechnet werden)
wärend am Monitor 4k (zumindest derzeit mit 2080ti) komplett gerendert zuviel des guten ist

Aber bezüglich Wachstum heiß es ja immer der nächste große Sprung kommt mit FR.
bezüglich Wachstum weiß ich nicht.. hab ich so nicht gelesen..
aber technologisch und eben Bildschärfe/Bildeindruck betreffend - da sollte es ein großer Sprung sein, wenn plötzlich nur noch 1/10 oder noch weniger gerendert werden muss

Aktuell Vive Pro Kit 1200 € ... Vive Pro Eye 1650 €
Alleine ET lässt sich die Bande mit 450 € bezahlen. Oo

Selbst bei 200€ würde es derzeit nur in Premium Produkten und Business Bereich Sinn machen.
drum glaub ich nicht - wie hier von anderen gesagt wrude - das in 2 Jahren die PS5 + VR
bereits mit all den netten Features auf den markt kommt, zu einem konsolentauglichen Preis
das wirds nicht spielen

da werden einige sehr enttäuscht sein, wenn sie sich wirklich sowas erwarten
Ergänzung ()

Mr. Rift schrieb:
Aber im allgemeinen versprechen sich die Leute zuviel von ET.

Was Oculus mal gezeigt hat, das war das best case Scenario.
Anfangs wird man viel geringere Performance Verbesserungen haben.

hmm...

At Oculus Connect 5 in October, F{...} VR researcher Michael Abrash showed off a new approach using machine learning to fill in the low resolution areas, allowing for a tiny foveal area. The example Abrash showed only required 5% of the display resolution to be rendered- a 20x saving. He claimed the result is visually “indistinguishable” from normal rendering in VR.

20fache Renderleistungseinsparung klingt nicht schlecht finde ich

Abrash concluded with a prediction that this technology would be ready in four years — 2022.

aber selbst wenn es "nur" 2-fache Renderleistungseinsparung wäre,
entspricht das bereits ca. dem was Grafikkarten-Fortschritt in 3-4 Jahren so bringt

bzw.: für nur 50% mehr Leistung zahlt man heute schon 400-500 Euro drauf für die 2080ti

(zumal man laut Nvidia in Zukunft bei den Grafikkartengenerationen nur noch 7-10% Leistungssteigerung erwarten wird können)
 
Zuletzt bearbeitet:
Kraeuterbutter schrieb:
nur wenn man sie mit PCs vergleich die damals als die PS4 rauskam, das doppelte oder noch mehr gekostet haben
für den Preis der PS4 hast du damals auch keinen stärkeren PC bekommen
Das mein ich ja. ;)
Die konnte gut mithalten mit doppelt so teurer PC Hardware.
Direkt zum Release die Playstations oftmals sogar auf Niveau Oberklasse PCs, oder unterer Highendbereich.

Zumindest was die Grafik der Spiele direkt angeht, die werden ja immer auch angepasst auf Konsolenengine.

Kraeuterbutter schrieb:
bezüglich Wachstum weiß ich nicht.. hab ich so nicht gelesen..
Ich schon einige Male. Auf mixed zB. bei den SteamVR Userzahlen, oder auch so.

Das es hieß der nächste Sprung kommt mit FR ET.

Mit der Playstation glaub ich auch nicht. Aber 2-3 Jahre danach ist die Technik hoffentlich so weit und dann könnte einiges noch aus der PS5 rausgeholt werden damit.

Kraeuterbutter schrieb:
(zumal man laut Nvidia in Zukunft bei den Grafikkartengenerationen nur noch 7-10% Leistungssteigerung erwarten wird können)
Na geil.
Fand es jetzt ja schon irgendwo dreist, da kommen die Super Karten raus mit 10% Plus und die alten Karten verlieren an Wert. Oo
 
bezüglich ET und foveated rendering..

hier ein interessantes Paper gefunden:
https://pdfs.semanticscholar.org/7916/b21a3bfd02c5200cc1b00914b4343840492e.pdf

habs mal überflogen..

2012 hat Günther mit Kollegen herumexperimentiert (mit Full-HD-Monitor + tobii Eyetracking)
die haben dann Testpersonen vollgerenderte Bilder und foveated-renderd Bildern beurteilen lassen..
bis zu dem Punkt wo die Unser nicht feststellen konnten, ob die jetzt voll gerendert oder eben mit FR gerendert wurden:
Faktor 10-15 konnten sie das shading der Pixel reduzieren

2016 dann:
822869


Partney mit anderen Ansatz

wenn ich das hier richtig sehen kann: in der Grafik wird dargestellt, bis zu welchem Bereich (Größe des voll-gerenderten Bereiches) User einen Unterschied nicht feststellen können..

der lag bei 10-30° (jeh nach User)

sprich: wenn ich eine Brille mit 150° horizontal und 100° vertikal habe,
wäre das ca. Faktor 15 (Bei 30°) - also nur 1/15tel des bildes müsste mit voller auflösung gerendert werden
ohne das User was bemerken..
(ok, 2 augen, also 2mal)

beim Rest haben sie Pixelabstand vervierfacht, als 1/16tel an Pixelanzahl im Vergleich zur voll-gerenderten Fläche

wenn ich das richtig verstanden habe
falls ich es richtig verstanden habe..

wenn ich mir dann eben anschaue:
GTX 980 heute: 200 Euro
RTX 2080ti heute: 1000 Euro

RTX 2080ti ca. um Faktor 2,5 schneller als GTX980
dann würde sich FR+ET schon auszahlen, selbst wenns 300 Euro Aufpreis bei der Brille bedeutet
 
Wenn es richtig klappt wäre es schon genial.

Gerade für autarke Brillen mit Qualcomm Chip wären mega Sprünge drin.

Kann mir nur irgendwie noch nicht vorstellen dass man das nicht bemerken soll.
Du siehst ja was auf dem Aufpixeln der Reverb zum Teil für ein Thema gemacht wird.

Obwohl. 🤔
Wenn es auf dem Level klappen würde wäre es schon ziemlich geil.
Da hätte ich dann löieber einen leichten Randereffekt den man noch spürt, dafür dann x-fache Performence.

Wenn es aber stärker spürbar ist ist die Technik eigentlich nur für den B2B Bereich geeignet, wo es nicht groß stört wenn man das Randering merkt.
 
B2B Bereich ? was ist das ?

ich denke du kannst das nicht feststellen wenn das Bild außerhalb deines Schärfebereichs des Auges was unscharf ist
ich sitze grad vor 3 1920x1080 Monitoren

wenn ich auf den linken schaue, dann ist der rechte in meinem FOV noch zu sehen (3 Monitore nebeneinadner sind vielleicht gerademal 100° FOV)

also wenn ich auf den mittleren schaue und mir ein Wort anschaue, dann kann ich versuchen den Fokus der Augen auf dem Wort zu lassen, meinem Hirn aber zu sagen: "schau mit den Augen nicht nach links zum Monitor, aber versuch den Inhalt des Monitors zu erkennen"

und wie groß ist da die "Auflösung" ?
ich kann so gerademal erkennen dass 2 Fenster offen sind udn es scheinbar Symbole (bunte flecken) am unteren Bildschirmrand gibt (Taskleiste)

also die Auflösung am Rand unserer Augen ist minimal...
da ist die alte Rift-Auflösung noch "perlen vor die Säue"

aber natürlich: sobald ich nach links rüberSCHAUE mit den Augen und der Fokus sich darauf einstellt kann ich jeden i-punkt bei den "i"s sehen...
die Auflösung steigt beim Hinschauen um Faktor 100 oder so an

wenn jetzt das Eye-Tracking schnell genug ist (und das scheint eigentlich kein Problem mehr zu sein),
wenn ich rüberschaue, die 0,3Sec oder 0,5sec bis die Augen neu fokusiert haben -> in der Zeit ist das dann auf jedenfall auch scharf..
das Auge sollte davon also wirklich nix mitkriegen

bei den jetzigen Brillen - solange du nur genau in die Mitte schaust, is völlig wurscht ob index oder Reverb oder Rift oder O+ die Schärfe des Randes ist egal
sobald du aber zum Rand schaust -> dann is es nimma egal
Ergänzung ()

EDIT:
822902


https://www.scinexx.de/news/biowissen/gehirn-gaukelt-scharfes-sehen-vor/
 
Zuletzt bearbeitet:
Kraeuterbutter schrieb:
B2B Bereich ? was ist das ?
business to business.

Für Ingenieure und Designer sicherlich top. Da ist es ja egal ob es aufpixelt. Hauptsache scharf wenn sie etwas länger betrachten.

Kraeuterbutter schrieb:
wenn jetzt das Eye-Tracking schnell genug ist (und das scheint eigentlich kein Problem mehr zu sein),
Gibt es da schon Tests zu. " 0,3Sec oder 0,5sec bis die Augen neu fokusiert haben "
Das klingt für mich recht viel.

Wenn ich bis 21 zähle (also 1 Sekunde) in der zeit kann ich 2 mal hin und herschauen, links rechts links rechts.
Mit Fokus vielleicht 3 Sprünge. Das würde vielleicht sogar hinkommen mit 0,3 Sekunden.
Trotzdem kann ich mir das noch nicht vorstellen.

Wie soll das den so schnell berechnet werden?
Da hast du das Delay der Kamera plus das Delay des randering.
 
Tunk schrieb:
Wie soll das den so schnell berechnet werden?
Da hast du das Delay der Kamera plus das Delay des randering.

naja, du sagst du schafft es 3mal hin und herzuschauen in einer Sekunde..
(ich denke aber nicht, dass du 3mal tatsächlich komplett scharf stellst)

wie auch immer:
unsere Brillen derzeit sollen 90mal in der Sekunde berechnen, WO die Bewegung das Sichtfeld gerade hinführt,
und dann 90mal in der Sekunde das Bild neu berechnen...

wenns das nicht schafft, dann - mit reprojection - zumindest 45mal in der Sekunde


was sind da 3mal die Sekunde ?

wir haben jetzt Frametimes im Bereich von 6 tausendstel SEkunden bis 25 tausendstel Sekunden

was sind da dann 300 tausendstel Sekunden ?
 
Kraeuterbutter schrieb:
naja, du sagst du schafft es 3mal hin und herzuschauen in einer Sekunde..
(ich denke aber nicht, dass du 3mal tatsächlich komplett scharf stellst)
Naja so das ich die Buchstaben hier am Handy lesen und deuten kann.
Wenn ich mich nicht aufs Zählen konzentrie sogar 4 Mal.

Die Überlegung mit den Frametimes klingt schon interessant.
Ich glaube auch dass das irgendwann möglich ist. Sonst würden sie ja nicht daran arbeiten. Und das eyetracking läuft ja auch schon gut.

Nur zum Release Schätze ich wird die Technik erstmal unfertig auf den B2B Markt kommen.
Bei Designern / Ingenieuren etc. Ist ja das Delay egal. Ebenso wie die Kosten.

Warum sollten sie da warten bis es perfekt funktioniert?

Vielleicht irre ich mich auch. Wäre schön.

Sehe gerade Herr Anh hat es auf der CES getestet bei Qualcomm im Januar.

Frames von 40 hoch auf 60. Immerhin.


ET gibt es seit 3 Jahren schon für Monitore. Wtf? XD noch nie gehört..


Scheint sogar gut zu funktionieren bei 6:30.
Selbst zielen mit den Augen per Kimme und Korn.
 
Zuletzt bearbeitet:
Tunk schrieb:
Naja so das ich die Buchstaben hier am Handy lesen und deuten kann.
hmm..
da geh ich davon aus, dass du von Mini-Grad-Sprüngen redest, wenn du den Test am handy machst...

in dem von mir oben verlinkten Paper sagen sie das - je nach Testperson -
zwischen 10° und 30° die Testpersonen es nimma bemerken, das FR betrieben wird

also der Bereich ist zwar - in hinblick auf das Ganze klein, der dann gerendert werden muss
aber beim Test am Handy machen die Augen ja wirklich mini-Sprünge

setzt dich vor ein trippel-Monitor-system und versuche 4mal mit den Augen zwischen linkem und rechtem Monitor hin und herzuspringen UND scharf zu stellen ;)

Die Überlegung mit den Frametimes klingt schon interessant.
Ich glaube auch dass das irgendwann möglich ist. Sonst würden sie ja nicht daran arbeiten. Und das eyetracking läuft ja auch schon gut.

ich denke die Berechung umschalten von hochaufgelöster Bereich zu weniger hoch aufgelöster Bereich --> das sollte von der Geschwindigkeit nicht limitierend sein

das eye-tracking, das ist - wenn - limitierend...

wie gesagt: die Grafikkarte haut 90 mal pro Sekunde ein Bild mit jeweils 2 Millionen berechneter Pixel raus
da sollte das switchen überhaupt kein Problem darstellen

ich frag mich, wie das aber mit der Software ausschaut....

brauchts da für Unity und Unreal-Engine nur nen Patch pro Game, und die laufen dann plötzlich auch mit FR ?
werden wir ALTE Spiele die schon am Markt sind, dann in Zukunft auch in hoher Auflösung wegen FR spielen können ?
oder müssen die Spiele tatsächlich dafür ausgelegt werden und es wird nur sehr langsam in den Markt strömen ?

wenn letzteres wirds wohl ewig dauern, wegen Henne - Ei-Problem..

keine Spiele die es unterstützen => Preis für die hardware zu teuer..
keine Hardware bei den Spielern => zahtl es sich nicht aus in Software umzusetzen


würde aber mit kleinem Patch das zu bewerkstelligen sein... dann könnte das ganz anders ausschauen
Fallout4, nen Patch einspielen
und schon läuft es auf 2x 4k Displays ohne Kantenflimmern etc.




Nur zum Release Schätze ich wird die Technik erstmal unfertig auf den B2B Markt kommen.
Bei Designern / Ingenieuren etc. Ist ja das Delay egal. Ebenso wie die Kosten.

Warum sollten sie da warten bis es perfekt funktioniert?
muss nicht sein..
siehe Vive => die haben auch nicht mal ne halbfertige Tracking-Version auf den markt geschmissen, sondern das was da rauskam war von Anfang an voll tauglich..
immerhin verwendet auch jetzt, fast 4 Jahre später noch neu vorgestellte Brillen dieses Tracking, sogar noch auch in der alten 1.0 Version


Sehe gerade Herr Anh hat es auf der CES getestet bei Qualcomm im Januar.
hier das Video in Deutsch, MRTV, Deutsch, Pimax mit Eyetracking


und hier eines, wo man besser sieht, wie schnell das doch mit dem Zielen schon funktionieren kann:
 
Der erste Test war am Pc, abends dann am Handy.

Egal. Sowas überschreitet einfach meine Vorstellungskraft.
Wie bei den Beispielen die du genannt hats.

Wenn ich bedenke das 240Hz Monitore die kleinen Ioden, oder LEDs what ever, dann in einer Sekunde 244 mal die Farbe wechseln können. Klingt eher nach Magie als Technik. :lol:

Das Video auf deutsch hatte ich sogar gesehen, aber nicht mehr im Gedächtnis.
Das ET Spiel mit den Viechern die aus dem Boden kommen hat Herr Ang auch mal getestet und meinte es funktioniert sehr exakt und schnell.

Wenn FR schon so weit ist, wieso ballern sie es nicht schon an Firmen raus in einer schlechteren Version, die halt etwas langsamer berechnet.
Naja, wird schon Gründe haben.

insgesamt klingt es aber recht gut, hätte ich nicht gedacht.

Kraeuterbutter schrieb:
wenn letzteres wirds wohl ewig dauern, wegen Henne - Ei-Problem..

keine Spiele die es unterstützen => Preis für die hardware zu teuer..
keine Hardware bei den Spielern => zahtl es sich nicht aus in Software umzusetzen
Das könnte ein echtes Problem werden.

Beim RayTracing wird ja auch kaum was umgesetzt.
Oder bei so Gadgets wie Tactical bodysuit. Oder das eyetracking für den Monitor.
Nie was von gehört, obwohl es schon Spielvorteile bei Deus Ex bringt.
 
naja.. beim Raytracing regelt es sich dahingehend, dass keine Grafikkarte mehr ohne angeboten werden wird..
und wenn man eine starke Graka haben will, muss man zu einer der 2000er Serie greifen, und die können das dann

und in 3-4 jahren wenn dann sehr viele solche Grakas haben - nicht extra wegen Raytracing gekauft, aber is halt am Chip mit oben - dann kann man auch jedes spiel dahingehend auslegen..

aber ob man ein 200 Euro Eyetracking modul in VR-Brillen einbaut, wenns keien Software noch dafür gibt ?
ist glaub ich minimal was anderes..

frage: wie macht das die Quest ?
die hat ja foveated rendering
ist da die Software extra dafür angepasst ?
oder wie wird das dort gemacht?
Ergänzung ()

823165



https://www.vr-quest.de/oculus-go-und-santa-cruz-fixed-foveated-rendering/
 
Et wird sicj denke ich erst richtig durchsetzen, wenn einer der großen es in seine Brille einbaut.
Also entweder Oculus, Valve oder Sony.

Wenn Pimax oder htc es raus bringen würde für Consumer, dann wäre das nice und es würden evtl. paar Patches kommen für Spiele, das wäre es dann aber auch schon.

Da müssen schon die großen ran.
Momentan ist die Technik noch nicht 100% ausgereift, liest man immer wieder.

Und gerade anfangs müssten die Entwickler eh zweigleisig fahren. Die ganzen User mit Brillen ohne ET darf man nicht vergessen. Die neuen Spiele müssten auf beiden Systemen gut performen.
 
schon 3 Jahre alt, aber da sieht man wie das wohl ausschauen könnte:

 
FR geht glaube ich automatisch. Pimax hat das ja auch schon im der Software drin. Man kann alle Spiele damit betreiben.
Funzt aber nur mit RTX Karten.
Da kann man auch einstellen, wie viel Fr benutzt werden soll. Je stärker der Einsatz, desto mehr leidet die Bildqualität .
 
Kraeuterbutter schrieb:
bezüglich ET und foveated rendering..

hier ein interessantes Paper gefunden:
https://pdfs.semanticscholar.org/7916/b21a3bfd02c5200cc1b00914b4343840492e.pdf

habs mal überflogen..

2012 hat Günther mit Kollegen herumexperimentiert (mit Full-HD-Monitor + tobii Eyetracking)
die haben dann Testpersonen vollgerenderte Bilder und foveated-renderd Bildern beurteilen lassen..
bis zu dem Punkt wo die Unser nicht feststellen konnten, ob die jetzt voll gerendert oder eben mit FR gerendert wurden:
Faktor 10-15 konnten sie das shading der Pixel reduzieren

2016 dann:
Anhang anzeigen 822869

Partney mit anderen Ansatz

wenn ich das hier richtig sehen kann: in der Grafik wird dargestellt, bis zu welchem Bereich (Größe des voll-gerenderten Bereiches) User einen Unterschied nicht feststellen können..

der lag bei 10-30° (jeh nach User)

sprich: wenn ich eine Brille mit 150° horizontal und 100° vertikal habe,
wäre das ca. Faktor 15 (Bei 30°) - also nur 1/15tel des bildes müsste mit voller auflösung gerendert werden
ohne das User was bemerken..
(ok, 2 augen, also 2mal)

beim Rest haben sie Pixelabstand vervierfacht, als 1/16tel an Pixelanzahl im Vergleich zur voll-gerenderten Fläche

wenn ich das richtig verstanden habe
falls ich es richtig verstanden habe..

wenn ich mir dann eben anschaue:
GTX 980 heute: 200 Euro
RTX 2080ti heute: 1000 Euro

RTX 2080ti ca. um Faktor 2,5 schneller als GTX980
dann würde sich FR+ET schon auszahlen, selbst wenns 300 Euro Aufpreis bei der Brille bedeutet


Das wäre im allgemeinen der Durchbruch.

Weil wenn du die Last auf 1/15 runterbrechen könntest, dann ist wireles kein Problem mehr, bis dahin ist 5g durchaus verfügbar dann wäre sogar cloudgaming leicht möglich und du würdest das HMD nur zum anzeigen nutzen.

Ich denke auch das genau dann der Knackpunkt eintreten wird. Wenn das HMD vom PC abgekoppelt wird. Quasi eine Quest mit ~8k auflösung durch FR und ET die Last so minimiert das du wireless ggfs. über LTE aber zumindest über 5G wird cloudgaming möglich sein.

Und wenn du all das dann unwichtige Zeug aus dem HMD rauswerfen kannst, ggfs. mit ner Sendebox neben dich stellen kannst, dann sind auch ganz andere ergonomische möglichkeiten für ein HMD gegeben.... dann muss ein HMD nicht mehr wie ein UmschnallTV für die Augen aussehen.
Ergänzung ()

Mr. Rift schrieb:
FR geht glaube ich automatisch. Pimax hat das ja auch schon im der Software drin. Man kann alle Spiele damit betreiben.
Funzt aber nur mit RTX Karten.
Da kann man auch einstellen, wie viel Fr benutzt werden soll. Je stärker der Einsatz, desto mehr leidet die Bildqualität .

Aber das ist ne Spielerei. Solang das HMD nicht weiß wohin du schaust, solang bringt FR garnichts. Soweit ich das richtig verstanden habe nutzt die Pima FR so als ob du immer mittig/mittig ins display schaust und nie deine Augen bewegen würdest.
 
  • Gefällt mir
Reaktionen: Kraeuterbutter
Toni_himbeere schrieb:
Aber das ist ne Spielerei. Solang das HMD nicht weiß wohin du schaust, solang bringt FR garnichts.
Würde das gerne mal ausprobieren an PC HMDs. Ganz am Rand wird es ja eh unscharf.
Wenn man damit Pixel einsparen kann warum nicht.
Bei Vader Immirtal war es nicht störend, und bei Zelda auf der Switch nutzen die FR sogar am Monitor da die Switch zu wenig Power hat.
Klar sieht man es wenn man direkt hin schaut, aber beim normalen zocken stört es nicht und man vergisst es schnell.

Aber ja, der Durchbruch gelingt damit sicher nicht.
 
Ich habe hier Botw und Links Awakening. Hast du ein Link dazu?
Wie soll denn die Switch meine Pupillen erkennen, wenn die im Dock steckt?
 
Zurück
Oben