Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Varjo XR-4: XR-Headset arbeitet mit 4K × 4K pro Auge und 120 × 105 Grad FoV
- Ersteller nlr
- Erstellt am
- Zur News: Varjo XR-4: XR-Headset arbeitet mit 4K × 4K pro Auge und 120 × 105 Grad FoV
- Registriert
- Sep. 2005
- Beiträge
- 10.387
Wobei ein MR-Headset halt beides kann. Auch rein VR geht natürlich, das Bild muss nicht durch externe Inhalte augmentiert werden.Hansdampf12345 schrieb:Das ist kein VR-Headset, sondern ein MR-Headset (Mixed Reality).
- Registriert
- Dez. 2012
- Beiträge
- 2.533
Apocalypse schrieb:Ok. Fakt ist, die Effizienz steigt nicht so schnell wie der Stromverbrauch und das schon seit sehr langer Zeit.
Also eine Grafikkarte aufgrund einer unternehmerischen Entscheidung über dem Sweetspot zu betreiben, hat nun wenig mit der grundsätzlichen Effizienz einer Architektur in Verbindung mit dem dazugehörigen Fertigungsprozess zu tun.Apocalypse schrieb:Ein super effiziente 4090, die bei Performance Pro Watt in einer ganz anderen Liga als die ineffiziente R9 290 spielt, braucht trotzdem beim Gaming Benchmark von Igor on average 376W und nutzt unter Volllast auch wirklich die vollen 450W aus, die sie sich genehmigen darf.
Ich hoffe, dass wir nicht aneinander vorbeireden, aber der CB-Test der 4090.
300 statt 450 Watt: immer noch schnell
Auch mit nur 300 Watt bricht die GeForce RTX 4090 nicht plötzlich völlig weg. Gegenüber den maximalen 450 Watt reduziert sich die Framerate um 9 Prozent, gegenüber 350 Watt um 6 Prozent. Bei der GeForce RTX 3090 Ti sind es wiederum 15 respektive 11 Prozent.
Im Worst-Case-Szenario (F1 22) verliert die neue Grafikkarte mit 300 statt 450 Watt (-33 Prozent) 17 Prozent FPS. Sie bleibt selbst dann fast 50 Prozent schneller als die GeForce RTX 3090 Ti bei 450 Watt, im 300-Watt-zu-300-Watt-Vergleich liegt die neue Generation über 90 Prozent vorne.
Die Messreihen zeigen, dass Nvidia mit der Entscheidung, die GeForce RTX 4090 auf dem TDP-Niveau der GeForce RTX 3090 Ti zu belassen, über das Ziel hinausgeschossen ist. Maximal 400 Watt hätten gegenüber 450 Watt quasi keinen Leistungsverlust, 350 Watt einen im Durchschnitt nur messbaren gebracht. Dem „Vorgänger“ mit 450 Watt zeigt wiederum selbst die 300-Watt-Konfiguration der RTX 4090 nur die Rücklichter.
Dass ein fertiges Produkt am Ende so auf den Markt kommt, hat auch etwas mit dem Kunden zu tun. Denn in der Regel interessiert sich der Kunde weit weniger für Effizienz und Leistungsaufnahme als viel mehr für maximale Performance. Auch wenn am Ende - zumindest oder vor allem bei Flagschiff-Produkten - ziemlich unvernünftige Produkte bei rauskommen, die fast durch die Bank mehr oder weniger weit über dem Effizienz-Sweetspot liegen.
Kraeuterbutter
Admiral
- Registriert
- Nov. 2007
- Beiträge
- 7.550
also da wäre die Brille aber "Perlen" vor die Säue, wenn ich damit nur paar "Label" mir anzeigen lasse..Hansdampf12345 schrieb:Das ist kein VR-Headset, sondern ein MR-Headset (Mixed Reality).
Es geht also um Darstellung der realen Umgebung mit virtuellen Ergänzungen.
Da wird also nicht unbedingt viel Rechenleistung benötigt. Ich kann mir damit zum Beispiel die neue S-Klasse im Showroom ansehen und bekomme virtuelle Infos zum Fahrzeug und zur Bedienung eingeblendet oder so.
zumal eine Kabelgebunde Brille im Showroom wo ich um das Auto herumgehen will eher weniger geeignet wäre..
auch würde ich MR nicht unterschätzen..
im Moment zeigt die Quest3 nämlich - auch so eine MR-Brille - dass sie am meisten Strom im MR-Betrieb und nicht im VR-Betrieb zieht
Hansdampf12345
Commodore
- Registriert
- Nov. 2005
- Beiträge
- 4.152
@nlr klar geht beides. Es ging nur um die Frage, welches System die Brille denn mit 4k-Material im ultrarealistischen Shooter beliefern soll, obwohl es bei den Headset ja eigentlich um einen anderen Anwendungszweck geht.
@Kraeuterbutter du kannst dir damit anzeigen lassen, was du möchtest. Das Wort Beispiel ist dir geläufig? Genau dafür kommt das Teil aber übrigens auch zum Einsatz. Ob mehr oder weniger geeignet für einen Anwendungszweck entscheiden ja zum Glück nicht 2 Dudes in nem Forum, sondern Leute mit Ahnung.
Und was genau hat der Stromverbrauch damit zu tun? Solange die Brille nicht selbst "rechnet" ist klar, dass bei MR mehr Strom benötigt wird.
Bei reinem VR braucht die Brille nur Strom für die Displays, bei MR zusätzlich für die Kameras.
@Kraeuterbutter du kannst dir damit anzeigen lassen, was du möchtest. Das Wort Beispiel ist dir geläufig? Genau dafür kommt das Teil aber übrigens auch zum Einsatz. Ob mehr oder weniger geeignet für einen Anwendungszweck entscheiden ja zum Glück nicht 2 Dudes in nem Forum, sondern Leute mit Ahnung.
Und was genau hat der Stromverbrauch damit zu tun? Solange die Brille nicht selbst "rechnet" ist klar, dass bei MR mehr Strom benötigt wird.
Bei reinem VR braucht die Brille nur Strom für die Displays, bei MR zusätzlich für die Kameras.
Zuletzt bearbeitet:
Apocalypse
Rear Admiral
- Registriert
- Okt. 2012
- Beiträge
- 5.868
Genau darauf wollte ich hinaus und zwar immer mehr und mehr. Und dafür gibt es auch durchaus vernünftige Gründe, denn natürlich ist die 4090 eine GPU die man kauft, weil es halt leider noch nichts schnelleres am Markt gibt.Cleric schrieb:Dass ein fertiges Produkt am Ende so auf den Markt kommt, hat auch etwas mit dem Kunden zu tun. Denn in der Regel interessiert sich der Kunde weit weniger für Effizienz und Leistungsaufnahme als viel mehr für maximale Performance. Auch wenn am Ende - zumindest oder vor allem bei Flagschiff-Produkten - ziemlich unvernünftige Produkte bei rauskommen, die fast durch die Bank mehr oder weniger weit über dem Effizienz-Sweetspot liegen
Wie ich schon jetzt glaube ich 5 mal geschrieben habe, die Effizienzsteigerungen sind unbestreitbar und die Treibende Kraft hinter den ganzen Leistungssteigerungen, aber es ist einfach nicht genug, es ist "nie" genug.
Selbst die RTX 4090 kämpft um jeden Frame, wenn Path Tracing benötigt einfach extrem viel Leistung und scheint die Karte auch besser auszulasten. Und das ist eben jetzt die Zukunft und wohl letzte Evolutionsstufe von Grafik in Spielen. Dauert wohl noch ein paar Generation bis die Effizienz so weit ist, das man auf die Brechstange verzichten kann.
Kraeuterbutter
Admiral
- Registriert
- Nov. 2007
- Beiträge
- 7.550
man könnte diesen einen SAtz noch leicht abwandeln, weil sonst noch jemand daherkommt Prozentwerte der Effizienz mit Prozentwerte des steigenden STromhungers direkt vergleichtApocalypse schrieb:Ok. Fakt ist, die Effizienz steigt nicht so schnell wie der Stromverbrauch und das schon seit sehr langer Zeit.
und dann wäre es nicht mehr so klar was vorne liegt: ob in X Jahren die Effizienz um 50% gestiegen ist oder der Stromhunger um 50%
ich würde also eher sagen:
"Die Steigerung bei der Effizienz ist nicht ausreichend gewesen, um in den letzten Jahren den Stromhunger unserer Top-Grafikkarten zu senken"
wir haben heute Top-Grafikkarten - (und ein Gamer der was auf sich hält hat natürlich ne Top-Grafikkarte) - die mehr verbrauchen als noch vor ein paar Jahren
Ergänzung ()
da wird doch dann auch das Auto gerendert, nichtHansdampf12345 schrieb:@Kraeuterbutter du kannst dir damit anzeigen lassen, was du möchtest. Das Wort Beispiel ist dir geläufig? Genau dafür kommt das Teil aber übrigens auch zum Einsatz. Ob mehr oder weniger geeignet für einen Anwendungszweck entscheiden ja zum Glück nicht 2 Dudes in nem Forum, sondern Leute mit Ahnung.
nicht nur ein paar Labels..
klar wäre es auch für das blose anzeigen von paar Zahlen geeignet - aber wie gesagt: "Perlen vor die Säue" was soviel heißt wie: mit Kanonen auf Spazen schießen
und Varjo hat das in der Vergangenheit auch dargestellt, dieses Showroom-Szenario: es wird sehr viel Rechenpower dafür verwendet
die haben sogar von Cloud-Rendering geredet
als Beispiel wurde damals genau dieses Showroom-Szenario angeführt, glaub es war BMW
aber eben nicht nur um Labels darzustellen sondern es geht darum das Auto zu rendern, dass es so noch nicht gibt - verschiedene Lackierungen darstellen zu können etc.
Ergänzung ()
hier das erwähnte Cloudrendering
und das AutoShowroom-Szenario:
Zuletzt bearbeitet:
Roostar
Ensign
- Registriert
- Sep. 2011
- Beiträge
- 188
Danke für die Info. Ich selbst schaue kaum suf 4k, da ich selbst mit normalen Monitor in WQHD spiele.IBISXI schrieb:Meine Vive Pro2 hat 2448x2448 Pixel pro Auge. Das sind 6 Megapixel.
3840x2160 sind 8,2 Megapixel pro Auge.
Ich selber bekomme mit der Vive stabile 90FPS zusammen in den meisten Spielen.
[...]
Habe 7800X3D und RTX4090 @ 70% Powerlimit
[...]
Aber wenn Da bei deinem System tatsächlich noch Reserven sind, dann wäre es ja tatsächlich nicht utopisch das XR4 mit einem "herkömmlichen" System zu befeuern.
Ok, für MR-Betrieb braucht man nach meinem Verständnis natürlich nicht so viel Rechenpower, wenn ich nur ein oder mehrere nicht bildfüllende Objekte darstellen will.Hansdampf12345 schrieb:Das ist kein VR-Headset, sondern ein MR-Headset (Mixed Reality).
Es geht also um Darstellung der realen Umgebung mit virtuellen Ergänzungen.
- Registriert
- Dez. 2012
- Beiträge
- 2.533
Sorry, aber das ist Unsinn. Natürlich könnten die Hersteller ihre Produkte auf die TDP früherer Generationen begrenzen und wir hätten bei gleichbleibender Leistungsaufnahme trotzdem enorme Effizienzsprünge. Siehe den 300W-Vergleich der 4090 bei CB.Kraeuterbutter schrieb:"Die Steigerung bei der Effizienz ist nicht ausreichend gewesen, um in den letzten Jahren den Stromhunger unserer Top-Grafikkarten zu senken"
Und wenn man sich mal unterhalb der Flagschiffe bewegt, wird das noch deutlicher. Aktuelle Mittelklasse-Modelle mit der Leistung des Flagschiffes aus der Vorgänger-Generation haben ein fast doppelt so hohes FPS pro Watt Verhältnis. Sprich du bekommst die Leistung früherer Top-Grafikkarten bei beinahe Halbierung der Leistungsaufnahme.
Aber die Kundschaft hat in der Mehrheit anscheinend kein Interesse an auf Effizienz getrimmten Karten. Deshalb sind AMDs damalige Versuche gescheitert und im Prinzip verkaufen sich in der Mehrheit vor allem OC-Modelle, die je 1% mehr Performance eine relativ deutlich höhere Leistungsaufnahme haben.
Nur hat das wie gesagt nichts mit der Effizienz der Architektur an sich zu tun, sondern mit dem Kaufverhalten des Kundschaft.
@Cleric
Es ist nicht Unsinn, denn die Leistungsaufnahme ist da wo sie ist weil sie benötigt wird.
Natürlich könnten wir uns auf 175W beschränken - da war die 8800 Ultra. Nur hätten wir dann halt kein 4K Gaming so wie wir es heute haben.
Natürlich könnte der XR2 Gen2 so weit gedrosselt werden dass er nicht mehr verbraucht als der XR2 Gen1. Dann hätten wir halt 50% Mehrleistung statt 150%.
Nur ist das halt nicht was wir - insbesondere im VR Bereich - brauchen. Wir brauchen maximale Performance. Und das bedeutet eine höhere Leistungsaufnahme weil die höhere Effizienz das eben nicht ausgleichen kann.
Auch der XR2 Gen2 limitiert die Quest 3 heute massiv. Ganz zu schweigen von 4k, 6k oder 8k in der Zukunft.
Es ist nicht Unsinn, denn die Leistungsaufnahme ist da wo sie ist weil sie benötigt wird.
Natürlich könnten wir uns auf 175W beschränken - da war die 8800 Ultra. Nur hätten wir dann halt kein 4K Gaming so wie wir es heute haben.
Natürlich könnte der XR2 Gen2 so weit gedrosselt werden dass er nicht mehr verbraucht als der XR2 Gen1. Dann hätten wir halt 50% Mehrleistung statt 150%.
Nur ist das halt nicht was wir - insbesondere im VR Bereich - brauchen. Wir brauchen maximale Performance. Und das bedeutet eine höhere Leistungsaufnahme weil die höhere Effizienz das eben nicht ausgleichen kann.
Auch der XR2 Gen2 limitiert die Quest 3 heute massiv. Ganz zu schweigen von 4k, 6k oder 8k in der Zukunft.
Visualist
Lt. Commander
- Registriert
- Feb. 2006
- Beiträge
- 1.734
Echt schade das es nicht wirkliche Tripple AAA Titel für VR gibt.
Hif Life Alyx und dann kommt lange ...............................sehr lange nichts was nur ansatzweise diese Qualität bietet auf dem PC so das es sich lohnen würde eine Pimax Crystal zu kaufen oder höher.
Hif Life Alyx und dann kommt lange ...............................sehr lange nichts was nur ansatzweise diese Qualität bietet auf dem PC so das es sich lohnen würde eine Pimax Crystal zu kaufen oder höher.
Kraeuterbutter
Admiral
- Registriert
- Nov. 2007
- Beiträge
- 7.550
eben!Cleric schrieb:Aber die Kundschaft hat in der Mehrheit anscheinend kein Interesse an auf Effizienz getrimmten Karten.
wenn da der LEISTUNGSsprung zur letzten Generation nicht 20%+ beträgt - egal wieviel effizienter - ist das Unken groß, das
Hersteller X verschlafen hat weil Hersteller Y es besser macht, weil 21% Leistungsplus
eben..Cleric schrieb:Deshalb sind AMDs damalige Versuche gescheitert und im Prinzip verkaufen sich in der Mehrheit vor allem OC-Modelle, die je 1% mehr Performance eine relativ deutlich höhere Leistungsaufnahme haben.
Nur hat das wie gesagt nichts mit der Effizienz der Architektur an sich zu tun, sondern mit dem Kaufverhalten des Kundschaft.
und das kaufverhalten beeinflußt was gebaut wird..
meta hat nicht ne Quest3 rausgebracht mit gleicher Leistung einer Quest2 aber 3h laufzeit statt 2h Laufzeit weil Effizienter
nein.. sie haben die Leistung um Faktor 2 - 2,5 bei der Grafik nach oben geschraubt
und den Verbrauch dabei ebenfalls
weil das ist es was wir im Moment wollen
wir haben noch lange nicht genug Leistung, gerade bei STandalone-Brillen
vondaher mögen die Effizienzsprünge beeinduckend sein
(der XR2gen2 hat ein sehr sehr gutes frames/watt verhältnis im Vergleich zu anderen PRozessoren)
aber schlußendlich interessiert das eher weniger, solange nur die Grafikpoewr mehr wird
quasi "Rebound"-Effekt
das mehr an Effizienz wird durch die dann vermehrte Nutzung aufgefressen..
schön zu sehen an der Quest3
- Registriert
- Dez. 2012
- Beiträge
- 2.533
Blaexe schrieb:Es ist nicht Unsinn, denn die Leistungsaufnahme ist da wo sie ist weil sie benötigt wird.
Natürlich könnten wir uns auf 175W beschränken - da war die 8800 Ultra. Nur hätten wir dann halt kein 4K Gaming so wie wir es heute haben.
Ne, eben nicht. Hat CB doch geschrieben.
Sie könnten die Leistungsaufnahme auch grundsätzlich auf 300w begrenzen. Das ist dann etwa das Niveau, dass wir seit 5 oder 6 Jahren bei den Spitzenmodellen haben. Du kannst als Vergleich natürlich gerne in der Mottenkiste von 1999 kramen.
Wie das dann aussehen könnte im Falle der 4090?
Dass die Chips immer über den Sweet Spot "ausgemaxed" werden, liegt wie gesagt vor allem am Kunden.
Btw, ich hatte den Techspot-Artikel verlinkt, Zitat:
If one takes the above figures, the mean increase in TDP since 2006 has been 102%, whereas the rise in FP32 performance-per-watt has been an astonishing 5,700%
Blaexe schrieb:Auch der XR2 Gen2 limitiert die Quest 3 heute massiv. Ganz zu schweigen von 4k, 6k oder 8k in der Zukunft.
Limitieren tut bei Standalone die Brille. Und wenn die Brillen immer kleiner und leichter werden sollen, dann wird sich daran auch nichts ändern. Deshalb bin ich auch kein großer Freund von Standalone, wenn ich die Processing-Power in so einen extrem limitierenden Formfaktor packe. Bis diese Gleichung irgendwann mal aufgeht, wird vermutlich noch eine Ewigkeit ins Land ziehen. Ich mag ja Wireless, aber dann lieber mit einem externen Zuspieler.
Kraeuterbutter
Admiral
- Registriert
- Nov. 2007
- Beiträge
- 7.550
übrigens: die Quest3 hat einen "Effizienz-Modus" - wo der XR2, die AUflösung, usw. runtergedreht wird für mehr Ausdauer..
und indirekt halt mehr Effizienz
ich kann mir nicht vorstellen dass viele das freiwillig einschalten
das Gegenteil wird getan: die Hürde des "Developermodus" auf sich genommen, um Sidequest oder Games Optimizer zu installieren und die ganze Geschichte - auch auf Kosten der Laufzeit - noch weiter hochzudrehen
und indirekt halt mehr Effizienz
ich kann mir nicht vorstellen dass viele das freiwillig einschalten
das Gegenteil wird getan: die Hürde des "Developermodus" auf sich genommen, um Sidequest oder Games Optimizer zu installieren und die ganze Geschichte - auch auf Kosten der Laufzeit - noch weiter hochzudrehen
Und wie sieht es bei den gennnten 175W aus? Nix mehr mit 4k60fps. Genau darum geht es doch. Die Karte verbraucht was sie verbraucht weil die Leistung benötigt wird.Cleric schrieb:Ne, eben nicht. Hat CB doch geschrieben.
Auch 300W ist viel mehr als früher. Die Tendenz steigt - nicht ohne Grund. Man hätte sich auch auf 200W beschränken können wenn doch die Effizienzsteigerungen ausreichen.
"die Brille" = der Chip... Und genau darum geht es doch?Cleric schrieb:Limitieren tut bei Standalone die Brille.
Es ging um "die Zukunft" und - so schmerzlich das für dich sein mag - PCVR ist nicht die Zukunft von VR.
Das heutige Standalone wohl auch nicht weil - und da sind wir wieder am gleichen Punkt - der Energiebedarf steigen wird bis es nicht mehr sinnvoll ist.
Der einzig sinnvolle Ausweg ist mMn das allseits verhasste Cloud Streaming. Für AR Brillen sowieso unabdingbar.
Kraeuterbutter
Admiral
- Registriert
- Nov. 2007
- Beiträge
- 7.550
das ist es was ich weiter vorne gesagt habe:Cleric schrieb:If one takes the above figures, the mean increase in TDP since 2006 has been 102%, whereas the rise in FP32 performance-per-watt has been an astonishing 5,700%
https://www.computerbase.de/forum/t...-und-120-x-105-grad-fov.2172036/post-28863139
wobei ich hier mit "nicht mehr so klar was vorne liegt" wohl falsch lag, was deine Zahlen ja sagenwir sollten nicht sagen: "die Leistungsaufnahme ist mehr gestiegen als die Effizienz"
man könnte diesen einen SAtz noch leicht abwandeln, weil sonst noch jemand daherkommt Prozentwerte der Effizienz mit Prozentwerte des steigenden STromhungers direkt vergleicht
und dann wäre es nicht mehr so klar was vorne liegt: ob in X Jahren die Effizienz um 50% gestiegen ist oder der Stromhunger um 50%
(ich wollte mich nicht festlegen, weil es für meinen folgenden Punkt eigentlich keine Relevanz hatte):
ich würde also eher sagen:
"Die Steigerung bei der Effizienz ist nicht ausreichend gewesen, um in den letzten Jahren den Stromhunger unserer Top-Grafikkarten zu senken"
und da wirst du doch auch zustimmen..
ne Rechneraufbauempfehlung vor 20 Jahren beim Netzteil (was? 200Watt?)
hat ganz anders ausgesehen als noch vor 10 Jahren oder eben jetzt wo man bei 650Watt teils schon mitleidig angeschaut wird und "zur Sicherheit" lieber zu 850Watt geraten wird
allerdings würde ich auch sagen: eventuell ist das "Enthusiastendasein" bei GamingPCs krasser geworden ?
Leute eher bereit mehr für auszugeben?
und das meistgesagte trifft auf Top-Grafikkarten zu
und auf der anderen Seite kannst du 1000sende Games, das meiste auf STeam - heute auch mit nem Laptop spielen, teils mit Onboardgrafik
und: ein Handheld kann heute Steamspiele abspielen (Steamdeck) wo vor paar Jahren ein Gaming-Tower nicht gereicht hätte
- Registriert
- Dez. 2012
- Beiträge
- 2.533
Ich meine auch nicht PC-VR. Ein externer Zuspieler kann von einer Konsole, von mir aus auch ein PC bis hin zu zum Cloud-Streaming alles sein. Und da sind wir uns auch wieder einig. Absehbar wird es schwierig bleiben, die Rechenpower in die Brille zu packen, wo genau das in Sachen Platz, Leistungsaufnahme, Kühlfähigkeit etc. der entscheidende limitierende Faktor ist. Umsonst lagert Apple den Akku der Vision Pro nicht aus.Blaexe schrieb:Es ging um "die Zukunft" und - so schmerzlich das für dich sein mag - PCVR ist nicht die Zukunft von VR.
Das heutige Standalone wohl auch nicht weil - und da sind wir wieder am gleichen Punkt - der Energiebedarf steigen wird bis es nicht mehr sinnvoll ist.
Der einzig sinnvolle Ausweg ist mMn das allseits verhasste Cloud Streaming. Für AR Brillen sowieso unabdingbar.
Ich weiß nicht, ob jetzt ein rabulistische Detaildiskussion Sinn macht. Aber was sind 4k60fps? Wir hören doch wahrscheinlich schon seit der 1080 Ti -> jetzt geht 4K mit 60fps. Und die nächste Generation wieder und wieder und wieder. Ohne Upscaling, mit Upscaling und anderen Tricks. Genau, es ist wahrscheinlich nie genug, so lange wir nicht bei Fotorealismus angekommen sind.Blaexe schrieb:Und wie sieht es bei den gennnten 175W aus? Nix mehr mit 4k60fps.
Apocalypse
Rear Admiral
- Registriert
- Okt. 2012
- Beiträge
- 5.868
Also Grundlegend könntest du ja recht haben, ich habe nur so das Gefühl das du damit in Path Tracing Titeln ala Alan Wake 2 oder CP2077 die dann tatsächlich den ganzen Chip auslasten, dann deutlich mehr als nur einen kleinen Verlust an FPS hinnehmen müsstest, mal ganz davon ab das auch 10% weniger Performance schon ziemlich unangenehm wären.Cleric schrieb:Sie könnten die Leistungsaufnahme auch grundsätzlich auf 300w begrenzen.
Also ja, die Kunden wollen so viel Performance wie möglich, weil eben selbst die 4090 nicht ansatzweise genug Performance hat, ganz egal ob mit 300W oder 450W. Spannungsspitzen inkludiert.
Ergänzung ()
Eben. Das Ziel ist in Sicht, aber wird wohl noch ein paar Jahrzehnte brauchen bis das mit 30W statt 450W läuft.Cleric schrieb:Genau, es ist wahrscheinlich nie genug, so lange wir nicht bei Fotorealismus angekommen sind.
Ergänzung ()
Da macht glaube ich die Physik einen Strich daraus, die Latenzen werden immer Problematisch sein, außer du meinst das man einen Cloud Server bei jedem Lokalen ISP gleich mit im Rechenzentrum oder gleich in jedem Mobilfunkmasten integriert sind und so die Latenzen massive gedrückt werden.Blaexe schrieb:Der einzig sinnvolle Ausweg ist mMn das allseits verhasste Cloud Streaming.
Dann wäre ich sogar bei dir, das könnte durchaus den PC verdrängen.
Zuletzt bearbeitet:
Kraeuterbutter
Admiral
- Registriert
- Nov. 2007
- Beiträge
- 7.550
wobei es nicht so schlimm ist wie ich dachte:Apocalypse schrieb:Da macht glaube ich die Physik einen Strich daraus, die Latenzen werden immer Problematisch sein, außer du meinst das man einen Cloud Server bei jedem Lokalen ISP gleich mit im Rechenzentrum oder gleich in jedem Mobilfunkmasten integriert sind und so die Latenzen massive gedrückt werden.
https://www.roadtovr.com/vr-cloud-gaming-streaming-shadow-vs-plutosphere-compared/
siehe Video.. Cas spielt hier unter anderem BeatSaber, und das scheint recht gut zu funktionieren
besser als ich gedacht hätte
(klar: Beatsaber ist auch nicht soo fordernd, da man die Blöcke ja kommen sieht und sich auf Latency mit der Zeit einfahc einstellt)
aber sie meint für langsamere Spiele ist die Latency ok
trifft natürlich nicht auf jeden zu - menschen sind ja diesbezüglich auch verschieden
für competitative Sachen rät sie aber davon ab...
hab mal gaudihalber jetzt 4 Speedtests laufen lassen..
Ich krieg bei allen 4ren einen Ping zwischen 7 und 9ms angezeigt
das wäre mal nicht schlecht -> da hab ich mit Virtual DEsktop bei der Wlan-Übertragung schon oft höhere Werte angezeigt bekommen
pinge ich 8.8.8.8 komme ich im Schnitt meist auf was zw. 15-18ms
sind dann aber auch Ausreißer nach oben dabei, was für VR wohl ned so gut wäre
in der Arbeit letztens mal ne Azure Lab verwendet.. Ne performante virtuelle Kiste mit 128GB Ram, viel GRafikspeicher ...
Und testweise mal Steam installiert und 2-3 GAmes..
war erstaunt wie gut das funktioniert.. auch da bei meinem eigenen TEst Latency wesentlich geringer als ich vermutet hätte..
war aber auch nur Flat-Gaming
aber ich war schon beeindruckt
vielfaches an Grafikleistung was mein 6 Monate altes Firmennotebook leisten könnte
nix für den Shooter-Pro
aber um mal MS Flightsim zu spielen - da sollte die latency z.b. weniger ein PRoblem sein
Ergänzung ()
achja: Varjo bietet (oder bot?) auch Cloud-Streaming für VR an bzw. hat es mal beworben..
da hat einer der Varjo Leute davon gesprochen, dass man sich als Client dann seine "virtuelle" maschine zusammen stellt, sagt: ich brauch 15 Grafikkarten und so und soviel Speicher..
Und die ganze Rendergeschichte wird dann aufs Headset gestreamed
Ergänzung ()
hier spricht einer von ihnen übers Cloud Streaming:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Eyetracking wird hier mit-berücksichtigt, scheint die zu übertragende Datenmenge so auch stark zu reduzieren wenn ichs richtig verstehe
Zuletzt bearbeitet: