Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Varjo XR-4: XR-Headset arbeitet mit 4K × 4K pro Auge und 120 × 105 Grad FoV
- Ersteller nlr
- Erstellt am
- Zur News: Varjo XR-4: XR-Headset arbeitet mit 4K × 4K pro Auge und 120 × 105 Grad FoV
Kraeuterbutter
Admiral
- Registriert
- Nov. 2007
- Beiträge
- 7.486
ich glaub ihr betrachtet 2 verschiedene Zeitspannen..eazen schrieb:Wirst es ja sehen. Leute wie du dachten vor 10-20 Jahren auch nicht daran, was heute alles möglich sein würde.
wenn ich mir meinen ersten Rechner anschaue, 286er, mit 9-Nadel-Drucker 2 Monatsgehälter teuer
und das mit nem Smartphone von heute vergleiche
IMMENS der Fortschritt
wenn wir aber eben einen kleinere Zeitspanne betrachten, dann sehen wir, dass eine Quest2 2-3h gelaufen ist,
die Quest3 aber bei der Laufzeit einen Rückschritt gemacht hat
der XR2gen2 scheinbar mehr Leistung braucht (obwohl er effizienter in Summe ist, ABER: es wird ja auch die Grafik raufgeschraubt)
nur am Prozessor wirds nicht liegen: der WEchsel zu Pancake und helleren Displays dürfte auch ordentlich "Schuld" sein an der kürzeren Laufzeit
und das trotz größerem Akku
das führt dazu, dass die Quest3 in der Regel nicht mehr im Betrieb mit 5V ausreichend geladen werden kann, was zuvor mit der Quest2 noch ging
aber in einigen Jahren?
klar werden wir mehr Leistung als heute haben, bei weniger Verbrauch
allerdings werden wohl auch die Ansprüche steigen
quasi ein Rebound-Effekt wie wir ihn in vielen anderen Bereichen auch kennen (Stichwort: LED-Lampen)
ein dritter Punkt ist aber wohl das Mooresche Law:
Nvidia selbst hat gesagt, dass dieses Paradigma nun langsam ausläuft..
mehr Leistung eben durch Parallelisierung etc. erreicht wird..
man bracht ja auch nur ne RTX4090 gegen eine GRafikkarte von vor 10 oder 15 Jahren mal gegenhalten
Man sieht: mehr Leistung wurde eben NICHT nur durch mehr Effizienz erreicht
also: wenn wir RAytracing, 4k x 4k, 144Hz usw. in den Headsets haben wollen: wird das sehr lange noch dauern, bis das Standalone geht (falls es überhaupt je geht - oder vorher nicht Cloud-VR zuvor kommt)
und wenn der Wunsch nach mehr Grafikpracht hoch ist, wird das vorerst mit mehr Stromverbrauch einhergehen
der Wunsch danach ist ja scheinbar groß.. sonst wären wir bei Grafikkarten vor 15 Jahren stehen geblieben und hätten heute keine 4090
oder würden alle nur mit Onboard GPU spielen
und gerade in VR zahlt sich hohe Grafikpracht ja noch mehr aus als auf einem kleinen Flat-Monitor
also da haben wir jedenfalls 2 große Punkte - Effizienz/Stromverbrauch vs. GRafikpracht die sich gegenseitig gegenüberstehen
und vorerst (und wohl lange) wird sich das nur über Streaming lösen lassen..
die Grafikleistung einer PS5 wird noch paar Jahre dauern bis wir die in einem VR-Standalone-Headset sehen, UND: eigentlich ist die PS5 zu schwach für VR, weil hier schon geklagt wird, dass die Bildwiederholrate ohne REprojection oft nicht vernünftig gehalten werden kann
eazen
Banned
- Registriert
- Nov. 2023
- Beiträge
- 516
Mag ja sein allerdings habe ich schon erwähnt das wenn jemand ein mobiles Gerät optimiert für Stromverbrauch und eben Batterie bauen will das umsetzen kann, du argumentierst hier eben mit Geräten die nicht dafür gemacht wurden, bevor es das Steam Deck gab hättest du dann gesagt das es unmöglich ist. Ne, es ist absolut möglich, es muss nur gewollt und erforscht werden, das ist alles kein Problem. Bisher ist VR eher für Kabelbetrieb gemacht worden, bei LTT wurde allerdings grad eins getestet was schon mal deutlich weniger Strom zieht und nur einen USB Anschluss braucht. Das Gerät hat keine Batterie. Bei dem niedrigen Verbrauch wäre es aber absolut möglich das Ding auch mit Batterie kabellos zu betreiben. Das Ding ist eben auf niedriges Gewicht optimiert worden - daher keine Batterie.
Apocalypse
Rear Admiral
- Registriert
- Okt. 2012
- Beiträge
- 5.769
Klar, aber da halt dann wohl für immer. Das schon heute eine Aero was für Enthusiasten ist, und Google Cardboard oder eine Oculus mehr so im Mainstream ankommt (wenn auch nicht viel, VR ist ja noch weit vom Mainstream weg) ist klar und daran wird sich natürlich auch nichts ändern, denn nur Enthusiasten werden überhaupt den Anspruch haben mehr Leistung zu brauchen als man in ein Headset packen kann.Blaexe schrieb:Die Zukunft besteht nicht darin an einen lokalen Rechner gebunden zu sein. Das wird eine Enthusiasten Nische sein.
Cleric
Commander
- Registriert
- Dez. 2012
- Beiträge
- 2.505
Hat Jensen mal behauptet, Intel war und ist anderer Meinung. Und NVIDIA mittlerweile auch wieder. Ist mittlerweile auch irgendwie ein Running Gag.Kraeuterbutter schrieb:ein dritter Punkt ist aber wohl das Mooresche Law:
Nvidia selbst hat gesagt, dass dieses Paradigma nun langsam ausläuft..
Kraeuterbutter schrieb:man bracht ja auch nur ne RTX4090 gegen eine GRafikkarte von vor 10 oder 15 Jahren mal gegenhalten
Man sieht: mehr Leistung wurde eben NICHT nur durch mehr Effizienz erreicht
The Rise of Power: Are CPUs and GPUs Becoming Too Energy Hungry?
Apocalypse
Rear Admiral
- Registriert
- Okt. 2012
- Beiträge
- 5.769
Ok. Fakt ist, die Effizienz steigt nicht so schnell wie der Stromverbrauch und das schon seit sehr langer Zeit.eazen schrieb:Ich verstehe das du angreifend wirst weil dich mein Argument überfordert hat, und du die simpelsten sehr extremen und stichhaltigen Argumente die ich dir bringe, nicht verstehen kannst oder ignorierst. Manche Leute kann man nicht überzeugen, weil die es nicht wollen, da geht es eher ums Ego dann, als um Fakten und Wissenschaft.
Fakt ist übrigens auch, das jemand der gar nicht damit aufhören kann sich ständig selbst zu loben, häufig ein Opfer des Dunning-Kruger-Effekt ist, das nur am Rande, kann ich aber auch gut. ;-)
Die massive Steigerung der Effizienz streitet dir überhaupt niemand ab. Umgekehrt sind Spannungspitzen von 400 oder sogar 600W einer GPU etwas ziemlich heftiges und relativ neues und alles auf der jagt nach mehr Performance weil eben all die Steigerung der Effizienz nicht mal ansatzweise ausreichen um den Leistungshunger den wir aktuell haben zu bewältigen. Und das zieht sich aktuell durch sehr viele Technikbereiche, ganz egal ob Desktop oder Mobile Geräte. Selbst die Automobilindustrie hat das Problem, den höher,
Heißt natürlich nicht, das langfristig nicht das 100€ Smartphone SOC genug Leistung für Path Tracing VR Welten haben wird. Mal schauen wie lange Moore's Law noch standhält. Es wird ja auch die Effizient gesteigert, muss ja, irgendwo gibt es ja auch thermische Limits, wobei wir auch diese immer weiter verschieben.
Davon ab, vielleicht erreichen wir ja auch mal in den nächsten 20-50 Jahren wirklich einen Status bei dem Grafik als gelöstes Problem betrachtet wird und eh alles in Path Tracing mit Retina Auflösung läuft und zwar auf Mobilgeräten. In diesem Jahrzehnt wird das aber sicher nichts mehr.
Kraeuterbutter
Admiral
- Registriert
- Nov. 2007
- Beiträge
- 7.486
bei Minute 6 in diesem Video, die Kampfjet-Szene:
da sieht man sehr starkes foveated Rendering..
also da reichen nur paar Grad auf neben dem Fokuspunkt und es ist schon sehr unscharf..
wenn das so funktioniert - könnte ich mir vorstellen dass hier sehr viel Performance gespart werde kann..
bei den Aufnahmen einer PSVR2 ist der Bereich wo mit niedrigerer Auflösung gerendert wird sehr viel kleiner
also könnte mir vorstellen dass hier 4080/4090 noch sehr gut reichen werden
bei 4k x 4k wird die Notwendigkeit auch nimma so hoch seien auf Faktor 1.5 für Barrel-Distortion-Profile zu setzen oder auf SuperSampling
da reicht dann vielleicht eben wirklich schon das Berechnen mit 4k x 4k Auflösung
und dann ist das nimma so krass viel mehr als z.b. mit einer Reverb G2 die man mit 3500x3500 oder so rum befeuert
EDIT:
es scheint nur so ein kleiner Bereich scharf zu sein...
Rest ist deutlich unschärfer
also das müsste wirklich massiv sparen
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
da sieht man sehr starkes foveated Rendering..
also da reichen nur paar Grad auf neben dem Fokuspunkt und es ist schon sehr unscharf..
wenn das so funktioniert - könnte ich mir vorstellen dass hier sehr viel Performance gespart werde kann..
bei den Aufnahmen einer PSVR2 ist der Bereich wo mit niedrigerer Auflösung gerendert wird sehr viel kleiner
also könnte mir vorstellen dass hier 4080/4090 noch sehr gut reichen werden
bei 4k x 4k wird die Notwendigkeit auch nimma so hoch seien auf Faktor 1.5 für Barrel-Distortion-Profile zu setzen oder auf SuperSampling
da reicht dann vielleicht eben wirklich schon das Berechnen mit 4k x 4k Auflösung
und dann ist das nimma so krass viel mehr als z.b. mit einer Reverb G2 die man mit 3500x3500 oder so rum befeuert
EDIT:
es scheint nur so ein kleiner Bereich scharf zu sein...
Rest ist deutlich unschärfer
also das müsste wirklich massiv sparen
CrazyT
Captain
- Registriert
- Juli 2005
- Beiträge
- 4.050
Gibt da viele, in der Aeronautik, Autoindustrie oder schiffsbau etc.Whitehorse1979 schrieb:Mich würde mal der Einsatzzweck interessieren. In welchen Jobs kann man soetwas gebrauchen? Militär?
Großanlagen etc.
Da kannst du fehler schon beim planen minimieren wenn nicht gar ausschließen.
Oder mit augmented reality im bauwesen etc.
Kraeuterbutter
Admiral
- Registriert
- Nov. 2007
- Beiträge
- 7.486
ja.. bei LTT wurde "gerade" eins getestet... reichlich späteazen schrieb:bei LTT wurde allerdings grad eins getestet was schon mal deutlich weniger Strom zieht und nur einen USB Anschluss braucht. Das Gerät hat keine Batterie. Bei dem niedrigen Verbrauch wäre es aber absolut möglich das Ding auch mit Batterie kabellos zu betreiben. Das Ding ist eben auf niedriges Gewicht optimiert worden - daher keine Batterie.
also LTT muss man da nicht extra anführen finde ich, wo doch schon halbes Jahr lang die Beyond bei diversen youtubern reichlich rauf und runter vorgestellt wurde (in wesentlich höherem Detailgrad als bei LTT)
und: das Teil hat keinen Prozessor, keine Kameras, kein Passthrough, kein Eyetracking, kein foveated rendering, kein IPD-Adjustment
ist somit nicht vergleichbar mit dem was wir hier gerade besprechen
die Beyond ist klein und leicht..
und verwendet klein Oled-Displays...
thats it
ansonsten: scheinbar so wenig dahinter gewesen, dass eine kleine Softwareschmiede so nebenbei so ein Headset rausbringen hat können
Piecemaker
Lt. Commander
- Registriert
- Dez. 2018
- Beiträge
- 1.094
Nenne eine Consumer Grafikkarte von vor ~5 Jahren, die bei gleichem Stromverbrauch das Gleiche wie eine moderne GPU leistet.Apocalypse schrieb:Ok. Fakt ist, die Effizienz steigt nicht so schnell wie der Stromverbrauch und das schon seit sehr langer Zeit.
Kraeuterbutter
Admiral
- Registriert
- Nov. 2007
- Beiträge
- 7.486
das hat er ja nicht behauptet...
seine Aussage widerspricht nicht dem was du hier sagen willst
niemand hier im Thread streitet doch ab, dass die Effizienz gestiegen ist..
niemand
aber: es ist auch so:
ich kann mich noch erinnern, als ich ein 200Watt NEtzteil im Rechner hatte
dann hieß es: um Zukunfssicher zu sein muss es min. ein 350Watt Netzteil sein
paar jahre später: "mit 550Watt NEtzteil bist du für die Zukunft gerüstet"
dann 650Watt
jetzt lese ich schon von Empfehlungen, dass es mindestens ein 850er sein soll
sprich: auch wenn die Effizienz gestiegen ist.. unsere Lust auf noch bessere Grafik ist schneller gestiegen als es die reine Effizienzsteigerung getan hat..
nur durch höhere Effizienz können wir unseren "Grafikhunger" nicht stillen, weshalb jetzt REchner mit bereits 850Watt-Netzteilen unterm Schreibtisch stehen
trotz höherer Effizienz -> in der Praxis mehr Stromverbrauch
und Quest2 vs. Quest3 spiegelt das wider...
trotz höherer Effizienz -> braucht das Teil im Endeffekt deutlich mehr Strom (und hat trotzdem noch lange nicht genug Power um "echtes AAA"-Gaming zu ermöglichen)
seine Aussage widerspricht nicht dem was du hier sagen willst
Ergänzung ()
niemand hier im Thread streitet doch ab, dass die Effizienz gestiegen ist..
niemand
aber: es ist auch so:
ich kann mich noch erinnern, als ich ein 200Watt NEtzteil im Rechner hatte
dann hieß es: um Zukunfssicher zu sein muss es min. ein 350Watt Netzteil sein
paar jahre später: "mit 550Watt NEtzteil bist du für die Zukunft gerüstet"
dann 650Watt
jetzt lese ich schon von Empfehlungen, dass es mindestens ein 850er sein soll
sprich: auch wenn die Effizienz gestiegen ist.. unsere Lust auf noch bessere Grafik ist schneller gestiegen als es die reine Effizienzsteigerung getan hat..
nur durch höhere Effizienz können wir unseren "Grafikhunger" nicht stillen, weshalb jetzt REchner mit bereits 850Watt-Netzteilen unterm Schreibtisch stehen
trotz höherer Effizienz -> in der Praxis mehr Stromverbrauch
und Quest2 vs. Quest3 spiegelt das wider...
trotz höherer Effizienz -> braucht das Teil im Endeffekt deutlich mehr Strom (und hat trotzdem noch lange nicht genug Power um "echtes AAA"-Gaming zu ermöglichen)
Zuletzt bearbeitet:
Gothic47
Ensign
- Registriert
- Okt. 2021
- Beiträge
- 170
Injektor-Unreal Injektor Ports. Denkste, guck mal . Dazu ohne ende Vr Ports. Informieren statt Labern. Meine Pico geb ich nicht mehr her.coral81 schrieb:Tja, auf falsches Pferd gesetzt. Pico wird so langsam auslaufen. Bytedance gibt auf und wird auch keine eigenen Spiele mehr produzieren. PC VR Gaming ist auch praktisch Tot. PSVR 2 liegt auch irgendwie im Dornröschenschlaf. Einzig Meta Quest liefert ab. Assassings Creed Nexus VR und Vampire: The Masquerade - Justice sind verdammt gut geworden und Asgard's Wrath 2 steht auch schon vor der Haustür. Außerdem die Partnerschaft mit Tencent in China. Es gibt kein Unternehmen Weltweit was soviel mit Gaming umsetzt als Tencent.
https://www.spiegel.de/netzwelt/web...nts-an-a-f0371b7a-c5e5-4b4e-bb20-76e1e9eba3f5
https://mobile.traderfox.com/blog/a...n-vr-headset-in-china-auf-den-markt/p-107880/
pgeppl
Newbie
- Registriert
- Okt. 2022
- Beiträge
- 5
Ich benutze die Varjo Aero seit es sie gibt und habe eine RTX 4090 overclocked was geht und einen 7950x3D mit 64GB DDR5 6000MHz und kann trotz des Systems VR nirgends mit voller Grafikpracht benutzen! Jetzt frag ich mich natürlich welche Hardware für dieses Monster noch erfunden werden muss um die Qualität auch zu erleben!? Keine Ahnung wie sich Varjo das so vorstellt oder erträumt? 😂 Wie soll das in den nächsten paar Jahren funktionieren? Das klappt doch niemals! Ach ja und bei meinem System ist mir der Stromverbrauch einfach egal! Hab da jetzt 1200W Netzteil verbaut! Kauf mir auch gern eines mit 3KW oder mehr aber das wird nicht funktionieren und die panels dann mit FullHD zu betreiben oder so ist keine Option für mich 😂🤦🏻♂️🤷🏻♂️
CrustiCroc
Lt. Commander
- Registriert
- Nov. 2014
- Beiträge
- 1.969
Schon geil. Wenn ich den Jackpot knacke bestelle ich die mir auch.
Ansonsten reicht meine Pico 4 im FS2020. Immer wieder völlig abgefahren wie krass das ist selber im Cockpit zu sitzen.
Ansonsten reicht meine Pico 4 im FS2020. Immer wieder völlig abgefahren wie krass das ist selber im Cockpit zu sitzen.
@eazen
Noch mal ganz deutlich: Wenn man die Leistungssteigerungen will die wir im VR Bereich auch brauchen, steigt der Energiebedarf schneller als die Effizienz. Das ist so einer ganzen Weile so und es ist keine Trendumkehr sichtbar, im Gegenteil.
Natürlich könntest du sagen dass wir irgendwann eine 10fache Performancesteigerung rein durch die Effizienz zum gleichen Verbrauch bekommen, aber ich mache dir ein Beispiel um zu zeigen dass das nicht sinnvoll ist:
Effizienzsteigerung Snapdragon GPU über 3 Jahre: ca. 33%. Rechnen wir also mal mit großzügig 50%.
Wir bräuchten ca. 14 Jahre um die 10fache Leistung bei gleichem Verbrauch zu erreichen. Natürlich für den VR Bereich vollkommen unrealistisch, da wir diese Leistung eigentlich heute schon bräuchten. Ganz zu schweigen von 14 Jahren.
Wenn nun aber die Leistungssteigerung um den Faktor ~2,5 über 3 Jahre beibehalten wird, hätten wir die Leistung in nur 7 Jahren. Schon besser. Allerdings wäre dann der Verbrauch 8x höher. Funktioniert logischerweise nicht in mobilen Systemen.
Also wird man eine Balance finden müssen, aber der Trend ist klar: Es wird verdammt schwer durch den "natürlichen Fortschritt" so winzig kleine und leichte Headsets wie die Beyond als Standalone zu bauen, da diese eigentlich immer schwerer werden müssten durch umfangreichere Kühlung und co. - denn Physik bleibt Physik.
Hoffe dir ist es jetzt klarer
Noch mal ganz deutlich: Wenn man die Leistungssteigerungen will die wir im VR Bereich auch brauchen, steigt der Energiebedarf schneller als die Effizienz. Das ist so einer ganzen Weile so und es ist keine Trendumkehr sichtbar, im Gegenteil.
Natürlich könntest du sagen dass wir irgendwann eine 10fache Performancesteigerung rein durch die Effizienz zum gleichen Verbrauch bekommen, aber ich mache dir ein Beispiel um zu zeigen dass das nicht sinnvoll ist:
Effizienzsteigerung Snapdragon GPU über 3 Jahre: ca. 33%. Rechnen wir also mal mit großzügig 50%.
Wir bräuchten ca. 14 Jahre um die 10fache Leistung bei gleichem Verbrauch zu erreichen. Natürlich für den VR Bereich vollkommen unrealistisch, da wir diese Leistung eigentlich heute schon bräuchten. Ganz zu schweigen von 14 Jahren.
Wenn nun aber die Leistungssteigerung um den Faktor ~2,5 über 3 Jahre beibehalten wird, hätten wir die Leistung in nur 7 Jahren. Schon besser. Allerdings wäre dann der Verbrauch 8x höher. Funktioniert logischerweise nicht in mobilen Systemen.
Also wird man eine Balance finden müssen, aber der Trend ist klar: Es wird verdammt schwer durch den "natürlichen Fortschritt" so winzig kleine und leichte Headsets wie die Beyond als Standalone zu bauen, da diese eigentlich immer schwerer werden müssten durch umfangreichere Kühlung und co. - denn Physik bleibt Physik.
Hoffe dir ist es jetzt klarer
Du bestreitest also dass die Effizienz von SD865 auf SD8 Gen2 nicht (annähernd) schnell genug gestiegen ist um den Leistungsbedarf gleich zu halten bei der gewünschten Mehrleistung?
Ergänzung ()
Ich habe nie bestritten dass die Effizienz nicht steigt, ganz im Gegenteil. Ich sage nur dass der Fortschritt in der Effizienz nicht ausreicht um die benötigten / gewünschten Leistungssteigerungen zu kompensieren. Und das schon sehr lange nicht.Piecemaker schrieb:Eine GTX980 mit 165Watt hat somit den gleichen Verbrauch wie eine ~150% schnellere undervoltete RTX 3070.
eazen
Banned
- Registriert
- Nov. 2023
- Beiträge
- 516
Du suchst dir also einzelne Beispiele die deinem falschen Argument dienen um zu versuchen einen Punkt zu machen den du längst verloren hast. Leider bestätigen einzelne Beispiele nur die Regel: die Effizienz geht regelmässig stark hoch, hör auf die Fakten und Wissenschaft zu ignorieren.Blaexe schrieb:Du bestreitest also dass die Effizienz von SD865 auf SD8 Gen2 nicht (annähernd) schnell genug gestiegen ist um den Leistungsbedarf gleich zu halten bei der gewünschten Mehrleistung?
Ergänzung ()
Das absolute Gegenteil ist der Fall, Datacenter und PCs gehen von Effizienzspitze zu Effizienzspitze. Bring doch mal handfeste Fakten und Daten statt leere Worte. Andere Leute hier haben diese schon gebracht um dein Argument zu beerdigen.Blaexe schrieb:Ich habe nie bestritten dass die Effizienz nicht steigt, ganz im Gegenteil. Ich sage nur dass der Fortschritt in der Effizienz nicht ausreicht um die benötigten / gewünschten Leistungssteigerungen zu kompensieren. Und das schon sehr lange nicht.
Kraeuterbutter
Admiral
- Registriert
- Nov. 2007
- Beiträge
- 7.486
eazen schrieb:Komisch, sehe nicht wo ich mich "selbst gelobt" hätte, lass das mal lieber bleiben mit dem Amateur-Psychologen, denn da bist du nicht gut drin.
also z.B.:
eazen schrieb:Du brauchst mir gar nichts erklären weil es hier doch offensichtlich ist das ich weit mehr von Technologie verstehe als du. Ja bitte geh schlafen und lass es bleiben.
du wirst dir in Zukunft wohl viele Freunde machen im Forum
keine 50 Posts bis jetzt, aber schon ne unfreundliche Art an den Tag gelegt
Man könnte auch verschiedener Meinung auf freundlicher Art und Weise sein
es ging um Effizienz der in Standalone-Brille verbauten Prozessoren..eazen schrieb:Ist ja egal wie "spät" es da getestet wurde, ändert auch nichts an meinem Argument. Falls das Ding nun 6 Monate früher rauskam bekräftigt es im übrigen mein Argument nur weiter. (Ist das nun wieder "Selbstlob" laut dem Hobby-Psychologen? LMAO, da weiß jemand nicht was Selbstvertrauen ist).
Naja, doch ist es, weil es einen Sprung im Vergleich zu VR-Headsets wie dem Index darstellt, es ist ein allgemeines Argument was ich damit mache, nicht spezifisch auf dieses hier.
von daher ist ein Vergleich Index/Beyond wenig zielführend, da beide Brillen weder standalone sind, noch nen Prozessor haben
Äpfel/Birnen sozusagen
ok.. das erklärt wohl, warum du so wenig zugängig für Argumente anderer bist..eazen schrieb:Eigentlich doch, es widerspricht dem sehr wohl.
scheinbar verstehst du es nicht
der zitierte Satz widerspricht dem eben nicht
da geb ich dir recht..eazen schrieb:Ja, aber wir sind da nun auch schon an der Grenze angekommen, oder denkst du die nächsten Grafikkarten werden dann 600W, oder gar 800W ziehen? Nein, ich denke es wird ne Deckelung geben und dann wird als nächstes nur die Effizienz steigen, ähnlich wie es bei CPUs lange der Fall war (TDP um die 105) und erst wegen Intels Brechstange dann ausgehebelt wurde,
bei den Standalone-Headsets ists wohl die USB-Schnittstelle bzw. wieviel Wärme man am Kopf abgeben kann..
die da ein Limit setzt..
wir werden wohl (hoffentlich ) nie ein Headset mit 100Watt Leistungsaufnahme sehen
das widerspricht aber nicht der Beobachtung mancher hier,
das die 3te (4te) Generation an Headset, das modernste Standalone-Headset derzeit (nämlich die Quest3)
auch das Headset mit dem höchsten Strombedarf ist
sprich: der Leistungsbedarf ist mehr gestiegen als die Effizienz
und bei den Grafikkarten ists eben ähnlich..
vor 5 oder 10 Jahren haben wir noch keine 850Watt Netzteile in einem "Standard"-Gamingrechner hohne Overclocking verbaut gesehen
klar ist die Effizienz gestiegen.. aber halt nicht genug
man hat die Leistung um mehr als die Effizienzsteigerung angehoben
wird das immer so weitergehen? wohl nicht
a) wollen und dürfen wir keine 3500Watt REchner haben
b) sehen wir ja auch schon andere Entwicklungen, z.b. bei Apple hin zu leistungsstarken Passiv gekühlten Geräten mit geringem Verbrauch
Ergänzung ()
ok, du scheinst tatsächlich entweder nicht richtig zu lesen, oder nicht zu verstehen..eazen schrieb:die Effizienz geht regelmässig stark hoch, hör auf die Fakten und Wissenschaft zu ignorieren.
Ergänzung ()
hmm.
@Blaexe: vielleicht versteht eazen das einfach wirklich nicht?
oder er will nur trollen
Das Beispiel ist am passendsten für das hier diskutierte Thema, aber grundsätzlich auf den gesamten GPU Bereich anwendbar. Sonst würde eine Spitzen GPU heute keine 2kg wiegen.eazen schrieb:Du suchst dir also einzelne Beispiele die deinem falschen Argument dienen um zu versuchen einen Punkt zu machen den du längst verloren hast.
Ich habe nie etwas anderes behauptet. Reicht halt nur nicht aus - wie 10x bereits gesagt.eazen schrieb:Leider bestätigen einzelne Beispiele nur die Regel: die Effizienz geht regelmässig stark hoch, hör auf die Fakten und Wissenschaft zu ignorieren.
Kraeuterbutter
Admiral
- Registriert
- Nov. 2007
- Beiträge
- 7.486
was redest du von Datacenter?eazen schrieb:Nö, der ist eben zuletzt im Datacenter weit besser geworden, die Effizienz kann nicht steigen, während der Leistungsbedarf steigt, das macht absolut keinen Sinn.
wir reden hier von VR-Brillen
ich kenne deine Erfahrung mit VR-Brillen nicht..
aber ich hab jetzt z.b. die Go, die Quest1, Quest2 die Pico4 und nun die Quest3
und es zieht sich wie roter Faden durch:
die Akkukapazität ist von Brille zu Brille gestiegen..
die Laufzeit allerdings sogar gesunken
sprich: unsere Ansprüche an Prozessorleistung und Bildschirmhelligkeit / Pancakelinsen
ist stärker gestiegen, als die Effizienzsteigerung kompensieren hat können
und davon reden wir hier..
nicht von Datacenter