• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Avatar: Frontiers of Pandora im Test: Fantastische Grafik will viel GPU-Leistung

Man kann meiner Meinung nach über Far Cry (und somit wahrscheinlich o. möglicherweise auch Avatar als "Far Cry mit Avatar Setting") sagen was man will, aber die kriegen immer wieder eine besondere Atmosphäre hin. Mich hat Teil 5 und 6 von Far Cry zumindest unterhalten. Manchmal ist es zudem auch einfach beeindruckend schön.
Ich habe Avatar mehrmals wegen neuer CPUs bekommen und werde es zusammen mit meiner Frau durchspielen (wie auch schon Far Cry 6).
 
  • Gefällt mir
Reaktionen: TigerherzLXXXVI
Die RX 6800XT (RDNA2) liegt vor der RX 7800XT (RDNA3), wenn auch nur marginal, in Full-HD und WQHD im Avatar: Frontiers of Pandora Spiel, welches schon überraschend ist.
Leider wurde das in 4K/UHD, aus welchen Gründen auch immer auch immer ;) @Wolfgang , uns bisher noch vorenthalten?
Ich gehe aber davon aus, dass man mit den beiden Karten in FSR3 Balanced stabile 30fps in 4K/UHD erreichen können dürfte, was zur Grafikschnupperei in der Auflösung (wer es denn braucht?) auch reichen dürfte.

Auch schade, dass es keinen einzigen nativen Benchmark für alle Karten zumindest in einer Auflösung (bspw. nur in Full-HD) mehr gibt, um den Effekt von FSR und DLSS bei Karten verschiedener Architekturen im Avatar Spiel aufgezeigt zu bekommen (nicht nur für zwei ausgewählte Karten um/über 1000 Euro, die die wenigsten Gamer sich leisten dürften und selbst das ist hier ja nicht mehr gegeben), so dass man sich dahingehend wohl jetzt und zukünftig anderweitig im Internet umsehen wird müssen, aber stattdessen wird die Laufähigkeit auf dem Steam Deck wohl priorisiert.

Ja gut, letzteres kann man machen, aber ob das bei diesem dafür nicht ausgelegten Spiel wirklich sinnvoll ist, sei dahin gestellt.

Ansonsten dürfte das wohl ein typisches UbiSoft Formel Spiel sein, also blendend hübsche Grafik gepaart mit grindlastigem, evt. geskriptetem und damit eher dürftig attraktivem Gameplay und so leider nicht unbedingt mein Fall, aber es gibt ja genügend Leute, die so ein Schema F Gaming zu mögen scheinen.

Irgendwie scheint das aber etwas, was auch für andere (im Artikel genannte) Grafikblockbuster/-blender (dieses Jahres) gelten dürfte und schöne Grafik alleine/vordergründig macht für mich jedenfalls noch lange kein gutes Spiel mit dauerhaft anhaltendem Spielspaß (und lohnen keine Anschaffung einer sehr teuren Grafikkarte nur zum spielen), aber das mögen einige Leute (hier) natürlich anders sehen.

8 GB sind für maximale Grafikdetails bereits in Full HD inklusive Upsampling nicht mehr zu empfehlen, mindestens 10 GB sollten es sein. Für WQHD empfiehlt die Redaktion 12 GB ...

Danke für den Hinweis, der auch aufzeigt, dass die meisten aller aktuellen Gaming-Laptops, die aktuell verkauft werden, das Geld nicht wert sind bzw. mittlerweile unzureichend bestückt sind was den Speicher angeht, da diese überwiegend nur mit 8GB Grafikkarten kommen.

12GB (ab einer RX 6800M, mobilen RTX 3080Ti oder mobilen RTX 4080) wäre da m.E. schon das Minimum und besser wären natürlich 16GB Speicherausbau (ab einer RX 7900M oder mobilen RTX 4090).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx
MrHeisenberg schrieb:
Doch, wenn du etwas behauptest, musst du es auch beweisen können, ansonsten ist deine Aussage eben wertlos ;)
Wenn du das meinst. Ich muss irgendwelchen Foren Usern nichts beweisen. ;)
MrHeisenberg schrieb:
wenn Tests zu einem anderen Ergebnis kommen.
CB sagt das FG für COD nicht unbedingt empfehlenswert ist. Dem glaube ich mehr als deine subjektive Sicht der Dinge.
MrHeisenberg schrieb:
Btw. bietet CS 2 upscaling und zwar in Form von FSR1
Das FSR1 eine einfache Notlösung ist, für ältere Karten kann man aber durch logisches Denken, selbst darauf kommen. Niemand nutzt ernsthaft FSR1, allein wegen der schlechten optischen Qualität. Ein Thema wo du ja auch gerne drauf herum reiten tust. Bei FSR1 sogar berechtig.

Hat aber auch lange gedauert bis du das mal aus dem Hut zaubern tust um irgendein Gegenargument zu haben. :)

Was es aber kein tatsächliches Argument ist, weil es unzählige weitere Bsp in Form von Games gibt für meine Aussage. Auch mit anspruchsvollerer Grafik. Destiny 2, wie erwähnt Hunt Showdown uvm.
MrHeisenberg schrieb:
Ergibt auch Sinn, weil DLSS und co. die Latenz senken
Das ist durchaus korrekt trifft aber nur auf Upscaling zu, nicht auf FG. Wie du weiter oben selbst schreibst. FG hat keinen Mehrwert im Multiplayer.

Weil ein Diskurs mit Dir aber nie zielführend ist, (hätte ich eigentlich vorher wissen müssen), beende ich jetzt die Unterhaltung. Du hast deine Ansichten, ich Meine.
 
  • Gefällt mir
Reaktionen: Chismon und AEonVi
Mr. Vega schrieb:
Das FSR1 eine einfache Notlösung ist, für ältere Karten kann man aber durch logisches Denken, selbst darauf kommen. Niemand nutzt ernsthaft FSR1, allein wegen der schlechten optischen Qualität. Ein Thema wo du ja auch gerne drauf herum reiten tust. Bei FSR1 sogar berechtig.
Deine Aussage war, dass Multiplayerspiele bzw. Shooter Upscaler nicht nutzen, weil es keinen Sinn ergeben würde.
Dies ist falsch und das beweisen CoD, CS 2 und The Finals. Jeder aktuelle Multiplayershooter bietet irgendeine Art von Upscaling.

Mr. Vega schrieb:
Was es aber kein tatsächliches Argument ist, weil es unzählige weitere Bsp in Form von Games gibt für meine Aussage. Auch mit anspruchsvollerer Grafik. Destiny 2, wie erwähnt Hunt Showdown uvm.
Was alles uralte Spiele sind, welcher releaset wurden, als es keine Upscaler gab. Sämtliche neuen Spielen supporten sie. Merkste also selbst, oder?

Hunt Showdown soll übrigens FSR via Update bekommen: https://www.pcgameshardware.de/Hunt...e-Update-PS5-Playstation-Xbox-Series-1430424/
Damit liegst du also wieder falsch ;)

Mr. Vega schrieb:
Das ist durchaus korrekt trifft aber nur auf Upscaling zu, nicht auf FG. Wie du weiter oben selbst schreibst. FG hat keinen Mehrwert im Multiplayer.
Blöd nur, dass du auch von Upscalern gesprochen hast:
Mr. Vega schrieb:
Richtig, ein Großteil dieser Spiele bieten alle kein Upscaling oder Frame Generation, aus gutem Grund, weil es in solchen Games weder sinnvoll noch nötig ist, vorallem Frame Generation. Es sind eben auch nicht die Einzigen.
Drehste dich jetzt wie ein Fähnchen im Wind, weil dir die Argumente ausgehen? Schwach ;)

Also halten wir Fest, dass folgende kompetitve Shooter irgendeine Art von Upscaler supporten:
  • CoD
  • The Finals
  • CS 2
  • Hunt Showdown (bald via Update)
Damit wäre deine Grundaussage widerlegt.

Keine Ahnung was du für ein Problem mit Upscalern hast, dass du selbst, wenn du nachweislich daneben liegst, auf Teufel komm raus dagegen argumentieren musst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx und Quidproquo77
Mimir schrieb:
Dieses "vor kurzem" waren Benchmarks mit Spielen, die noch für PS4 und Xbox One entwickelt wurden.
Klar, dass die 4090 da abgeht wie sonst was. Mittlerweile laufen Spiele aber nicht mehr auf PS4 und Xbox One. PS5 und SeriesX sind jetzt die Baseline. Logisch, dass die Anforderungen extrem ansteigen.
Bleibt dabei, dass die Anforderungen an die Grafikkarte in einem Missverhältnis zu der Verbesserung der Spielegrafik stehen.

Insofern bleibe ich dabei, dass Spielehersteller die Möglichkeiten des Upscalings nutzen, um ihren Optimierungsaufwand zu minimieren.
 
StuffedLion schrieb:
Da zeigt sich doch sehr schnell, dass Nvidia uns ganz schöne vram Krüppel verkauft hat.

Die 12gb meiner 4070ti sind echt ein schlechter Scherz und jetzt schon nicht mehr ausreichend
Das war seit Release der 4070ti schon klar und wurde oft genug von Reviewern (Hardware unboxed, IgorsLab, Linus, JaytwoCents, Gamers Nexus, usw) gewarnt. Nicht vergessen, das Nvidia es als RTX4080 verkaufen wollte bevor der Shitstorm losging.
Spätestens seit Forspoken, Hogwarts Legacy und Cyberpunk Pathtracing update, konnte die 4070ti auf 4K nichts mehr groß reißen wenn man die Regler nicht nach links verschoben hat und seit Alan Wake 2, steht ihr schon bei 1440p / High / Native & 1440p / High / RT / DLSS, beinahe das Wasser zum Hals, außer man verwendet FG.

chardy schrieb:
Wann Erweiterungsslots für VRAM-Riegel auf Grafikkarte? Wird langsam Zeit...
N64 Expansion Pack 2.0? XD

Mimir schrieb:
Dieses "vor kurzem" waren Benchmarks mit Spielen, die noch für PS4 und Xbox One entwickelt wurden.
Klar, dass die 4090 da abgeht wie sonst was. Mittlerweile laufen Spiele aber nicht mehr auf PS4 und Xbox One. PS5 und SeriesX sind jetzt die Baseline. Logisch, dass die Anforderungen extrem ansteigen.
Lt. Digital Foundry liegen die PS5 / XBox series X, GPU mäßig, ungefähr auf dieselbe Performance einer 5700XT / RTX 2070 Super. Daher sollte eine 4090 immer noch abgehen wie sonst was.
 
Beatmaster A.C. schrieb:
Lt. Digital Foundry liegen die PS5 / XBox series X, GPU mäßig, ungefähr auf dieselbe Performance einer 5700XT / RTX 2070 Super. Daher sollte eine 4090 immer noch abgehen wie sonst was.

Na ja. Die 4090 ist ca 3x so schnell.
2x geht schon alleine dafür drauf, um von 30 auf 60 FPS zu kommen.

Der Rest geht für etwas höhere Auflösung und Settings drauf.
Das ist ein komfortabler Vorsprung, damit wird man lange Zeit gut auskommen, aber damit reißt man keine Bäume aus. Viele überschätzen die Leistung dann auch etwas…

Zu Vergleich: Leistungsunterschied PS4 vs PS5 ist 8x auf Basis TFLOPS. (real also mehr)
 
Taxxor schrieb:
sie sind im aktuellen Frame in der traditionell gerendert nativen Auflösung nicht vorhanden, müssten aber vorhanden sein, genau dafür gibt es das Upsampling ja.
Und wenn der aktuelle Frame so anders ist dass bildinformationen in diesem tatsächlich nicht mehr benötigt werden, werden diese auch verworfen

In der Theorie. Klappt nur nicht immer

Taxxor schrieb:
es ist das sichtbar machen, was von der CPU an die GPU geschickt wurde, aber aufgrund von zu geringer Auflösung nicht in jedem Frame ordentlich dargestellt werden kann. Dadurch entsteht flimmern, weil die Pixel es mal in einem Frame durchs Raster schaffen und in einem anderen Frame mal wieder nicht.
DLSS behebt das und sorgt für Bildruhe
Nicht richtig, zumindest wenn kein Double oder Tripplebuffering zum Einsatz kommt. (welche den gleichen Nachteil mit der höheren Latenz haben)
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Hallo zusammen,
habe gestern/heute um 0 Uhr kurz in das Spiel reingeschaut, und wollte das erste mal FSR3 mit FG testen...
Beim einschalten von Frame Generation kam jedoch die Meldung das Programme wie RivaTuner das aktivieren verhindert...?
Würde gerne die PC Auslastung etc. per Overlay anzeigen lassen, gibts da eine alternative?

Oder muss ich einfach nebenbei HWInfo oder sonstiges laufen lassen?
 
Im Gamestar Vorabtest widerspricht sich Fabiano andauernd, wenn er sagt man verbringt einen Großteil der Zeit mit "immersivem Sammeln", aber es gäbe nicht so viele "Sammelsachen". Es wirkt nicht so, als hätte sich an der Formel viel geändert, ohne es selber gespielt zu haben sieht es eher nach mehr Sammeln als bei bspw. FC6 aus. Was nicht schlecht sein muss mMn, aber bei anderen Spielen gab es dafür viel Hate.

Und dafür, dass angeblich James Cameron himself an der Story mitgearbeitet haben soll ist das Spiel in dieser Hinsicht anscheinend sehr mau.
 
Artikel-Update: ComputerBase hat die Bewertungen und Meinungen anderer Spiele-Magazine zusammen gefasst, um so nicht nur einen ausführlichen Eindruck über die Technik des Spiels, sondern auch ein Bild über die spielerische Qualität von Avatar: Frontiers of Pandora liefern zu können.
 
  • Gefällt mir
Reaktionen: PietVanOwl, simosh, Quidproquo77 und eine weitere Person
Mimir schrieb:
Zu Vergleich: Leistungsunterschied PS4 vs PS5 ist 8x auf Basis TFLOPS. (real also mehr)
wenn wir nach TFLOPS gehen hat die RTX 2070 Super faßt doppelt soviel TFLOPs (18.12) als die PS5 (10.28) aber hängt je nach Spiel 5 bis 15fps hinter der PS5.

TFLOPS ist kein guter und vor allem kein eindeutiger (grafischer) Leistungswert.
Da beide unterschiedliche Architekturen haben lässt die (TFLOPS) Aussagekraft deutlich nach.
Speicher und fps sind da aussagekräftiger.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, slamaa und Tanzmusikus
Rainbowprincess schrieb:
das Spiel unterstreicht dieses Argument aber nicht. Das Spiel sieht nicht so bahnbrechend genial aus, dass es eine solche Leistung rechtfertigen könne. Das Wasser z.B sieht sogar richtig schlecht aus. Was sind das für ranzige Spiegelungen mit "lowres Riffelungen"?
Anhang anzeigen 1428675


Mit einer 4090 die nichtmal in UHD rendert sondern nur hoch skaliert und sich damit nur einer nativen Bildqualität annähert, diese aber nicht erreichen wird.
Genau hier sollte man langsam mit seiner Wortwahl acht geben. Die 81 fps sind nicht in UHD erreicht, sondern durch hochskalierung auf UHD erreicht.
Aber in reiner Rasterleistung knacken sie auch in den meisten Fällen problemlos die 60/80 nativ. Der Flaschenhals wird dann mit den neuen Features wie RT usw. erst generiert. Ich hatte noch nie so eine schnelle Karte wie jetzt. Bis Turing oder auch Ampere war eigentlich nie an 4k mit Highend zu denken auch ohne upscaler. Das kann ich jetzt mit der 4080 sehr oft. Klar sobald RT in High dazu kommt wirds eng. Aber dann hilft mir der Upscaler und ich kann die Settings nochmal pushen.
Habe schon so oft nativ mit upscaler verglichen und die unterschiede sind wirklich mit der Lupe zu suchen, im Spielgeschehen fällt das nicht mal auf…
 
12 GB reichen doch für alles - Verschwörung !11111
ShaleX schrieb:
Speile es auch zurzeit. Grafik wirklich bombastisch. Aber am ende nach 2h:

Far Cry 7 mit Avatar Skin mehr isses leider nicht.
Die große Überraschung :D
 
Taxxor schrieb:
Auch das steht und fällt mit der Implementierung. Es gibt auch DLSS Implementierungen, die schärfer sind(ohne zu überschärfen)
Vermutlich ist es ein Abwegen zwischen höherer Bildstabilität und höherer Bildschärfe. Man kann quasi nur eins davon haben. Oder man findet eine gute Balance.
 
Habs mir jetzt mal mit Ubisoft+-Abo angeschaut. Die Grafik in den Außenarealen ist (größtenteils) sehr sehr gut. Vor allem die Texturen, die Dichte der Vegetation und die geometrische Komplexität der Waldböden ist beeindruckend.

Allerdings stört mich der starke LoD-Pop-In, selbst auf maximaler LoD-Einstellung (7 Schritte über dem Ultra-Preset), sehr. Ich hoffe, man kann das über Config-Dateien verbessern. Zum Glück ist sowas in Zukunft mit Techniken wie Nanite größtenteils Geschichte.

Die Wasserdarstellung ist aber wirklich furchtbar und wirkt völlig aus der Zeit gefallen. Sie fügt sich überhaupt nicht in das Gesamtbild ein. Hier wäre Hardware-Raytracing mit vernünftiger Auflösung und ein völliger Verzicht auf SSR und Cube-Maps als Option für die maximalen Settings sehr hilfreich gewesen. Allerdings habe ich auch schon wesentlich bessere Wasserdarstellungen mit Cube-Maps und SSR gesehen (z. B. in Horizon Forbidden West, Red Dead Redemption 2 und The Last of Us). Keine Ahnung was da schief gelaufen ist.

Was mich außerdem stört, sind die häufig grisseligen Schatten. Dadurch wird das Bild häufig sehr unruhig. Auch hier hätte Hardware-Raytracing in ausreichender Qualität gut getan.

In Innenarealen finde ich die Grafik "nur" in Ordnung. Hier ist dann auch die Performance entsprechend wesentlich höher. Da hätte man also auch mehr draus machen können.

Edit: Es gibt tatsächlich sogenannte "Unoptanium"-Settings* die sich über den Startbefehl "-unlockmaxsettings" freischalten lassen und viele der genannten Probleme verbessern. Die kosten allerdings natürlich nochmal ein gutes Stück Leistung.

*https://www.ubisoft.com/en-us/game/...ar-frontiers-of-pandora-pc-features-deep-dive
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: simosh, Quidproquo77 und Roach13
Beatmaster A.C. schrieb:
Spätestens seit Forspoken, Hogwarts Legacy und Cyberpunk Pathtracing update, konnte die 4070ti auf 4K nichts mehr groß reißen wenn man die Regler nicht nach links verschoben hat und seit Alan Wake 2, steht ihr schon bei 1440p / High / Native & 1440p / High / RT / DLSS, beinahe das Wasser zum Hals, außer man verwendet FG.
Liegt auch ganz sicher allein an den 12GB VRam....Leistung hätte sie ja gaaanz locker
So ganz ohne Pathtracing.....
Alan+.jpgCP.jpg
 
Tanzmusikus schrieb:
@Wolfgang
Arc (z.B. A770) kann AV1 decodieren.
https://ark.intel.com/content/www/de/de/ark/products/229151/intel-arc-a770-graphics-16gb.html
Die Arc A770 soll sogar AV1 encodieren können.
Generell AV1 encodieren ist nicht das Problem. Das Problem sind 2 oder 3 Streams gleichzeitig. Da machen dann auch GPUs die Grätsche, die einen 4K60-AVC1-Stzream durchaus beschleunigen können.
Calid schrieb:
bin ich der einzige, der von dieser Optik Augenkrebs bekommt? klicki-bunti-reizüberflutung. und natürlich haben die frauen (oder was auch immer das sind) kurze violette haare. :freak:
Schonmal nen Avatar-Film gesehen?

Mr. Vega schrieb:
Aber nur in Singleplayer Games tatsächlich. In Multiplayer Games vorallem schnellen Shootern sehe ich das noch länger nicht als gegeben an.
Super Resolution eignet sich perfekt für Multiplayer-Spiele. Die Framerate steigt an, die Latenz verringert sich, das ist perfekt. Frame Generation halte ich spätestens für Competetive Multiplayer dagegen ungeeignet. Egal, wie die Framerate ist. Alleine schon, weil es einen Disconnect zwischen Bildausgabe und Steuerung gibt.
GreatEvil schrieb:
In Anbetracht wie schlecht FHD DLSS aussieht, sind die Aussagen von Wolfgang schon recht sinnlos.
Full HD sieht in modernen Spielen generell schlecht aus. Moderne Spiele haben viel zu viele Details, um in Full HD noch gut dargestellt werden zu können.
FX-Multimedia schrieb:
Natürlich sind die Daten nicht vorhanden. Ich weiß wie das Upscaling funktioniert. Es werden aber Details aus 2-3 Frames genommen welche in dem aktuellen Frame u.U. gar nicht vorhanden sind. Ergo wird interpoliert, was immer zu einem gewissen Maße "Faken" ist. Auch Anzeigefehler sind oft vorhanden. Auch vergrößert sich die Latenz.

Soll jeder nutzen was er mag, aber an das native Bild inkl. deren besseren Latenz kommt man da nicht ran. Man kann DLSS usw. gerne nutzen, aber wie gesagt, es ist ein vorschwindeln von Leistung welche nicht vorhanden ist. Der Anreiz zum optimieren fehlt den Devs ebenfalls.

Meiner Meinung nach der komplett falsche Weg der da eingeschlagen wird und noch schlimmer das die Presse, wie auch CB hier, das ganze bejubelt.

Ich finde es z.b. extrem anmaßend das Wolfgang hier allgemein die Daseinsberechtigung von nativer Bildausgabe (z.b. UHD) anzweifelt und meint das man Tests mit nativer Ausgabe nicht mehr macht. Das ist nicht wirklich professionell für ein Computerforum.
Das, was du da oben beschreibst, ist übrigens normales TAA. Sprich, Native Auflösung und TAA nutzen auch die Bildinformationen einer Handvoll vorheriger Frames. Das ist dann also auch böse ;) DLSS und FSR nutzen dagegen Bildinformationen von bis zu 40, 50, 60 Frames vorab.

Da wird auch nichts gefaked, sind Motion Vectors vorhanden weiß Upsampling, wie sich Pixel bewegen. Da erhöht sich auch keine Latenz. Du schreibst da ein paar echt falsche Sachen. Vor allem das mit der Latenz ist halt nachweisbar völlig falsch.

Und was hat das mit anmaßend zu tun? Es ist mein Job als Redakteur und Journalist, Sachen zu bewerten. Muss man den Empfehlungen folgen? Sicherlich nicht. Dürfen wir Empfehlungen machen? Natürlich. Und nach diesen Empfehlungen richten sich dann auch unsere Testläufe. Das hat nichts mit anmaßend zu tun.
AEonVi schrieb:
Habe mal in das Spiel rein gelunscht, ahh voll cool.

Aber eine Frage habe ich zum Skalierungsmodus: eingestellt war bzw. ist Unausgeglichen, sollte ich das so lassen bei meinem Monitor?
Festgelegt musst du da einstellen. Das ist etwas bescheuert gemacht, ich weiß nicht wieso...
Chismon schrieb:
Die RX 6800XT (RDNA2) liegt vor der RX 7800XT (RDNA3), wenn auch nur marginal, in Full-HD und WQHD im Avatar: Frontiers of Pandora Spiel, welches schon überraschend ist.
Leider wurde das in 4K/UHD, aus welchen Gründen auch immer auch immer ;) @Wolfgang , uns bisher noch vorenthalten?
Ich gehe aber davon aus, dass man mit den beiden Karten in FSR3 Balanced stabile 30fps in 4K/UHD erreichen können dürfte, was zur Grafikschnupperei in der Auflösung (wer es denn braucht?) auch reichen dürfte.
Der Grund ist einfach, dass die Avatar-Benchmarks sich genau an die Grafikkarten und die getesteten Grafikkarten je Auflösung halten wie beim hoffentlich demnächst fertigen Testparcours. Sprich, die Avatar-Benchmarks werden dann wie sie aktuell sind auch im Testparcours genutzt werden. Zumindest ist das der aktuelle Plan.
 
  • Gefällt mir
Reaktionen: Guphoff, xXBobbyXx, slamaa und 8 andere
Zurück
Oben