• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Indiana Jones und der Große Kreis im Test: Die PC-Version vereint Spitzen-Grafik mit hohen FPS

Icke-ffm schrieb:
Da würde ich mir als Nvidia nutzer in den Arsch beissen wenn selbst eine Ada-16GB nicht mal mehr mit Ultra details in FHD und DLSS performance auf spielbare frames kommt.
Wird hier nicht anders laufen....das A.... beissen überlassen ADA Besitzer lieber anderen.
Wie wissen ist VRam doch alles :evillol:

Alan wake 2.jpg BMW.jpg
 
  • Gefällt mir
Reaktionen: MalWiederIch und Taxxor
Ein exclusive von Microsoft das auch noch gut ist und gut läuft? Wo sind wir denn hier gelandet??? <3
Schön, freut mich sehr.
 
AssassinWarlord schrieb:
Ist es wirklich so schwer, objekte eine Kollisionserkennung zu geben, dass die Entwickler wenigstens eine Warnung angezeigt bekommen wenn es irgendwo ins Clipping geht?
Ja ist es 😉
Ein Computer hat perse kein Verständnis von Objekten und Kollisionen. Das kann im Bereich der CAD Konstruktion echt frustrierend sein.

Finde ich aber auch störend und das wäre auf jeden Fall ein Bereich in dem ich Innovation begrüßen würde.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und ElliotAlderson
wechseler schrieb:
Dort gibt es nur HD und UHD, weil HDMI offiziell nichts anderes unterstützt.
Wie kommt man darauf? HDMI unterstützt seit 1.2 auch offiziell noch beliebige andere Auflösungen. HDMI macht Vorgaben zur maximalen Bandbreite, Frequenzen und pixel overheads. Was zwei Endpunkte innerhalb dieser Limits anstellen ist der Spezifikation fast schon egal. Das HDMI Forum gibt Empfehlungen für standardisierte Auflösungen und Timings an, diese sind aber nicht exklusiv zu sehen.

Restriktion auf bestimmte Formate gab es nur in 1.0 und 1.1.
 
Zuletzt bearbeitet:
quakegott schrieb:
Scheint so als ob Nvidias VRAM-Politik der letzten Jahre jetzt dezent nach hinten los geht

Eigentlich ja nicht.

Texture Pool muss nur zum VRAM der GPU passen. Richtig einstellen und gut ists.

In bisherigen ID tech Spielen hat sich gezeigt, das man den Texture Pool schon auf Low setzen muss, damit sich schlimmstenfalls erste Anzeichen einer geringeren Texturqualität auftun. In Doom Eternal empfiehlt Digital Foundry sogar, das direkt auf low zu setzen, wenn man weniger Speicher hat, weil es optisch keine Einbußen gibt.

Ist nur dumm, dass die Entwickler das nicht klarer kommunizieren oder es einfach automatisch einstellen.
 
  • Gefällt mir
Reaktionen: MalWiederIch, muh0rsen, 12nebur27 und eine weitere Person
RushSyks schrieb:
Dieser Fall ist allerdings ein Hero Shot und komplett geskriptet und durchanimiert, da kann man auch irgendwie erwarten, dass da jemand manuell drüber geht und das behebt. Völlig unabhängig von Kollisionserkennung und sonstwas.
 
  • Gefällt mir
Reaktionen: RushSyks
Ich habe mir gerade nochmal die Performance von Indiana Jones angesehen..
  • Die Review-Version und die Launch-Version des Spiels laufen komplett gleich schnell. Denuvo kostet in dem Spiel also 0 Prozent Performance.
  • Intel Arc ist mit dem Game Ready Treiber 0 Prozent schneller geworden
  • Nvidia GeForce ist mit dem Game Ready Treiber 0 Prozent schneller geworden
  • AMD Radeon ist mit dem Game Ready Treiber 0 Prozent schneller geworden
 
  • Gefällt mir
Reaktionen: Redundanz, SweetOhm, MalWiederIch und 13 andere
AssassinWarlord schrieb:
Ist es wirklich so schwer, objekte eine Kollisionserkennung zu geben
An sich nicht, wobei so dünne Objekte durchaus noch problematisch sind. Allerdings bräuchte man für ein brauchbares Nutzererlebnis (für Entwickler) noch so viel händische Zusatzarbeit, dass es sich vermutlich insgesamt nicht wirklich lohnt. Dafür müsste man dann jedes zu sehende Objekte erstmal mit korrekter Kollisionsgeometrie versehen, irgendwie klassifizieren, erlaubte Überschneidungen definieren, usw. Bevor man all das macht ist es schneller, einige Durchläufe akribisch anzusehen und die Fehler manuell zu beseitigen.
 
Hallo. Hab mit der Treiberversion:566.36 nur Probleme. God of War stürzt beim Shader kompilieren ab, until dawn startet gar nicht mehr und silent hill 2 remake bringt eine Fehlermeldung beim Starten. Was ist da los? Indiana jones läuft allerdings.
 
  • Gefällt mir
Reaktionen: pitu
quakegott schrieb:
Scheint so als ob Nvidias VRAM-Politik der letzten Jahre jetzt dezent nach hinten los geht
Hot take: Scheint eher so als ob sich manifestiert dass die 90er Klasse die mit Abstand beste "future proof" Investition bleibt und das upselling zu noch mehr 5090er führen wird im Enthusiastensegment.

Ich hatte hier schon mal gepostet, dass man alle AMD Radeon GPUs bei steam in der Reihenfolge listen kann, und keine dieser AMD GPUs ist vor der 4090 zu finden.
Es gibt mehr 4090er als die meistverbaute AMD GPU in den steam Gaming Systemen.

Da geht wohl alles nach vorne los und Nvidias VRAM Politik geht wohl auf, wenn es mehr 2000 Euro/Dollar GPUs gibt als die meistverbaute AMD GPU.

Wir schauen einfach mal was AMD für ein Ultra Setting mit Raytracing und Pathtracing in 4K anbieten wird un der next gen.

Nvidia hat die letzten Jahre alles richtig gemacht, ansonsten hätten sie nicht 85% Marktanteil im GPU Segment.

Wie ein Kollege sagte, er bleibt lieber bei Nvidia und reduziert die Texturen bevor er, ich zitiere, "eine 50% fps GPU bei AMD kauft".
Das ist nicht wörtlich zu verstehen, zeigt aber wie weit wir hier in in der Community in einer Blase sind.

Prognose:
Computerbase wird in den Community Benchmarks nächstes Jahr nämlich die 5090er Einreichungen sperren ab einem bestimmten Punkt (wie bei der 4090), weil die Redaktion mit der Anzahl dieser GPU Klasse wieder nicht rechnet und das Überrepräsentieren manuell stoppen muss, und dann sind wieder alle "entsetzt" (überrascht), warum so viele Gamer eine 5090 haben. @t3chn0 erninnert sich auch :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
ElliotAlderson schrieb:
Darum ging es nicht, sondern darum, dass AMDs Spiele bis zum Shitstorm kein DLSS anboten. Es wurde sogar stellenweise entfernt, sobald AMD zum Partner wurde. Bei Nvidias Spielen wurde häufig aber auch FSR implementiert oder zumindest nachgeliefert.
Es gibt auch viele AMD- Spiele wo DLSS nachgereicht wurde. Da drehen wir uns im Kreis.
Fakt ist, das FSR und XESS auf ALLEN Karten läuft. Da ist es doch wichtiger das einer diesen Technologien vertreten ist. Der Rest kann ja nachgereicht werden.
 
  • Gefällt mir
Reaktionen: Redundanz und SweetOhm
Laphonso schrieb:
Nvidia hat die letzten Jahre alles richtig gemacht, ansonsten hätten sie nicht 85% Marktanteil im GPU Segment.

Ich versteh nicht ganz, was es daran zu bejubeln und zu verteidigen gibt, wenn ein quasi Monopol eines GPU-Herstellers dazu führt, das künftig Spiele nur auf den GPUs dieses einen Herstellers laufen.
 
  • Gefällt mir
Reaktionen: Redundanz, daknoll, SweetOhm und 5 andere
Ghostfacekalle schrieb:
Es gibt auch viele AMD- Spiele wo DLSS nachgereicht wurde.
Nein. Gab's eben nicht. Nur Sony Spiele, die anderen hatten es fast durch die Bank nicht, selbst Spiele mit Unreal Engine.
Da ist es wirklich kein Problem einen Haken zu setzen.
Ghostfacekalle schrieb:
Da drehen wir uns im Kreis.
Fakt ist, das FSR und XESS auf ALLEN Karten läuft.
Xess läuft auf Intel Karten optisch besser/schneller und XeSS FG ist Intel exclusiv. Ob etwas unterstützt wird hängt nicht davon ab, dass es auch auf anderen Karten läuft. Nvidia hat 85% Marktanteil und bei der schlechten FSR Qualität, die schwächer ist als TSR oder XeSS kann AMD froh sein, dass die Entwickler es wegen FSR FMF mit reinnehmen.
Ghostfacekalle schrieb:
Da ist es doch wichtiger das einer diesen Technologien vertreten ist.
Ich halte DLSS für wichtiger, weil die meisten Spieler es nutzen können und die Qualität besser ist als TSR.
 
  • Gefällt mir
Reaktionen: ElliotAlderson, Weltraumeule und Laphonso
Taxxor schrieb:
Wenn der Tester eben das Setting so wählt, dass das Spiel 12GB belegt, dann passiert das bei dieser Engine.
Ein Game Test sollte immer mit der maximal möglichen Grafik einstellung und das auch Nativ getestet werden, denn das ist das ziehl eines jeden Gamers der an einem Spiel interessiert ist.
das man Details runter drehen kann ist bekannt, aber leute wie ich die lieber bei FHD und verzichten auch RT da günstigere Hardware für flüssige Bildraten. aber das eine 6700xt eine Deutlich Schnellere 3080 schlägt selbst in FHD mit max details zeigt eben das Vram sogar wichtiger wie die Reine Leistung ist für das alten der Karte.
Quidproquo77 schrieb:
Einen Raytracing-Krüppel kauft man einfach nicht.
die AMD Karten sind genauso RT Krüppel wie die Vorgehende Generation bei Nvidia, diese Game hier Läuft nur auf RT Hardware, und eben eine 6700xt ist schneller wie eine RTX3080 die keine Leistung sondern nur billiges Vram fehlt. Das man bei FullRT dann als AMD user ganz raus ist, ok, shit happend, das aber auch Nvidia User der Vorherigen Genertion ganz raus sind ist schon schlimmer, den denen fehlt eigentlich nur billiges VRAM, nicht mal Leistung die ja auch so wichtig ist, nur eben ohne Ram nichts bringt.
DaHell63 schrieb:
Wird hier nicht anders laufen....das A.... beissen überlassen ADA Besitzer lieber anderen.
Wie wissen ist VRam doch alles :evillol:
Wukong ist ein reiner hardware Fresser, was eben nur auf starker Hardware der neusten Generation läuft, da liegt es nicht am Vram, sondern schlicht an der Leistung. und klar da hast Du recht willst Du das game mit RT spielen braucht es zwingend eine Nvidia aber alles unter einer RTX3090 ist auch in FHD dann schon zu langsam ohne RT somit egal ob Du eine 3080 oder 6900xt hast, RT geht sowieso nicht, es geht ums altern der Karten. Leistungsmässig altern sie gleich, aber Nvidia eben Vram viel schneller.

Alien Wake2 das selbe, um RT überhaupt nutzen zu können braucht es ADA, ist dann aber eine 6800xt schon genauso schnell wie die 3080 mit der man auch kein RT mehr zocken kann.
 
  • Gefällt mir
Reaktionen: SweetOhm, Wanderwisser und cbmik
Tevur schrieb:
das künftig Spiele nur auf den GPUs dieses einen Herstellers laufen.
Das ist doch gar nicht der Fall? Offensichtlich ist das Featureset im Paket aber mehr incentive für die Kaufentscheidung als diese absurde VRAM Debatte. Ich kenne genug, die spielen auch pauschal mit allen Grafikslidern auf Medium.

Im übrigen war AMDs Preispolitik auch ein Faktor. Wenn ich realisiere, dass meine GPUs das Image der Zweitklassigkeit haben, kann ich nicht Erste Klasse Preise verlangen, sondern muss um Marktanteile kämpfen.
Es gibt genug, die zahlen dann eben sogar einge hundert Euro mehr um bekommen das komplette Nvidia Paket inkl. DLSS.

Eine 7900XTX für 849 Euro zum Launch, DAS wäre schlau gewesen und hätte die 4080 vielleiucht direkt DOA beerdigt.
Eine 7900XT für 699 Euro hätte direkt die 4070Ti umgegrätscht.

AMD bleibt nur "haha, Nvidia hat weniger VRAM!".
Einge hier im Forum haben die letzten Jahre immer noch nicht bemerkt, wie irrelevant das ist außerhalb unserer Blase hier. Die AMD Marketing Teams wohl auch nicht.
 
  • Gefällt mir
Reaktionen: MalWiederIch und ElliotAlderson
AssassinWarlord schrieb:
Was mich immer wieder stört und richtig abturnt sind Clipping-Fehler wie diese hier :(
Anhang anzeigen 1552842

Ist es wirklich so schwer, objekte eine Kollisionserkennung zu geben, dass die Entwickler wenigstens eine Warnung angezeigt bekommen wenn es irgendwo ins Clipping geht?
Ist es nicht aber die Frames erreichst du dank den konstanten Abfragen und ggf. Korrekturen damit nie wieder.
 
  • Gefällt mir
Reaktionen: Redundanz und SweetOhm
Laphonso schrieb:
Hot take: Scheint eher so als ob sich manifestiert dass die 90er Klasse die mit Abstand beste "future proof" Investition bleibt und das upselling zu noch mehr 5090er führen wird im Enthusiastensegment.

Sehe ich nicht so.

Wie futureproof war denn die 3090? Was bedeutet Futureproof überhaupt? Ich denke das ist auch Auslegungssache. Was erwartet man?

In Pathtracing fällt sie z.B. weit zurück, weil sie die Architekturverbesserungen von Ada nicht hat, die in PT Spielen richtig reinknallen.

Außerdem fehlt FG, was Ada trotz viel besserer PT Leistung braucht um brauchbare Frameraten zu erzielen.

Klar, gibt FSR FG, wenn vorhanden, aber ja, ist halt in PT Spielen nicht immer so und hin und wieder macht FSR FG noch immer Probleme (zuletzt auch in Cyberpunk)...

Außerdem ist es so, dass Games mit modernem Streaming und Texturing System (siehe UE5) ziemlich wenig VRAM benötigen. Dank "SSD Streaming" kann das ganze Speichermanagement neu aufgebaut werden, was die VRAM Effizienz stark erhöht.

Mit Direct Storage / Sampler Feedback Streaming soll ja noch viel mehr Einsparung möglich sein, wobei das wahrscheinlich noch einige Kinderkrankheiten hat, da es bisher nicht genutzt wurde.

Der Trend hin zu mehr Speichereffizienz ist aber klar ersichtlich und je fortschrittlicher die Engine, desto seltener ist VRAM ein Problem. Es sind meistens Engines die noch den Legacy Ansatz aus der vorherigen Konsolengeneration verfolgen (Streaming nur von extrem lahmer HDD möglich), was hohen VRAM Verbrauch verursacht. Je mehr alte Zöpfe da abgeschnitten werden, desto entspannter sieht es bzgl. VRAM aus.

Dass 8 GB trotzdem zu wenig sind und 12 GB der Einstieg sein sollten... Klar darüber lässt sich kaum diskutieren, das ist Mist. Aber AMD macht da ja genauso mit. Beide Hersteller versuchen hier Upselling zu betreiben. Man muss es eben aus beiden Richtungen angehen. Mehr physischer Speicher und bessere Effizienz auf SW Ebene. Die umstellung auf SSD Streaming ist eben noch lange nicht bei allen Engines passiert, weil es da meist um den innersten Kern einer Engine geht. Das baut man nicht von heute auf morgen um. Zumal da ja nicht nur Texturen effizienter gestreamt werden können, sondern auch Geometrie, Schatten etc. Bei der UE5 versucht man gerade, alle Speicheraspekte zu "Virtualisieren" so dass wirklich nur der Speicher belegt wird, der für die aktuell dargestellten Pixel benötigt wird.

Es wird noch viele Jahre dauern, bis alle Engines diesen Wechsel vollzogen oder dann weiter ausgebaut haben. In der Zeit werden wir von Jahr zu Jahr höhere Speichereffizienz sehen und dadurch womöglich sogar stagnierende Speicheranforderungen trotz gesteigerter optischer Qualität.


letztlich kann und wird eine xx90er auf jeden Fall Zukunftssicherer sein, wenn die Speicheranforderungen ansteigen. Irgendwann wird der zeitpunkt kommen. Die Frage ist nur, wann kommt dieser Zeitpunkt?
In 3 Jahren, in 5 Jahren oder in 10 Jahren? Es hängt maßgeblich von der Software ab. Momentan sehe ich hier stagnation bzw. sogar eher einen rückläufigen Trend aufgrund besserer Speichereffizienz.

Und seien wir mal ehrlich. Die meisten Leute, die sich eine xx90 kaufen haben das getan, weil sie unbedingt für jeden Preis das beste vom besten haben wollen. Die allermeisten werden also direkt auf die nächsten Gen aufrüsten oder spätestens bei der übernächsten. In dieser Zeit kommt der VRAM vorteil überhaupt nicht zum Tragen. Zumindest nicht mit Settings, die die GPU mit spielbarer Framerate berechnen könnte.
Von daher ist der VRAM Vorteil in den meisten Fällen bei den xx90er Karten nur Augenwischerei.
Es gibt kaum jemanden, die die Karte 5-6 Jahre oder länger benutzen wird.
 
  • Gefällt mir
Reaktionen: SweetOhm und cbmik
Das letze Wolfenstein hatte doch schon rt Spiegelung. Welche übrigens immer noch nicht für AMD Karten gehen.
Hier ist das ein klarer Rückschritt.

Die Texturen sehen sehr hochauflösende aus und die Beleuchtung ist toll.

Insgesamt finde ich wirkt aber alles sehr statisch. Das fangen Screenshots so natürlich nicht ein.
Und die Schatten flimmern grausam und sind pixelig. Ich denke die Spiegelung und Schatten werden dann erst mit pt vernünftig aussehen.

Bei mir sind 15-16gb vram belegt bei 2880p/50% taa Skalierung.
 
  • Gefällt mir
Reaktionen: MalWiederIch
Zurück
Oben