• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Half-Life 2 RTX Demo im Test: Schön, anspruchsvoll und innovativ

Kraeuterbutter schrieb:
inwiefern wird mit HL²-RTX also Userschaft ausgeschlossen ?
NVidia hatte zuletzt einen Marktanteil von 90%. Aktuell scheint dieser leicht rückgängig zu sein.

Da hier (leider nicht zu Unrecht) AMD- und Intel-Grafikkarten gar nicht erst gemessen worden sind, darf man davon ausgehen, dass HL²-RTX aktuell einer Machbarkeitsstudie für ein kleines Publikum entspricht.

=>
Blöd ausgedrückt von mir. Natürlich ist der Marktanteil als solcher riesig. Wenngleich eher wenige eine 1000€+ RTX4000 oder RTX5000 haben werden. Wer sich dem quasi-Monopol nicht anschließen möchte, schaut vorerst in die Röhre.


Kraeuterbutter schrieb:
und wer das GAme spielen will, hat doch seit 20 Jahren die Möglichkeit dazu bereits gehabt..
Wir diskutieren die Version mit Raytracing und Pathtracing. Da geht es nicht rein um den Inhalt des Spieles. Das Spiel selbst, bzw. HL1 und HL² wurden zu den kürzlich gefeierten Jubiläen ohnehin leicht verbessert, verschenkt und gespielt.

25 Jahre Half-Life: Jubiläums-Update modernisiert und restauriert - ComputerBase
20 Jahre Half-Life 2: Großes Update, Doku und aktuell kostenlos auf Steam - ComputerBase
 
Zuletzt bearbeitet: (Nachtrag)
Ich hab's gestern kurz angespielt. Bei mir leider extrem instabil. ABER hübsch. Die Beleuchtung ist schon ein Wahnsinn. ABER... ohne FG schafft es keine 60 fps (4090, 4K) und es ist mir ein Rätsel, wie man einen Shooter mit FG spielen kann. Die Maus fühlt sich extrem "wobbelig" an, ähnlich wie früher mit VSync. Auch das war bei mir immer deaktiviert. Es geht doch in Shooter um den möglichst direkten Weg zwischen Input und Spiel. Und hier werden mit FG wieder massig ms reingeschoben. Für mich ist das nichts.

Weiters finde ich nahe Objekte sehr schön, Ausleuchtung ist sehr stimmig aber was soll dieses ganze verwaschene Zeug in der Ferne? Das ist doch keine ordentliche Bildqualität.

Mir ist klar, dass Full Raytracing technisch absolut interessant ist und die Beleuchtung (Schatten sind auch Hammer!) dadurch auf ein neues Niveau gehoben wird. Aber mit DIESEN Abstrichen bleibe ich definitiv beim Original. Da kam ja letztes Jahr auch die sehr gute 20 Jahre Edition. Ich finde auch, dass der Vibe vom Original in der RTX Version verloren geht. Aber das ist natürlich reine Geschmackssache.
 
  • Gefällt mir
Reaktionen: up.whatever, Zwirbelkatz, punkydie und eine weitere Person
Caramelito schrieb:
1) Das ist die 2500+€ Karte, die 70 FPS in 4k erreicht. Und wir reden hier von 4k mit DLSS Performance, also quasi 1080p Renderizing..?
Die 5080, kostet ca. 1500, packt 42fps.
In einer Grafik, die wir in der Form noch nie hatten. Abgesehen davon sind 70FPS mit G-Sync für mich immer noch flüssiger, als damals auf den ersten lahmen TFTs mit 60Hz Vsync, als man das Original gespielt hat.
Ich kaufe auch keine High End Grafikkarte mit dem Ziel, dasselbe Spiel in der derselben Grafikqualität zu spielen nur um mich über 300FPS zu freuen. Ab 100FPS ist mir das egal und jeglich Leistung haue ich dann Grafik rein.

Caramelito schrieb:
2) Das mit Konsolen stimmt natürlich. Aber die müssen leistbar bleiben.. Da kann man nicht eben eine 5070ti+ reinpacken und die Konsole dann für 500-700 vk.
Wir sind auf einem Entwicklungsstep. Bis das in der Mittelklasse angekommen ist, dauert es halt noch einfach.

Caramelito schrieb:
3) Allein, dass man im Nachtrag "aber 20j altes Game.." dazu sagen muss, heißt doch, dass es nicht perfekt ist, sondern eben nur gut --> Dafür dann 2500eur GPUs (die nichtmal richtig kaufbar sind) für 70fps benötigen ist halt krass ^^
Pathtracing kostet, egal, was dabei für Modelle und Texturen stehen. Ob da jetzt bei Cyberpunk mehr Modelle mit mehr Polygonen und höher aufgelösten Texturen dahinter stehen, steht für die Performance bei Pathtracing eher an zweiter oder dritter Stelle.

Caramelito schrieb:
Und es sind nur ein paar Lichteffekte :-)
Wenn eine Horde an Gegnern auf mich zurennt, schieße ich diese nieder und mache keinen Screenshot um die Beleuchtung auf der Haut zu identifizieren.
Gerade auf Screenshots sieht man den Sprung oft gar nicht richtig und muss sich dann bei solchen Tests immer wieder auf einzelne Punkte im Screenshot beziehen.
Dadurch das die gesamte Belichtung der Szenerie jetzt deutlich realitätsnäher passiert ist die gesamte Szene deutlich immersiver. Und das fällt bei Bewegung und Interaktion deutlich mehr auf, als nur auf einem Screenshot Vergleich.
Gerade hier im Beispiel, wo der Ravenholm Level komplett bei Nacht spielt und man gegen die Headcrap-Zombies keine Munition hat und fast nur mit Taschenlampe rumläuft und mit der Gravity Gun mit Objekten auf die Zombies schießt, fällt das die ganze Zeit sehr deutlich auf.
Ein schönes Beispiel ist übrigens auch Metro Exodus EE mit Global Illumination, bei dem man sehr deutlich sieht, wie die richtige Beleuchtung die Szenerie nochmal deutlich immersiver macht, auch wenn das noch kein komplettes Pathtracing ist.

Caramelito schrieb:
Raytracing / Path Racing ist enorm geil/genial, nenne es wie du möchtest, aber ändert aber nichts an der Aussage, dass es VIEL ZU VIEL Leistung frisst für das Gebotene. Es sind ein paar Effekte und die Leistung bricht extrem ein (Cyberpunk, Wukong, Alan Wake II.. kann man hier als Beispiele nennen..)
Ich könnte ja jetzt mal einen Seitenhieb an das Gamerfreundliche AMD setzen und sagen, da hätte ja auch mal mehr Raytracing Leistung mit der neuen 9070er Serie kommen dürfen, genauso wie eben entsprechende SDKs, Dokumentation für optimierte Integration etc.
Das hier oft als Gamer unfreundlich beschriene Nvidia hat in den letzten Jahren mit DLSS und Raytracing deutlich mehr für die Grafikentwicklung und uns Gamer getan, als hier oft so abgestempelt wird.
 
  • Gefällt mir
Reaktionen: N00bn00b
Mehr als 450€ geb ich für ne GPU nicht aus. Und wenn die Demo zaubern kann. Reine NVidia-Werbeveranstaltung zudem.
 
@Whitehorse1979 Musst du auch nicht, es reichen 3,44 € auf Steam mit Lossless Scaling und tadaaa Half-Life 2 RTX ist auf einmal mit einer PreGen Grafikkarte super spielbar.
Lossless Scaling
Ich kann es in 2560x1440 auf einer RTX 3070Ti 8GB und Ryzen 7 5800X3D mit 32 GB RAM im Notebook mit 75 fps (Multi Frame Generation auf Adaptive bzw. 75 fps von ~25 nativen fps) locker spielen mit DLSS auf "balanced" und Rendering auf "medium" und es sieht toll aus mit den neuen hochauflösenden Assets und Materials. Mit Nvidias Reflex auf Enabled+Boost hat man auch fast keinen Input Lag mehr.
 

Anhänge

  • 20250319175426_1.jpg
    20250319175426_1.jpg
    559 KB · Aufrufe: 65
  • 20250319175703_1.jpg
    20250319175703_1.jpg
    557,1 KB · Aufrufe: 62
  • 20250319180125_1.jpg
    20250319180125_1.jpg
    579 KB · Aufrufe: 63
  • 20250319190232_1.jpg
    20250319190232_1.jpg
    835,6 KB · Aufrufe: 63
  • 20250319190634_1.jpg
    20250319190634_1.jpg
    613,1 KB · Aufrufe: 59
  • 20250319190644_1.jpg
    20250319190644_1.jpg
    634,1 KB · Aufrufe: 60
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: N00bn00b
Taxxor schrieb:
Also, wenn die Berechnung auf beiden Karten gleich schnell wäre, dann wäre der prozentuale Gewinn bei Blackwell höher als bei Ada. Da er aber gleich ist, ist die Berechnung bei Blackwell schneller.
Es kann auch gut sein, dass mehrere neurale Shader, anstatt einem einzigen die Karten wesentlich mehr fordern würden.
 
Ich habs mal auf meiner RTX4080 getestet, ich seh keinerlei Ruckler noch bemerke ich irgendwelche Latenz es fühlt sich sehr flüssig an bei 1080p mit standard settings, jedoch ist alles sehr sehr sehr sehr sehr sehr unscharf.
 
Ich finde Frame Generation und nicht-Frame-Generation Benchmarks sollten nicht in einem Chart gemischt werden, der die Performance unterschiedlicher Grafikkarten hervorheben soll.

Wie damals mit Multisampling schon, sollte man derartige Maßnahmen in einem eigenen Chart halten und zeigen, welchen Effekt es auf die Performance hat. Multisampling konnte man auch nur aktivieren, wenn genug Roh-FPS da sind.
 
Whitehorse1979 schrieb:
Reine NVidia-Werbeveranstaltung zudem.
Nope. Es ist ein Trauerspiel, dass AMD nach 4 Generationen immer noch nichts gebacken bekommt. Gerade bei der 9070 (auch wenn nur Mittelklasse) hätte ich erwartet, dass AMD (jetzt als Software Unternehmen) auch mal mindestens gleichzieht.
Beschweren kann ich mich immer nur über die, die es nicht hinbekommen und das ist (leider?) so, dass es nicht Nvidia ist.
 
  • Gefällt mir
Reaktionen: dernettehans
Mich hat das Ghosting, die Artefakte kombiniert von FG/DLSS/RTX , die schlechte Performance (5-10% FPS der original Performance), Schatten- und Lichtverzögerungen, Schattenrauschen, und andre Feature Krankheiten leider gestört.
Ja, es sieht bei langsamen Bewegungen und oberflächlicher Betrachtung gut aus, aber im Detail können die anderen Probleme stören. Selbst auf den Screenshots von CB, kann man diverse Fehler sehen.

Ghosting vom Schatten
:
1742455660579.png


Zerrissener Schatten
1742455691238.png


nicht überarbeite und pixelige VFX
1742455732811.png


Rauchartefakte
1742456067542.png


verschwommene Details vom DLSS
1742456132373.png


Wer darüber hinweg sehen kann, der kann da mit sicherlich ein paar Minuten seine Grafikkarte gut auslasten und Spaß haben.
 

Anhänge

  • 1742456009794.png
    1742456009794.png
    706,7 KB · Aufrufe: 17
  • Gefällt mir
Reaktionen: thuNDa und baskervil77
FU_long schrieb:
Ich hab's gestern kurz angespielt. Bei mir leider extrem instabil.
Das war bei mir auchd er Fall. Wollte mir die Grafik nur mal ansehen und das erste mal ist es im Menü abgestürzt. Danach kurze Zeit später im Game...
 
Der Cinematic Mod von Fakefactory sieht viel besser aus und läuft erheblich flüssiger. Habe gerade zwei mal Ravenholm durchgespielt, 1x CM2013 und 1x HL2 RTX auf einer RTX 5080 in 7680x2160 und 240Hz. Beim CM keine Artefakte, kein Input Lag wie bei Schrott-LCDs aus den Nullerjahren. Ganz davon abgesehen sind beim Cinematic Mod bereits HL2 plus beide Episoden komplett spielbar. Dazu noch optional aktivierbare Schmankerl wie Rückstoß der Waffen und hochauflösende Charactermodels.
 
Zuletzt bearbeitet:
shoKuu schrieb:
Mich hat das Ghosting, die Artefakte kombiniert von FG/DLSS/RTX
Ist das ohne FG auch so? Bisher habe ich FG nur bei Cyberpunk ausprobiert und bin von dem Feature eher enttäuscht. DLSS ist für mich mittlerweile Pflicht, aber um FG hatte schon bei Cyberpunk bei mir nur Fehler produziert.
 
DevPandi schrieb:
AMD kann an der Stelle an den RT-Kernen in diesem Zusammenhang nicht mehr sehr viel feilen, weil in allen aktuellen Titeln, die PathTracing anbieten, massiver Gebrauch der NVAPI gemacht wird, um spezielle Funktionen einzusetzen, die erst in zukünftigen DXR und DX-Versionen kommen.
Ich kann mit diesen Aussagen nicht mitgehen. In den bisherigen PT Titeln wie Alan Wake oder Cyberpunk wird soviel ich weiß nur SER über die NVAPI genutzt und bringt geringe Zuwächse. Nvidia Ray Reconstruction gewinnt oder verliert hier und da noch ein paar Prozent.

Ich würde der These von @theGucky schon eher zustimmen, dass AMDs Implementierung ab einer gewissen Rechenintensität nicht mehr skaliert, sondern einbricht und das auch AMDs Zurückhaltung bei diesem Thema erklärt.

Half Life RTX ist da schon ein bisschen schwieriger zu bewerten.
DevPandi schrieb:
Es soll irgendwann in DXR einziehen, nur bringt es in dem Fall auch nicht viel, weil die aktuellen RTX "Remix"-Titel eben auf die NVAPI aufbauen.
Ist das nicht ähnlich gelagert wie "Hairworks"? Eine Blackbox für AMD, allerdings lief es gleichwertig nachdem AMD die Tesselationsperformance in den Griff bekam.
DevPandi schrieb:
Selbst wenn AMD morgen UDNA auf den Markt wirft und noch mehr bei RT macht, solange in DXR nicht SER und andere Bestandteile sind, bringt es nichts und AMD wird hier hinterherhinken, auch Intel.
Ihr könntet die Raytracingperformance doch auch mit neutraler Software messen um Einflüsse wie SER oder Bestandteile der NVAPI auszuschließen. Und Intel hat glaube ich noch massive Treiberprobleme in so manchem RT Titel.

Die Hoffnung dass softwareseitig so viel für AMD auf der Strecke liegt, teile ich nicht. Das wurde auch schon bei RDNA 2 und RDNA3 häufig in Reddit usw. thematisiert.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Wird Half Life 2 denn noch komplett so überarbeitet ?
Oder bleibt das ein "Demo" - Projekt ?
 
shaboo schrieb:
Nur, wenn du in einem Paralleluniversum gelebt hast. Röhre und 1024x768 waren zu der Zeit mit Sicherheit der durchschnittliche bis gehobene PC-Gamer-Standard.
Schon der Aldi PC von 1996 hatte ne Röhre dabei die mehr als 1024.x768 gepackt hat und war ne billig Kiste. Und 2004 ist dann doch schon 8 Jahre weiter.

Ob jetzt 1600x1200 der Standard war, wage ich zu bezweifeln ... wobei bei LCDs damals wahrscheinlich schon häufiger, und zwar in Form von 1680x1050 und 16:10 für sehr wenig Geld, die meisten werden aber auch da noch bei 1280x1024 gewesen sein. Bei CRTs dürfte es 1600er Auflösungen aber nicht für 300€ gegeben haben., aber für ne 21" Röhre sicher eine vollkommen normale Standard-Auflösung.
Ergänzung ()

DJKno schrieb:
Nein, das stimmt nicht. Da waren TFTs gerade erst spieletauglich weil die Reaktionszeiten geringer wurden.
Da hatten noch sehr viele ne Röhre. Die meisten TFTs waren damals auch 4:3 mit 1280x1024.
Die meisten CRTs konnten wahrscheinlich auch schon 1280x1024 darstellen, auch wenn wahrscheinlich die meisten CRTs in 800x600 genutzt wurden. Damals war das ja nicht so das man den Monitor in Native haben wollte, CRTs konnten Refresh Rate für mehr Auflösung opfern und nachdem die Bewegungsschärfe selbst bei 60hz noch besser war als bei einem LCD bei 500hz ... Flimmern wollte man halt trotzdem nicht, aber das war bei 75-85hz rum für die meisten schon Weg. Manche brauchten 100hz ok.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: incurable
Und ohne vernünftig funktionierendes Framelimit bleibt alles was künstlich Frames erzeugt für mich unbrauchbar.
 
Community oder NV-Marketingabteilung? ;)

Sieht schon schick aus, auch wenn es an manchen Stellen zu hell wirkt und bei einigen Bewegtszenen musste ich kurz in die Ecke schauen, ob es RTX oder nicht ist.
Wie viel machen denn die neuen Texturen am Gesamteindruck aus? Es wurde ja nicht nur die Beleuchtung geändert.

Aber wenn man sich überlegt, wie viel mehr Rechenpower Texturen und Licht benötigen, läuft in der Entwicklung was nicht ganz in die richtige Richtung.
Man muss sich mal überlegen, gegenüber dem Topmodell von 2004, der 6800 Ultra, ist das aktuelle Topmodell 5090 bald 200x schneller! Dafür? :freak:
 
rumpeLson schrieb:
Sehr interessant. Wie gut nutzbar ist denn Ultra Performance mit dem Transformer Modell in 4K? Haben sich hier gegenüber CNN größere Verbesserungen ergeben?
Zusätzlich zu dem was du sagst, lässt sich DLSS FG meistens per Mods auf FSR FG umbiegen, sodass insbesondere die großen Ampere Karten noch besser darstehen.

Für die optischen Auswirkungen siehe das Digital Foundry Video.
Performancekosten: zwischen 10 und 20% verglichen mit CNN - und damit ist Transformer das einzige Goodie was von der 3090 noch geschultert werden kann, sowohl das High Preset als auch DLSS P kosten soviel Performance dass es unspielbar wird.
 
  • Gefällt mir
Reaktionen: rumpeLson
Warum ist eigentlich nie die 3080Ti in den Benchmarks enthalten?
 
  • Gefällt mir
Reaktionen: Svebu
Zurück
Oben