• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Half-Life 2 RTX: Gameplay-Video und Screenshots machen die Runde

ElliotAlderson schrieb:
Falsch. Die 40er Karten (Ada) sind nicht die gleiche Architektur wie die H100 (Hopper).
ChatGPT:
Ja, NVIDIA hat eine einheitliche Architektur, die als "Unified Architecture" bezeichnet wird.

Also haben die Consumerkarten und die professionellen die selbe Architectur?

Ja, die Consumer- und professionellen Grafikkarten von NVIDIA basieren in der Regel auf derselben zugrunde liegenden Architektur. Zum Beispiel verwenden sowohl die GeForce-Consumerkarten als auch die Quadro- oder RTX-Professional-Karten oft die gleiche GPU-Architektur, wie Ampere oder Ada Lovelace.
 
Zuletzt bearbeitet:
Laphonso schrieb:
Der heilige Gral Raytracing delivers again. 🤩
Du würdest wahrscheinlich auch "ET" als großartiges Game bezeichnen, solange man nur RTX draufklatschen würde....^^
 
gustlegga schrieb:
nur RTX draufklatschen
Nö, gibt genu Schrottgames, da nützt RTX nix. War schon in den 90ern und 2000er so, dass man Grafikblender hatte. Ich sage nur Psygnosis Games.

Das war das nonplusultra damals (vor rund 3,5 JAHRZEHNTEN! ) , 7 Wege Parallax Scolling.


Die Spiele waren technisch und audiovisuell famos für die Zeit, aber kacke :D


Gute Games werden aber mit realisitischer und besserer Grafik noch immersiver. RTX kann das "enhancen". Thats the point, Herr gustlegga ^^

Half Life 2 RTX > Half Life 2 :-)
 
  • Gefällt mir
Reaktionen: Sappen
Laphonso schrieb:
Die Spiele waren technisch und audiovisuell famos für die Zeit, aber kacke :D
Ich hatte Klassenkameraden die fanden sogar Revenge of the Mutant Camels gut.... :lol:
 
  • Gefällt mir
Reaktionen: Laphonso
Laphonso schrieb:
https://www.bbc.com/news/business-52541218
Ray tracing has always been the "holy grail" of computer graphics, says Jason Ronald, head of program management for the gaming console Xbox.

https://www.techradar.com/news/ray-tracing
"The holy grail of gaming graphics has arrived"

https://blogs.autodesk.com/design-studio/2020/07/21/the-holy-grail-real-time-gpu-ray-tracing/
https://www.eetimes.com/ray-tracing-is-holy-grail-found/ und https://www.eetimes.com/ray-tracing-is-holy-grail-found/2/

https://www.beyond3d.com/content/articles/94/
2007: "Browse the world of real-time computer graphics, and you'll find the oft quoted meme: "One day we will have real-time ray tracing, and graphics will be so much better!" This is because many people hold up ray tracing as the solution to realistic lighting and as such, they view current rasterisation renderers as used in GPUs and consoles today as inherently inferior."

https://www.extremetech.com/extreme/266600-nvidias-rtx-promises-real-time-ray-tracing
https://www.pcmag.com/how-to/what-is-ray-tracing-and-what-it-means-for-pc-gaming
https://www.thestreet.com/investing/nvidia-developers-conference-ray-tracing-14902322

Sogar Pixar hat dazu etwas aus dem Jahre 2006
https://graphics.pixar.com/library/RayTracingCars/paper.pdf


ElliotAlderson schrieb:
"Die Industrie schreit seit Anbeginn der Computergrafik nach RT, es war bisher nur nicht in Echtzeit möglich."

ich hatte so Anfang der 1990er-Jahre (damals noch mit einem 286er unterwegs - der Nachfolger war dann schon ein Pentium 75, also die 386 und 486 damals übersprungen)

also Anfang der 1990er unter MS-Dos das Programm POV-RAY
das Raytracing konnte..

vonwegen Echtzeit (und 4k usw.)

ich hab damals beim Rumprobieren damit einen Helicopter rendern lassen..
ein einzelnes Bild, Auflösung war glaub ich 320x240

ich weiß noch, dass ich den Rendervorgang gestartet habe,
dann gemeinsam mit meinem Vater 14km in die nächste Stadt einkaufen gefahren bin, 14km zurückgefahren..
und: das Bild war noch nicht fertig

Krasse Sache, dass sowas heute möglich ist, in Echtzeit.. und man auch noch meckert wenn es "nur" 60fps sind lol
 
  • Gefällt mir
Reaktionen: ElliotAlderson und Laphonso
blackiwid schrieb:
Ja, die Consumer- und professionellen Grafikkarten von NVIDIA basieren in der Regel auf derselben zugrunde liegenden Architektur. Zum Beispiel verwenden sowohl die GeForce-Consumerkarten als auch die Quadro- oder RTX-Professional-Karten oft die gleiche GPU-Architektur, wie Ampere oder Ada Lovelace.
Quadro ja, aber nicht KI. H100 ist nicht Quadro.
Geforce = Mainstream/Desktop
Quadro = Workstation
H100/A100 = KI (LLM)/Datacenter

Geforce und Quadro sind die selben Chips bzw. die Quadros sind idR. der Vollausbau. Die KI Systeme sind ganz andere Chips.
 
ElliotAlderson schrieb:
Geforce und Quadro sind die selben Chips bzw. die Quadros sind idR. der Vollausbau. Die KI Systeme sind ganz andere Chips.
Und was machte man mit den Quadro chips? Kein K.I.?

Ampere ist laut Wikipedia der Vorgänger von H100:

Nvidia announced Ampere's successor, Hopper, at GTC 2022

Also es ist der direkte Nachfolger von Geforce 30 Series inclusive der "professionals serie

Unter Ampere ist Gelisten A100 (server / datacenter) und RTX A (professionals) und RTX 30 (Desktop).

Also die 3. Gen von Raytracing. und bei Hopper steht dann auch:
VariantAda Lovelace (consumer and professional)

Also selbst wenn man das jetzt ab RTX 40 wegen massivem Erfolg als eigene Architektur ansehen will obwohl ich "Variante" nicht unbedingt also komplett seperate Architektur sehen würde aber wie gesagt selbst wenn, war es mit RTX 30 noch zusammen 1 Architektur.

Und das fing mit RTX 20 an, also "Turing" Turing hatte sehr wohl Desktop Professional und Server/Datacenter.

Jetzt hat man eventuell als der Markt 1000x Größer war als zuvor, hat man vielleicht eine "Variante" wenn überhaupt man das als andere Architektur ansehen will und selbst wenn es nur Professional wäre auch damit macht man K.I. zeug.

Es werden ja teils sogar RTX 4090 gekauft für non-professional servers und K.I. Systeme.
 
blackiwid schrieb:
Und was machte man mit den Quadro chips? Kein K.I.?
Kannste auch, sind aber nicht so schnell und haben nicht so viel VRAM.

blackiwid schrieb:
Ampere ist laut Wikipedia der Vorgänger von H100:
H100 ist Hopper und das sind reine KI Chips. Die gab es nie für den Desktop. Wie es bei Blackwell aussieht, kann ich noch nicht sagen.

blackiwid schrieb:
Es werden ja teils sogar RTX 4090 gekauft für non-professional servers und K.I. Systeme.
Ja, weil du dir als Normalsterblicher kein H100 DGX System für $40.000 leisten kannst?! AMDs Karten können auch KI, sind die jetzt auch die gleiche Arch?
 
ElliotAlderson schrieb:
H100 ist Hopper und das sind reine KI Chips.
Versuchst du meinem Argument bewusst aus dem weg zu gehen mein Punkt war das Hopper eine Weiterentwicklung von Ampere ist und das ja relevant ist sind die ersten Generationen ob die bei der 4er wirklich aufgeteilt haben oder nicht (darüber kann man vielleicht streiten) aber zuerst war es zumindest 1 Architektur mit den ersten Generationen von RTX Karten aka RTX 20 und RTX 30, das heißt meine "These" das K.I. erst in diese Architektur eingebaut wurde wegen Datacentern und Workstation und man dann eben schnell versucht hat irgendwie diese Hardware auch für Games Nutzbar zu machen da die Hardware eben da ist, widerspricht dem nicht, selbst wenn mit Hopper eine Aufspaltung statt gefunden hätte, ob dem wirklich so ist, scheint mir auch nicht so eindeutig aber A100 war Datacenter und das war Ampere und das ist die selbe Architektur wie Geforce 30 und bei bei Geforce 20 wars eben Turing wo es von RTX 20 bis hin zu Tesla T40 (datacenter) alles gab, eine Architektur.
https://en.wikipedia.org/wiki/Turing_(microarchitecture)#Turing_dies

Also deine Aussage das es 2 verschiedene Architekturen seien könnten wir jetzt ein Battle machen ob es für die noch aktuelle Generation stimmt oder nicht, aber seh denn Sinn nicht wenn es bei RTX 20 und RTX 30 nachweislich so ist, reicht das damit meine Aussage stimmt ob es für RTX 40 noch stimmt.

Man kann auch den Wikipedia Artikel zitieren zu Nvidia RTX generell der quasi ungefähr das sagt was ich auch sagte:
Nvidia RTX (also known as Nvidia GeForce RTX under the GeForce brand) is a professional visual computing platform created by Nvidia, primarily used in workstations for designing complex large-scale models in architecture and product design, scientific visualization, energy exploration, and film and video production, as well as being used in mainstream PCs for gaming.

Übersetzt die Architektur wurde für Anwendungen von Workstation hin entwickelt und Gaming war nur nen Afterthought. Auch finde ich die Diskussion ob Datacenter zuerst im Focus stand oder nicht bzw ob das dann andere Architektur sei auch nicht sooo wichtig, mein Punkt war das es nicht für Gaming spezifisch oder auch nur primär entwickelt wurde, weil da einfach am wenigest Geld zu holen ist, und das man dann eben versucht hat die vorhandene Hardware die bei reinem Raster Gaming eben teilweise brach liegen würde durch fördern von Raytracing also das zu puschen die Nachfrage danach zumindest teilweise künstlich zu erzeugen.

Ich weiß das das einige hier positiv finden, aber selbst wenn glaube ich es ist gut sowas zu wissen, dann kann man zumindest auch realistischer vermuten wie stark RT in Spielen vertreten sein wird wo Nvidia nicht irgendwie assistiert. Wie hoch die priorität bei Entwicklern ist wenn sie es nicht von 3. finanziert oder teilfinanziert bekommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dark9
@malajo Finde ich eher weniger und Cinemtaic verändert den Stil zu doll wie ich finde+ die Gesichter bei der Cinematic Mod gehen gar nicht :freak: :D
Bei dem offizielen Trailer bei 0,48 sieht man auch nochmal gut das nicht nur die Beleuchtung sondern auch die Assets verbessert werden.
Der Stil bleibt erhalten, was mir persönlich wichtiger ist.

 
steve-sts schrieb:
Ja und leider gar nicht so einfach ohne PC das noch zu spielen. Hätte ich auch wieder Bock drauf!
Shooter ohne PC zu spielen ist eh Unsinn. Gut, es gibt ja mittlerweile auch Mausunterstützung auf Konsolen, aber jeder ordentliche Shooter hat mMn nix auf ner Konsole verloren.
 
@Xul Du es gibt auch noch mac… und es spielt sich hervorragend auf der Konsole.
 
Ein Mac ist ein PC und nein, Shooter ohne Maus spielen sich grausam. Es mögen viele dran gewöhnt sein, aber wenn die Häfte wegen untauglichem Eingabegerät automatisiert ist und es trotzdem indirekt und undynamisch ist, dann kann man sich doch auch gleich ein Let's play anschauen.
 
Zuletzt bearbeitet:
Zurück
Oben