News IDF: Quake 4: Raytraced in HD mit 90 FPS

Damals erreichte man bei einer Auflösung von nur 768x768 Bildpunkten auch einen Schnitt von etwa 90 Bildern pro Sekunde
Wassn das für ne Auflösung. Aber bei sowas machen die ja gerne so komische Zahlen

Was ist eigentlich aus der RayTracing Karte geworden? SaarCOR oder wie das ding hieß. Eigentlich war die Leistung von dem Ding so hoch wie 12 Intel CPUs mit 4 GHz. Und selbst da waren nur 15 oder 25 fps drin. Wie kommt es, dass die auf einmal ohne zusätzliche Karte 90 FPS hinbekommen? Dass die CPUs so viel schneller geworden sind kann ja eigentlich nicht. Code optimierung oder tatsächlich so massiver Anstieg der CPU Leistung?
 
Zuletzt bearbeitet:
@ mat666

Du weist scheinbar nicht was Radiosity ist hier.


Crysis' Realtime Ambient Map-Technik wird nur im nahen umfeld berechnet und ist vergleichweise ungenau das auge merkt dies nur nicht.
 
jo is schön zus ehen das raytracing endlich salon fähig wird und das es wahrscheinlich bald in spielen implementiert werden kann. Hoffenlich aber wird es dann nicht nur so grafik demos alla Crysis geben. Hoffenlich wird man sich genauso viel mühe bei innovation und neuen ideen sowie interesante und gut durchdachte stories und gameplay in games betätigen.

den momentan bedeutet oft optische fortschritt, geistigen verfall.... leider.
 
Das heißt aber auch, das nur Sachen in der nähern umgebung einfluss nehmen können wenn jetzt weiter Weg was passiert ändert sich Nichts bei Raytracing aber.

Außerdem muss dieses Verfahren aufwenig programiert werden wenn man nicht gerade die Crysis Engine hat.
Und so ist es mit allen Effekten in aktuellen Spielen sie müssen aufwendig programmiert werden was Zeit und Geld kostet außerdem sind sie realitätsfern bei Raytracing wird alles korrect berechnet und man muss sich um die ganzen Effekte keine Gedanken machen. So können Spiele viel schneller entwickelt werden.
 
von povray gibt's eine realtime raytracer beta version:
http://www.povray.org/beta/rtr/

die ist glaub ich auch multithreaded, und povray rendert ja photorealistisch,
das bekommt eine Grafikkarte mit D3D 9 oder 10 nie hin.

Das hat jetzt zwar nicht direkt etwas mit Quake4 zu tun, aber es wäre vielleicht auch als renderer für ein einfacheres Spiel denkbar.
 
Zuletzt bearbeitet:
???

Wieso wundert sich außer MasterFX hier niemand, wo auf einmal die Performance herkommt? Im Raytracing-Artikel vor ein paar Monaten wurden noch 4 Kerne benötigt, um in winziger Auflösung knappe 20fps zu erreichen, jetzt soll plötzlich die 70-fache Leistung drin sein?! Wasn das fürn Käse...


F_GXdx schrieb:
2009, ha! So ein Käse. Aktuelle Grafikengines sind hochoptimierte Optikschmankerl, da hat Raytracing noch viele Jahre keine Chance dagegen! Und procedural textures sind schon so alt wie die Rendertechnik selbst.
Ja schön, Raytracing ist genauso alt, trotzdem sind beide Techniken überlegen. Und lies lieber den verlinkten Artikel, diese neuen Algortihmen für Procedural Textures sind scheinbar eine erhebliche Verbesserung.


Metzelmaennchen schrieb:
@Broהּco
Gibts doch schon ;) Schau dir mal die idtech5 engine an...
Die kann umoeglich diese Mengen an Texturen mit auf der Platte haben...
Tja, tut sie aber ;), man kann Texturen komprimieren...
 
Zuletzt bearbeitet:
@HITCHER_I: Was darf ich denn unter "fotorealistisch rendern" verstehen?
Und warum sollte das eine Grafikkarte auch hinbekommen sollen?
 
@27
Momentan kann man Photorealistische Bilder meist nur mit extrem vielen Strahlen erreichen, die jeden nur erdenklichen Weg zwischen Lichtquelle und Kamera finden sollen. Das wird noch dauern, bis das in Echtzeit geht.
 
@29, 1668mib

fotorealistisch: physikalisch genau berechnet/simuliert bez. Beleuchtung (+radiosity), Schatten, Spiegelungen, Brechung (Brille, Linse, Scheibe), Oberfläche (matt, spiegelnd, tw. durchsichtig). Dh. wenn man eine Szene der Realität entsprechend definiert und rendert, kommt genau das gleiche Bild wie mit einem Fotoapparat in der Realität geschossen heraus.

>Und warum sollte das eine Grafikkarte auch hinbekommen sollen?
Nein, eben nicht. Ich habe in etwa geschrieben "das bekommt die nie hin".
 
Falk01 schrieb:
Ich lese da Grafik+CPU ??? Soll das heißen man braucht dafür keine potente Grafikkarte ?

erkannt - brauchst dafür garkeine graka mehr.

mir ist unbegreiflich warum soviele leute fixiert auf die teure lösung graka+cpu sind. wer sich die entwicklung anschaut, wird merken das die corezahl sich sehr schnell explosionsartig vermehren wird.
grakas wurden eingeführt weil die spezialisierte rechenleistung benötigt wurde. ab einer gewissen corezahl und leistung braucht kein mensch mehr spezialisierte gpu's oder sonstwas. in der vergangenheit stieg die benötigte rechenleistung immer schneller als die hardware, das ist bald am ende. moores gesetzt grüsst.

raytracing und graka freie systeme werden kommen, ob es die leute wollen oder nicht. ati ist bereits aufgekauft, und ihre techs werden nahtlos in amd cores übergehen, nvidia wird ebenfalls eng mit intel kooperieren um sich so teuer wie möglich einzubringen.
 
@ Harleaquin

Raytracing-Grafikkarten werden kommen, wenn Raytracingspiele kommen werden. Der Glaube, wir würden in den nächsten zwanzig Jahren irgendwann keine spezialisierten Chips mehr brauchen ist in etwa so real, wie die Prognose John Carmacks mitte der 90er, dass sich Grafikchips niemals durchsetzen würden. Die Prozessorhersteller entwicklen derzeit nebenbei Anbindungsmöglichkeiten für verschiedenste Spezial-Co-Prozessoren; warum tun die das, wenn doch angeblich eine explodierende Kernanzahl von General-Purpose-Prozessoren alle Spezialchips überflüssig macht? Eine explodierende Kernanzahl ändert genauso wenig wie eine explodierende MHz-Zahl.
 
Grafikkarten sind doch nix weiter als Hochspezialisierte CPUs, überspitzt formuliert.
Grafikkarten werden immer die CPU unterstützen, nur das man die dann anders nennt, ähnlich wie jetzt schon der Havok CHip zur Physikberechnung.

Vielleicht wird es auch so aussehen, das die Grafikkarte als solches nur noch Onboard ist und er rest dann wie gewohnt auf einer Spezialkarte.

Die Möglichkeiten sind vielfältig.
 
. in der vergangenheit stieg die benötigte rechenleistung immer schneller als die hardware, das ist bald am ende.

Wie kommst du darauf ? - Denke nicht das die Hardware jemals schnell genug sein wird.

Im Allgemeinen kann ich nicht wirklich nachvollziehen weshalb alle so Raytracing vernarrt sind,
klar lassens sich damit theoretisch realistischere Beleuchtungseffekte erzeugen, aber da sind wir noch Meilenweit von Weg - 2009 halte ich für unglaubwürdig.
Besonders da ich keinen Grund dazu sehe von den Renderpipelines zu wechseln. Wenn man aktuelle Spiele anschaut, sehe ich kaum einen Unterschied zum Raytracing und einen gigantischen Performanceverlust für ein wenig bessere Beleuchtung + Schatten und villeicht eine etwas leichtere Shaderimpletierung ?
 
Ich denke, der Hype kommt einfach daher, dass es eine völlig neue Technologie ist, die - voll ausgenutzt - sicher sehr realitätsnahe Ergebnisse liefern könnte. Das ist allerdings noch Zukunftsmusik. Ob sich die Technik dann durchsetzt oder nicht wird sich zeigen
 
Wenn ich meinen nächsten Rechner kaufe, wird der Westmere aktuell sein. Unfassbar, ich werd verrückt... dann müsste man damit genug Dampf dür Raytracing haben.

Wo ist der Haken? Das kann doch eigentlich nur gut gemachte Propaganda sein, oder?

Ich hätte, was Raytracing in herkömmlichen Spielen angeht, eher auf 2015 oder noch etwas später getippt.

Naja, abwarten. Ich finde es eh nur technisch (sehr) interessant, Spiele-Fanatiker war ich noch nie.
 
@37) Entartet
Weshalb bist du den in die aktuelle Shadertechnik so vernarrt? Es wird alles nur noch bunter, etwas beweglicher, aber an sich nicht realistischer. Hab vor einiger Zeit mal Prey mir mit verschiedenen Einstellungen angeschaut. Von schlechten Einstellungen auf gute Einstellungen mal hin und her geschaltet und Verglichen. Mit guten Einstellungen glänz halt alles. Realistisch ist das noch lange nicht, verbraucht aber gleich sehr viel mehr Power. Bei Raytracing hab ich da mehr Zuversicht, wenn ich mir die Bilder anschaue, die nicht in realtime raytraced wurden.
@ 39) BessenOlli
Du wirst 2009 Quake 4 Raytraced nicht spielen wollen, also nützt dir auch dein Westmere nichts. Ich persönlich glaube eher an Lösungen wie Larrabee. Eine Many-Core Karte mit genügend großer Kernanzahl und genügend großem Speicher. GeForce 8800 ist ja auch ein Streamprozessor. Jetzt noch ein wenig den Cache modifizieren, weil Raytracing doch etwas Speicherhungrieg ist und das ganze noch in 45nm und somit auch noch mit "ein paar" mehr Streamprozessoreinheiten auf dem Chip und ich könnte mir Raytracing in realtime darauf vorstellen.
 
Zuletzt bearbeitet:
Zurück
Oben