• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Intel zeigt Raytracing-Engine für PC-Spiele

R.A.M. schrieb:
Was wohl Nvidia und Ati dazu sagen?

Die werden sich freuen, entsprechende Grafikchips sind nämlich schon in Entwicklung.

Man darf nicht vergessen, dass einfache Spiegelungseffekte noch relativ wenig rechenintensiv sind. Haarig wird's dann, wenn ein Lichtstrahl in viele verschiedene Richtungen gestreut werden soll oder beispielsweise auch sehr detaillierte Partikeleffekte.
 
Zuletzt bearbeitet:
Ich kann den "Hype" immernoch nicht nachvollziehen. Ist mir schon klar, dass theoretisch tolle Sachen möglich sind, aber alles was ich soweit von Q3 und Q4 vom Daniel gesehen hab, beeindruckt mich null... von mir aus sind die Spiegelungen etc. realistischer und besser berechnet, es sieht aber nicht toller aus im Vergleich zu aktuellen Engines.
 
Also Raytracing funzt nich vernünftig auf GPUs??? (laut Daniel Pohl)

Da haben mir die Leute von RTT (http://www.rtt.ag) aber was anderes erzählt. Bei denen geht's scheinbar wunderbar.
So weit ich weiss unterstützen die sogar Tesla (Multi-GPU Lösung von nVIDIA).
Ich kenne allerdings die Implementierungsdetails nicht und weiß auch nicht wie gut eine CPU-Implementierung
im Vergleich abschneidet. Wär mal interessant...
 
Das ist die Zukunft. Dann könnte man irgendwann auch einmal auf diese lärmenden und stromschluckenden Grafikkarten verzichten.
 
Eben darin soll unsere Zukunft liegen. Nicht in immer fortwährenden Shadermodel-Versionen die ein immer neues DirectX oder sogar OS alá Vista brauchen.
Ich wünsche mir wieder Unabhängigkeit und Freiheit. :cool_alt:

Diese Meldung passt übrigens allerdings nicht dazu, dass Intel eine größere Grafikkartensparte auffahren will. Es sei denn sie bekommen die Berechnungen auch flüssig auf ner GPU/VPU hin.


bye Hübie
 
Es ist ja schön wie hier alle unreflektiert jubeln, hat eigentlich überhaupt jemand den Raytracing in Spielen-Artikel gelesen oder noch in Erinnerung?
Auf Seite 5: Quake4 Raytraced auf einem „Core 2 Extreme QX6700“ brachte mit 4 Kernen 16,9fps in der gigantischen Auflösung von 256x256, was auf 8 Kerne übertragen gerade mal ~33fps wären und sich mir die Frage stellt, ob plötzlich ein neuer Algorithmus vom Himmel gefallen ist, die Qualität erheblich verschlechtert wurde oder um von ~33fps auf 127 jetzt sogar nur noch in 128x128 berechnet wurde.
 
wieder einmal zeigt sich das gerade die technologieverliebten gamer, eine erstaunliche kurzsichtigkeit besitzten. was nicht auf ihrem system läuft & nicht benchbar ist = bah. dankenswerterweise denken entwickler in der techbranche auch mal an nächste woche & nicht nur an morgen.

raytracing lebt von der parallelisierung, und genau das erwartet uns. in einigen jahren kräht keiner mehr einer graka hinterher - höchstens heisst es der neue intel x100 mit nividia core-grid inside. in der kernzahl nahezu frei skalierbare enviroments werden bereits heute aufgebaut & 100kern systeme tickern bereits in den labs. wer da noch ernsthaft bilderzeugungs algos verfechten möchte die einzig von taktraten leben - hat was verpasst. intel forciert rt engines nicht für games die 08 rauskommen, sondern um softwareseitig bereits jetzt die basis zu legen die ihre xx kern cpu's im jahre 20xx brauchen um zu glänzen. den fehler den man bei 2-4 kern gemacht hat (extremer mangel an echter softwareskalierung mit mehr kernen bei normalusern) will man nicht wiederholen.

parallelisierung ist das zauberwort, und das muss auch die software nutzen. paradigmenwechsel waren noch nie leicht - einst wurde dem auto auch keine chance gegenüber dem pferd eingeräumt.
man betrachte nurmal das gehirn, miese taktrate & keine spezialneuronen (aka graka) - aber davon jede menge. rund 100milliarden neuronen mit je rund 1000 verbindungen mit rund 0.005s/takt schlagen aktuell noch jede hardware...
 
Zuletzt bearbeitet:
Ich will die gute alte SVGA grafik wieder..

da hat auch keiner gemault wenn ne grafikkarte nur 2 mb hatte ;)

pixelterror für jedermann
 
Der Screenshot läßt mich nun nicht in Begeisterung ausbrechen und da immer mehr Computer, immer weiter hinter den aktuellen Stand der Technik, zurückfallen, wird es wohl noch 10 Jahre dauern, bis so eine Hardware Marktbeherrschend wird.
Vielleicht kommts ja zuerst für Konsole?
 
Der Screenshot ist auch kein Proll-das-ist-so-geil Screenshot, sondern einfach ein Beweis dafür, das es möglich ist.
Es brechen schon die richtigen Leute in Begeisterung aus, keine Sorge. ;)
Alle anderen sind erstmal egal. Die freuen sich, wenn dann die ersten hochgezüchteten Screenshots zukünftiger
Entwicklungen kommen. Da ist dann offensichtlich, auf was es rausläuft.
 
So und jetzt ratet mal, was Intel gerade noch so alles Treibt:

-+- Gigascale -> Quasi die entwicklung eines MultiMultiMulti Cor (Waren die glaube mittlerweile bei 50)
-+- Einen neuen High-End Grafikchip, weiß leider nicht mehr, wei das Teil heißt, irgendwas mit L, glaub ich

Kombiniert man das mit der Raytracing engine und der Tatsache, dass mehrere Kerne die Engine unheimlich beschleunigen, so kann man leicht zu folgender Idee kommen:

Intel bringt einen neuen Oberklasse Grafikchip auf dem Markt, um erfahrungen zu sammeln, um dann, mithilfe der Gigascale-Technologie einen Grafikchip zu entwickeln, der ein paar hundert Kerne hat und so Raytracing ermmöglicht. Evoila, damit sind sie die ersten, die eine Zukunftzweisende technologie auf den Markt bringen, und mit etwas Glück machen sie damit ne Menge Geld.
 
Ich hab schon damals als die erste Voodoo von 3dfx erschien behauptet, dass der Trend schnell wieder vergeht mit den ollen Grafikkarten....sieht so aus, als wäre es bald so weit
 
Zuletzt bearbeitet: (Wort vergessen)
genau so wird es sein.
wenn ich bedenke, wie lange damals mein amiga rechnen musste, um ein pipifax-bild so um die 400x400 zu berechnen, auf dem gerade mal ein tisch, ein stuhl und eine blumenvase zu sehen waren... 17h? LOOOOOOOL
selbst die heutige hard- und software ist da welten voraus - wie es in ein paar jahren aussehen wird?

früher dachte auch keiner, dass sich computer jemals so durchsetzen könnten, also warum sollte man heute noch meinen, dass sich eine technik wie raytracing nicht behaupten könnte?

ich freu mich auf die zukunft! :D
 
@t.platz:
Wetten wir das es auch in diesem Bereich wieder spezialisierte Erweiterungen geben wird? ;)
 
Ich finde das Quake bild ist wenig aussagekräftig. Insbesondere die Texturen sind schwach. Oder hab ich da irgendwas nicht verstanden?
 
Raytracing hat wirklich viele Vorteile als RealTime Engine. Höherer Detailgrad (Die Wände bestehen wirklich aus vielen Erhöhungen und vertiefungen), Super-Detailreiche Schatten (Keine kompliziert gefakten), Globale Beleuchtung, Lichteffekte und genaue Schnittpunktberechnung. Das das früher einen zu hohen Hardwarebedarf hatte, ist klar. Aber inzwischen sollte der Punkt erreicht sein, wo RT in Hardware wesentlich besser ist als das ungenauere Scanline Rendering. Beispiel Raytracingbild: http://upload.wikimedia.org/wikipedia/commons/c/cb/Alexclass.jpg
 
Zuletzt bearbeitet:
@macmaxx: Hast du in der Tat nicht. Es geht um die Spiegeleffekte, die sind neu. Dass die Texturen scheiße aussehen, ist bei Quake 3 kein Wunder. Ist ja auch schon einige Jährchen alt. Stell dir das ganze einfach bei Crysis oder Bioshock vor ;)
 
Zurück
Oben