Ahja stell dir vor, Intel beauftragt auch extra Leute, um Fernseh-Werbung zu produzieren. Was bestimmt ein vielfaches kostet, als ein paar Entwickler.LazyGarfield schrieb:
Genau! Und für einen Werbegag stellen die extra einen Entwickler ein, der Quake Raytraced programmiert hat! Deine Logik ist ja so pregnant und fundiert.
Im moment gibt es nunmal für den normalen Anwender kaum Spiele / Applikationen die wirklich mehrere Kerne sinnvoll nutzen / auslasten. Da kommt RT ja wie gerufen... Sicher es ist nicht nur reine Werbung, aber das ist für mich aktuell der einzige Sinn den Intel daraus zieht... Da wir noch weit von Realtime RT entfernt sind..
LazyGarfield schrieb:Warum versuchst du eine gute Entwicklung schlecht zu machen? Ist doch logisch, dass es auch Nachteile gibt, sonst wäre RT ja schon lange verbreitete Realität in jedem PC .
Ich versuche nicht die Entwicklug schlecht zu machen, sondern hervorzuheben, dass der Artikel auch nur die halbe Wahrheit sagt. Wir du eben auch erwähnst, gäbe es das ja sonst schon... und RT gibts schon ne Ewigkeit...
LazyGarfield schrieb:Rasterisierung wird wohl den grossen Anteil bei aktueller Berechnung ausmachen, sonst würde es keinen Sinn machen darauf einzugehen. Stand da nicht, dass aktuelle GPU´s es so berechnen?
Ich meinte ja auch, dass der Vergleich den er anstellt nicht fair ist. Er vergleicht einen optimierten RT Algorithmus mit der Standard Rasterisierung. Obwohl es auch für Rasterisierungs-optimierungen gibt..
LazyGarfield schrieb:Wenn aktuelle Spiele darauf beruhen (so hab ich das zumindest verstanden), dann macht es auch Sinn, aufzuzeigen, dass RT da mal Stärken hat. Und diese scheinen gewaltig zu sein.
Naja der Artikel pflückt nur die Rosinen aus den Kuchen...