Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntels Ray-Tracing lernt Kantenglättung und mehr
Von Zeit zu Zeit zeigt Intel immer mal wieder die neusten Fortschritte in der eigenen Ray-Tracing-Forschung, die Intel immer noch als „Zukunft in der Spielegrafik“ ansieht. Der Deutsche Daniel Pohl ist bei Intel für dieses Gebiet zuständig und hat auch bereits auf ComputerBase einige Artikel zu dem Thema geschrieben.
Insgesamt kann sich die Grafik immernoch nicht im Geringsten mit der der Rasterisierung messen, allerdings gefällt mir der stetige Fortschritt.
Vor allem empfinde ich, dass die tatsächlichen Vorteile des Raytracings das Nutzen der Technik einfach nicht rechtfertigen; und wenn man sich den zurückliegenden Fortschritt anschaut, wird es wohl noch mindestens 8-10 weitere Jahre dauern, bis man in der Computerspiel-Branche ernsthaft darüber nachdenken kann, ein Spiel auf Basis von Raytracing herzustellen.
Rechenleistung, wir brauchen Rechenleistung. ^^
Ich hoffe, in 10 Jahren steht die auf den meisten Desktopsystemen bereit (Grafikkarte mit Raytracing-Beschleunigung?).
Intel finanziert dieses ganze Larrabee / Raytracing Projekt doch mehr als Hobby nebenher ^^ was daraus irgendwann mal wird ist schwer abzusehen. Larrabee dürfte mehr was für Supercomputer bei extremer Parallelisierung werden, auf x86 Basis eben... Raytracing braucht auch noch viel viel Zeit.
Wenn die Rechenleistung stimmt schickt man einfach die doppelte/quadratische Zahl an Strahlen los und rechnet später auf halbe Auflösung herunter. Fertig ist das AA ^^
@NoSyMe ich hoffe dir ist klar, dass es rein um die Beleuchtung geht, nicht um die Texturen etc.
Das ganze würde man theoretisch auf jede Engine übertragen können.
Nur es wäre einfach zu aufwändig jedes mal eine neue Engine anzupassen, deswegen bleibt man bei Wolfenstein, um das Raytracing zu verbessern. Ziel des ganzen wird es sein, dass die Performance weiter gesteigert werden kann und man es so auch in Kombination mit einer Leistungsfressenden Engine (zB cryengine x) benutzen kann.
Intel finanziert dieses ganze Larrabee / Raytracing Projekt doch mehr als Hobby nebenher ^^ was daraus irgendwann mal wird ist schwer abzusehen. Larrabee dürfte mehr was für Supercomputer bei extremer Parallelisierung werden, auf x86 Basis eben... Raytracing braucht auch noch viel viel Zeit.
Krautmaster
Bin eher der meinung, dass sie hier eher für die Zuknuft forschen. Werden sicher später nicht mehr an eine gpu im herkömmlichen Form wie bei AMD oder NV setzen, sondern eben an so ein dieses Ray-Tracing setzen wollen.
Denn was kann Intel gut ? CPUs bauen, und ihr know-how wollen sie auch für ein Grafikmonster nützen ^^
Pyroplan
sehe ich genauso, das ist quasi Forschung was gezeigt wird. Man möchte eben optimieren und wege finden wie man eben bestimmte Probleme in Zukunft lösen kann.
Bevor man etwas baut betreibt man immer Grundlagenforschung und sucht dann Konzepte.
Fraglos hast du recht damit, dass INTEL sehr gute CPUs bauen kann. Doch für grafische Dinge hatte der Konzern noch nie ein gutes Händchen - und was die entsprechenden Treiber betrifft, ist "unterirdisch" teilweise noch geschmeichelt ...
jepp, der "Lab coat" soll den Herren wohl kompetenter bzw. weniger nerdig wirken lassen...
Ich finde es gut, dass sich Intel mal richtig Gedanken über die Zukunft macht, denn mit der Rasterisierung gehts ja kaum noch weiter - die Chips haben dort sowas wie eine "kritische Masse" erreicht. Vorteil von Raytracing ist nunmal die geniale Parallelisierbarkeit - das ist ja bei der Rasterisierung noch immer ein ziemliches Problem.
Ich kann mir Screenshots anschauen wie ich will, es ist immer die gleiche Comicgrafik. Rasterizing = Comic; dieses komische "Atome" Projekt aus Australien = Comic; hier jetzt Raytracing = Comic. Wann gibts endlich mal realitätsnahe Texturen, sodaß z.B. Metalle nicht mehr aussehen wie Kunststoffe? Mit besseren Texturen wäre der weitaus größere Immersionsgewinn zu erzielen.
ach raytracing gibts immer noch? hmm hab ich zuletzt was vor 5 jahren gehört. da hieß es glaub ich das is die nahe zukunft der spiele blabla xD immer noch nix drausgeworden
Ich bin nachwievor der Meinung, dass Anti-Aliasing noch nie den enormen Performanceverlust, den es mit sich bringt, in irgendeiner Weise gerechtfertigt hat.
Ich kann ja verstehen, dass bei geringen Auflösungen auf riesigen Monitoren, wie sie bis vor nicht allzu langer Zeit noch üblich waren, zumindest eine Überlegung wert war, weil niemand Daumennagel große Pixel sehen will.
Aber bei Full-HD noch AA?
Totale Verschwendung..
Warum macht sich bei diesen Dingen niemand Gedanken um die heutzutage so gebräuchlichen und gewichtigen Schlagwörtern wie "Effizienz" und "Wirkungsgrad"?
Ich seh das Locker, derzeit bekommen sie mit 8KF´s FullHD mit AA hin (Stand der Grafik 2006). Wenn jetzt noch alleine 1-2 Chip Generationen dazu kommen, sollte für das gleiche Ergebniss nur noch 3-4 Karten dafür gebraucht werden. Gleichzeitig wird ja weiter geforscht.
Bin zwar auch der gleichen Meinung das RT noch ca. 10 jahre braucht aber das sollte sie auch. Was würde es bringen jetzt spiele mit 2k2 Grafik rauszubringen, nur damit man sie rausbringt.
Selbst wenn ich in Spielen DS(Downsampling) nutze sehe ich noch Kanten und das ist nicht schön. Es ist einfach mal was anders wenn das Ganze Bild "Glatt " wie eine Baby Popo. Das ist dann einfach nur Qualität die sich sehen lass kann. Und klar frisst das massiv an Leistung dafür bekomme ich auch ein super Bild geboten !
Ich bin nachwievor der Meinung, dass Anti-Aliasing noch nie den enormen Performanceverlust, den es mit sich bringt, in irgendeiner Weise gerechtfertigt hat.
Tja, so unterschiedlich nehmen die Menschen so etwas wohl wahr. Ich würde ohne AA nicht spielen wollen, und das auch noch bei FullHD. Klar, wenn man weit genug weg sitzt wie bei einem Fernseher sieht man da wohl keinen Unterschied. Aber auf den knappen Meter bis zum Monitor auf dem Schreibtisch sieht das schon ganz anders aus.
Schon auf den Screenshots des Artikels sieht man, dass das Bild mit AA sehr viel glatter und angenehmer zu betrachten ist, obwohl das AA nicht einmal so besonders gut zu sein scheint. Viel mehr als bei Screenshots sieht man das aber in Bewegung: Je nach Spiel wirkt das Bild manchmal extrem flimmerig und unruhig, weil an allen Ecken und Enden die Kanten flackern. Dazwischen und aktiviertem AA (notfalls im Treiber erzwungen) liegen Welten.
Wenn man sich einmal ein wenig daran gewöhnt hat, kriegt man ohne AA einfach nur noch Augenkrebs. So geht es mir zumindest. Aber wie gesagt, die Wahrnehmung ist wohl bei jedem Menschen anders.