News Intels Ray-Tracing lernt Kantenglättung und mehr

e-Laurin schrieb:
Rechenleistung, wir brauchen Rechenleistung. ^^
Ich hoffe, in 10 Jahren steht die auf den meisten Desktopsystemen bereit (Grafikkarte mit Raytracing-Beschleunigung?).

Mehr Rechenleistung ist ja auch immer supoptimal, wenn man dann immer merh Objekte in die Szene packt, hat man früher oder später wieder das gleiche Problem. Hab mal irgendwo gelesen, dass der Raytracingalgorithmus mit der passenden Datenstruktur durch aus ein logarithmisches Laufzeitverhalten aufweisen kann. Anschieinend ist die Datenstruktur aber auch nicht wirklich geeignet und man muss auf laufzeitverschlechternde, aber dafür vielleicht dynamischere Datenstrukturen zurückgreifen.
 
KainerM schrieb:
Vorteil von Raytracing ist nunmal die geniale Parallelisierbarkeit - das ist ja bei der Rasterisierung noch immer ein ziemliches Problem.

Nein, Rasterisierung lässt sich definitiv besser Parallelisieren, da die Operationen einfach sind. Zum Raytracing auf großen Datenstrukturen brauchst du jede Menge Sprünge, das sorgt in den SIMD unterabschnitten von MIMD/SIMD Systemen wie Nvidia GPUs für diverse Probleme. Beim normalen Rastern folgt man nur einer Scanline, das ist erheblich einfacher zu parallelisieren!
 
Idleking schrieb:
Ich bin nachwievor der Meinung, dass Anti-Aliasing noch nie den enormen Performanceverlust, den es mit sich bringt, in irgendeiner Weise gerechtfertigt hat.

Ich kann ja verstehen, dass bei geringen Auflösungen auf riesigen Monitoren, wie sie bis vor nicht allzu langer Zeit noch üblich waren, zumindest eine Überlegung wert war, weil niemand Daumennagel große Pixel sehen will.

Aber bei Full-HD noch AA?
Totale Verschwendung..

Warum macht sich bei diesen Dingen niemand Gedanken um die heutzutage so gebräuchlichen und gewichtigen Schlagwörtern wie "Effizienz" und "Wirkungsgrad"?

AA => /dev/null


Absolut meine Einstellung. Dass ich AA aktiviere, passiert maximal bei Spielen, die auch auf den höchsten Settings lockere 100+ fps schaffen. (Left4Dead z.B.) :)
 
Mann...und ich dachte bei unserem Cluster hier wären die Steckplätze zugestopft^^
 
KainerM schrieb:
ix hat ja da schon was zu geschrieben aber kurz:
Äh, was redest du da? GPUs sind die Rechemonster schlecht hin, wenn es um Parallele-Berechnung geht und Rastergrafik war dafür bis jetzt das Beispiel schlecht hin.

Idleking schrieb:
AA macht schon sinn, auch bei FullHD usw, da die Farbwerte pro Pixel immer noch feststehen und es auch so zu unschönen Treppchen kommen kann. Das ist auch nicht von der Auflösung abhängig als teilweise viel mehr von der PPI-Anzahl als auch den "Neigungswinkel" der Kanten. ;)
 
Idleking schrieb:
Aber bei Full-HD noch AA?
Totale Verschwendung..
Erklär mal, was die Auflösung mit zur Rechtfertigung beiträgt, ob AA Sinn macht oder nicht?

Meinst du dein tolles FullHD sieht auf einem 24" Monitor und auf einem 55" Fernseher gleich gut aus?

Bei 55" hast du sogar schon das Problem, dass du immer Kanten hast, auch mit 32xAA. Schließlich erhöht AA ja nicht die Pixelanzahl, die der Fernseher darstellt.
 
Ich halte den Trend zu Post-Processing-"Anti-Aliasing" fehlgeleitet. Dabei handelt es sich nämlich in keiner Weise um Anti Aliasing, sondern nur um einen Filter, es werden keine Sub-Pixel-Informationen ausgelesen, ergo erfolgt kein Informationsgewinn. Außerdem ist es hässlich und flimmert.
Das einzig wahre Anti Aliasing ist Super Sampling, dessen Performance sollte verbessert werden.
 
Nova eXelon schrieb:
Bei 55" hast du sogar schon das Problem, dass du immer Kanten hast, auch mit 32xAA. Schließlich erhöht AA ja nicht die Pixelanzahl, die der Fernseher darstellt.
Eben genau aus dem Grund nutze ich prinzipiell kein AA, da die Pixel nicht mehr werden und man als Effekt nur verwaschene Texturen und Unschärfe ins Bild bekommt.
Mehr Pixel sind gefordert und AA gehört in die Versenkung.
Einzig Texturflimmern wird unterdrückt, für mich der einzige nennenswerte Vorteil gegen Unschärfe in Geometrie und Texturen bei unsagbar hohem Rechenaufwand.
 
naja, immerhin schauts bereits nach einem spiel des jahre 2000 aus, anstatt einem aus der steinzeit. also gratulation intel, im nächsten jahrtausend habt ihr amd und nvidia eingeholt
 
SavageSkull schrieb:
Eben genau aus dem Grund nutze ich prinzipiell kein AA, da die Pixel nicht mehr werden und man als Effekt nur verwaschene Texturen und Unschärfe ins Bild bekommt.
Mehr Pixel sind gefordert und AA gehört in die Versenkung.
Einzig Texturflimmern wird unterdrückt, für mich der einzige nennenswerte Vorteil gegen Unschärfe in Geometrie und Texturen bei unsagbar hohem Rechenaufwand.
  • Die Pixel werden nicht mehr, die dargestellte Information aber nimmt zu Gunsten des Betrachters zu.
  • Mit Multisampling gibt es keine verwaschenen Texturen, bei Supersampling wird dem durch das Verschieben des LOD bias vorgebeugt - bei AMD sogar automatisch.
  • Nicht mehr Pixel willst du haben, sondern eine höhere Pixeldichte; dies erschwert dem Auge, Treppcheneffekte wahrzunehmen.
  • Texturflimmern wird nur durch Supersampling unterdrückt - mal mit größerem, mal mit geringerem Erfolg, abhängig von Spiel und Grafikkarte.
  • Geometrie wird durch Antialiasing nicht unscharf!
  • Antialiasing verhindert/reduziert Aliasing-Artefakte. (Überflüssiges Argument, da Tautologie)
Gib also dem Antialiasing eine Chance, deine Augen werden es dir danken und deine Hardware wird es dir nicht verübeln.
 
Solange auf AMDs Karten AF flimmert, wenn auch nur leicht, bringt es nichts das AA zu verbessern...

Zum Thema: Raytracing ist einfach die Zukunft für die Lichtberechnung. Anders bekommt man es nur schwer besser hin.

Es scheint ja bei der Regel zu bleiben, dass es alle 2 Jahre die doppelte Rechenleistung gibt. D.h. in 8 Jahren sind wir bei der 16fachen Leistung, dann sollte das alles kein Problem mehr für die CPU darstellen, bzw. die spezialisierten Chips machen so eine Grafik auf dem Handy ohne Probleme möglich.
Also endlich eine Zeit in der es nur noch auf Inhalt und Story ankommt. :)
 
Ich will das System haben!!! *lechts*
 
Schaut euch doch mal die ersten 3D Spiele an und vergleicht mit den letzten High End Vertretern der 2D Riege!
Neue Technologien müssen eine gewisse Entwicklung durch machen.
 
Zurück
Oben