Kommentar Kommentar: Die Zukunft der 3D-Grafik

Vendetta schrieb:
(mal abgesehen davon, dass ja die Quadcores und bald Octacores nicht ihre volle leistung verwirklichen können, denn mit jedem Kern wird die Skalierung schlechter, ein Single Core liefert 100% ein Dualcore 80% glaube beim Quad sinds nur noch 60%, ein Quad ist eben nicht 4 einzelne xGhz CPUs, sondern eine mit 4 Kernen...)
Würde mich wirklich mal interessieren, woher du diese Werte beziehst. Und vor allem auf was.

Es ist doch im Moment so, daß immernoch viele Programme Multithreading einfach garnicht oder nur unzureichend unterstützen. Wenn das jedoch gut ausgenutzt wird, kommt man auch mit einem Quadcore noch locker auf seine 80% pro Kern.



@Topic
Finde den Artikel gut. Weiß auch nicht, was Leute hier mit "Schleichwerbung" meinen (das ist nun wirklich etwas vollkommen anderes).

Ich denke mal, Raytracing wird sich laaaangsam als zusätzliche Technologie etablieren. Eventuell setzt es sich in ferner Zukunft ja sogar noch vor die Rasterisierung. Aber bis dahin ist's wohl noch ein weiter Weg ...
 
Ähm...

"Belichtung" ---> Fotografie
"Beleuchtung" ---> Rendergeschichten.

Ohne RT und GI wird in Zukunft nichts mehr gehen. Freue mich schon auf Spiele, in denen eine (1) Lichtquelle einen ganzen Raum korrekt beleuchtet.
 
vollkommen normal ausbildung, die der mann hat. verstehe ich gut. ist schließlich die, wir (ungefähr) alle auch hatten. (macht auch ungefähr lebenstauglich, so ein akademisches doppelstudium in technik und bwl. praktiker ist man ja eh. und fällt am ende leicht, normale intelligenz vorrausgesetzt.)


und normaler lebensweg (ok, bisserl einseitig, so "immer nur knecht";)) - halt so ungefähr der, den wir auch schon alle hatten.


danke für die infos also. und gut für mich, dass "die zukunft der 3d-graphik" in den händen von männern wie mir selbst liegt. z.b. nicht bloß in denen von dummschwätzern. das beruhigt doch ungemein.

p.



(bzgl. "knecht": die einen müssen arbeiten, weil sie kein geld haben. und kein vermögen. und die anderen müssen das eben nicht. letztere dürfen aber immerhin auch;).)
.
 
Zuletzt bearbeitet:
captain carot schrieb:
Ab einer gewissen Polygonmenge hat Raytracing schon sehr viele Vorteile gegenüber Rasterizing

Ja? Der Witz ist ja nur, dass die Spiele nichtmehr viel mehr Polygone benötigen wie es scheint. Da es immer bessere Techniken gibt die Polygone "abzurunden" kommen auch highend Modelle mit relativ wenig Polygonen aus, zB brauchte man für eckige Zombies in Doom III nicht viel weniger Polygone als für die detailierten Alienmonster aus Gears of War...

@konti: glaube sogar aus einem CB Artikel, wobei ich mir nicht ganz sicher bin obs 60% oder 70% bei den Quads waren, über die 80% beim Dualcore bin ich aber sicher...
 
ein sehr schöner artikel, sowas lese ich gerne. hoffentlich werden beide ansätze sich durchsetzen und später gemeinsam verwendet!!

anmerkung zum artikel: in der bildübersicht ist kein inhalt und der mailto link vom author hat keine mail adresse.
 
Vendetta schrieb:
(mal abgesehen davon, dass ja die Quadcores und bald Octacores nicht ihre volle leistung verwirklichen können, denn mit jedem Kern wird die Skalierung schlechter, ein Single Core liefert 100% ein Dualcore 80% glaube beim Quad sinds nur noch 60%, ein Quad ist eben nicht 4 einzelne xGhz CPUs, sondern eine mit 4 Kernen...)

das was du meinst, ist die synchronisation der kerne untereinander. und dieser wert liegt weit unter den genannten 20%. es sind höchstens 5%, ich schätze mal nur 1 oder 2.

cpu != gpu.
 
Langweiliger Artikel :-) Das die Grafikarte eine menge mehr als nur Rendering und Bildausgabe kann ist nichts neues, dass wussten wir schon bei erscheinen der G80 Architektur 2007(Streamprozessoren).

Und das der Typ über die Zukunft phantasiert heisst ja lange nicht das es so kommt :-)
Ratraycing hin oder her, die Spiele sollen einfach nur Spass machen.

MfG Selflex
 
Mit Eigenwerbung für NV meinte ich eher diese sich in letzter Zeit ständig wiederholende Geschichte von wegen GPU ist ja so viel besser, kann dieses extrem schnell, das ganz toll. Mag sein, dass das naiv ist, aber in solchen Artikeln würde ich mir mehr Sachlichkeit als Selbstbeweihräucherung wünschen.
Und ich glaube auch nicht, dass ich mir mit der Aussage, dass GPGPU-Fähigkeiten sich als Nebenprodukt (passt besser als Abfallprodukt) aus den immer weiter anwachsenden Shaderregistern entwickelt haben. Was GPU´s können machen sie ja auch schon sehr gut. Nur können sie längst nicht alles und einiges wohl eher schlechter als eine CPU. Wie sich das in den nächsten zehn Jahren im Deatail entwickeln wird, will ich gar nicht prognostizieren.
große Polygonmengen werden übrigens dann interessant, wenn man etwa sehr große Areale mit natürlicher Vegetation auf natürliche Weise darstellen will. Da wird es mit Polygonspartechniken ab einem gewissen Grad schwer. Außerdem gibt es bei den meisten bisher verwendeten Techniken einige Probleme bei großen Nahaufnahmen. Und da fände ich es zum Beispiel schon geil, wenn ein virtueller Character selbst in Nahaufnahme nicht mehr von einem CGI-Filmcharacter oder noch besser einem echten Schauspieler zu unterscheiden ist.
Alles in allem geht´s mir eben darum, dass die Bildqualität noch weiter steigt. Genau da könnte Raytracing sehr gut punkten. Allerdings wird das wohl noch dauern.
Eins stimmt aber definitiv, wie Selflex gesagt hat sollten Spiele Spaß machen.
Deswegen spiel ich ja auch Emus, nicht nur neue Sachen.
 
Ich möchte einen Kommentar über die Programmierbarkeit einer Multi-Core CPU im Vergleich zu einer GPU abgeben. Hier wurde mehrmals in den Raum gestellt das ein GPU "so einfach" zu programmieren ist und es eben bei Multi-Core CPUs "so schwierig" ist (quasi - diese Ingenieure bei Sun, AMD und Intel sind alle blöd *GG*).

Also man kann das in keinster Weise vergleichen. In einer GPU machen praktisch alle Rechenkerne ein und die selbe Aufgabe. Dazu sind diese Rechenabläufe größtenteils voneinander unabhängig was die parallele Programmierung sehr stark vereinfacht. Würde ich so ein Programm für eine CPU schreiben (also jeder Kern rechnet an seinem eigenen Süppchen und muss nicht darauf achten was die anderen Kerne machen) dann ist das ebenfalls ein Kinderspiel. Da aber CPU eben ganz andere Aufgaben zu berechnen haben als eine GPU kann man das nicht vergleichen.

Ich bin selbst Programmierer und nutze seit Jahren Server mit 4 bis 16 Rechenkernen, und ich hatte noch nie ein Problem all diese zu nutzen. Für diesen Anwendungsbereich kann man gar nicht genug Kerne haben. Im Desktop Bereich entstehen derzeit sehr leistungsfähige Library (z.b. Parallel FX für den .net framework) die es einfacher machen mehrere Cores für gängige Programmabläufe zu nutzen.

Auch wenn der Post schon lange wird: Niemand sollte Intel unterschätzen. Ich gehe zwar auch davon aus dass ihre ersten Produkte keine Konkurrenz zu Nvidia oder ATI im High-End Grafikkartenmarkt sein werden, jedoch kann man sich darauf verlassen dass die Ingenieure bei Intel sehr genau wissen was sie da bauen.
 
@ bernpi:

ACK.

Allerdings sehe ich ein größeres Problem in der eher dürftigen Treiber-Abteilung von Intel.

Wie die mal eben Treiber für noch nie dagewesene Hardware (Larrabee) auf die Beine stellen, möchte ich erstmal sehen. Vergleiche: DX10-Treiber für die Intel IGPs :evillol:
 
ja ganz interessant

ich finde aber nen bisschen komisch das gerade einer von Nvidia von der Zukunft der Grafikkarten spricht dabei ist doch Ati/Amd meiner Meinung nach viel moderner was Grafikkarten angeht.
nvidia noch 65nm und Ati/Amd 55nm oder lieg ich da falsch??^^

mfg
 
Warum dieses ewige Hickhack zwischen GPU und CPU. Das ist Hauptsächlich eine Softwarefrage.
Die GPU ist nicht besser, wenn es keine Anwendungen gibt, die unterstützt werden.
Die CPU ist noch zu schwach für Raytracing.
Also was soll das Ganze?
Es ist ja in Ordnung, wenn man Vorteile der einen oder anderen Technologie aufzeigt. Aber wenn diese Vorteile erst in Jahren zu tragen kommen, dann ist es heute vollkommen wurscht!
 
Also die Sache mit der Parallelisierung ist ja (wahrscheinlich absichtlich) etwas unglücklich dargestellt. Es wirkt ja geradezu, als ob mit Programmierung in C auf einer GPU automatisch alles massiv parallel funktioniern würde. Das ist natürlich quatsch. Nur ist das Problem der Rasterisierung halt extrem gut parallelisierbar, auch auf einer CPU. Andere Dinge hingegen nicht, die laufen dann auch nicht auf einer GPU plötzlich parallel. Ist alles eine Sache der Programmierung (und des Problems) und da ist es prinzipiell egal, ob die GPU oder die CPU das macht.
 
Vendetta schrieb:
Da es immer bessere Techniken gibt die Polygone "abzurunden" kommen auch highend Modelle mit relativ wenig Polygonen aus, zB brauchte man für eckige Zombies in Doom III nicht viel weniger Polygone als für die detailierten Alienmonster aus Gears of War...
http://bnl.samediff.net/covers/conehead.jpg
http://scr3.golem.de/screenshots/0505/gears_of_war_xbox360/gears_of_war1.jpg

Hast recht. Absolut gleicher Poly-Count.

Für eine gesamte Szene werden mittlerweile durchaus mal 5 Mio Polies verwendet.
Eine Normal-gemapter Klumpen stinkt gegen einen haufen Polygon-Steine einfach ab.



PS: In einschlägigen Foren nannte man Doom 3-Charaktere nur "Coneheads".
 
Vendetta schrieb:
Außerdem scheint Raytracing viel mehr Performance zu fressen und dass Intel genau damit für seine CPUs wirbt ist einfach lächerlich!

das stimmt nur bedingt heutzutage frisst es mehr performance als das rasterisieren doch ab einem bestimmten punkt an polygonen ist es leistungsfähiger als das heutige rasterisieren, doch man weiß noch nicht ab welcher anzahl das ist
irgendwo hab ich das gelesen glaub sogar im ersten oder 2. artikel von cb
 
Meine meinung: kling voll nach nV werbung.
Meine bitte: CB sollte da bitte auch gleich mit AMD vergleicht, z.b. das ne 4xxx radeon 800 solcher prozzesoren besiztz und diese sogar in 5D rechnen anstatt in 1D.
@Topic
Aber das konnte, denke ich, nicht einer der nV typen sage, weil es ja um werbung geht, gegen intel und amd.
kann auch sein das es eine reaktion ist wegen dem zusammenschluß was havoc angeht und nV geht jetzt so ein bissel in die offensive, wenn schon nicht mit nicht vorhandener neuer hardware, dann eben mit softwaremöglichkeiten und pipapo
 
Hier gibts nen sehr interessanten Artikel von John Carmack über RT.

http://www.pcper.com/article.php?aid=532

Er geht auch davon aus, das Rasterisation und RT wahrscheinlich gleichzeitig verwendet werden. Auf jeden Fall werden zukünftige Spiele immer besser aussehen. Schön.
 
Im Abschnitt "Ist Raytracing bereit für den Alltagseinsatz?" sellt David Kirk Raytracing meiner Meinung nach Raytracing in ein viel zu schlechtes Licht.

Ich fasse mal zusammen:
  1. Raytracing ist nicht unbedingt schneller als Rasterisierung (ohne weitere Begründung)
  2. Raytracing wird, wenn es um den Einsatzbereich Sichtbarkeitprüfung (...) geht, nie so schnell wie Rasterisierung in Hardware sein
  3. Schatten: Er räumt ein, dass diese mit Rasterisierung schwer realitätsnah zu erzeugen sind. Um sie aber mit Raytracing "perfekt" zu zeichnen, benötigt man "mehr Rechenaufwand aus, als ihn moderne CPUs bewerkstelligen können".

Meine Meinung:
  1. Klar laufen aktuelle Spiele nicht mit Raytracing schneller, aber mit steigender Polygonzahl und aufwänigeren Landschaften wird Rasterisierung irgendwann keine Alternative mehr zum Raytracing sein
  2. Deckt sich mit Antwort 1, mit steigender Komplexität der 3D-Welten wird Raytracing effektiver
  3. Hier vergleicht er mal ganz dreist klobige D3D-Schatten mit photorealistischen raytraced-Schatten, die dann zu allem Überfluss auch noch CPU-lastiger sind (die fiesen Säue :rolleyes:). Und dass aktuelle Hardware mit Raytracing noch nicht spielbare Framerates erzeugen kann ist auch nichts neues, hier geht es ja auch um die Zukunft der 3D-Grafik.

Mich hat der Artikel ehrlich gesagt schwer enttäuscht, ich hätte mir etwas mehr Perspektive und weniger Geschwafel und Mainstream-Denken erwartet.
Aber anstatt eine neue Architektur von der Pike auf aus dem Boden zu stampfen, glauben wir, dass es die großen Investitionen der gesamten Industrie zu erhalten gilt, die tief in DirectX und OpenGL verankert sind. Wir glauben, dass die wertvollsten Architekturen die sind, die die bestehende Technologiebasis erweitern und nicht die, die sie unterbrechen.
Von Nvidia dürften wir in den nächsten Jahren wohl keinen Umbruch erwarten, wenn die Erhaltung der "großen Investitionen der gesamten Industrie" bei denen oberste Priorität hat...
 
man darf bei der ganzen diskussion eines nicht vergessen - es geht hier weniger um fachliche analysen raytraycing vs. raster. es geht um intel vs. nvidia.

auf der einen seite ist intel. intel kommt aus der cpu sparte und versucht seinerseits mit diesem technologievorsprung in den grafiksektor vorzudringen. für eine grafiklösung die auf multicore im cpu style setzt eigent sich raytraycing perfekt. gelingt es also intel raytraycing zu etablieren, glänzen ihre grafikeinheiten gegenüber herkömmlichen grafikkarten. denn die pure theoretische rechenpower in flops sagt wenig aus über anwendungsspezifische performance.

andereseits nun nvidia. mit der zunehmenden zahl an cpu kernen steigt auch die bedrohung durch diese, bzw. die notwendigkeit diskreter grafiklösungen. primärziel ist es also das grafikanwendung tunlichst vom gpu stil profitieren, also hohe zahl an kernen, die jeweils aber längst nicht die flexibilität eines cpu kerns haben. man startet also mit cuda und co einen feldzug der erstmal jedem klarmachen soll wieviel power in den eigenen gpu's steckt. als nächstes spielt man die karte des vorteils bestehender lösungen - never change a running system.

intel will ran an den kuchen & nvidia will nix abgeben. beide sind clever genug um sich nicht auf das heimatgebiet des anderen zu bewegen - also - gehen stellvertretend die zwei grafikansätze ins feld. wie bei der frage beta vs vhs, cd+ oder -, blue ray vs hddvd - ist am ende nicht die frage wer das faktisch bessere system hat; sondern wer mehr partner findet und seinen standard etabliert.

gelingt es intel genügend gameschmieden ins ray-boot zu bekommen, backen sie damit einen neuen grafikmarkt kuchen für den nvidia nicht die perfekte backmischung hat. andererseits wird nvidia alles versuchen die vorzüge des bestehenden kuchens hervorzuheben...
lachender dritte könnte dabei am ende ati/amd sein - sie können, wenn sie es nicht verpassen, mit backmischungen für beide kuchensorten aufwarten.

die zeit wird es zeigen...
 
Zurück
Oben