Fermi unterstützt interaktves Ray-tracing

a r e s ! schrieb:
Du glaubst da genauso nicht dran, wie die Musikindustrie nicht an MP3s geglaubt hat. Und andere an Soziale Netzwerke oder an SSDs. Irgendwann war die Technologie da (und reif genug) und es hatte jmd. anderes den Markt erobert. Zeiten ändern sich. Jeder hatte Nintendo mit der Wii zunächst belächelt. Ich kann gar nicht mehr zählen wie oft ich solche Entwicklungen habe kommen sehen. Bei MP3s habe ich das langfristige Potential 1995 erkannt und genutzt und P2P seit dem auftauchen von Gnutella im Jahr 2000, also vor 15 bzw. 10 Jahren. Und dann kam als logische Konsequenz Napster wo man Musik (MP3s) über P2P tauschen konnte. Antwort der bisherigen Industrie: null
Ja, du bist der große Hellseher. Mal daran gedacht, dass die Menschen in den 70ern dachten, dass wir heute auf dem Mars leben würden?

Oh toll, Nintendo hatte mit der Wii finanziellen Erfolg. Großartig, nur verstaubt sie schon seit nem 3/4 Jahr in der Ecke. Gibt ja nur alle Jubeljahre mal ein Nintendo-eigenes Spiel oder einen Third-party Überraschungshit.
 
Wie ich bereits in nem andern threat geschrieben ahbe, hab ich vor einiger Zeit mal meine alten uni hochrechnungen ausgepackt, was ich damals errechnet habe, was man an grafik power und an rechnleistung seitens der cpu braucht für rt ray tracing. das hab ich dann auf die aktuelle(amd gpu und intel cpu) generation übertragen auch im zusammenhang mit der core zahl der cpus

das ergebniss ergab, das wir in ca 3 jahren knapp unter dem event horizont sein werden in 4 jahren knapp darüber (der event horizont bezeichnet in diesem fall den schnittpunkt der leistung, die man benötigt damit raytracing efficter ist als rastericing)
im cpu sektor sieht es da anders aus, da der nciht richtig in die puschen kommt könnte es da noch gut 8 jahre dauern, allerdings vermute ich, das man da schlicht freie kapazitäten der gpu nutzen wird um das ganze in 4 jahren marktreif zu haben.

raytracing IST groß im kommen meine herren, da besteht kein zweifel. ich vermute das in 3 jahren der spielemarkt i diese richtung vorbereitet wird, was bedeuten würde, das iwr in 6 jahren mit ersten "vollständigen" raytracing spielen rechnen können. allerdings sollte man anmerken, das über 4way sli bereits mit dieser generation in etwa die erforderliche leistung simuliert werden kann was die gpu ungeht und auch server mainbards mit 4 sockeln in die nähe der geforderten leistung der cpu kommen und somit die wirkliche forcierung auf dem spielemarkt seitens nv und intel dazu fürhren könnte, das wir bereits in 3-4 jahren sowohl hardware als auch spiele sehen die auf raytracing ausgelegt ist.
 
@a r e s !
Viele Entwicklungen die aber still und leise verschwunden sind, hast du aber nicht aufgezählt. Schau mal bei Sony alleine vorbei, wie viel wurde da entwickelt, auf den Markt geschmissen und verschwand dann. Gleiches gilt bei sehr vielen anderen Techniken. Nur ein Bruchteil setzt sich am Ende durch.

Das Raytracing irgendwann kommen wird, ist gut möglich. Fakt ist aber, in den nächsten Jahren sicherlich nicht. Auch nicht in 3 oder 4 Jahren. Vielleicht als Randerscheinung oder als Begleitredering in Spielen.

@Neo_Xsendra
Die erforderliche Leistung für was? Welche Auflösung? Welche Effekte? Filmreif oder so etwas armseeligs wie die Quake Rendevorgänge die man bisher gesehen hat? An welchem Maßstab misst du?
 
das ist ne ganz einfache formel du nimmst auflösung X bei texturqualität Y und poligonzahl Z diese setzt du dann in die effizenz der darstellungsart Rastericing A oder raytracing B daraus erhälst du einen effizienzwert für A und B

daraus ergibt sich ein event horizont, ab welcher zur verfügung stehenden leistung A oder B effizienter wird. dieser wert wird unter vorraussetzung der leistungsteigerung der vergangenen jahren nach der generation 2013 und noch vor der generation 2014 bei den grafikkarten erreicht, während prozessoren da noch etwas nachhinken.

dabei spielt es keine rolle welche "qualitätseinstellungen" du willst. ab diesem zeitpunkt kannst du mit der vorahndenen leistung mit A oder B bessere effekte mit weniger aufwand auf den bildschirm zaubern.

ab 2014 haben wir die leistungsgrenze geknackt

das heisst nciht, das rastericing dann automatisch tot ist, aber ab dann macht raytracing mehr sinn (allerdings steigt unter rastericing die hardware anforderung beinahe im quadrat zur effektsteigerung, während sie beim raytracing im netdeffekt ca linar steigen wird. was rastericing auf dar schnell abschießen dürfte)
 
Wenn die Leistung in 4 Jahren erst mal da sein sollte... was sich ja auch erst noch zeigen muss, wird sich die Spielindustrie nicht so schnell vom bekannten verabschieden. Das wird noch eine längere Umstellzeit erfordern u.s.w.!
Man wird abwarten müssen, und das Warten wird sich hinziehen. Neue Techniken haben schon immer, teilweise Jahre gebraucht bis sie sich durchsetzen konnten. Und dies gemessen ab dem Zeitpunkt wo die Technik eigentlich ausgereift ist.
 
Neo_Xsendra schrieb:
das ergebniss ergab, das wir in ca 3 jahren knapp unter dem event horizont sein werden in 4 jahren knapp darüber (der event horizont bezeichnet in diesem fall den schnittpunkt der leistung, die man benötigt damit raytracing efficter ist als rastericing)
im cpu sektor sieht es da anders aus, da der nciht richtig in die puschen kommt könnte es da noch gut 8 jahre dauern, allerdings vermute ich, das man da schlicht freie kapazitäten der gpu nutzen wird um das ganze in 4 jahren marktreif zu haben.

raytracing IST groß im kommen meine herren, da besteht kein zweifel

Danke, wenigstens einer derjenigen die mir beistehen.

Ich sehe bei dieser Thematik halt wieder genau das gleiche Muster das ich schon oft gesehen habe bei neuen Technologien. Die Überwiegende Mehrzahl glaubt nicht an den Durchbruch, die Technik entwickelt sich trotzdem weiter, die Kosten sinken und Bang, auf einmal macht jeder ohne Zweifel bei dem neuen Ding mit.


Cat schrieb:
Mal daran gedacht, dass die Menschen in den 70ern dachten, dass wir heute auf dem Mars leben würden?
Das ist der klassische Fehler der oft gemacht wird. Eine neue technische Entwicklung ist da und hat sich bereits etabliert. Jetzt denken zuviele diese würde sich in dem selben Tempo weiterentwickeln, aber dem ist gerade nicht so.

Nur weil Microwellenherde irgendwann marktfähig waren, wurde nicht die gesamte Nahrungsindustrie auf Mikrowellen-Essen umgestellt. Nur weil Atomenergie da war, fahren die Autos heute nicht mit Atomreaktor. Nur weil die Überschalltechnik entwickelt wurde, fliegen wir heute nicht mit Überschalljets um die Welt (im Gegenteil, die Concorde wurde sogar eingestellt). Alle diese Technologien haben ihr Einsatzgebiet gefunden, aber sie haben auch Nachteile, sei es enorme Kosten oder Risiken.

Man darf nicht einfach sagen, nur weil es heute HDD Festplatten gibt, sehen die irgendwann so aus. Meist kommt dann eine neue Technologie auf den Markt, die alles verändert. Wir haben heute keine 6 GHz oder 8 GHz Prozessoren, sondern stattdessen Mehrkern-Prozessoren, wo alle früher geschrieben haben nicht einmal zwei Kerne wären die Zukunft, würde keinen Sinn machen. Statt HDDs kommen nun SDDs in Schwung. Man braucht Phantasie und etwas Gespür, dann ist klar, dass wahrscheinlich in sechs bis acht Jahren Ray-Tracing in Mode kommt. Einfach weil dann die Zeit reif ist, den bis dahin komplett entwickelten Markt mit einem anderen Ansatz zu verändern. Geld regiert die Welt. Alle können dann wieder neu daran verdienen. Auch neue Unternehmen könnten sich dann etablieren und die Alten ablösen. Eben die, die auf diese neue Entwicklung bereits eingestellt waren.
Ergänzung ()

Eon-Deon schrieb:
@a r e s !
Viele Entwicklungen die aber still und leise verschwunden sind, hast du aber nicht aufgezählt. (...) Gleiches gilt bei sehr vielen anderen Techniken. Nur ein Bruchteil setzt sich am Ende durch.

Das ist wiederum ein anderes Phänomen. Oft ist die Zeit für diese Technologien dann noch nicht reif gewesen. Die Kosten waren zu hoch, der Kundenkreis zu klein, die Bedienung zu schlecht, die Umgewöhnung zu hoch, die Produkte waren schlicht noch nicht innovativ genug, oder eben zu innovativ und erklärungsbedürftig.
 
Zuletzt bearbeitet:
Nvidia hat nach eigenen Angaben einige Optimierungen in der GF100-Architektur vorgenommen, so dass Raytracing spürbar schneller berechnet werden kann. Um dies zu demonstrieren haben die Kalifornier eine eigene Techdemo namens „Design Garage“ entworfen, die die bekannte „Auto-Szene“ zeigt.
https://www.computerbase.de/2010-03/test-nvidia-geforce-gtx-480/23/#abschnitt_tessellation


Hier ein Video dieser Demo:
http://www.youtube.com/watch?v=Qidy4xf1T4k&fmt=18
 
sieht ja ganz nett aus, aber trotzdem: das ding is auf das minimalste reduziert und es treten keinerlei weitere effekte auf oder gar irgendwelche ki o.ä. bis das in spielen verwendbar wird, vergehen noch einige jahre.
 
Neo_Xsendra es ist 2014, wie sieht es aus mit deiner Wette?
 
Zurück
Oben