Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Die Nvidia-Hausmesse Nvision beschäftigt sich mit der aktuell für „Visual Computing“ vorhandenen Software sowie Hardware. Nichtsdestotrotz zeigt man auch einen kleinen Teil der Zukunft, die, nach der eigenen Meinung, GPUs wahrscheinlich bevorstehen wird. Dies sind jedoch – wie man direkt zu gibt – nur Vermutungen.
und wie sieht dann bitte diese "Über-Realiät" aus? Manche Leute hier drin scheinen eine sehr rege Einbildungskraft zu besitzen, geradezu "übermenschlich"
@allg. Skepsis gegenüber "...besser als die Realität":
Seid doch mal etwas kreativ - ich hoffe sie schaffen es und bringen dann ein weiteres Endlos-Spiele wie WoW raus, dann gibt's endlich nie wieder Stau auf der Autobahn, Warteschlangen et cetera. Yeeha!
Ich finde auch man sollte sich mehr auf die Sparsamkeit konzentrieren, das schont den Geldbeutel und die Ohren ...
Im übrigen bedeutet besser nicht gleich Qualitativ ausgereifter / entwickelter. Ich kann ja auch die Sprites aus Ultima Online besser finden als die Grafik wenn ich aus dem Fenster schaue.
Die Realität verbessern ist wohl kaum möglich bis auf ein paar cheats
Aber so nen Spiel wie WoW mit den ganzen Effekten , Partikel wäre cool mal in HQ zu sehen wie in nen Film.
Dann wäre es auch möglich Märchen für Kinder als Spiel so fazinierend umzusetzen, dass selbst die ein Verkaufsschlager werden
Die Rechenleistung ist ja schon extrem,
wäre cool wenn es dann nur für Blender, C4D entsprechende Software gibt um es auch zu nutzen.
Alleine Heute ein 3D Editor der alle Features der Grafikkarten nutzt wäre mal wünschenswert...
Grafik besser als Realität kein Problem nimmt man den Monitor weg und Bilder direkt ins Hirn dann kommen wir auch davon weg nur auf nem kleinen Punkt scharf zu sehen sondern können Scharf komplette Landschaften betrachten
Wer weiß wie hoch 2013 die Energiekosten sind. Entweder, es wurde dann bereits eine alternative Möglichkeit gefunden, Strom zu erzeugen (Weiterentwicklung der Solartechnik z.B.) oder es wird nichts neues gefunden und die Kw/h kostet uns 1€. Dann will ich mal die sehen, die noch eine High-End GPU in ihrem Rechner verbaut haben (vorausgesetzt, es wird nichts enwickelt/erfunden, was den Energiebedarf der GPU's senkt, was ich imo aber auch bezweifle).
Weil die CPU zu schwach war entwickelte sich daraus die Soundkarte/ Grafikkarte/ Physikkarte, wodurch der PC schneller wurde und nun will und nVidia sagen, dass die CPU eh schon sooo flott ist, dass spezialisierte Hardware unnütz ist und man mit einer GPGPU/ zweiten "CPU" besser dran ist?
GPU Spezialisierung abschaffen... schonmal versucht, ein aktuelles Spiel von der CPU rendern zu lassen? Kleiner Tipp an Nvidia: lasst mal den CPU-Benchmark im 3DMark 06 laufen -.-
Der große Vorteil einer GPU ist ja gerade, dass sie simple Aufgaben X-mal schneller als eine CPU berechnen kann. Dass sich diese Aufgaben nicht nur auf 3D-Grafik beschränken, haben Projekte wie CUDA und GPU-PhysiX gezeigt, nur ist dazu keine Änderung an der Hardware nötig. Wenn für GPUs ein so gewaltiger Befehlssatz wie für CPUs geschaffen wird, dann haben wir nichts anderes als eine Zusatz-CPU mit anderer Architektur, die uns beim Rendern aber so ziemlich gar nichts hilft, da sie genauso lahm wie eine aktuelle CPU wird.
Keine Fixed-Function-Units? Ist es nicht gerade das, was die etablierten GPUs in Zukunft einem gewissen Produkt unter der Bezeichnung "Larabee" voraus haben sollen? Geht sicherlich, hat ja auch der R600 mit seinem AA-Workaround gezeigt. Ich gehe aber eher "nur" von einer Reduzierung des Anteils der FFUs am Gesamtchip aus.
Bei der Prognose fehlt allerdings die Entwicklung der Leistungsaufnahme und die entsprechende Hochrechnung für 2013...naja, vielleicht gibt es ja bis dahin Fusionsreaktoren...