Lord Nemesis schrieb:
obwohl sich die GPUs in den letzten Jahren immer mehr den CPUs genähert haben (seit DirectX 8) sind sie immernoch sehr stark eingeschränkt mit den Berechnungen, die sie durch führen können!
Aber auch die CPUs nähern sich den GPUs an.
Kunibert_KA schrieb:
Es wird also immer einiges an CPU Last bleiben.
Ja, aber was will man mit einer fetten Quadcore CPU, da kommt immer "Video und Fotobearbeitung" und solche Sachen, eben ideale Einsatzgebiete für Grafikkarten.
Fakt ist, dass heute ein 3 Jahre alter CPU noch sehr ausreichend sein kann, wenn ich aber an das Jahr 2000 denke oder gar 1995, da war die CPU Generation von Jahr zu Jahr merklich schneller, das haben wir doch schon geraume Zeit nicht mehr. Wenn man sich heute einen schnellen Rechner zusammenstellen will, ist man bestens beraten, als erstes bei der CPU zu sparen. Bei Automotoren war es doch das gleiche, irgendwann waren wir bei 100 PS angekommen, und das reicht für 90% der Bevölkerung, bei CPUs sehe ich das ähnlich, das Thema ist weitgehend gegessen, bzw. uninteressant in der näheren Zukunft, und es entwickelt sich auf dem Sektor ja auch eher langsam. Innovationen wie ULV CPUs, Netbooks und GPU Computing ist viel wichtiger.
Die Herausforderung liegt heute bei den Programmierern, denn Grafikkarten zu nutzen ist schon relativ schwierig. Jeder der schonmal mit Threads in Java herumgespielt hat weiß, dass man da aufpassen muss, weil es sonst ständig zu Bugs und Fehlern kommt (Deadlocks, etc.). Komplexere Softwarestücke zu portieren ist garnicht so einfach, und wenn man es nicht parallelisieren kann, läuft es auch nicht schneller als auf einer CPU.