Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Heutige Grafikkarten haben kurz ausgedrückt eine einzige Aufgabe: Bilder auf den Bildschirm zu produzieren. Und dies möglich schnell, unabhängig davon, ob nur der 2D-Desktop oder ein 3D-Spiel beziehungsweise eine andere 3D-Applikation berechnet werden muss.
Naja, Quad Core, Quad Sli, und sowas noch dazu. Ob sowas für den normalen User wirklich nötig is? Also zumindest bei solchen Karten reicht mir eine gute Graka und ne einigermaßen leistungsstarke CPU.
Vielleicht wäre sowas in anderen Bereichen nützlich, aber für den normalen Endanwender / Gamer, bin ich mir net so sicher.
Wieso muss es denn unbedingt eine Karte sein? Wäre doch genauso möglich, dass ATI diese GPGPU für AMDs Opteron-Systeme als Co-Prozessoren anbietet, oder nicht?
Das heißt, in Zukunft kann man sich eine "Grafikkarte" als eine Art Hilfs-CPU in den Rechner stecken, welche dann (natürlich Anwendungsabhängig) das System und besonders Berechnungsanwendungen beschleunigt?
Also im Prinzip ein "Prozessor-Update" für den PCI-Slot? Habe ich das richtig verstanden?
ach leute ich bitte euch... wieder alles nur hokus pokus und tralalala.... wartet doch erstmal den r600 und den g80 ab und wenn die dann gescheit unifid shader un co können, kann man immer noch über diesen kram hier reden... erst physix karten dann quad sli... irgendwann brauch ich n extra tower wo ich meine 20 grakkas reindonnern kann 0=
Im Prinzip doch eine ähnliche Idee wie die PhysX Erweiterung.
Um mal einen Eindruck der extremen Leistungsfähigkeit von GPGPU-Anwendungen zu bekommen empfehle ich euch das hier und das hier.
GPGPU-Anwendungen sind generell nicht neu, sondern bereits seit Jahren erstellt. Allerding eher in der Forschung, in der Öffentlichkeit hört man recht wenig davon.
und wer braucht son quatsch? oder hat hier etwa jeder in seinem rechner n x6800 c2d und n quad sli system???
ich bitte euch... nach oben hin gibt es nie grenzen es geht immer ein wenig schneller, jedoch auch teurer, stromverbrauch etc. ich bezweifel ja jediglich das sich sowas jemand kauft... oder hat hier jemand schon ne physiX karte drin?! also...
Wenn man bedenkt, das GPUs manche Ausgaben schneller erledigen können, als moderne CPUs, finde ich, hat die Sache wirklich Potenzial. Vor allem, weil es eben nicht nur zum spielen da ist (wie PhysiX), sondern bei richtiger unterstützung allgemein das System davon profitieren kann. Da könnte man sicherlich spezifische Anwendungen vielleicht für 150 oder 200 Euro mehr als um das Doppelte beschleunigen?
Ich würd einen Cell auf 'ne Platine packen und in die PCI Express Slot reintun.
Der kann auch super rechnen und den gibts auch schon.
Eignet sich wahrscheinlich sehr gut als Rechenknecht wenn's dem Athlon zu "parallel" wird.
Dazu dann 'ne QuadSLI GraKa und (sobald es Sinn macht) noch eine PhysX Karte.
zum thema gpgpu habe ich im letzten halben jahr (aus eigenem interesse ... angehender bioinformatiker) mehrere diplomarbeiten gelesen. diese technologie hat ein riesiges potential.
Bei Rechenproblemen, die hoch parrallel ablaufen können reicht meist schon, einfach nur den Algorithmus fast 1zu1 mit GLSL(sehr c++ ähnliche sprache auf gpus für opengl) auf der grafikkarte ausführen zu lassen. bei einem beispiel von spracherkennung war allein dadurch schon die performance verdoppelt (und die graka die verwendet wurde war eine geforce 6800). mit speziellen optimierungen konnte der 10fache speed erreicht werden.
in anderen fällen kann mit speziellen optimierungen das 40fache des jetzigen cpu speeds erreicht werden. das gilt besonders, je ähnlicher das zu berechnende problem den "grafikproblemen" aus spielen ähnelt. Besonders wichtig zu wissen ist, dass GPGPU Code platformunabhängig ist, und daher nur der programmcode zum ansteuern der graka geändert werden muss, wenn man zwischen mac linux win hin und her wechselt. das heißt nahezu plattform unabhängiges highperformance computing. die cpu leistung ver-260facht sich ca alle 10 jahre. die GPU Leistung ver-1000facht sich hingegen. D.h. dieser optimierte Streamprozessor wird der CPU immer weiter davonziehen.
Vielleicht hat AMD die Zeichen der Zeit erkannt und entwickelt mit Tochterfirma ATI auch an einer AMD CPU mit integrierten Streamprocessing Units.
Naja mal sehen. Erstmal kommt FireStream, dessen größter Sinn es vermutlich sein wird, auf Servern mit 32/64 PCIe-Lanes 4 headless grafikkarten zu verbinden um speziell angepasste Versionen von Crashtests (jede menge Matrixmanipulationen) und natürlich auf andere physikalische probleme (die darauf basieren eine enorme zahl an differentialgleichungen pro sekunde zu lösen) zu lösen oder auch um wetter/finanzmarkt-prognosen noch exakter machen zu können.
Ihr seht also, jetzt bildet sich noch eine gruppe die heiß auf schnelle grafikkarten ist.
Und diese gruppe ist sogar bereit viel mehr für solche karten zu investieren.
Da ist es schön für ATI (und bestimmt auf NVIDIA) hier mit Preisdifferenzierung noch ein paar Euro mehr zu verdienen durch "spezielle" Streamop-Karten
Solceh Karten würden ja vermutlich eh in Servern und Clustern zum Einsatz kommen um die genannten Berechnungen durchzuführen. Das "Fire" Präfix besagt ja schon den professionellen Anspruch. Im wissenschaftlichen Bereich sind GPUs aber inzwischen gern gesehen. Also interessant, aber kein Grund für Privatanwender schon wieder Schweißausbrüche zu bekommen. Für normalen CPUs macht das weniger Sinn, da wäre eine derart optimierte Architektur eher hinderlich würde ich meinen.
Achja der G80 wird wohl keine Unified Shader haben und im Allgemeinen wird diese Technik auch etwas überschätzt. Nicht alle Wunderdinge glauben die man so verspricht. Letztendlich bietet es vielleicht mehr Performance aber die kann man auf vielen Wegen erreichen.
Ist das nicht auch eine weitere Möglichkeit AMDs Coprozessing via HX Schnittstelle auszubauen? Oder könnte es nicht eigentlich sogar eine Konkurrenz aus dem eigenen Hause werden?
@15
richtig
weiss gar nicht warum wieder sich wieder alle darüber aufregen und meinen es sei müll weil sie es nicht brauchen
einfach mal ein wenig über den tellerrand schauen und gucken was da so los ist
ihr baut euch ja auch keinen sparc oder itanium in eurem rechner
Es gibt auch irgendwo ein Linuxprojekt bei sourceforge glaub ich, da gibts ne Lib, mit der man die Graka als zusätzliche CPU nutzen kann. Hab den Namen leider nicht mehr im Kopf