Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Erinnert sich noch jemand an die PhysX-Karten von Ageia? Wenn nicht, ist das sicherlich kein Beinbruch, da die Physik-Hardware vom Markt nicht akzeptiert und Ageia mittlerweile von Nvidia aufgekauft worden ist. Was aber damals schon gut funktionierte, war die PhysX-Programmierschnittstelle, also die Software, die die Physikimplementierung ermöglicht.
Klingt ja mal interessant. Nur wenn die Spielehersteller darauf einsteigen sollten, dann hätte ATI ein mehr oder weniger großes Problem. Denn dann wird noch mehr in Richtung nvidia programmiert als ohnehin schon. Und da ATI nunmal keine Physikbeschleunigung im Petto hat, könnten dies dann schwere Zeiten für ATI werden. Abwarten und Tee trinken.
@2 und genau das ist der gewünschte nebeneffekt
2 Fliegen mit einer Klappe, eigentlich 3... MS, ATI und ein Plus für nVidia falls die Umsetzung klappt
wäre dann schön ausgespielt
also CUDA ist schon ne geile Sache. Ich hab damit letztes Semester eine Projektarbeit gemacht.
Die Grafikkarte ist wie ein Mulitcore-Prozessor. Jeder Stream-Prozessoren ist wie ein einzelner Core in einem normalen Prozessor und kann genauso normale Rechenoperationen ausführen. Allerdings im Moment noch nur die einfache Genauigkeit eines Float. Aber double soll ja auch bald kommen. Außerdem führen alle Prozessoren die gleiche Rechenopteration aus wobei sich die Daten die sie berechnen unterscheiden. ein Multicore Prozessor ist ja komplett voneinander unabhängig.
Wir haben das auch getestet und der Vergleich im Artikel kommt wohl hin. Die Karten haben ne Leistung von mehr als 300GFlogs
wow, hätte nicht gedacht das nvidia das so schnell umsetzt. wenn jetzt bald noch entsprechende treiber rauskommen.... wird wohl noch sehr interessant werden!
Klingt ja mal interessant. Nur wenn die Spielehersteller darauf einsteigen sollten, dann hätte ATI ein mehr oder weniger großes Problem. Denn dann wird noch mehr in Richtung nvidia programmiert als ohnehin schon. Und da ATI nunmal keine Physikbeschleunigung im Petto hat, könnten dies dann schwere Zeiten für ATI werden. Abwarten und Tee trinken.
@Bylar
Danke für den Hinweis. Hat ich bis nun eben noch nicht gelesen. Gut das beruhigt mich dann schon wieder etwas. Hatte schon gedacht man will ATI wiedermal ganz das Licht ausknipsen.
Erinnert sich noch jemand? so lange ist das doch jetzt auch noch nicht her. ^^
Ich hab mir damals sogar eine PhysX Karte gekauft ^^ extra für, ich glaub Medal of Honor oder sowas.
Ich denk schon das sich PhysX, auf lange Sicht durchsetzen wird.
Im moment ist die Frage aber, was von einem Spieleentwickler sinnvoll genutzt werden kann (wegen Verbreitung verfügbarer Hardware), und dabei einfach und schnell zu programmieren ist.
Havoc wie in HL2 lief ja auch ohne Probleme auf älteren Singlecore CPUs.
Das waren zwar immer nur ne Handvoll Objekte, die dort berechnet werden mussten, aber ich glaub irgendwie nicht das irgendein Entwickler Zehntausende Objekte in nächster Zukunft darstellen will.
Mag sein 300-500 Objekte, aber dafür sollte doch ein CPU core (von 2 oder mehr) ausreichen.
Die Zukunft gehört sicher PhysX, aber in nächster Zeit wird es wohl immernoch CPU basierte Physik geben.
Naja ich finde ATI hat immer noch einen kleinen Vorteil durch den integrierter HD Audiocontroller. War für mich jedenfalls ein Kaufgrund, da ich somit über hdmi das an meinen Fernseher anschließen mit Bild und Ton.
Dennoch wirds wohl im Zuge der Verbreitung von PhysX Anwendungen für ATi übel aussehen.
wenn das alles wahr werden sollte und die spieleentwickler mit einschlagen und nvidia das ganze auf ihre karten implentiert. dann sehe ich nur noch schwarz für amd , dann steht der übernahme wirklich nichts mehr im wege.
AMD vs Nvida..im moment ist das wie ein schach spiel .
Wenn irgendeine Software Intels Havok unterstützt, wird es zwangsläufig auch auf AMD CPUs laufen, Intel hat Havok gekauft um den Absatz (eigener) Quadcores anzukurbeln da sie keine Grafikkarten (Nvidia hat auch schon einen Spitznamen für Larrabee -> Laughabee) haben und Physikberechnung per GPU die Nachfrage nach Highend-CPUs stagnieren lässt.
Jetzt zu PhysX, kein Spieleprogrammierer wird kostspielig irgendwas in sein Produkt einbauen, das geschätzt nur auf jedem zweiten System funktioniert, wenn AMD sich nicht entscheidet PhysX zu unterstützen, sehe ich schwarz für Nvidia, da sie keine CPUs bauen (dürfen).
Mahhh lest dochma was andere extra raussuchen. Nvidia kämpft hier gegen Intel und NICHT gegen AMD. Daher bietet Nvidia AMD auch ne Lizensierung an. Auch rein logisch könnte man darauf kommen, dass Nvidia hier mit einer Kooperation mit AMD weiterkommt als wenn sie ihnen das vorenthalten. Den wenn alle Grafikkarten es unterstützen sieht es für Havoc und Intel CPU Physik nicht so gut aus. Die technischen Vorteile liegen ganz klar bei der Grafikkarte. Nur an der Verbeitung mangelt es eben noch. Sicherlich wird die Entwicklung auch dahin gehen, dass eine Highend-Karte fürs Rendering zuständig ist und eine 2, deutlich leistungsschwächere für die Physik, da auch diese deutlich mehr parallele Leistung hat als ein Kern einer CPU. Auch preislich kommt da eine CPU nicht mehr mit. Und wenn die Verbreitung entsprechend gegeben ist, wer weiß, vll erleben wir dann ein revival der Physikkarten.