News nVidias G80 kommt mit Physikbeschleunigung

@mmic29
Eben. Das ist doch gerade der Clou. Das die Berechnung mit auf die Graka kommt.
Ich finde diese Entwicklung sehr positiv, egal ob nun im G80 oder mit Extra Chip auf der Graka, hauptsache auf einer Karte. Und wenn der "G80+" sowieso dieses Potenzial mitbringt, wärs Verschwendung dieses nicht zu nutzen. Denn Strom und Platz verbraucht er ja so oder so.
Nur damit hat sowas auch ne Chance sich umfassend zu etablieren. Denn ne Graka muss jeder kaufen, ne Zusatzkarte nicht, letzteres verkompliziert nur alles unnötig.
 
Relict schrieb:
[...]Denn ne Graka muss jeder kaufen, ne Zusatzkarte nicht, letzteres verkompliziert nur alles unnötig.

Richtig. Zumal die PhysiX Karten dem G80 um längen unterlegen sein werden, denn selbst wenn der G80 zwei aufgaben gleichzeitig erledigen muss, ist er duch die Architektur und die Taktraten mit Sicherheit schneller, falls dieses Feature wirklich kommt. [Den GDDR 4 RAM möchte ich garnicht erwähnen^^]

Das ist auch im Sinne aller User oder? Selbst wenn man das Geld hätte, müsste man noch mehr Ausschau halten nach geeigneten Bauteilen für einen PC.. mehr Treiber.. und und und.

Abwarten, aber da der G80 angeblich ein verspätetes Tapeout hatte, können wir weiter hoffen^^

MfG B@dehose
 
Trotzdem benötigen die neuen Karten mit integrierter Physik mehr Energie als vorher, da wett ich drauf.:(
 
Bin mal gespannt in welche Preisregion sich die Grafikkarte(n) bewegen werden ;-)
Aber auf der einen Seite braucht man KEINE neue extra Physik-Karte kaufen, und der Stromverbrauch ist/bleibt geringer ... was ich doch mal annehme ^^
 
Zuletzt bearbeitet:
Naja also viel Spaß mitm G80 :D Wird sicher wieder schneller sein, aber der ist so zugemüllt mit Krempel, das wird nix ^^
Ich nehm dann den G81 oder den Nachfolger, um DX10 richtig genießen zu können :)
 
Na da werden sich dann aber einige Testpages umgucken...

wie will man denn die Teile testen? Ich meine dann muss man zum testen der Grafikleistung die Physikberechnung abstellen können. und umgekehrt um wieder die Physikabteilung der Karte testen zu können.
Außerdem dachte ich die G80 hätte noch keine unified shader technologie und mann wolle erst mit der übernächsten die Vertex-/Pixelshader zusammenlegen. Hmm na ja soviel zu gerüchten. Tendenziell finde ich das gut. Aber es ist heute schon schwer ATi und Nvidia zu vergleichen was die Bildqualität betrifft wenn dann noch die Physik dazukommt...

Liebe Tester viel Spaß...

Achso eine wassergekühlte Version 8800GTX soll 699$ kosten und die 8800GT mit Standard Luftkühler 499$ hab ich gelesen. Die Karten unterscheiden sich auch von dem Speicherinterface. Soll aber schon mit 320Bit angebunden sein. Und ach ja 768MB Speicher des Typs GDDR4 verbaut werden. Wenn ich den link noch finde füge ich ihn bei...
 
Zuletzt bearbeitet: (Preise..)
@zappels den Preis für eine 8800GTX mit Wakü lasse ich mir noch eingehen auch wenn das im selberbau wieder 200€ weniger sind aber ich denke nicht das eine 8800GT 499€ kosten wird denke eher 400€ und die GTX denke ich mal so 540-500 am anfang dann nach 4Monaten bei 450€ einpendeln wird hoffentlich will so eine haben:D
 
Die preise werden recht schnell fallen, am Anfang werden wieder kaum Karten zu haben sein und alle schlagen sich drumm, das wird sich wieder einrencken... Wenn jemand vor 2 Monaten gesagt hätte dass man die 1950XTX für 400€ Retail bekommt, hätte er auch lauthals gelacht...
 
na ja, mal schauen was die Teile bei der "besseren" Leistung verbrauchen. Ne Karte die mehr verbraucht als meine 1800xt kommt mir bestimmt nicht in den Rechner. Hab mich eigentlich eher über Idee von AMD und ATi über die CPU/GPU Verschmelzung mehr als gefreut, hoffentlich da was gescheites raus.
Die Verbesserung des Herstellverfahrens und die Verwendung des GDD4 Ram sollten eigentlich den Stromverbrauch senken, mal sehen, was daraus wird :lol:
Wenn denn die Physikberechnungen von der Graka bzw einer extra Physikkarte übernommen werden und die CPU sowieso zu schwach dafür ist, da fragt man sich doch wozu man DualCore- oder gar MulticoreCPUs braucht? Bin gespannt ob die Softwarehersteller es wirklich schaffen da was zu machen.
 
also die Physikbeschleuniger sind das einzigste, was ich in nächster Zeitz an neuerungen ion SPielen finden werde.

Die Idee ist echt super und glaubt mir Physikbeschöeuniger werden bald genauso wichtig wie Grakkas, also sollte man es auch besser fördern. Ich persönlich werde bei meinem neuen pc eine PhysX drin haben, auch wenn es nicht viel bringt.

Die Graka Lösungen finde ich persönlich nicht sehr prikelnt. Wenn man sich mit den Details auseinandergesetzt hat, weis, dass die Graka Lösungen sehr unausgereift sind.
 
@72: genau, ist die physik erstmal ein nebenprodukt der grafikkarte wird sich das in spielen sehr schnell verbreiten. mehr strom wird man nicht benötigen, da die karte entweder pixel ODER Physik berechnet aber nicht parallel. ausserdem bremst die cpu oftmals die grafikkarte aus, so dass die grafikkarte ruhig mehr übernehmen kann ohne das die grafikgeschwindigkeit sehr drunter leiden wird.
jedem sollte natürlich klar sein, dass wenn die grafikkarte mehr objekte darstellen wird, dass dann die geschwindigkeit reduziert wird. werden aber vorhandene objekte beschleunigt, kann man mit geschwindigkeitszuwachs rechnen. das wird dann hoffentlich im treiber regulierbar sein.
auf alle fälle der richtige weg.
 
Jimbo Jung schrieb:
also die Physikbeschleuniger sind das einzigste, was ich in nächster Zeitz an neuerungen ion SPielen finden werde.

Die Idee ist echt super und glaubt mir Physikbeschöeuniger werden bald genauso wichtig wie Grakkas, also sollte man es auch besser fördern. Ich persönlich werde bei meinem neuen pc eine PhysX drin haben, auch wenn es nicht viel bringt.

Die Graka Lösungen finde ich persönlich nicht sehr prikelnt. Wenn man sich mit den Details auseinandergesetzt hat, weis, dass die Graka Lösungen sehr unausgereift sind.

Das ist Ansichtsache. Meiner Meinung nach ist es nur zu begrüssen das nVidia die Physikbeschleunigung in die Grafikkarte implementieren will. Eine extra Karte brauch halt platz.

Ageia pusht ihr Produkt irgendwie zu wenig starkt. Obwohl die Karte um einiges leistungfähiger wäre als die Havok FX Sache.

mFg tAk
 
naja früheren informationen zufolge benötogt man mind. 2 grakas dazu
ein mischbetrieb ist wohl nciht vorgesehen auf einer karte

warum auch den umsatz schmälern :D
 
Also, :)

1. Mit der PhysX wollte man nur schnell was rausbringen, zum vorzeigen, für Entwickler, ZUM schmackhaft machen.

Nächstes Jahr soll dann die eigentliche PhysX rauskommen, also die PhysX 2 (hat den Stand, der ürsprünglich anvisiert wurde)

Die PhysXkarten sollen so langlebig sein wie Soundkarten, damit wird sich an der Leistung so schnell nichts ändern (viell. 2-4 Jahre oder so, wie bei SK)

Eine ganze G80 (2er Sli) nur für Physik wäre totaler schwachsinn, denn dadurch wird, sofern man es auch nutzt, eine Menge an, nenne es mal "Graphikpartikeln" enstehen, die berechnet werden müssen.

Möglicherweise würde eine G80 für Physik soviel Bewegungen an Graphikpracht erzeugen, dass die 2te in die Knie gehen würde.

Wenn z.B ein Gebäude gesprengt wird (Komplexe Physik mit einbezogen) kann sich jeder vorstellen was da alles an Graphik berechnet werden muss.

Physikkarten berechnen Physik und keine Graphik, sie machen Graphikkarten zusätzliche arbeit.

Wenn man davon ausgeht das die PhysX 2 Karte als Bezug "Leistung 1" enstpricht und eine G80/1 z.B 10% an Leistung opfern muss um diesselbe Leistung zu bringen, und da so schnell keine neue schnellere PhysX rauskommt, wird es bei Leitung 1 beim G90/100 vielleicht nur noch 5/2,5% sein + Extra Graphikleistung

Graphik- und Physikleistung stehen immer im Verhältnis zueinander, eine 10x Schnellere PhykX 3 nutzt nix, wenn es keine passenden Leistungsfähigen GK gibt.

Nach wie vor werden die Graphikkarten die meiste arbeit haben ,Graphik und Physik oder KI sind auch Kartenmäßig nicht miteinander gleichzusetzen ! ;)

Ich will nicht behaupten das alles richtig ist, sein muss, aber zumindest wird keiner leugnen können das hier und auch in anderen Foren viel Mist gelabert, verbreitet wird , ohne ,dass diese Punkte groß in Betracht gezogen wurden. :rolleyes:
 
Zuletzt bearbeitet:
ich denk ati geht überhaupt nen besseren weg da ja amd und ati vorhaben mehr auf einem teil zu machen.
Auszug aus dem Bericht ( https://www.computerbase.de/2006-07/offiziell-amd-kauft-ati/ ):
das gemeinsame Know-How beider Firmen dazu zu nutzen, neue Produktinnovationen und mehr integrierte Plattformlösungen zu schaffen

Ich denke das wird entgültig den Kartenwahnsinn ablösen. Ich könnt mir aber auch vorstelln das so teile wie epia mainboards rauskommen mit prozzi, graka, und ppu onboard und dann eben Performance schmälert.

@Topic: Omg G80 ist mein
 
Physik hat relativ wenig mit Grafik zu tun (zum egnau z sagen gar nichts). Es erlegt niemanden mehr Arbeit auf, es müssen lediglich symple Sachen der Grafik berechnet werrden, die man auch ohne große Physik berechnen müsste.
Heutzutage wird Physik von einer CPU berechnet, weshalb halt Sachen wie Spielerzahlen sehr auf die Perforemence schlagen, deshalb gibt es auch so harte begränzungen und aus genau diesem Grund geht man spatrsam mit beweglichen Elementenj um.

@78) alex22

Genau dieser Punkt wird abgedeckt, sobald Physikbescheluniger richtig integriert werden. Es muss nicht mehr so viel AUgenmerkt auf Spielerzahlen oder ähnliches gelegt werden, da genau solche Sacvhen dann vom Physikbeschleuniger berechnet werden, die SPiele können sehr viel komplexer und reeller gestaltet werden (wenn man sich mal im Vergleich zu heuite die Regungslosen Landaschaften ansiweht).

Graka steht niocht direkt in Vergleich mit Physikkarten und sie nimmt nur Arbeit ab, nmlich der CPU, sowas würde, wenn man es richtig integriert sehr viel Perforemencegewinn bringen.
Mehr Arbeit für eine Graka wird nur deshalb zu stande kommen, wenn viele Bewegliche Elemente die Grafik auch wirklich oft unterschiedlich berwechznet werden muss (viele Objekte drehen sich, spezial effekte, bestimmte mappingmethoden)

Und mit der Zeit wird aus genannten Gründen meiner Meinung nach ein Physikbeschleuniger genau so wichtig sein und ich glaube, dass man auch dort an der Perforemence der Karte probieren wird zu drosseln.


@79) BulletHunter

Ich denke eine einheitliche Lösung würde weniger Perforemence bringen (oder genau gesagt es ist einfach so)

Genau aus dem Grund probiert man jetzt auch die Physik aus der CPU zu nehmen, da es mehr Perforemence bringt und spezialisierung bringt immer große Rechenvorteile mit sich.
 
Zuletzt bearbeitet:
Auf jedenfall geht das noch ein Weilchen bis die Spiele erscheinen, die auch von einer Physikkarte profitieren werden.

Deshalb ist ein Kauf jetzt noch nicht wirklich sinnvoll.

mFg tAk
 
Zurück
Oben