News Nvidia will PhysX allen verfügbar machen

Mustis schrieb:
Butterbemme, wenn du noch erklären könntest, warum das Rotz sein soll dann käme man im Gespräch weiter. Ich seh das Problem nich, warum nich neben der Highendkarte eine 50 Euro Einsteigergraka die Physik berechnen kann. Deutlich günstiger als ne CPU und trotzdem leistungsfähiger als ein ( mehr werden auch auf nem Quad kaum frei sein) CPU Kern. Oder 2... selbst der komplette Quad Chipd hat bei solchen Berechnungen glaub ich weniger Leistung als so ne Karte.
Ok, das war vorhin nicht allzu ergiebig, sorry.

mMn ist gerade die Grafikkarte die eine Komponente, bei der niemand Leistung für Physik zu verschenken hat. Selbst eine schnelle Oberklassekarte langweilt sich vielleicht das erste Jahr nach Anschaffung, danach braucht man jedes fps um anspruchsvolle Spiele überhaupt zocken zu können.
Dein Vorschlag ist nett, aber statt einer zweiten Physik-Graka kann man dann auch genausogut direkt eine PPU holen. Die PhysX ist ja mittlerweile bei 100 Eur angekommen.

Was nVidia mMn hätte machen sollen: einen extra Physikchip und Speicher für 70 Eur Aufpreis auf die GraKas löten, so hat man beides zusammen.
 
Zuletzt bearbeitet:
Sicherlich auch besser für uns User wenn sich die endlich mal auf einen Standard "einigen"
Aber AMD/ATI und INTEL haben da sicherlich auch ihre eigenen Vorstellungen, die ja
sicherlich ihre Mehrkernprozessoren für Physikberechnungen verwenden wollen.

Hier wird immer wieder HAVOK in den Raum geworfen.
War HAVOK nicht auch mal für nVidia SLI Karten?
http://www.golem.de/0709/54781.html
 
Zuletzt bearbeitet:
Butterbemme schrieb:
Was nVidia mMn hätte machen sollen: einen extra Physikchip und Speicher für 70 Eur Aufpreis auf die GraKas löten, so hat man beides zusammen.

Und wirft auch beides zusammen weg beim Aufruesten?
Also das ist mit Abstand die beschissenste Idee, wie man sowas machen kann.
 
@ Butterbemme.

100 euro sind immer noch doppelt soviel wie 50 Euro für ne Einstiegsgrafik, die genügend Leistung für solche Berechnungen hat. Ich denke auch mal das es ein Revival der PPU geben wird, sollte sich Physx entsprechend durchsetzen. Aber dann eben zu Preis von 50-70 Euro. Vll werkelt dann auch nurn modifizierter Grqafikchip drunter. Man weiss es nicht. Aber eines ist klar: Damit in diesem bereich irgendeine Fortentwicklung stattfindet müssen erstmal Grundlagen geschaffen werden (Henne/Ei Problematik). Und hier sehe ich durchaus das Potenzial in PhysX auf Grafikkarten.
 
Hat einer von euch mal das Datum der Quelle angeschaut? Die News ist gut einen Monat alt und geisterte auch damals schon durch's Netz...
 
Zuletzt bearbeitet:
@kisser
Gibt ja keinen Grund die Karte wegzuwerfen, man könnte sie für Physik behalten und dazu eine neue GraKa ohne PPU kaufen. Einzelkarten wären mir ja auch lieber. Ich hab nur was dagegen, nicht vorhandene Leistung von den tendenziell schon für die Spiele eher zu schwachen als zu starken GraKas zu nehmen.

@Mustis
die 100 eur waren willkürlich gewählt und würden mit sicherheit weiter sinken, garantiert würde es auch bald Karten für 60-70 Eur geben. Aber du hast wohl recht, auf die Weise wird vielleicht überhaupt erstmal ein Markt mit breiter Spieleunterstützung geschaffen.
 
Zuletzt bearbeitet:
naja oder die sagen dann den konkurrenten:
- LIZENZ-Gebühren, wenn ihr mitmachen wollt ;-P

die ut3 engine setzt sich doch auch ziemlich durch
und bringt ne menge lizenz-money ein!

wenn es sich also auch als standard etabliert, und einer
net mitzieht, dem wird das immer als nachteil an kopf
geworfen. und wenn der was eigenes macht, dann isses
wie rambus => vielleicht gut, aber keiner will es haben!

die sagen dann zb so:
amd => ihr zahlt uns 500 mio ...
intel => ihr mal 2 mrd wegen euren scheiss kommis ^^
 
Man positioniert sich also ganz offen gegen Intels (Multi)-CPU-Strategie. Sehr schön, das wird der Durchbruch für die GPU-Physik. In der Spieleentwicklung kanns jetzt einen gewaltigen Satz nach vorne geben.
 
Wäre wirklich interessant zu erfahren, ob nV da eine Zusammenarbeit mit AMD im Hinterkopf hat, um einen Vorteil gegenüber Intel aufzubauen. Letztere haben ja bald nicht nur Larrabee, sondern kennen sich (nicht erst seit unserem tollen Quake-Menschen hier) auch noch mit Raytracing bestens aus.
 
Intel hat rein gar nichts, es gibt ja nicht mal einen lauffähigen Larrabee!

Ausser der grossen Klappe haben die im Moment rein gar nichts zu bieten.

Wieso der Larrabee schon jetzt so im Hype ist, ist mir ehrlich gesagt auch ein Rätsel. Es gibt einfach so gut wie keine Infos und das was Intel zeigt ist ja mehr als lächerlich, das können heutige Grafikkarten schon lange...

10mal schneller als ein G45 soll der Larrabee werden, das ist ja rein gar nichts, das ding muss locker 100mal schneller sein wenn sie in 2-3 Jahren das ding auf den Markt bringen wollen.
 
Zuletzt bearbeitet:
Dural. vor den ersten Beitrag ziemlich platt. Larrabee ist schon ziemlich weit. von bloß großer Klappe kann definitiv nicht die Rede sein. Und warum muss Intel gleich ein High End Modell abliefern? Richtig Geld wird sowieso im Midrange und Einsteigerbereich gemacht. =) Ich denke, darauf zielt Intel viel eher ab, denn Beweisen müssen sie glaub ich nicht unbedingt, dass sie sehr gute chips bauen können.
 
Dural schrieb:
Wieso der Larrabee schon jetzt so im Hype ist, ist mir ehrlich gesagt auch ein Rätsel. Es gibt einfach so gut wie keine Infos und das was Intel zeigt ist ja mehr als lächerlich...
Selbst wenn VIA oder SIS einen neuen Chip ankündigen, gibts darum 1 Jahr vorher einigen Rummel.

Aber Larrabee wird eben nicht von irgend einem 300 Mann Unternehmen angekündigt, sondern vom (mit einigem Abstand) größten und kapitalstärksten Chip-Produzenten auf diesem Planeten. Das es da auch schon vor dem ersten lauffähigen Silizium einige Spekulationen gibt, sollte doch klar sein.





BxB schrieb:
wenn es sich also auch als standard etabliert, und einer
net mitzieht, dem wird das immer als nachteil an kopf
geworfen. und wenn der was eigenes macht, dann isses
wie rambus => vielleicht gut, aber keiner will es haben!
Wobei Rambus aber das vermutlich schlechteste Beispiel ist. Denn Rambus hat ja einen quasi Standard vorgelegt, welcher sich eben WEGEN den Lizenzgebühren nicht durchgesetzt hat.

Ich denke, das NVidia keine Lizenzgebühren kassieren wird, sondern ledeglich darauf bedacht ist, das sich alle "Massen"-Last auf die GPU verlegt, so das es in Zukunft ausreicht, sich eine 30 Euro VIA-CPU zu kaufen, wenn man sich einen 400 Euro NVidia-Bescheuniger dazukauft.

Und dazu brauchen die eine EXTREM schnelle Akzeptanz der GPU-Physik-Beschleunigung. Spätestens in 2 Jahren, wenn 4-Kern-CPUs Low-End sind, ist der Zug für NVidia in diesem Bereich abgefahren. JETZT müssen große Sprünge gemacht werden.
 
Intel hat rein gar nichts, es gibt ja nicht mal einen lauffähigen Larrabee!

Ausser der grossen Klappe haben die im Moment rein gar nichts zu bieten.

Wieso der Larrabee schon jetzt so im Hype ist, ist mir ehrlich gesagt auch ein Rätsel. Es gibt einfach so gut wie keine Infos und das was Intel zeigt ist ja mehr als lächerlich, das können heutige Grafikkarten schon lange...

10mal schneller als ein G45 soll der Larrabee werden, das ist ja rein gar nichts, das ding muss locker 100mal schneller sein wenn sie in 2-3 Jahren das ding auf den Markt bringen wollen.

Intel hat die fähigsten Entwickler, das meiste Kapital, die modernsten Fertigungsanlagen und möchte in den Markt groß einsteigen. Von denen kann man mehr Innovationen in den kommenden Jahren erwarten als von allen anderen Herstellern.

Achja und außerdem soll ja Larrabee primär auf einen anderen Bereich abzielen.
@News

Klar, Nvidia will PhysX als Standard etablieren, um dann in einiger Zeit die Früchte davon zu tragen (Lizenzgebühren). Allerdings glaube ich nicht, dass die das Ziel erreichen. Dafür kann Intel (und auch AMD) zu viel Druck auf Entwickler ausüben. Notfalls bilden die dann eine kurzzeitige Allianz um die Physik in die CPUs bei Intel und die Grafikkarten bei AMD zu implementieren.

Aber schön zu sehen, dass sogar die "alte" 8er Serie das PhysX zeug supporten wird. Bei Unternehmen ist sowas ja nicht wirklich die Regel.
 
du hast glaube nicht ganz alles gelesen ;)

ich meinte, wenn ein standard sich durchsetzt => im vergleich zum rambus wäre es ddr1/2/3 ram!
dann kannst auch gut für die lizenzen was verlangen ... und wenn erstmal da geld investieren musst!

wenn jeder was versucht, sieht man wie bei RAMBUS, dass einer den kürzeren zieht und in dem
fall war rambus TEUER und sehr unstabil ... etwas was für die bissl mehrleistung nicht akzeptabel war! ^^
... ich denk mal, wenn intel auch physik.on.graka machen würde, muss entweder ein einheitlicher
standard kommen oder beide müssen supergut sein um parallel zu existieren ... ansonst
=> geht einer DOWN! ^^
 
Wäre genial, wenn sich Grafik und Physik einen Grafikchip teilen könnten...!


Im übrigen wundere ich mich schon seit je her, wie fortschrittsfeindlich die meisten sind. Früher war eh alles besser. Hauptsache den Mund aufgemacht.
 
@Shorty:

du brauchst laut nVidia nur eine aktuelle GeForce 8 (oder kommende) und kannst dann, wenn sie im ForceWare die Einbinung machen, wie sie vorhaben, PhysiX nutzen, mit der normalen GeForce Karte.
 
Mir scheint als sei hier die Meinung verbreitet, Larrabee sei eine Karte, die zum Spielen konzipiert wurde, dem ist allerdings nicht so. Sie wird auch RayTracing beherrschen, aber ist nicht für den Spielemarkt entwickelt, weshalb ein Vergleich zu aktuellen Grafikkarten im Spiele-(HighEnd-) Sektor wohl nicht gerade treffend ist.
Allerdings stimme ich den Vermutungen zu, dass Larrabee, bzw. was aus dieser Technik noch gemacht werden kann!!! der Grund für Nvidias handeln ist.
 
Ich stimme meinen Vorrednern überein: NVidia versucht so viel (Spiel) Last wie möglich auf die Graka zu ziehen, um ienen Vorteil gegenüber Intel erwirtschaften zu können. Die sind schließlich auch gespannt, was Intel so bringen wird. Nvidia will die Grafikkarte als zentralen und externen Spielebeschleuniger erhalten und sogar in den Mittelpunkt rücken, ganz entgegengesetzt Intel und AMD (siehe z.B. AMD Fusion), die immer mehr zu integrierten, bzw. auf einem Carrier mit der CPU vereintem Grafikchip tendieren. (Auch kein Wunder, da AMD und Intel auch Prozessoren herstellen, Nvidia dagegen nicht)

Physix in die Graka zu integrieren und schnell zum Standard etablieren zu wollen, ist ein sehr geschickter Schachzug und als solcher sicher nicht der einzige, den Nvidia in baldiger Zukunft ziehen wird


Meine Vision: In 15-20 Jahren wird die gesamte Arbeit auf einem Chip erledigt, an der Stelle wo der alleinige Prozessor war. Ob CPU Kerne, GPU Kerne, PPU Kerne oder weitere Kerne für z.B. Kryptographie-beschleunigung oder Mediendecoder: Jeder Hersteller wird seinen eigenen Ansatz haben. Externe Grakas bzw Beschleuniger wird es allerdings auch noch geben, z.B. für Ray-Tracing, dass zu diesem Zeitpunkt schon genauso eingesetzt wird wie Rasterisierung. Amen
 
nun gut ich verstehe unter "offene Plattform" was anderes, aber was solls.
Ich frag mich nur wie das dann funktionieren soll, die Grafikkarten pfeifen eh schon aus dem letzen Loch und dann soll man da auch Leistung "über" haben für Physik?
SLI? wirds auch ohne gehen? hab echt keinen Bock auf einen nVidia Chipsatz.
 
Zurück
Oben