Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia wird PhysX-Karten auslaufen lassen
- Ersteller Andy
- Erstellt am
- Zur News: Nvidia wird PhysX-Karten auslaufen lassen
BERBERJESUS
Banned
- Registriert
- Nov. 2007
- Beiträge
- 398
@ Mutant
-> Golem-Meldung vom 15.02.2008
Aber ist mir auch egal. Laber ruhig.
Ich nehm dich sowieso nichtmehr ernst.
Zumindest bin ich nicht so dämlich, mich rhetorisch
derart darauf zu versteifen, dass das was ich vermute
auch tatsächlich genau so eintreten wird.
Im Gegensatz zu manch anderem halte mich im übrigen
auch für alles andere als für einen Experten.
Außer dir lehnen sich hier noch viele andere der selbsternannten
Experten ganz weit aus dem Fenster.
Von dem her also alles "Pseudos"... ;-)
-> Golem-Meldung vom 15.02.2008
Aber ist mir auch egal. Laber ruhig.
Ich nehm dich sowieso nichtmehr ernst.
Zumindest bin ich nicht so dämlich, mich rhetorisch
derart darauf zu versteifen, dass das was ich vermute
auch tatsächlich genau so eintreten wird.
Im Gegensatz zu manch anderem halte mich im übrigen
auch für alles andere als für einen Experten.
Außer dir lehnen sich hier noch viele andere der selbsternannten
Experten ganz weit aus dem Fenster.
Von dem her also alles "Pseudos"... ;-)
HappyMutant
Fleet Admiral
- Registriert
- Juli 2001
- Beiträge
- 21.424
Ich schrieb "da wird sich die Entwicklung eher Richtung Multi-Core Unterstützung entwickeln, nimmt man an. " Klar, ich als Experte lehne mich damit natürlich weit aus dem Fenster. Das es Indizien dafür gibt, die du mit "Pseudo-Experte" abbügelst, spricht natürlich für deine offene Haltung. Aber kannst du es glaubhaft widerlegen, dass Intel nicht Havok deswegen gekauft hat um es für ihre CPUs zu nutzen? Achja und Havok ist nicht PhysX, das sind zwei konkurrierende Formate. Nirgends habe ich behauptet, dass eines davon zugrunde geht, nur dass die Steckkarten Geschichte sind. Und das Havok für Grafikkarten wohl vermutlich nicht mehr kommt, weil es sehr ruhig darum geworden ist.
Nichtmal den Beleg kannst du verlinken, den muss ich mir jetzt auch noch selber suchen. Aber was glaubst du was darin steht: http://www.golem.de/showhigh2.php?file=/0802/57749.html&wort[]=physx Das Physik-Karten damit wohl eine Randnotiz der Geschichte bleiben. Und was genau sagt diese News jetzt anderes als ich, die CB-News und viele Quellen im Netz? Das die Karten am Ende sind, die Software an sich nicht.
Wirklich, ich bin ja für konstruktive Kritik, aber wenn man immer gleich von der Seite angemacht wird, wobei sich der Ersteller auch noch in Widersprüche verstrickt, dass muss nicht sein.
Nichtmal den Beleg kannst du verlinken, den muss ich mir jetzt auch noch selber suchen. Aber was glaubst du was darin steht: http://www.golem.de/showhigh2.php?file=/0802/57749.html&wort[]=physx Das Physik-Karten damit wohl eine Randnotiz der Geschichte bleiben. Und was genau sagt diese News jetzt anderes als ich, die CB-News und viele Quellen im Netz? Das die Karten am Ende sind, die Software an sich nicht.
Wirklich, ich bin ja für konstruktive Kritik, aber wenn man immer gleich von der Seite angemacht wird, wobei sich der Ersteller auch noch in Widersprüche verstrickt, dass muss nicht sein.
Zuletzt bearbeitet:
Sen$
Ensign
- Registriert
- Jan. 2008
- Beiträge
- 230
Muaaaaa als ich vor 3-4 Wochen das noch gesagt hab was damit Pasiert ist über mich gelacht worden und hat mich als dum hergestelt nu ist es soweit gekommen, sogar schneller als ich es gedacht habe ^^.
Und ich sag immer noch Ein schuss aus der Hüfte hat da Nvidea gemacht ^^
Und ich sag immer noch Ein schuss aus der Hüfte hat da Nvidea gemacht ^^
W
webwebber
Gast
pcgh nimmt eure artikel ;-)
HighTech-Freak
Rear Admiral
- Registriert
- Juli 2005
- Beiträge
- 5.146
Kommentare wie der folgende sinds, die an meinen Nervern zerren...
Wenn man keine Ahnung hat...[den Rest kennt jeder...]
Finde es schlecht, dass AGEIA vom Markt weg ist, aber gut, dass die Technik jetzt in die Geforces übernommen wird. Das bringt vlt. bald einen Sprung in der Physiknutzung von Spielen, die ja seit der Source-Engine quasi stagniert hat...
MfG, Thomas
Und du glaubst auch, ein Software-RAID6 ist schneller, als ein 500€ RAID-Controller.PhysX ist ja eh nichts anderes als Software.
Ich glaube nicht das der Chip von denen so Toll ist.
Berechnen kann das eine CPU auch und eine GPU erst recht.
Wenn man keine Ahnung hat...[den Rest kennt jeder...]
Finde es schlecht, dass AGEIA vom Markt weg ist, aber gut, dass die Technik jetzt in die Geforces übernommen wird. Das bringt vlt. bald einen Sprung in der Physiknutzung von Spielen, die ja seit der Source-Engine quasi stagniert hat...
MfG, Thomas
Killerdingo
Ensign
- Registriert
- Feb. 2008
- Beiträge
- 143
HighTech-Freak schrieb:Kommentare wie der folgende sinds, die an meinen Nervern zerren...
Und du glaubst auch, ein Software-RAID6 ist schneller, als ein 500€ RAID-Controller.
Wenn man keine Ahnung hat...[den Rest kennt jeder...]
Finde es schlecht, dass AGEIA vom Markt weg ist, aber gut, dass die Technik jetzt in die Geforces übernommen wird. Das bringt vlt. bald einen Sprung in der Physiknutzung von Spielen, die ja seit der Source-Engine quasi stagniert hat...
MfG, Thomas
Software Raid mit einem "Hardware" supporteten Raid-Controller zu vergleichen is ein wenig schwach.
Es stimmt doch das "Physik" in spielen nur eine Software ist, welche nun von der Hardware berechnet wird, seih es nun spezifisch dafür ausgelegte Hardware welche bereits im Labor auf die dafür nötigen dinge angepasst wurde, oder einfach rohe Leistung von einer CPU. Im grunde ist es doch eh nichts weiter als stumpfe berechnungen.
Natürlich wurde die Software derartig an die Hardware der Physix Karten angepasst das dies auch etwas bringt.
Allerdings kann mir einfach keiner erzählen das die PhysX-Karten nun so unglaublich Leistungsstark sind das es absolut nicht als Ersatz gäbe....
Bzgl dem CPU, bzw Cores eben dieser für Physk-Berechnungen laufen zu lassen. Da gab es doch schon vor jahren (?!?) spekulationen das das wohl möglich wäre. (glaub sogar das war vor dem PhysX release, müsste jetzt selber nach goggeln..)
Martricks
Lieutenant
- Registriert
- Sep. 2005
- Beiträge
- 884
Ich finde es eigentlich ne Frechheit.Kaufen,entkernen,ausrotten.Ich fand Physx echt cool.Jetzt kann ich zum Glück sagen dass ich meine Karte vor 2Monaten verkauft habe,weil ich keinen Platz mehr habe(Crossfire).Frage mich was aus den ganzen Spielen wird die auf Physx setzen.Auch die Spiele die noch nicht draussen sind!Die Entwickler sind bestimmt stink sauer.Viel Arbeit für nix.Schade.Nvidia hat doch nur schiss gehabt das Physx zu groß wird...und womöglich noch Grafikkarten baut....Naja,kann man nicht mehr ändern.Immerhin hat Physx sich ja kaufen lassen.Vielleicht waren die ja auch kurz vor der Pleite.Wer weiß das schon genau.
katanaseiko
Lt. Commander
- Registriert
- Feb. 2006
- Beiträge
- 1.485
Bisher können GPUs sowohl Grafik als auch normal parallelisiert berechnen. Ich kann mir vorstellen, dass nVidia mit Ageia eine Möglichkeit bekommen hat, die GPU auch für Physikberechnung zu verwenden. Die Unified Pipelines können bestimmt auch dafür benutzt werden. Wenn nicht, dann wird die nächste Generation wohl dazu in der Lage sein... Wer weiß - irgendwann könnten wir fünf 16x SLI-Slots haben (müssen nur noch die Bridges des Mainboards mitmachen), von denen zwei für Grafik, zwei für Physik und der letzte für irgendwas anderes (TV-Karte?) benutzt werden können...
HappyMutant
Fleet Admiral
- Registriert
- Juli 2001
- Beiträge
- 21.424
@Martricks: Wenn doch nvidia schon an einer Umsetzung der PhysX-Effekte für Karten ab der Geforce8 arbeitet, was soll dann den Spielen denn passieren? Also nicht viel Arbeit für nix. Sondern viel Arbeit für eine anderer Art der Umsetzung. Dass man vor Ageia Angst hatte, darf allerdings bezweifeln, da wie gesagt die Verbreitung mehr als dürftig war, genauso wie die erzielten Ergebnisse. Nur weil es cool war, sahen die Spiele eben leider weder eindrucksvoller aus, noch wurden sie wenigstens schneller. Von den tatsächlich spielerischen Ergebnissen ganz zu schweigen. Erst eine ordentliche Verbreitung macht vernünftige Umsetzung möglich und sinnvoll.
Wirklich erstmal News lesen, bevor man so einen Blödsinn erzählt.
Wirklich erstmal News lesen, bevor man so einen Blödsinn erzählt.
Zuletzt bearbeitet:
Killerdingo
Ensign
- Registriert
- Feb. 2008
- Beiträge
- 143
HappyMutant schrieb:Komplettzitat entfernt. Bitte Regeln beachten.
Vollkommen klar, das Preis/Leistungsverhältnis war meiner ansicht nach einfach mangelhaft.
Kaum nutzen und wenn dann nur sehr bescheiden für reichlich Euros.
Eher was für Enthusiasten die bereits ein SLI/Crossfire System hatten und nicht mehr wussten worin sie ihr Geld noch investieren sollten.
Andererseits ist es schon gut das sich jemand mal der Aufgabe angenommen hatte die Physik-Effekte in Spielen zu verbessern, nur war die Idee der Umsetzung denkbar ungünstig. Hier wird Nvidias System vermutlich in weitaus kürzerer Zeit, eine weitaus höhere Verbreitung erzielen.
Bleibt hier halt nur abzuwarten was nun Intel mit Havok so anstellt.
EDIT: UPS, hab den Regelverstoss grad erst bemerkt. Sry.
Zuletzt bearbeitet:
HappyMutant
Fleet Admiral
- Registriert
- Juli 2001
- Beiträge
- 21.424
Völlig richtig, die Idee an sich ist zu begrüßen, aber wie schon bei den allerersten 3D-Karten (wie z.b. Nvidias NV1 ) braucht es wohl seine Zeit, bis das ganze an Fahrt gewinnt und die Ideen tatsächlich auch richtig umgesetzt werden können.
drago-museweni
Admiral
- Registriert
- März 2004
- Beiträge
- 9.165
Das ist nicht wirklich verwunderlich, kann die entscheidung von Nvidia voll nachempfinden die Physik x karten werden wohl eh mehr Ladenhüter gewesen sein geschweige den was die biss jetzt gebracht haben fast nichts.
Zuletzt bearbeitet:
T
towa
Gast
Boah das ja echt hart, also Nvidia macht sich da nicht gerade Freunde,
wer übernimmt den Support der Produkte, die Treiberentwicklung, die Unterstützung von Spielen?
Ich mein ich hab keine Karte, aber die, die zu Anfang 300€ bezahlt haben, werden sich bedanken.
wer übernimmt den Support der Produkte, die Treiberentwicklung, die Unterstützung von Spielen?
Ich mein ich hab keine Karte, aber die, die zu Anfang 300€ bezahlt haben, werden sich bedanken.
Killerdingo
Ensign
- Registriert
- Feb. 2008
- Beiträge
- 143
Verstehe das problem da nicht, weil sie den Verkauf der Aegis Karten einstellen, und sie lieber die technik in ihre Grafikkarten implementieren heisst es ja nicht das diese nicht genauso wie Aegis Karten angesprochen werden um in zukünfigten Spielen Unterstützung zu finden.
Vllt profitieren die PhysX-Karten besitzer bald deutlich mehr von ihren Karten wenn die verbreitung von Aegis-Supporteten Spielen durch Nvidias zutun steigt.
Wer weiss wie die Zukunft der Physik-Engines aussieht und welche Engine sich hier mehr durchsetzt.
Vllt profitieren die PhysX-Karten besitzer bald deutlich mehr von ihren Karten wenn die verbreitung von Aegis-Supporteten Spielen durch Nvidias zutun steigt.
Wer weiss wie die Zukunft der Physik-Engines aussieht und welche Engine sich hier mehr durchsetzt.
Killerdingo
Ensign
- Registriert
- Feb. 2008
- Beiträge
- 143
Dem stimme ich zu, nur sollte den Herstellern auch dringend einer sagen das wir keinen Hardwaremässigen Physik support von nur einem Grafikhersteller wünschen ^^.
Selbstverständlich würde Nvidia es schon versuchen so zu nutzen das sie dieses Feature exklusive anbieten um einen Schritt vor ATI zu sein.
Bitte verbaut das wenn auch auf alle Grafikkarten am Markt oder lasst es ganz sein
Selbstverständlich würde Nvidia es schon versuchen so zu nutzen das sie dieses Feature exklusive anbieten um einen Schritt vor ATI zu sein.
Bitte verbaut das wenn auch auf alle Grafikkarten am Markt oder lasst es ganz sein
Nvidia implementiert nicht die Technik des Physx in ihre Grafikkarten. Sie lassen das über Software über die Recheneinheiten laufen, die sonst die Grafik berechnen. Da die meisten Spiele Grafikkartenlimitiert sind, wird dabei die Performance im Vergleich zu Softwarephysik abnehmen. Um das auszugleichen wird man sich performantere Grafikkarten oder gar SLi zulegen müssen.
Nun ratet mal wer davon profitiert, wenn man anstatt ne Physikkarte für <100€ eine zusätzliche Grafikkarte für 200 oder 300 kaufen muss.
Nun ratet mal wer davon profitiert, wenn man anstatt ne Physikkarte für <100€ eine zusätzliche Grafikkarte für 200 oder 300 kaufen muss.
Idleking
Lt. Junior Grade
- Registriert
- Dez. 2007
- Beiträge
- 344
Wer sagt denn, dass die Karten gekauft werden müssen?Nun ratet mal wer davon profitiert, wenn man anstatt ne Physikkarte für <100€ eine zusätzliche Grafikkarte für 200 oder 300 kaufen muss.
Meiner Meinung nach sollten sich die Leute mal ihrer eigenen, beinahe unstillbaren Gier nach neuen besseren aufwändigeren Effekten und darüber, dass man eigentlich auch ganz ohne diese "Storykiller" bei Spielen leben kann, bewusst werden.
Und dass es dabei schlussendlich auch wieder nur um's Geld geht, dürfte auch klar sein.
H
HardlineAMD
Gast
nVidia....
Der Bestatter der IT-Branche.
Wirklich eine armseelige Firma. Hoffentlich übernimmt Intel den Misthaufen bald.
Der Bestatter der IT-Branche.
Wirklich eine armseelige Firma. Hoffentlich übernimmt Intel den Misthaufen bald.