Nvidia's FX Reihe schlecht für HL2?

Ich hofffe meine ATI9500pro reicht für HL2 aus
 
Original erstellt von TheCounter
Anscheindend kennst dich bei PC Games ned aus? Sonst würdest wissen das vor kurzem die GC war, dort konnte man FarCry spielen!

Ich habe auch schon genug Previews über FarCry gelesen, ABER: Woher soll man dadurch herausbekommen, dass FC die BESTE KI hat? ??? Ich glaubs gern, aber noch ist das Spiel ja nicht draußen, oder? :)

@ Stormbilly: Die KI kann eigentlich NUR über die CPU berechnet werden... Inwiefern FC CPU abhängig ist, kann man aber natürlich noch nicht sagen... ;)
 
Original erstellt von TheCounter
NVIDIA hat vor längerer Zeit bestätigt das es noch Probleme/Bugs mit ihren PS2 Shadern gibt. Kann man nur hoffen das der Deto50 diese Probleme behebt, was ich ziemlich stark vermute (Hat man beim Deto44.65 schon gesehen).

Was meint ihr?

PS: Bitte keine Flamewars!


Das Problem ist nicht, dass es noch Bugs in den Treibern gibt, sondern - überspitzt gesagt - , dass die ganze Architektur ein "Bug" ist :o - und das hochgelobte cg sowieso...siehe dazu die 3dcenter Links auf der ersten Seite.
 
Naja, "Bug" wird wahrscheinlich als Flame aufgefaßt. Ich sage dazu eher, dass nVidias Architektur nicht ganz so einfach zu handhaben ist, da ja auch keine "echte" 8*1 Architektur vorliegt, sondern ein Mix. Allerdings sollte dies auf Dauer die bessere Lösung sein, jedenfalls muss man irgendwann von den statischen Pixelpipelines wegkommen. Dass dies noch nicht ganz so der Fall bei den NV3X-Karten ist, merkt man auch daran, dass die Treiber ihre Probleme haben, die korrekten Funktionen der Karte auszuführen... Alles vorrausgesetzt, diese wurden fehlerfrei in die Architektur übernommen. ;)

Original erstellt von Stormbilly
hab ich was anderes behauptet ? o_O

Sorry, nein, natürlich nicht, habe das jetzt nur auf die KI-Berechnung hin bezogen, Fehler von mir... ;)
 
Zuletzt bearbeitet:
Re: Re: Nvidia's FX Reihe schlecht für HL2?

Original erstellt von TheShaft
Das Problem ist nicht, dass es noch Bugs in den Treibern gibt, sondern - überspitzt gesagt - , dass die ganze Architektur ein "Bug" ist :o - und das hochgelobte cg sowieso...siehe dazu die 3dcenter Links auf der ersten Seite.

Das kann man sehen wie man will, die Architektur hat für die Zukunft einen entscheiden Vorteil, sie ist völlig PS3/VS3 fähig, das heisst also Hardwareseitige PS3/VS3 Shader (CPU ähnliche Architektur).

ATI muss für PS3/VS3 die Architektur umändern, wenn sie das nicht tuen müssen sie die Shader emulieren oder weichen in die Architektur bauen, was aber ziemlich starke Performenceeinbusen bedeuten würde.

Dafür ist die R300A für PS2/VS2 angeblich besser, wissen tut man es nicht weil man nicht das volle potential der NV30A kennt.

Wenn Cg ein Bug ist, wieso unterstützt HL2 es dann? Sieht man gut im Dev Video, da kann man die Shader auswählen, wo alle drin sind, auch Cg :)

Aber das steht hier jetzt nicht zur Debatte
 
Dummerweise unterstützt Tomb Raider auch cg und bringt trotzdem so eine schwache Leistung auf den GFFX. Aber wer weiß, vielleicht wird es in HL2 ja besser implementiert, weil die generelle Qualität von Tomb Raider ja eindeutig ist.

Wovor ich Angst habe ist dass Spielehersteller eine Grafikkarte absichtlich ausbremsen könnten, damit sie keinen zu großen Vorsprung vor der anderen hat. Schon um den Chiphersteller der den langsameren Chip hat nicht zu verärgern. :D
 
Re: Re: Re: Nvidia's FX Reihe schlecht für HL2?

zu cg :
Falls nvidia karten cg renderer verwenden verbessert sich die Leistung nicht viel- wenn ati karten auf cg optimierte renderer verwenden müssen, verschlechtert sich die perfomance drastisch... vielleicht ist cg ja nur zur behinderung von ati vorhanden ? ;)

Original erstellt von TheCounter
Das kann man sehen wie man will, die Architektur hat für die Zukunft einen entscheiden Vorteil, sie ist völlig PS3/VS3 fähig, das heisst also Hardwareseitige PS3/VS3 Shader (CPU ähnliche Architektur).

da hast du sicherlich vollkommen recht - aber ich glaube glaube nvidia hat bei dieser architektur einen schritt zuviel nach vorne gemacht...die ps3 leistung mag gut sein (aber wen interessiert das eigentlich ? bis ps3 spiele kommen dauerts noch lang, imo), aber die ps2 is es dadurch nicht...
Anscheinend hatte nvidia bei der Entwicklung des NV3x das "heute" und das "übermorgen" im auge - das "morgen" haben sie aber irgendwie übersehen ;)
 
Re: Re: Re: Nvidia's FX Reihe schlecht für HL2?

Original erstellt von TheCounter
Wenn Cg ein Bug ist, wieso unterstützt HL2 es dann? Sieht man gut im Dev Video, da kann man die Shader auswählen, wo alle drin sind, auch Cg :)

In Sachen Architektur kann ich dir recht geben (das haste von Demirug, gell? :D), allerdings ist das mal wieder Kaffee-Satz-Leserei, wissen tun wir noch gar nix. ;) Aber was cg angeht: cg ist kein API wie D3D oder OpenGL, sondern eine "Shader-Sprache"! Desweiteteren scheint es auch nicht den gewünschten Erfolg zu haben, sonst hättest du diesen Thread nicht eröffnet.
nVidia scheint sich in nächster Zeit eher mit HLSL zu beschäftigen, da cg ja nicht herstellerübergreifend unterstützt wird! Am besten mal hier lesen! Auch THG hat mal was halbwegs Sinnvolles dazu geschrieben.

3DCenter sagt dazu im Oktober 2002:

"Neben dem zeitlichen Faktor, welcher mit Cg geschriebene Software nicht vor zwei Jahren (!) sieht, steht außerdem noch das Problem an, daß Cg momentan weitestgehend nVidia-only ist (es fehlen PlugIns für andere Hersteller, die müsste man aber erst einmal schreiben), während die Alternativen HLSL und GLlang Plattform-ungebunden sind."

August 2003:

"Im Beyond3D Forum spekuliert und diskutiert man derzeit darüber, ob nVidia´s DirectX 8/9 Shader-Hochsprache Cg eventuell zukünftig von nVidia aufgegeben werden wird und sich die Kalifornier den anderen Hochsprachen HLSL für Direct3D und GLslang für OpenGL zuwenden könnten. Cg selber baut letztlich auf HLSL auf, bietet aber einen verbesserten Support für nVidia-Grafikchips inclusive der Xbox und soll auch zukünftig OpenGL und Linux unterstützen, was das Microsoft-Produkt HLSL selbstverständlich ;-) nicht kann. Der Nachteil von Cg ist natürlich die nVidia-Abhängigkeit, in welche sich die Spiele-Entwickler gerade nach dem Wiedererstarken von ATi wohl letztlich doch nicht bringen wollen. Für diese ist - trotz der technischen Vorzüge von Cg - der Weg über HLSL/GLslang sinnvoller, da diese beiden Shader-Hochsprachen nicht an einen bestimmten Grafikchip-Hersteller gebunden sind."

Fakt ist: cg ist kein Wunderwerkzeug und einfach zu sagen "nVidia hat aber cg" ist kein sichtbarer Vorteil, auch ATI hat hier zukünftige Eigenentwicklungen! Nur: cg wurde als systemunabhängige Shader-Hochsprache abgelehnt... Fraglich also, inwieweit nVidia selbst cg weiter unterstützen wird!
 
Re: Re: Re: Nvidia's FX Reihe schlecht für HL2?

Original erstellt von TheCounter
Das kann man sehen wie man will, die Architektur hat für die Zukunft einen entscheiden Vorteil, sie ist völlig PS3/VS3 fähig, das heisst also Hardwareseitige PS3/VS3 Shader (CPU ähnliche Architektur).

Von was sprichst du? Eine FX5800/5900 kann definitv kein PS3.0.
 
Re: Re: Re: Nvidia's FX Reihe schlecht für HL2?

Original erstellt von TheCounter
Das kann man sehen wie man will, die Architektur hat für die Zukunft einen entscheiden Vorteil, sie ist völlig PS3/VS3 fähig, das heisst also Hardwareseitige PS3/VS3 Shader (CPU ähnliche Architektur).
Nee, auch CineFX II ist auf 2.0+ limitiert. Die 3.0-er Shader verlangen Dinge, welche mit CineFX bislang nicht gelöst wurden.
Original erstellt von TheCounter
ATI muss für PS3/VS3 die Architektur umändern, wenn sie das nicht tuen müssen sie die Shader emulieren oder weichen in die Architektur bauen, was aber ziemlich starke Performenceeinbusen bedeuten würde.
Inwiefern "emulieren"? Was die HW nicht kann, kann sie nicht. Ansonsten wäre Hardware-beschleunigung witzlos. Mit Pixelshader 1.3 kann man ja auch nicht Pixelshader 1.4 emulieren.
Original erstellt von TheCounter
Dafür ist die R300A für PS2/VS2 angeblich besser, wissen tut man es nicht weil man nicht das volle potential der NV30A kennt.
R300 bzw. R350 haben taktnormalisiert nunmal mehr Shader-Power. In OpenGL sieht es etwas anders aus, weil man u.U. die Register Combiner mitbenutzen kann.

Die Pixelshader-Optimierungsregeln für ATI-Shader passen der CineFX-Architektur gar nicht, Nvidia ist darauf angewiesen, dass auf jeden Fall extra Shader für CineFX kompiliert werden. Sonst fällt die Leistung ins bodenlose.
Original erstellt von TheCounter
Wenn Cg ein Bug ist, wieso unterstützt HL2 es dann? Sieht man gut im Dev Video, da kann man die Shader auswählen, wo alle drin sind, auch Cg :)
Cg erstellt, soweit ich weiß, keine besonders guten Pixelshader.
 
Zuletzt bearbeitet:
Re: Re: Re: Re: Nvidia's FX Reihe schlecht für HL2?

Original erstellt von aths

Inwiefern "emulieren"? Was die HW nicht kann, kann sie nicht. Ansonsten wäre Hardware-beschleunigung witzlos. Mit Pixelshader 1.3 kann man ja auch nicht Pixelshader 1.4 emulieren.

Schlechtes Beispiel, denn alles was der Pixelshader 1.4 kann ist mit Pixelshadern der Version 1.3 auch möglich nur, dass bei diesem für dieselben Operationen mehrere Taktzyklen gebraucht werden, was GeForce4 Karten im 3dmark2003 ziemlich zu schaffen machte und darum die Verwendung des 1.4ers von nVidia stark kritisiert wurde.
 
Original erstellt von teccentral.de
Tiefschlag für nVidia !
Half Life 2 ist nun endgültig optimiert, und zwar für ATI´s Flaggschiff Radeon 9800 Pro und soll wohl gegen Ende September in die Läden kommen....

Och, is doch ned schlimm, dann verdient Valve halt nen paar Millionen weniger, von daher is es eh egal. Hab HL2 sowieso abbestellt damit ich Geld für FarCry hab, das nenn ich mal nen richtiges Game.
 
Original erstellt von TheCounter
Och, is doch ned schlimm, dann verdient Valve halt nen paar Millionen weniger, von daher is es eh egal. Hab HL2 sowieso abbestellt damit ich Geld für FarCry hab, das nenn ich mal nen richtiges Game.

Counter, schau doch nicht immer in deine Kristallkugel! ;) Zwei Spiele miteinander zu vergleichen ist schon schwer genug, aber ob Far Cry "besser" wird, kannst auch du nicht beurteilen. ;)
 
Original erstellt von Riptor
Counter, schau doch nicht immer in deine Kristallkugel! ;) Zwei Spiele miteinander zu vergleichen ist schon schwer genug, aber ob Far Cry "besser" wird, kannst auch du nicht beurteilen. ;)

Huhu? Dann werd ich dich mal Aufklären, es gibt nämlich folgende zwei Sachen:

1. Meinungsfreiheit
2. Geschmäcker sind verschieden

Schonmal was davon gehört? FarCry spricht mich eben viel mehr an als HL2, da ich von den Videos her halt HL2 eher für langweilig empfinde. Bei Musik is das doch auch so das jeder was anderes mag.

You know :D :D ;)
 
warten wir's ab...

es wäre ja langweilig, wenn alle den gleichen geschmack haben...
 
Original erstellt von douron
warten wir's ab...

es wäre ja langweilig, wenn alle den gleichen geschmack haben...

Ebn, genau darauf wollte ich hinaus :)

Ich war schon immer nen Karibik süchtiger *g* da kommt mir FarCry nur gelegen...
 
Original erstellt von TheCounter
Huhu? Dann werd ich dich mal Aufklären, es gibt nämlich folgende zwei Sachen:

1. Meinungsfreiheit
2. Geschmäcker sind verschieden

Schonmal was davon gehört? FarCry spricht mich eben viel mehr an als HL2, da ich von den Videos her halt HL2 eher für langweilig empfinde. Bei Musik is das doch auch so das jeder was anderes mag.

You know :D :D ;)


zu 1.:

Meinungsfreiheit - bei Dir?!
Wenn das Spiel auf ne NV-GraKa optimiert wäre, wär's doch DAS Spiel! ;)
 
Original erstellt von TheCounter
Huhu? Dann werd ich dich mal Aufklären, es gibt nämlich folgende zwei Sachen:

1. Meinungsfreiheit
2. Geschmäcker sind verschieden

Schonmal was davon gehört?[/b]

:D Sorry, aber WO untergrab ich dir deine Meinungsfreiheit? Und warum solltest du einen anderen Geschmack haben, der mich stören sollte? Ich habe ledigliech gesagt, dass man derzeit nicht sagen, was besser wird, weil beide Spiele noch nicht draußen sind, also erübrigt sich diese Diskussion.

FarCry spricht mich eben viel mehr an als HL2, da ich von den Videos her halt HL2 eher für langweilig empfinde. Bei Musik is das doch auch so das jeder was anderes mag.

Ähem. Das stimmt vollkommen, ich verbiete dir auch gar nix, nur: Was interessieren mich jetzt diese subjektiven Meinungen? ;) Deshalb: Fortsetzung der Diskussion, wenn wir beide im Spielefieber sind. ;)
 
Zurück
Oben