Test GT 240 mit DDR3 im Test: Gainward mischt langsamen Speicher mit gutem Kühler

LuXon schrieb:
Ich hab mir den Link gar nicht mal angeschaut. Werde ich aber irgendwann nachholen. Hab da wirklich was verpasst.

Also ich sehe keine Probleme mit ATI-Karten:

Anscheinend hast du mittlerweile ja doch den Link mal angeschaut, und erkennst jetzt das Problem mit ATI-Karten.

LuXon schrieb:
Geh ich nun zu nVidia hin un sage: Ihr seid Scheisse weils auf meiner Karte auf max. nicht läuft? Neee.
Ich sage: Pech gehabt. Nächstes mal hole ich mir halt eine schneller Karte, dann passiert mir sowas vielleicht nicht mehr. *achselzucken*
Solltest du aber tun, zu Nvidia gehen, und sagen, das das scheisse ist.
Ne Schnellere Karte nützt nämlich nicht viel, wenn bei Batman selbst mit ner GTX 285 in High Physik und 4xAA die Frames auf 25 fallen.
Wenn man jetzt bedenkt wieviele Leute überhaupt ne GTX 285 haben, kann man sich ja ausrechnen wieviele Nvidia Besitzer etwas vom tollen PhysX Logo haben, das auf dem Karton klebte. Bei Dark Void und Sacred 2 ist es ja das selbe, bzw. schlimmer. Da kannst du ohne extra Karte auch einpacken. Oder du drehst die Qualität so weit runter, das man sich fragt, wofür man PhysX aktiviert.
Von den in 2 Jahren gerade mal 4-5 erwähnenswerten Spielen bleibt also nur Mirrors Edge. Na klasse.

In vino veritas schrieb:
Ich empfinde es teilweise als Absurd, wie u.a. hier zum Thema PhysX argumentiert wird. Auf der einen Seite wird von einigen Boardies keine Gelegenheit ausgelassen um dieses Feature mit Sarkasmus zu überziehen, auf der anderen Seite echauffieren sich selbige darüber, dass ATI-Kunden nicht daran teilhaben können. Der tiefere Sinn dieser wechselseitigen Argumentation entzieht sich meiner Logik.

So habe ich es auch in Erinnerung. Und wenn dem wirklich so war, dann frage ich mich folgendes: Warum wird ATI nicht dafür kritisiert, dass sie auf das Angebot nicht eingegangen sind?

Das Problem ist, das PhysX total gehyped wird, von vielen Usern genauso wie von Nvidia selbst. Die Umsetzung ist jedoch mangelhaft bis ungenügend. Sowohl in der Anzahl der GPU PhysX unterstützen Titel, als auch in der Implementierung der jeweiligen Spiele.

Die Idee die Physik der Spiele auf Grafikkarten umzulegen, da diese für solche Berechnungen angeblich besser geeignet sind ist ja gut, obwohl auch das sich immer mehr realtiviert, wo Mehrkern CPUs mit Potential sich bei Spielen mittlerweile an den Füßen spielen. Das dies jedoch so übertrieben wird, das man dann doch wieder Zusatzkarten für benötigt, ist absolut unnötig.

Und das dies nicht mit ATI Karten nutzbar ist, ist aus dem Grund nicht wünschenswert, da der Versuch eine Propritäre, Hardwareabhängige Technik durchzusetzen für den Kunden einen Nachteil bedeutet, und weil ATI Besitzer (respektive nicht-Nvidia Besitzer) anscheinend bei PhysX sogar aktiv benachteiligt werden (siehe Link zu Tomshardware).

Und wenn denn zum Schluss so Brettern wie die hier vorgestellte zwar als Grafikkarte selbst der Sinn abgesprochen, aber als "tolle PhysX" Karte gelobt wird, frag ich mich ob sich die Leute auch nen Karton voll Kieselsteine so schön reden würden, die sie von nem Betrüger über Ebay erhalten haben;
für Mirrors Edge wär sie nicht unbedingt nötig, und für Sacred 2 oder Dark Void wär sie zu langsam. Und mir allein für Batman ne zweite Grafikkarte rein zu stecken, sehe ich nicht ein.
 
milamber! schrieb:
Das Problem ist, das PhysX total gehyped wird, von vielen Usern genauso wie von Nvidia selbst. Die Umsetzung ist jedoch mangelhaft bis ungenügend. Sowohl in der Anzahl der GPU PhysX unterstützen Titel, als auch in der Implementierung der jeweiligen Spiele.
Warum ist das ein Problem? Jedes Unternehmen Hyped sein eigenes Produkt. Jeder Mensch kann sich doch sein eigenes Bild davon machen, ob ein Hype gerechtfertigt ist oder nicht. Die Tatsache, dass die meisten Spieleentwickler seit nunmehr zwei Jahren PhysX keine Beachtung schenken, spricht doch für sich.

Aber darum gings mir auch gar nicht. Primär ging es mir um die Betrachtung, dieser und ähnlicher Diskussionen, von der Metaebene.

Um nicht noch mehr ins Off-Topic abzudriften, lass ich es an dieser Stelle mal gut sein.
 
Bei Dark Void und Sacred 2 ist es ja das selbe, bzw. schlimmer. Da kannst du ohne extra Karte auch einpacken.

Dark Void Ja
Sacred 2 hast du wohl noch nie selbst gespielt oder ?
Läuft auf meiner 260 Einwandfrei mit PhysX @ 1680 x 1050 und allen Details O.o

Ja wen man sich ne ATI karte kauft muss man halt damit leben das man kein PhysX hat, wenn ich mir einen Porsche kauf muss ich auch damit leben das ich kein BMW lenkrad hab.

Und dauernd darauf rumhacken das PhysX ne zweite Graka braucht ist auch sinnlos.. Ist halt Hardwearfordern, Wenn Fermi dan da ist wirds warscheinlich mit einer laufen.

Warum ist das ein Problem? Jedes Unternehmen Hyped sein eigenes Produkt. Jeder Mensch kann sich doch sein eigenes Bild davon machen, ob ein Hype gerechtfertigt ist oder nicht.
 
LuXon schrieb:
Meine Meinung zum AA in Batman ist übrigens: nVidia hat sich die "Mühe" gemacht. Warum sollte ATI von der "Mühe" von nVidia profitieren?
Genau das ist es.
Die Batman Entwickler haben ihren Konsolentitel für den PC portiert, selbstverständlich ohne AA oder PhysX Unterstützung.
Nvidia hat den Arsch bewegt und für Unterstütztung beider Dinge gesorgt und somit seinen Kunden einen Mehrwert geschaffen.

Warum AMDs Kunden AMD oder den Batmanentwickler verteidigen, die doch offensichtlich nicht an diesen Dingen interessiert sind, bzw. den Konsolenstandard im PC Sektor aus ausreichend ansehen, ist mir schleierhaft.

DvP schrieb:
IDie CPU wird weniger ausgelastet wenn man PhysX (ohne CudaGPU) EINschaltet. Erklär mir das bitte mal.
Schon mal überlegt das die CPU auf sich selbst warten muss?

Mir geht es übrigens nicht nur um PhysX. Was war denn mit DX10.1? Was sogar laut Microsoft ein extrem wichtiges Update für Spiele gewesen wäre, damit die neue Schnittstelle so richtig in die Gänge kommt. So ähnlich wie die SPs von XP und Vista. Diesen OFFIZIELLEN Standard hingegen hat nVidia ignoriert und somit allen Spielern vorenthalten weil sie zu bequehm waren um ihre Grakas auf den neuen Stand zu bringen.
Seltsam, das immer alles an Nvidia hängenbleibt.
PhysX läuft ohne AMD, 10.1 läuft nicht ohne Nvidia.
Naja egal, du weisst ja das schon G80 fast alles D3D10.1 relevante kann.

Darüber hinaus wurden "befreundete" Spieleentwickler sogar noch dazu überredet den DX10.1 Renderpfad aufgrund von blödsinnigen Geschichten wieder zu entfernen und das Spiel somit wieder langsamer zu machen (Assassin's Creed). Gratulation, sag ich da nur! :cheerlead:
Gratulation, du hast den Titel erwähnt, der bekannterweise fehlerhaft war.
Mit ein wenig Dev Support wär Ubisoft sicher bereit gewesen ein paar Arbeitstunden zu investieren um den Fehler zu beseitigen.
5min Recherche waren wohl doch zuwenig.
 
@topic
Also mal grundsätzlich für den gelegeheits spieler reicht die karte ja, wer mehr will muss auf die gf4xx? (tja mehr gerüchte x.X ) warten oder zu ATi greifen. Aber grundsätzlich denke ich wird sich die Karte was Preis Leistung angeht erst noch einpendeln (ergo günstiger werden)

aber iwie isses weder fleisch noch fisch geworden (wie man so schön sagt)

@PhysX
Ich weis garnicht was ihr alle habt. PhysX ist ne gute Sache und wurde der Konkurenz angeboten (ja auch ich hab da was auf Erinnerung ...) wenn ich mich recht entsinne war das Ati entweder zu teuer (wobei nie gesagt wurde wie viel NV wollte. Ich glaube ATI hat sich beschwert das sie überhaupt lizenzen zahlen sollten, warum sie zu HAVOK übergingen oder so ... muss es mal wieder raussuchen.

Aber natürlich gibt es dabei verschiedene Pro und Kontra

1. PRO:
Es werden Effekte ermöglicht, die über KEINE CPU-Lösung so möglich sind.

2. KONTRA
Dadurch das sich ATI und NV Querstellen, wird die Verbreitung gering bleiben

3. KONTRA
Dadurch das man so viel machen kann, werden solche Effekte dann wie in Dark Void auch bis zum erbrechen genutzt (Ressourcenverschwendung aller Far Cry)

4. KONTRA
Softwareseitige deaktivierung von GPU PHysX OBWOHL neben der Ati ne NV Karte verbaut ist.

5. KONTRA
NV (Die "Softwarefimra" ;) ) hat für CPU Physix die Multicoreunterstützung verbockt. (ob absicht oder nicht lassen wir jetzt mal offen)

Das alles bringt PhysiX leider auf eine sehr schlechte Bilanz. Und das OBWOHL NV das mit sehr einfachen Mtteln sehr schnell ändern könnte. Dazu müssten sie nur 2!! dieser Punkte ändern.

1. (4.)
NV müsste ihre kleinen Karten als PhysiX Karten PUSHEN und siese Softwareblockade lösen! Jede NV Karte in einem ATI REchner ist ein GEWINN für die Firma!

2. (5.)
Sie müssten die Multicore Unterstützung für CPU PhysiX nachschieben. (Zwar wären nach wie vor nur die MINIMUM effekte möglich, ABER wenn Spielehersteller die Möglichkeit haben ALLE Rechner für ein solches Feature zu nutzen, dann TUN sie es auch. Und wer MEHR effekte will MÜSSTE WIEDER zu NV als PhysiX KArte greifen.

Wären die Bosse bei NV nicht so starrsinnig, könnte NV eine GANZ andere Marktposion haben! Und PhysX könnte lange als DER STANDART gelten!
 
@Fl_o

Juhuu, Autovergleiche. Kleine Frage nebenbei: wer will in seinem Porsche ein BMW-Lenkrad?

Was PhysX betrifft: was hat man denn nun davon, dass ein paar Blätter und Zeitungen vom Winde herumgeweht werden und der Rauch sehr realistisch wirkt? Dermaßen augenfällig, sodass man diese Sachen unbedingt bräuchte, wird das wohl auch nicht sein, wenn man die nötige Hardware und deren Kosten mitberücksichtigt. (nein, ich hab noch nie ein PhysX-Spiel gespielt, aber eine Ansicht hab ich trotzdem dazu :) ).
 
die gleiche frage kannst du auch zu anti alliasing und anisotrope filterung stellen: was hat man davon? ;)
es sieht besser aus mensch :D

ob man es "braucht" sei mal dahingestellt. hab auch sehr lange zeit ohne aa/af leben können (und kann es eigentlich immernoch^^). muss jeder für sich selbst wissen, ob er wert darauf legt.
 
Also AA und AF sind mir schon wichtiger, da sie das Gesamterscheinungsbild des Spiels doch erheblich beeinflussen. Was man von PhysX wohl nicht in diesem Ausmaß sagen kann (außer das Spiel lebt davon, dass ein Sturm viel Zeugs durch die Gegend weht).
 
Als mir persönlich wäre ja realistischer rauch oder regen ein genuss der mir wichtiger wäre als AA ins unendlcihe zu übertreiben, wie das aktuell gemacht wird. ich mein AA hat schon seine berechtigung ... aber ein allheilmittel ist es bei weitem nicht, entgegen der allgemeinen meinung und es hat ganz klare grenzen, die wir in naher zukunft auch erreicht haben.
 
Da hast du allerdings völlig recht. Lassen wir es auf dieser Einigung beruhen :schluck:

EDIT: war zwar für Lübke gedacht, der Post, aber auf den von Neo_Xsendra passt er auch ;)
 
Zuletzt bearbeitet:
In vino veritas schrieb:
Warum ist das ein Problem? Jedes Unternehmen Hyped sein eigenes Produkt. Jeder Mensch kann sich doch sein eigenes Bild davon machen, ob ein Hype gerechtfertigt ist oder nicht. Die Tatsache, dass die meisten Spieleentwickler seit nunmehr zwei Jahren PhysX keine Beachtung schenken, spricht doch für sich.

Eben, nur hyped Nvidia die Technik ein bischen zu sehr, und die User und Magazine machen fröhlig mit. Wenn man die Umsetzung ganz nüchtern und objektiv betrachtet, ist PhysX auf CUDA eine Totgeburt.

Und das ist genau das selbe wie mit CUDA; klar unterstützen sie auch die Khronos Group, und OpenCL. Wenn man sich das aber mal genauer anschaut, drücken die weiterhin ihre propritären Standards durch, und pochen auf CUDA exklusive Entwicklungen. Das ist einfach nicht im Sinne der Kunden, weshalb das auch keiner Unterstützen sollte.

True. People are mixing up PhysX and PhysX for CUDA. The effects are good. Sadly, Nvidia continues to push CUDA in front of OpenCL, and as yourself and the article pointed out, may be crippling performance on CPUs to make the CUDA support look better in comaprison.

In this presentation they spend 4 min 30 sec on 5 slides on the interoperability between OpenGL and CUDA, but only 55 sec and 2 slides on the interoperability between OpenGL and OpenCL. They also encourage the use of Nvidia specific extension to OpenGL:
http://bit.ly/3HMPyA

About ten days ago Nvidia held a lecture here in town on their Scandinavian tour about CUDA programming, even though they released beta Forceware drivers with OpenCL functionality just days after.

Real life examples like these make their claimed OpenCL-engagement less credible. They will push CUDA and Nvidia-specific programming even though there are open standards available.

Fl_o schrieb:
Dark Void Ja
Sacred 2 hast du wohl noch nie selbst gespielt oder ?
Läuft auf meiner 260 Einwandfrei mit PhysX @ 1680 x 1050 und allen Details O.o .

Allen Details, und ... ? Kein AA/AF? Toll, dafür kauf ich mir ne GTX 260 - um PhysX ein- und die Qualität auszuschalten.
Ich find 22-24 FPS selbst für nen Hack'n'Slay in Iso Ansicht nicht besonders attraktiv.

Fl_o schrieb:
Ja wen man sich ne ATI karte kauft muss man halt damit leben das man kein PhysX hat, wenn ich mir einen Porsche kauf muss ich auch damit leben das ich kein BMW lenkrad hab..
Warum zum Teufel immer diese Autovergleiche? Vor allem ... ein BMW Lenkrad? Fällt dir nichts besseres ein?.
Ich glaub, hätt ich ne ATI würde es mich nicht stören kein PhysX nutzen zu können - ich hab ne Nvidia, und weder von CUDA noch von PhysX hab ich bisher etwas gehabt. Für ersteres gibts keine interessanten Anwendungen, für zweiteres ist ne 8800 GT einfach viel zu langam.

Fl_o schrieb:
Und dauernd darauf rumhacken das PhysX ne zweite Graka braucht ist auch sinnlos.. Ist halt Hardwearfordern, Wenn Fermi dan da ist wirds warscheinlich mit einer laufen.

Toll Hardwarefordernt. Und was machst du mit der 2. Karte, wenn du die 2-3 Spiele, die dich interessieren durch hast? Die Karte bei eBay verticken? Klasse, sorry, aber sich so was schön reden ist echte verblendung.

Und Fermi, ja wenn .. wahrscheinlich ... möglicherweise ...
... wenn die Karte raus ist, packen wir alle nochmal die alten Kamellen aus. Nicht weil wir bock auf die Games haben, nein, einfach weil die neuen Grafikkarten endlich schnell genug sind, für die alten GPU PhysX Titel.

\o/

Unyu schrieb:
Warum AMDs Kunden AMD oder den Batmanentwickler verteidigen, die doch offensichtlich nicht an diesen Dingen interessiert sind, bzw. den Konsolenstandard im PC Sektor aus ausreichend ansehen, ist mir schleierhaft..
Jo, ist ja leicht sowas zu behaupten, wenn man daheim ohne Verantwortung und Bezug im Sessel sitzt, oder? Oder bist etwa doch bei Nvidia unter Vertrag? :o
Ich kann mir kaum vorstellen, das die Entwickler bei nem TWIMTBP Titel, wo sogar Nvidia Mitarbeiter eigenen Code implementiert haben, besonders rattig auf Leute von ATI wären, selbst wenn sie interessiert gewesen sein würden. Und ich könnte es auch vollends verstehen das sie bei so einem Titel nicht hinterher laufen, möglicherweise gar nicht die Chance hatten?

Klar hat Nvidia das "Recht" Ingame AA zu deaktivieren, wenn eine ATI Karte erkannt wird, oder GPU PhysX zu deaktivieren, wenn eien nicht Nvidia Karte erkannt wird ... nur blöd das sie damit nicht ATI eins rein würgen, sonderm dem Kunden. Das ist nen ziemliches Arschlochmarketing.

Unyu schrieb:
Schon mal überlegt das die CPU auf sich selbst warten muss?
Muss schon geil sein, hier und da immer Behauptungen ins Forum zu kacken, ohne einen einzigen Beleg, nicht war? Das ist das erste was ich mit deinem Nick assoziiere.

Unyu schrieb:
Naja egal, du weisst ja das schon G80 fast alles D3D10.1 relevante kann.

Nö, und das nicht nur weil mit den ganzen Karten keine Hardwarebasierte Direct2D Beschleunigung, oder Client Based Rendering mit RDP funktioniert. Das ist wohl auch der Grund, warum meine 8800 GT in naher Zukunft rausfliegt, obwohl mir die Performance zur Zeit noch völlig ausreicht.

Unyu schrieb:
Gratulation, du hast den Titel erwähnt, der bekannterweise fehlerhaft war.
Bekannt? Es wurde behauptet, den Fehler hat aber keiner gefunden, und DAS ist bekannt.
http://www.hardware-infos.com/news.php?news=2102
Sorry, aber so viel Unfug kann man sich doch nicht mehr schön reden.
Da passiert bei Nvidia die letzten Monate und Jahre einfach zu viel in der Richtung, die belegen das sich Nvidia nicht für die Kunden, sondern nur ihr Geld interessiert.
 
Zuletzt bearbeitet: (Zitate falschen Benutzern zugeordnet)
@Fetter Fettsack
Wetten wir sehen uns das nächste mal ende 2010 anfang 2011 beim them Raytracing nochmal bei so na disku wieder? ;) (bin halt ein verfechter von Realismus ist wichtiger als grafik spielereichen ^^;;; aber hauptsache wir sind uns einig ^^ )

@milamber!
Warum bekomm ich das bedürfniss dich und Unyu in ne grube zu werfen und dann von oben zu brüllen "Kämpf! Kämpft! Kämpft! ..."

Dieses schwarz/weis gerede wird mit der zeit nciht weniger nervig -.^
 
@Neo_Xsendra

Die Mischung machts. Zuviel AA und keine brauchbare Physik ist genauso ungut wie umgekehrt.^^

Bezüglich milamber!: er ist halt ein recht genauer, der sich nicht unbedingt mit "Höflichkeiten" herumschlägt. In der Sache hat er aber meines Wissens nach (wo ich halt selbst nachgeschaut habe) zumeist recht.
 
Lübke schrieb:
die gleiche frage kannst du auch zu anti alliasing und anisotrope filterung stellen: was hat man davon? ;)
es sieht besser aus mensch :D
Oder was hat man von anderen Grafikeffekten?
Oder besser, was hat man von einer Grafikkarte, spielentscheidend ist nur die CPU.

milamber! schrieb:
Klar hat Nvidia das "Recht" Ingame AA zu deaktivieren, wenn eine ATI Karte erkannt wird, oder GPU PhysX zu deaktivieren, wenn eien nicht Nvidia Karte erkannt wird ... nur blöd das sie damit nicht ATI eins rein würgen, sonderm dem Kunden. Das ist nen ziemliches Arschlochmarketing.
Wieder mal der völlig falsche Ansatz.
Ohne Nvidia gäbe es in Batman weder AA noch PhysX.
Das ist der Stand der Dinge, so sollte der Konsolenport auf den Markt kommen. Nvidia hielt es für nötig seinen Kunden einen Mehrwert zu bieten.

Der Kunde bekommt bei Batman das, was vorgesehen war, ein Spiel ohne AA oder PhysX. Warum verteidigst du den Batmanentwickler?
Warum verteidigst du AMD, die dies ebenfalls für in Ordnung hielten?

Muss schon geil sein, hier und da immer Behauptungen ins Forum zu kacken, ohne einen einzigen Beleg, nicht war? Das ist das erste was ich mit deinem Nick assoziiere.
Denkanregungen sind dir fremd?

Nö, und das nicht nur weil mit den ganzen Karten keine Hardwarebasierte Direct2D Beschleunigung, oder Client Based Rendering mit RDP funktioniert. Das ist wohl auch der Grund, warum meine 8800 GT in naher Zukunft rausfliegt, obwohl mir die Performance zur Zeit noch völlig ausreicht.
Wenn du G80 nicht kennst ist das nicht mein Problem.

Bekannt? Es wurde behauptet, den Fehler hat aber keiner gefunden, und DAS ist bekannt.
Ich frag mich, warum das alle Übeljahre wiederholt werden muss, das AC fehlerhaft war.
Du meinst doch, du weisst alles und kannst alles belegen. Dann such erstmal die Fakten, das AC fehlerhaft war.
Kleiner Tipp, rein optisch war es bereits fehlerhaft, Raucheffekte und so waren minderwertiger.
 
@Fetter Fettsack
Ja das stimmt schon , aber das grafik niveau ist grundsätzlich schon so hoch, das die steigerung dabie für mich mittlerweile 2. ranging ist.

@milamber!
naja wann immer ich verhätete fronten zu diesem thema finde seid ihr beide da mittendrin und bewegt euch mit keinem schritt von eurer meinung (unabhängig davon wer wie viel recht hat ;) ich kann euch beiden zu teilen zustimmen bzw nicht zustimmen, aber da sich die diskussionen nie ewegen misch ich mich da selten ein ;) )
 
@Neo_Xsendra

Wohl wahr, ich hatte momentan Sachen wie BF2 im Kopf, modernere Spiele sind graphisch wirklich um einiges schöner bzw. haben einen Grad erreicht, wo man dann schon auch gerne eine brauchbare sprich realitätsnahe Physik haben möchte (ob das dann die Grafikkarte bzw. das Gesamtsystem schafft, ist natürlich wieder etwas anderes^^).

Ich würde sagen, wir haben hier einen Konsens in dieser Thematik.
 
Unyu schrieb:
Wieder mal der völlig falsche Ansatz.
Ohne Nvidia gäbe es in Batman weder AA noch PhysX.
Das ist der Stand der Dinge, so sollte der Konsolenport auf den Markt kommen. Nvidia hielt es für nötig seinen Kunden einen Mehrwert zu bieten.
Ich weiss nich wie oft man es noch sagen soll. PhysX ist toll, Ingame AA ist toll, die Umsetzung jedoch ist scheisse.


Unyu schrieb:
Der Kunde bekommt bei Batman das, was vorgesehen war, ein Spiel ohne AA oder PhysX. Warum verteidigst du den Batmanentwickler?
Warum verteidigst du AMD, die dies ebenfalls für in Ordnung hielten?

Ich verteidige weder die Entwickler, noch AMD, denn in diesem Fall ging es eher weniger um die. Der Code stammt von Nvidia, der Code schließt über eine ID Abfrage explizit ATI Karten aus, UND der Code verhindert aber nicht den Zugriff auf den Z-Buffer, was bei der ATI Karte die Leistung verringert.

Die Entwickler sind hier in sofern zu kritisieren, als das sie diese AA Option nicht selbst eingebaut haben, denn angeblich sollte dies ja schon zuvor sowohl von Nvidia als auch AMD für die UE3 Engine angeboten worden sein (also Code).

In wie weit man AMD nun das unterlassen ankreiden kann, selbst im Spiel rumzufummeln, weiss ich nicht, jedoch ist und bleibt das Game nen TWIMTBP Titel, und die AA Funktion von Nvidia sieht mir nach mehr als nur nen "zusätzliches Features".

Von wegen nichts verschlimmbessern.

Unyu schrieb:
Denkanregungen sind dir fremd?

Das war keine Denkanregung, sondern eine Behauptung ohne Beleg. Ein Schuss ins blaue. Aber ich bin von dir ja meist nicht viel mehr gewohnt.

Unyu schrieb:
Wenn du G80 nicht kennst ist das nicht mein Problem.

Hör auf abzulenken, was interessierts ob G80 oder G92. Meines Wissens nach war es doch Nvidia, wegen denen nicht alle zuvor angedachten Funktionen in DX10 implementiert wurden. Und meines Wissens nach war es ATI die afaik fast alle Funktionen schon sehr viel Früher hätten bereit stellen können, und nun auch haben.

An Hardware Direct2D, Client Based Rendering RDP und Co ändert das aber nunmal nichts. Und das ist das erste mal, das ich mich über meine 8800 GT ärgere - mit ner 3870 hätt ich jetzt nicht den "zwang" aufzurüsten, denn genau diese Funktion würd ich gern bei meinem HTPC nutzen.

Unyu schrieb:
Ich frag mich, warum das alle Übeljahre wiederholt werden muss, das AC fehlerhaft war.
Du meinst doch, du weisst alles und kannst alles belegen. Dann such erstmal die Fakten, das AC fehlerhaft war.
Kleiner Tipp, rein optisch war es bereits fehlerhaft, Raucheffekte und so waren minderwertiger.

Komisch, mir ist nie etwas bezüglich minderwertiger Raucheffekte, oder "und so" zu Ohren gekommen. Das kannst du doch sicher belegen oder?
Dann kannst du sicher auch erklären, warum Ubisoft den Aufwand in Kauf nahm, einen DX10.1 Renderpfad in die Anvil Engine hat einbauen zu lassen, ihn aber nicht nutzt, obwohl der Bugfix ja wohl ein leichtes gewesen sein sollte?
Oder warum AC2 ebenfalls kein DX10.1 unterstützt, obwohl es auf die selbe Engine Aufbaut?
Es liegt nicht etwa daran das Nvidia im Performance und High End Sektor immer noch keine DX10.1/DX11 Karten anbietet?
 
Ich weiss nich wie oft man es noch sagen soll. PhysX ist toll, Ingame AA ist toll, die Umsetzung jedoch ist scheisse.
Dann muss ich mich wohl ebenfalls wiederholen.
Nvidia ist kein Spieleentwickler. Beschwer dich bei denen.
Die Ausnahme ist Batman, da läufts eben wie es üblich ist, bei neuen Effekten, man nimmt soviel davon das es auch ein Blinder erkennt.

Sinnfrei bleibt es, Batman mit PhysX im Allgemeinen gleichzusetzten.

Ich verteidige weder die Entwickler, noch AMD, denn in diesem Fall ging es eher weniger um die. Der Code stammt von Nvidia, der Code schließt über eine ID Abfrage explizit ATI Karten aus, UND der Code verhindert aber nicht den Zugriff auf den Z-Buffer, was bei der ATI Karte die Leistung verringert.
Und wo ist das Problem?
Sollte AMDs Radeon durch die Abfrage im Vergleich zum geplannten Auslieferungszustand Leistung verlieren, so ist das zu kritisieren.
Wenn nicht, dann ist alles in Ordnung.

Die Entwickler sind hier in sofern zu kritisieren, als das sie diese AA Option nicht selbst eingebaut haben, denn angeblich sollte dies ja schon zuvor sowohl von Nvidia als auch AMD für die UE3 Engine angeboten worden sein (also Code).
Der PC Markt zerfällt nunmal.
Wie man sieht haben es die Entwickler nicht nötig eine ordentliche Qualität abzuliefern.

Hör auf abzulenken
Ich bezog mich auf G80 und D3D10.1 und dabei bleibt es.

Komisch, mir ist nie etwas bezüglich minderwertiger Raucheffekte, oder "und so" zu Ohren gekommen. Das kannst du doch sicher belegen oder?
Du bist der, der gerne viele verschiedene Beiträge zerpflückst. Da sollte man erwarten das du auch weisst wovon du schreibst.
Du hast übrigens etwas behauptet, wer Schuld sei, ohne Beweis.

Extra für dich eine Aussage von Ubisoft persöhnlich: http://www.pcgameshardware.de/aid,6...-101-in-Assassins-Creed/Assassins-Creed/News/
Es fehlen Partikeleffekte. Siehe auch hier: http://www.rage3d.com/articles/assassinscreed-addendum/index.php?p=1

Das war keine Denkanregung, sondern eine Behauptung ohne Beleg. Ein Schuss ins blaue. Aber ich bin von dir ja meist nicht viel mehr gewohnt.
Ich sehe, du willst das EOD.
Gut. Übrigens, bei deiner Signatur erinnerst du mich an nagus. Ist das gewollt?
 
Zuletzt bearbeitet: (link2)
Zurück
Oben