MountWalker schrieb:
Das sehe ich anders: Zeig mir mal eine Liste mit Spielen, die tatsächlich eine eigens entwickelte Engine und keine lizenzierte verwenden. Jedes interessante Spiel hat die Grafikengine lizenziert,
Hmmm, ja, sorry, vielleicht hätte ich schreiben sollen: Es gibt noch jede Menge kleinerer Engines (-entwickler). EPIC mit der meisten Kohle und Ressourcen kanns nur recht sein, wenn so viele wie möglich davon verschwinden.
Denahar schrieb:
...was jetzt nicht unbedingt als eine vertrauenserweckende Quelle zählt. Zudem wäre es schon eine Leistung doppelte so viele Transistoren auf die gleiche Fläche zu zwängen, oder?
Ohhh, die gute alte Glaubwürdigkeitskeule
Nenn mir EINE glaubwürdigere Quelle. Jemand, der genauso umfangreiche Hintergrundinfos (Produktionskosten für Grafikkarten z.B.) liefert. Jemand, der sich traut, weit im Voraus Prognosen abzugeben und mehr Recht behält als er falsch liegt. Jemand, der sich traut, die Lügen der Konzerne aufzudecken.
Du wirst mir keine nennen können.
Du solltest vielleicht mal ein paar Stories von Charlie lesen (was ich schon seit Jahren mache) und dir deine eigene Meinung bilden, anstatt nur den Fanboys nachzuplappern (Vielleicht selber einer
).
Ich geb dir mal ein paar Leseproben.
Story zur GTX 275, die erst Monate
später kam.
Die Geschichte hinter "Bumpgate"
1 2 3
IMO der einzige, der NVIDIA hier auf ganzer Linie "überführt" hat, war Charlie.
GT300 im Oktober
Oder ganz "aktuell" die
GT300 Architektur (schon paar Monate her, kannst dir selber ein Bild machen, was davon jetzt schon korrekt ist)
Und sozusagen "tagesaktuell"
der NVIDIA Fake
Man beachte die "7" auf dem GPU :ATOMROFL
IMO macht Charlie genau das, was ein Journalist zu tun hat, nämlich die Geschichte hinter der Geschichte aufzudecken, egal wieviel FUD die Firmen oder Fanboys streuen.
Lübke schrieb:
@NoD.sunrise: das ist mir neu und würde mich auch etwas wundern, wenn mikrosoft sich von nvidia vorschreiben ließe, wie ihr direct x auszusehen hat. Oô
hast du mal ne seriöse quelle für deine aussage?
Ne offizielle Aussage wirst du nie bekommen. Charlie hat mal was dazu geschrieben: (siehe Link zur GT300 Architektur)
"DX11 is a much funnier story. The DX10 feature list was quite long when it was first proposed. ATI dutifully worked with Microsoft to get it implemented, and did so with the HD2900. Nvidia stomped around like a petulant child and refused to support most of those features, and Microsoft stupidly capitulated and removed large tracts of DX10 functionality."
In Anbetracht dessen, dass NVIDIA lange nicht mal 10.1 hinbekommen hat und DX11 als unwichtig abstempelt, neige ich dazu ihm zu glauben.
bensen schrieb:
Und die G210 legt mit D3D10.1 mehr zu als die 4350.
Äh
die G210 kann ABSOLUT GAR NICHTS besser als die 4350 und du kommst damit, dass sie bei .1 "mehr zulegt"?
MountWalker schrieb:
ATI dürfte ganz einfach das gleiche passiert sein, was Nvidia mit der GeforceFX passierte: Sie hatten gemutmaßt, dass dieses und jenes reinkommen würde und habens dswegen verbaut um hinterher festzustellen, dass es nicht in der Spec drin ist. Die GeforceFX hatte deswegen in DX9 abgekackt, weil sie beim Shadermodell in der FP32-Leistung zu viel bot und ATI hats eben bei der HD2900 erwischt. Unterschied besteht dann eben drin, dass es , wo es Nvidia passierte, von jedermann als Nvidias Fehler akzeptiert wurde, wohingegen bei ATIs späterem Fehler sofort Verschwörungstheorien aufblühen.
Dazu gibts soweit ich weiß zwei Theorien:
1. NVIDIA hat nur angegeben, FP32 zu unterstützen. AMD wollte FP24. Also hat MS sich auf FP24 als Minimum gestgelegt. NVIDIA hat aber eigentlich viel mehr mit FP16 gerechnet, als mit FP32 und somit den Standard nicht mehr erfüllt.
2. So wies in der englischen Wiki steht: NVIDIA hatte Streit (wegen XBOX irgendwas) und MS hat NVIDIA daraufhin in den Allerwertesten "getreten"
Stumbles with the FX series
Die 2. Möglichkeit ist wohl wahrscheinlicher, insofern hat NVIDIA nicht nur einfach verkackt, sondern aufgrund ihrer heute noch üblichen "großen Fresse" ins Klo gegriffen.