Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
John Carmack, seines Zeichens OpenGL-Guru und Chefentwickler von id-Software, hat sich in seinem aktuellen .plan-Update über einige interessante Details bezüglich der Chips hinter der GeForce FX und der Radeon 9700 Pro geäußert.
Nun, um das Fiasko der nv30 etwas zu mildern, war ja klar dass Nvidia Treiberprobs vom Stapel lässt.
Ganz getreu nach ihren Motto, Ati-Käufer zurückschrecken durch Halbwahrheiten und Schönreden.
Carmack der Aal - er kann sich's leisten...
zuerst präsentiert er seinen neuen Doom mit einem
Grafikchip von ATI und nun quatscht er uns Nudeln für
Nvidia um die Ohren. Es wird nicht lange dauern, bis
er wieder zur anderen Seite hinpendelt...ach ja, dann
gibt's ja noch Intel und AMD. Also wenn ihr mich fragt -
wir Endverbraucher haben's nicht leicht!
Was quatscht ihr denn alle für einen Scheiß. John Carmack ist einer, der es sich leisten kann immer die im Augenblick schnellste Karte im System zu haben. Und an seiner Stelle würde ich das auch tun, ob da nun ATI oder Nvidia draufsteht. Wenn der R350 den NV30 wieder überholt, dann wird er das wohl genauso eingestehen wie umgekehrt. Und wer hier vom "Fiasko der NV30" oder vom Seitenwechsel spricht, der sollte sich doch selbst mal fragen ob bei ihm noch alles in Ordnung ist. Der Konsument ist doch kein Soldat, der sich für eine Seite festlegen muss.
Leisten kann? Du glaubst doch nicht ernsthaft, dass er die kauft. Die Hersteller haben doch selber das Interesse, dass sein TopHit auf ihren Karten optimiert wird und stecken ihm die neuesten Produkte so schnell wie möglich zu.
der karmack soll seine NV-gesponsorte scnnautze halten!
erst auf ATI präsentieren und dann auch noch meckern.
das der FX reinfall ist ist wohl schon jedem Deppen klar!
nich umsonst hat ATI angekündigt das die die NV um monate nach hinten werfen.
Natürtlich kauft Carmack sich die Karten nicht selbst. Alleine schon durch seine Genialität als Programmierer kann er es sich leisten die Karten umsonst von den Herstellern zu beziehen. Und ich habe den Artikel oben keinesfalls als Kritik an einem der beiden Hersteller empfunden. Carmack behauptet lediglich, dass der NV30 unter geeigneteten Bedingungen der schnellste Chip für Doom 3 ist, der im Augenblick erhältlich ist. Und wenn er was anderes behaupten würde, dann würde er schlichtweg lügen. Und allen die was gegen einen "Deppen" haben, der "seine Schnauze halten soll" empfehle ich eine ganz einfache Art diesen Menschen zu strafen: Kauft einfach keine Software vom ihm!
Aber kopiert sie euch auch nicht, denn dann wärt ihr die DEPPEN, die ihre SCHNAUZE HALTEN SOLLEN und sich nicht weiter negativ über den Programmierer auslassen sollen.
Ja ja schon wieder der Carmack. Dieser Möchtegern Guru. Der soll nicht so ein Dünschiss labern, aber das tut er ja immer. Für mich die grösste Pfeiffe der Nation. Carmack und genial das ich nicht lache, ha ha ha !!!!!!!!!!
er hat ja bis jetzt nur mehrere der genialsten spiele entwickelt.... das kann man ja nicht als positiv werten... wenn ihr mich fragt... dann ist carmack ein absoluter checka dessen spiele schon alleine aufgrund deren genialität gekauft und nicht kopiert werden müssen... damit er auch weiterhin entwicklungsgelder hat um noch mehr geilen stuff zu produzieren...
achso und dildo.... für mich bist du einfach nur ein idiot der absolut keine ahnung hat...
@Dildo
zieh Dir doch mal den selbigen aus Deinem Hinterteil. Scheint sich negativ auf Deine "Rechenleistung" auszuwirken.
Wer wie Du keine Argumente bringt und das .plan Update wahrscheinlich nicht mal gelesen hat, sollte besser die Fresse halten.
ich glaub doch beide karten sind ausreichent genug um das flüssig zu spielen das wichtiger ist doch nun welche der beiden die bessere qualy bietet die doom3 ja schon eh auf ner geforce 4 etc. macht
Mal ehrlich, wenn manche sich jetzt schon schwer tun, den Unterschied zwischen 16Bit Int und 32Bit Int zu erkennen, dann sollte der Unterschied zwischen 16 und 24Bit FP und erst recht zwischen 24 und 32Bit FP nur noch unter dem Mikroskop zu sehen sein.(Ist nur eine Vermutung!!)
Zumindest während der aktiven Lebensdauer der beiden Karten wird es wohl nur wenige Programme geben, die so umfassend von langen Shadern Gebrauch machen, dass man überhaupt die Chance hat, Unterschiede zu sehen.
@ dildo: carmack soll ein schlechter programmierer sein? das ich nich lache!!! er hat die erste 3d engine gemacht und meilensteine mit seinen engines gesetzt! ohne ihn wären 3d spiele nicht das was sie heute sind...
natürlich ist er etwas freakig, aber wenn er das nicht wäre, wäre die entwicklung irgendwann stehen geblieben. freu dich doch lieber, 3d spiele werden immer realisitscher, und der preis der grafikkarten bleibt auch immer recht niedrig, vorrausgesetzt du kaufst dir nicht das allerneueste und allerschnellste!