News Catalyst 4.9 bringt Support für Doom 3

Also mal im Ernst...

Ihr macht eure Kaufentscheidung in Punto GraKa davon
abhängig ob D³ 10 oder 15fps schneller damit läuft?

Leute, das Teil hat knappe 20Std... dann isses durch. ;)

Und dass sich die D³ Engine so krass durchsetzt wie die
von Quake 2 & 3 wage ich mal zu bezweifeln.
Ich glaube die Unreal 2 & bald 3 Engine ist da flexibler was
vor allem Sichtweiten und so angeht.

Und wenn die D³ Engine sich dann doch mal in diversen
anderen Games verbreitet dann sind x800 GraKas eh' schon
Schnee von gestern. :p

ATi ist technisch besser. Nur weil D³ der simpleren nVidia
Technik nun entgegen kommt soll ich jetzt traurig sein eine
9800pro zu besitzen?

Ich sag euch was... meine GraKa ist geil!!! :)

PS: Jaja, ich weiß dass NV die komplexere Generation am Start
hat. Aber hier bei Doom profitiert NV ja offensichtlich davon dass
die Technik zur Berechnung simpler ist.

edit

@hths
LOL...
Die Strategie durch das weglassen von noch unnützen Standards
wie dem Shader Model 3.0 Transistoren zu sparen und somit einen
höheren Takt zu fahren ist schlicht intelligenter. :p

Genau deshalb sind die x800er ja kühler, billiger, sparsamer und dabei
meistens trotzdem noch schneller als NV... wegen dem höheren Takt. :)
 
Zuletzt bearbeitet:
skreel schrieb:
ich hab mir extra ne x800 für doom gekauft als die benches noch nicht raus waren. ich glaube das man die performance nicht sehen wird. zahlen mässig ja, aber beim zocken wird das sicher keinem arsch auffallen. das wäre ja wohl ein witz wenn ich mit ne x800 kaufe und doom läuft da nicht geil drauf? das ist absolut unmöglich, ich hab keinen eingebauten frames zähler in meinen augen und ich glaube das es top läuft. zahlen sind mir egal, ich will spielen und nicht über zahlen diskutieren. :D


Bei genau DEN gedanken war es schon *sorry*Blödsinn sich extra eine neue GF zu kaufen.Einerseits sagst Du, Du hättest keinen Framezähler eingebaut, aber vorher sagst Du genau wegen dem Spiel hättest du Dir eine X800 gekauft.
 
Also ich bin auch einer der wenigen der dieses hammer Game schon sein eingen nennen kann. Cousine = Aupair (oder wie dies heisst ^^) in the USA.

Mein System:
AMD XP Barton 2500 @ 3200 MHz
Asus Nforce2 Ultra 400 @ FSB200
2x 256 MB GeiL Ultra Series PC3200 @ Dual DDR
Saphire Radeon 9800 Pro (nicht uebertaktet oder gemodet) [ CATALYST 4.7 !!! ]
SB Audigy 2 ZS
Seagate 160 GB SATA HDD
Enermax 430 Watt Netzteil

Windows XP Professional SP1a

So nun zum geilen Game des Jahres, jedenfalls fuer mich ^^.

Aufloesung: 800x600
Detail: Ultra (NO AA/VS)

Soooo ... all dies beachtet muss ich sagen es laeuft absolut fluessig und ohne irgend welche Ruckler oder Bild Fehler!
 
Darkstar schrieb:
bin mir sicher daß sie mit dem neuen treiber sehr dicht aufschließen werden.
und zur not wird ein patch rausgebracht welcher shader 2.0b und 3dc unterstützt :D

hm, war das nich so das OpenGL nix mit microdoof DirectX zu tun hat, und folglich kein PixelShader oder 3Dc supportet wird ?
 
Wer wissen will, was höchstwahrscheinlich der Grund des nVidia-Vorsprungs in Doom 3 ist, sollte hier nachlesen: http://www.3dcenter.de/artikel/2004/07-30.php

Ob ATi nachbessern kann, ist schwer zu beurteilen. Aber nur wegen Doom 3 schmeisse ich meine XT Platinum Edition nicht aus dem Rechner. Ich habe inzwischen auch eine 6800 GT in meinem PC getestet (geflasht auf Ultra).

Ich habe einen 3,06GHz P4 und 1GByte DDR266 CL2 - ob nun eine X800 oder eine 6800 im PC ist, da sind immer Prozessor und Speicher die limitierenden Faktoren. Und ich habe mit viel Mühe einen ATi 4 Silencer montiert - da mag ich gar nicht mehr herumbasteln :)

Vor- und Nachteile wiegen sich ehrlich gesagt auf; daher kann es in dieser 'Runde' nur einen Gewinner geben: den Gamer! Der kann ohne Vorbehalt die eine oder andere Karte nehmen; wie er will.
 
Seit wann werden Treiber an Spiele angepasst?

So ein Schwachsinn! Die Treiber unterstützten eine API, die Spiele verwenden diese API. Was gibts da anzupassen? :rolleyes::
 
klar geht das, is bei xbox doch gut zu erkennen, das die Spiele speziell auf die Hardware abgestimmt sind, so kann man spiele spielen wo wir paar GHz und mind. ne GF5xxx brauchen ;)
 
Accuface schrieb:
hm, war das nich so das OpenGL nix mit microdoof DirectX zu tun hat, und folglich kein PixelShader oder 3Dc supportet wird ?


Sprichst du jetzt direkt Pixel-Shader 2.0b oder allgemein Pixel-Shader an? Letzteres wäre ja nun komplett Blödsinn, gäbe es unter OpenGL keine Pixel-Shader wäre die API seit der Geforce 3 veraltet.

Darüberhinaus:
OpenGL ist ein Standard an dem man sich orientieren kann, in der API kann man aber auch gern in Alleinmarsch über den Standard hinausgehen, weswegen das ganze vermutlich auch OpenGL heiszt, wie Carmack schon mit Quake3 und dem damals noch nichtmal in DirectX festdefinierten "Hardware T&L" bewies. Es wäre also durchaus denkbar, dass Carmack Unterstützung für "Pixel Shader 2.0B" in die Engine gebracht haben könnte; ob er das nun getan hat oder nich entzieht sich nun meiner Kenntnis ich glaube aber sein Produkt unterstützt maximal PS 2.0 und fertig, kein 2.0B und auch kein 3.0.
 
Zuletzt bearbeitet:
waRhawK schrieb:
Seit wann werden Treiber an Spiele angepasst?

Seitdem es Grafikkarten Reviews gibt. Schau Dir die mal genau an. Die dort verwendeten Spiele wie z.B. UT2004 bringen oftmals tatsächlich die versprochenen 20%+ bei der Performance. Bencht man aber mal Spiel ausserhalb der üblichen Testreihen ist das Staunen groß. Bestenfalls eine Messungenauigkeit von 1-2%, aber die 20% sind auf wundersame Weise verschwunden. Damit verkaufen die Hersteller Grafikkarten. Deswegen kann man die wahre Leistung einer Karte nie an den herkömmlichen Benches festmachen, weil die Treiber darauf optimiert sind. Noch nicht lange her, dass Nvidia und ATI wegen Treiberoptimierungen negativ aufgefallen sind. Betrifft auch XGI mit der Volari. Die war in den üblichen Benchspielen gut dabei. Hat man aber abseits dessen gebencht ist sie gnadenlos weggesackt. Noch besser..wenn die Spiel *.exe bspw. gegen ut2004_old.exe ausgetauscht wurde, sackte die Karte auch ein. Das ist doch der beste Beweis, dass der Treiber bestimmte Optimierungen aktiviert, sobald eine bestimmte *.exe gestartet wird.
 
Zurück
Oben