News GeForce FX: Best Graphics Processor of 2002

Scheiss NVIDIA oh man ich hasse die firma ich bin so froh das ich den FX fuck net gekauft habe .
Von wegen der beste chip 2002 der dreck kamm ja nicht 2002
raus sondern erst im Februar so eine dreck firma mano man habe überall verschissen und jetzt zahlen die kohle um solche news zu lesen.
FUCK NVIDIA nie wieder kaufe ich mir die karten von der fuck firma habe alleine in 3 jahren von nvidia mehr wie 12 prodikte in meinem rechner gehabt aber ab jetzt können die mich am...... aber richtig.
LOLOLOLOLOLOL
 
Na wenigstens ist der Athlon64 vom Microprocessor Report als bester Prozessor 2002 auserkoren worden. :D
 
@nitsche:

ich hasse diese "wird doch eh noch nicht ausgelastet" kommentare, du kriegst jede geforce4 locker ans limit, und mit einer geforce3, die ja laut manchen leuten nicht richtig ausgelastet wird, schafft man bei unreal2 auch keine super werte...
 
@naison:

da ist ati mal ein paar monate schneller, da gehen gleich alle auf nvidia los... in 2 monaten heißt es: scheiß ati, die is voll lahm... immer das gleiche!
 
Mit "nicht ausgelastet" ist wohl eher das Nicht-nutzen der neuen Shader gemeint...
 
@Razor: Er hat auf gewisse Weise schon recht... Nur halt mit der Einschränkung die TheShaft schon getroffen hat. Er bezog sich denke ich mal auf die Shader. Wenn man die voll auslasten würde, dann würde die FX wahrscheinlich schönere Bilder machen können als die R300. Das Problem ist das bis zu diesem Zeitpunkt halt schon 2 Jahre vergangen sein werden. (als DX7 TnL (DAS Feature der GF1) in Mode kam war die GF1 auch schon veraltet... Genauso wird es mit der GFFX sein. (und genau das gleiche hast du bei allen neuen Technologien. Bis sie ausgenutzt werden ist die Graka bereits veraltet, und zu langsam sie noch vernünftig darzustellen)
 
ok ihr habt gewonnen, ich nehm alles zurück! :D

@ naison: lern erstmal dich auszudrücken!
 
hi,
@razor: es ging eher um die shader und nicht um die reine leistung der karte.
klar kann man jede karte an ihre grenzen bringen, bloss bis die karten wirklich bis auf den letzten tranistor ordentlich gefodert werden dauert es nunmal.
oder hast du schon mal nen spiel gesehn was nur mit shadern so umsich wirft?
bis wirklich so lange shader programmiert werden das die GF-FX dort ihre stärke ausspielen kann werden diese grafikkarten schon lange zum alten eisen gehören.

Mehrpack
 
BRÜLL, das darf doch nicht war sein!
Diese volli****** sind wohl taub, oder was!
Die karte ist im schnitt so schnell wie eine R9700PRO!
(ganz zu schweigen von der Lautstärke!)
Dazu kommt noch der erhebliche PREISUNTERSCHIED!
Ebenso kann ich noch dazusagen, dass ATI sowiso bald den R350 herausbringen wird-der wird die GFFX in die Knie zwingen! :D


PS: ATI rulez

MFG

Adrian_aka_CS
 
Maßstab für diese Entscheidung wird sicher nicht der Preis oder die Lautstärke gewesen sein, sondern was in Tech-Demos auf den Karten möglich ist.

Dass hier der praktische Nutzen und überhaupt die Interessen der Käufer völlig außen vor bleiben ist traurig, aber für die Schlipse, die die Entscheidung fällen völlig Latte. Ihr glaubt doch nicht ernsthaft, dass sich da einer an nen Rechner setzt.

Die meisten Käufer sind eben Preis-/Leistungsorientiert, manche wollen immer die neueste Hardware im Rechner wissen (ohne Bewertung).

Aber diese Ehrung ist garantiert keine Ehrung, der Gewicht zugemessen werden sollte, weil sie eben völlig realitätsfremd ist.

Und 2002 wirds den Chip sicher schon gegeben haben, nur nicht auf einer Grafikkarte. Der Preis heißt auch gar nicht beste Grafikkarte.
 
Ich weiss garnicht was ihr alle gegen den Fön habt, okay fürn Silent PC ises jetzt nicht grad super, aber wenn die jeweilegen Hersteller das Design nicht vollkommen vermurXen sie das bestimmt cool aus vorallem bei nem CaseWindow. Ok es mag leute geben denen das aussehen ihrer Hardware am *rsch vorbei geht, aba gibt ja auch wiederum genug denen es das nicht tut. Und alle die sich über die ach so große Lautstärke aufregen, die sie meistens garnicht beurteilen können, sollen sich die Karte halt nicht kaufen wird ja keiner dazu gezwungen
 
hi,
@knu3t: durch die videofiles kann man die geräuche sehr gut beurteilen und die realtive lautstärke und das betriebsgeräucht ist nicht nur laut sondern auch nervig.
ausserdem werden die Ultras mit Flow ab werk ausgeliefert, nvidia lässt die ja im auftrag fertigen und verkauft sie dann an ihre patner weiter.
das heisst das man das Flow runterreissen müsste und dann seine eigenen drauf setzen muss.
ob die Kleine FX mit Flow kommt ist noch nicht ganz sicher, gibt wiedersprüchliche meldungen.
bloss eins sollte wohl klar sein, falls die Ultra`s von den herstellern mit eigenem lüfter versehn werden wird es nicht billiger, sondern eher teuer und das werden die meisten wohl nicht machen.

Mehrpack
 
@Ripper2002/Mehrpack:

das liegt aber an den spielen nicht an der karte! außerdem ist es ja wohl lächerlich, vorerst keine neuen grafikkarten auf den markt zu bringen, weil eine komponente nicht voll genutzt wird... alleine wegen mehr rechenkraft ist dies sinnvoll, ob nun der xyz shader nicht voll ausgenutzt wird, ist dabei irrelevant! und wie die vergangenheit gezeigt hat: grafikkarten geben den takt an, nicht spiele: ohne geforce fx keine neuen aufwendigen spiele, und ohne geforce xyz in x jahren keine superrealistischen grafiken, ganz einfach
 
@Mehrpack:

ich weiß garnicht was ihr alle habt, kein standart-grafikkartenlüfter ist leise, es wird genau wie für jede andere kühlmethode auch für die gf-fx leisere kühler zu kaufen geben, wer noch platz hat kombiniert halt einen riesen passiv kühler mit einem silent lüfter...
 
@adrian_aka_CS:

das sagst du! wart doch erstmal auf den verkaufsstart und ausgereifte gf-fx-kompatible treiber bevor du hier einen flamewar anfängst!
 
mein Spiel des Jahres 2002: Duke Nukem Forever.*

*optimiert fuer GeForceFX Ultra (sehr)-limited edition.
 
@Razor: Der Aussage die du tätigst habe ich nie wiedersprochen. Ganz im Gegenteil: Ich habe dafür plädiert das man nicht auf die tollen DX9 etc Features der Karte guckt, sondern eben nur auf die Roh Power die sie heute und in ca 3 Monaten bringt...
Aber leider gibt es ja immer noch Leute die denken: Boah, meine Grafikkarte hat AGP 8X, und kann DX9, die ist super schnell. Klar, meistens stimmt das, aber eben nur weil die Rohleistung mit diesen Features gepaart wird. Den Speed hätten die Karten auch ohne das tolle Interface und die tollen Features. (und den unterschied würde man erst in vielen Jahren merken...)

Auch kann ich mich nicht erinnern dem von dir skizzierten Zyklus je widersprochen zu haben. Klar muss erst einmal eine Hardwarebasis geschaffen werden bevor Spiele dafür programmiert werden. Aber man sollte halt nicht denken das man eine tolle Karte hat nur weil diese viele - das will ich gar nicht in abrede stellen - Zukunftsweisende Features hat. Die Features kann man halt erst in 2+ Jahren gebrauchen, und bis dahin ist die Karte veraltet. Du wirst nie eine Karte auf den Markt bringen die voll ausgelastet wird (außer von Techdemos), aber diese Gimmik wie DX9 Support sind und bleiben halt Gimmiks, (für Techdemos und Spiele in 2 Jahren) und sollten nicht zum Kaufgrund mutieren...

Ich sehe also alles in allem nicht wirklich den Reibungspunkt unserer Meinungen *g*
 
Zurück
Oben