NVIDIA GeForce 7800 GTX & Shader Model 3.0

ich wusste irgendwie, das sowas mal kommen wird.. mir kam das mit der X1800XT so komisch vor...

sonst lag doch ATI "immer" in der Rohleistung vorn und nVidia in der Qualität
und nach den ersten Tests der X1800XT vs. 7800GTX war das in den Games irgendwie umgekehrt.. hmm
 
Nie im leben die Graka hat doch SM3.0 in Games :freaky:

Ich schätz an diesem Testprogg is was faul
 
Kommt mir auch bissl spanisch vor wie is es dann möglich mit HDR in FarCry zu spielen denke das is nur nen S3.0 effekt oder täusch i mi jetz

dachte damit wäre es erst möglich @weiter unten
 
Zuletzt bearbeitet:
Nv43 schrieb:
Nie im leben die Graka hat doch SM3.0 in Games :freaky:

Ich schätz an diesem Testprogg is was faul
das denk ich auch mal
die nvidias ham doch schon untr beweis gestellt, dass sie sm3.0 können
also wo is der fehler?
irgendwas is da faul :freak:

naja, trotzdem kommt mir keine ATI in meinen PC
 
ÄHM da steht auch das die Karte kein SM 1.3, 1.4 usw unterstützen können :lol: :freak:

Ich denke Thread closen nur sinnlose spekulationen wenn die Karten noch net mal SM 1.4 könnten wäre ja kein BF2 drin :eek:

Microsoft hat mist fabriziert würde ich sagen, denn das Progg is buggy
 
kennyalive schrieb:
das denk ich auch mal
die nvidias ham doch schon untr beweis gestellt, dass sie sm3.0 können
also wo is der fehler?
irgendwas is da faul :freak:

naja, trotzdem kommt mir keine ATI in meinen PC

naja soooo extrem würd ichs auch net sagen ;)
ich bin atm bei nvidia, ich hatte immer ne nvidia und war bisher sehr zufrieden(sowohl leistungs- als auch bildtechnisch)
aber was man so von den x1x00ern hört würd mich so eine schon reizen
 
  • hdr ist KEIN sm3.0-exklusiver effekt
  • das testprogram stammt von microsoft und braucht für einen durchlauf so ca. 36h und microsoft selbst testet damit

ati fällt im gegenzug beim vertex shader durch, weil vertex fetch fehlt (der r500 in der xbox360 kanns, sehr merkwürdig).

was bei nvidia jetzt genau nicht unterstützt wird ist die frage. das ganze ist laut INQ auch unabhängig vom treiber (wieso in diesem ati-slide ein uralter 60er-treiber benutzt wurde weiß wohl nur der ersteller selbst).
 
Zuletzt bearbeitet:
riDDi schrieb:
hdr ist KEIN sm3.0-exklusiver effekt!

Nein aber ist ist ein Effekt der durch SM3.0 Besser dargestellt wird

Und das das Tool 36h braucht heißt net das es richtig funzt^^
Und das es trotzdem SM 1.3 un 1.4 als fehlend bezeichtnet kann ja nur an dem tool liegen
 
drücken wir es anders aus: hdr ist kein bestandteil der sm3.0-spezifikation.

dass man irgendeinen sm3.0-pfad in farcry etc. aktivieren kann ist in keinster weise ein beweis dafür, dass die karte ALLE features, die zur spezifikation gehören auch unterstützt, bis jetzt wird nur ein bruchteil der funktionen benutzt.
 
So wie es aktuell ausschaut fällt die grafikkarte bei bestimmten Mustern durch den Test.

Insgesamt werden mehrere 10k Tests durchgeführt und nach aktuellem Durchlaufstand werden rund 1% als failed deklariert.

mfg Simon
 
Marketing sonst nichts. Die Karten können SM 3.0
Wer mehr wissen will.

www.3dcenter.de

Dort treiben sich die Kompetenz rum, was Grafik anbelangt. Ich glaube in dem Forum wurde auch schon einmal gesagt warum das so ist. Hängt wohl mit der Abarbeitung der/des Befehls zusammen. ATI und NV haben manche Sachen halt anders gelöst.
 
riDDi schrieb:
drücken wir es anders aus: hdr ist kein bestandteil der sm3.0-spezifikation.

dass man irgendeinen sm3.0-pfad in farcry etc. aktivieren kann ist in keinster weise ein beweis dafür, dass die karte ALLE features, die zur spezifikation gehören auch unterstützt, bis jetzt wird nur ein bruchteil der funktionen benutzt.

Echtes HDR braucht aber FP16-Filterung. Das können nur die neueren SM 3.0 Karten von Ati und Nvidia.
 
dann bleibt trotzdem die frage: sm3.0-kompatibel? wenn ich der graka einen befehl gebe und sie kann ihn nicht abarbeiten, weil sie den aufruf gerne anders gemacht hätte, dann ist das nicht standardgemäß - sm3.0 sollte eine erleichterung für entwickler sein, damit die in ruhe ihre shader schreiben können, ohne darauf achten zu müssen, von wem die hardware-implementierung stammt.

ps: manche sind ja der meinung echtes hdr benötige fp32-präzision, aber das wäre vieeeeel zu langsam ^^
 
Nochma echtes HDR ist nur mit den SM3.0 zuerhalten

Und die Geforce 6 und 7 series können ECHTES HDR
 
@Armaq:
Die X1k serie kann KEIN FP-filering ;)

Die X1K kommt durch den test, sie ebsteht ihn, slebst wenn das Vertexfletching fehlt. Das braucht man nciht umbednig, undes ist kein grund, im SM3 test durhczufallen.

Was heisst es jetzt, dass nVidia durchgefallen ist? Es KÖNNTE sein, dass man bei SM3 Effekten fehler sieht, wie auch immer die aussehen wollen, und die Farge ist, ob diese uns überhaupt auffallen. Also ruhig blut......

@nv43:
FALSCH
GF5 kann auch HDR, ATi r3xx und r4xx kann HDR, GF6/7/X1K können HDR. Der einzige Unterschied zwischen den HDRs ist die Qualität:
ATi r3xx/4xx : 4x8Bit --------->32bit
nVidia/X1K : 4x16Bit---------------->64bit
Den Unterschied sieht man bei SC3, nVidias HDR ist 'besser' dank 64Bit.
Das 32Bit von R3xx/R4xx ist nciiht nach OpenEXR zu bezeichnen, X1K/nVidia schon. Doch das ECHTE HDR ist 4x32Bit---------> 128Bit, und das kann NUR RSX von der PS3.
 
Zuletzt bearbeitet:
Ganz klar ist mir das jetzt nicht.

Haben die neuen Geforce 7 eine propritäre Lösung und untersützung entgegen deren ganzem Marketing gegen ATI doch kein reines und echtes Shader 3.0?
 
Armaq schrieb:
Echtes HDR braucht aber FP16-Filterung. Das können nur die neueren SM 3.0 Karten von Ati und Nvidia.

Nein, die Ati Karten koennen kein FP16 filtern.


Zu dem Test hier:

Die NVidia Karten rechnen exakter als MS das vorgibt und daran scheitert der Test.

z.B. berechnet Nvidia die LOD fraction mit 8Bit Genauigkeit, ATI und Microsoft begnuegen sich hier mit (grenzwertigen) 5Bit.


Nv43 schrieb:
Nochma echtes HDR ist nur mit den SM3.0 zuerhalten

Und die Geforce 6 und 7 series können ECHTES HDR

Nein. Und Falsches wird durch Wiederholen auch nicht richtiger.
HDR hat ueberhaupt nichts mit SM3 zu tun, man haette HDR sogar schon in DX5 Grafikchips implementieren koennen.
 
Zuletzt bearbeitet:
Mhh typisch, wieder Nvidia schlecht zu bügeln, ist doch egal was die Gurken von MS sagen, habt ihr nicht SM 3.0 Spiele auf euren Nvidia Boards gespielt? Also was wollen wir mehr?

Ich meine wir sehen die Effekte, ist mir doch egal wie diese zustande kommen, sie können auch mit Java programmiert sein. *g*

Mir wäre so oder so lieber von diesem DirectX weg zu kommen : hoff
 
Zurück
Oben