Bericht Vorschau: nVidia GeForce 6800 Ultra

Schaut mal was ich soeben endeckt habe:

http://hardware.ingame.de/kommentare.php?&newsid=215630

Der GeForce6 6800 Ultra sollt laut nur 399US-Dollar sein :eek:
Und der GeForce6 6800 NonUltra nur 299US-Dollar!

Wenn die Preise echt so sind (was ich zweifle) hole ich mir so bald wie möglich ein ASUS/Leadtek GeForce6 6800 Ultra! sind doch nur 600CHF :p Schlappe 380€! Echt krass billig! Es ist ja sogar überbilligt :D
 
Carsten schrieb:
Zuerst mal möchte ich hier ausdrücklich um MÄßIGUNG bitten -
eure Ausdrucksweise ist teils wirklich beschämend!

So denn:
- daß ATis 6xMSAA im Vergleich zu nVs 8xMS/SS-AA prinzipiell schneller ist, ebenso.Allerdings ist hier eine Vergleichbarkeit der Bildqualität absolut nicht mehr gegeben.

Hmm nein. 4xMS+2xSS ist imho von der Bildqualität her fast dasselbe wie 6xMS. Bei SS werden nunmal auch die Texturen schärfer. Zwar ist die Qualität von NV bei 8xAA besser als die des ATI, aber dieser Vorsprung ist imho gering und optisch fast nicht wahrnehmbar. Somit hat ATI noch immer die Beste AA-Leistung mit einer sehr guten AA-Qualität.

Wo war unsere Ausdrucksweiße beschämend? Mir ist nichts aufgefallen. Und mit Accu haben wir uns wieder verstanden.

@Project.

Steuern mit eingerechnet? Bei uns hier im Lande wird die Karte wahrscheinlich wieder >500 Euro kosten.
 
BodyLove schrieb:
Hmm nein. 4xMS+2xSS ist imho von der Bildqualität her fast dasselbe wie 6xMS. Bei SS werden nunmal auch die Texturen schärfer. Zwar ist die Qualität von NV bei 8xAA besser als die des ATI, aber dieser Vorsprung ist imho gering und optisch fast nicht wahrnehmbar. Somit hat ATI noch immer die Beste AA-Leistung mit einer sehr guten AA-Qualität.
Hmm doch. :)
Du sagst es ja schon selbst: "IM(H)O", "Vorsprung...gering" und "optisch fast nicht wahrnehmbar". -> Nicht vergleichbar. Texturen werden ohne Winkelabhängigkeit höher abgetastet, Alpha-Test Texturen werden geglättet, Moire-Effekte vermindert usw.. Dazu wird dann meist auch noch AF gebencht, welches trotz der Qualitätssenkung bei nV noch immer hochwertiger ist.

Gegen die Geschwindigkeit des 6xAA habe ich auch nichts gesagt, aber Geschwindigkeit ist nicht alles. Es gibt auch Spiele neben Shootern, wo man keine konstanten 125fps braucht und Überschuss in zusätzliche Bildqualität investieren kann. Schade, wenn man da durch starres Design unnötige Grenzen gesetzt bekommt.
Ich denke, etliche ältere Games (ja, die kann man auch noch spielen...) würden mit dem 4x4 SS-Modus richtig geil aussehen.


BodyLove schrieb:
Wo war unsere Ausdrucksweiße beschämend? Mir ist nichts aufgefallen. Und mit Accu haben wir uns wieder verstanden.
Ich werde das sicherlich nicht alles hier quoten. :rolleyes::
Ihr (wieso fühlst du dich eigentlich so angesprochen?) wißt genau was ich meine. Und wenn sich das nicht ändert, ist der Thread eben dicht.
 
Carsten schrieb:
Hmm doch. :)
Du sagst es ja schon selbst: "IM(H)O", "Vorsprung...gering" und "optisch fast nicht wahrnehmbar". -> Nicht vergleichbar. Texturen werden ohne Winkelabhängigkeit höher abgetastet, Alpha-Test Texturen werden geglättet, Moire-Effekte vermindert usw.. Dazu wird dann meist auch noch AF gebencht, welches trotz der Qualitätssenkung bei nV noch immer hochwertiger ist.

Gegen die Geschwindigkeit des 6xAA habe ich auch nichts gesagt, aber Geschwindigkeit ist nicht alles. Es gibt auch Spiele neben Shootern, wo man keine konstanten 125fps braucht und Überschuss in zusätzliche Bildqualität investieren kann. Schade, wenn man da durch starres Design unnötige Grenzen gesetzt bekommt.
Ich denke, etliche ältere Games (ja, die kann man auch noch spielen...) würden mit dem 4x4 SS-Modus richtig geil aussehen.
Auf Jeden Fall. Ältere Spiele mit 4x4 SS wird sogar verdammt gut aussehen. Dagegen spricht auch nichts. Wie gesagt, Qualitativ ist der NV40 beim AA besser. Nur muss man sich die Frage stellen, ob man 500 Euro für eine Grafikkarte ausgibt, um dabei bei älteren Spielen 4x4 SS einzusetzen.

Zur Zeit ist dieser Mischmodus nicht konkurrenzfähig. Eigentlich wollte ich das genau sagen. Wieso nicht ein 6xMS AA mit ordentlich Frameraten spielen, anstatt mit diesem "8xAA"? Zwar ist fps nicht alles, aber 20fps mit 8xAA ist sogar für mein ungeschultes Auge zu wenig. Da würde ich gerne noch ein paar Frames mehr sehen.

Und ich will hier vom NV40 nicht schlecht reden. NV hat wirklich eine verdammt gute Karte rausgebracht. Hut ab.



Ich werde das sicherlich nicht alles hier quoten. :rolleyes::
Ihr (wieso fühlst du dich eigentlich so angesprochen?) wißt genau was ich meine. Und wenn sich das nicht ändert, ist der Thread eben dicht.

Wieso ich mich angesprochen fühle? Mhh vielleicht weil wir die Einzigen waren, die so etwas ähnliches wie ein Zoff hatten?;)
 
Wißt ihr was blöd ist?
Ich lasse meistens mindestens immer eine Generation von Grakas aus und hole mir dann von der nächsten Generation den jeweils schnellsten Chip.So habe ich das mit meiner Geforce 3ti-500 genau wie jetzt mit meiner 9800XT gemacht.
Damit bin ich immer gut gefahren.
Nun wäre das jetzt nach meiner Rechnung so,das ich mir erst wieder mit dem R500 oder NV50 als jeweiliger Topchip ala XT oder superultra eine neue Graka kaufen werde.
Nun stellt sich aber für mich folgendes Problem:
Ich habe mir erst vor nem halben Jahr meinen PC komplett aufgerüstet.(neues Mainboard,P4 3,0,1024MB RAM,usw.)
Wenn ich jetzt also in 1-1,5Jahren eine neue Graka holen möchte,muß ich mir dann zusätzlich auch ein neues Mobo kaufen,da die nächstjährige Generation sicherlich nur als PCI-Express Version herauskommt.
Da man aber erfahrungsgemäß mit einem Prozzi länger hinkommt als mit einer Graka,ist ein Mobowechsel eigentlich in einem Jahr garnicht notwendig.(mit 3,0gig kommt man noch ewig hin)
Also kann für mich ein Kartenkauf nächstes Jahr richtig teuer werden.Graka=500-550€/Mobo=200€.Wenn es hochkommt ist dann vielleicht auch noch ein neues NT fällig.Weil mein neues NT "nur" 450Watt hat.Die neuen Grakas aber nach nochmehr Power schreien.Siehe 6800ultra-480Watt! :eek: :eek:
Damit möchte ich nur sagen wie die Industrie uns Gamer total abzocken will.Bald wird es zum guten Ton zu jeder Karte gleich ein neues NT kaufen zu müssen.Zumal man diese brachiale Leistung einer 6800ultra eh noch nicht brauch.Und wer brauch im Grakasektor schon PCIE?AGP 8x ist ja noch nichteinmal ausgereizt.
 
@Steel

AMD will zur Zeit kein PCI-E unterstützen. Ein neues Netzteil ist nicht unbedingt notwendig. Eine neue Grafikkarte ist ebenso nicht zwingend notwendig. Erst wenn du ein vollen Systemwechsel würde ich ebenfalls die Graka wechseln. Hierbei stellt sich die Frage, wie es in 2 Jahren mit der CPU ausschaut. Intel will 10Ghz schaffen. Dagegen schaut dann dein 3Ghz Prozzi sehr alt aus. Meiner natürlich auch.;) sie ist 3xmal schneller. Versuche mal Farcry mit nem 1Ghz p3 zu spielen. Geht auch nicht.;)
 
Da hast du auch wieder recht.Aber 2 Jahre will ich auch nicht mit einem Grakawechsel warten,wenn ich so sehe was die neue Generation schon für Performancezuwächse bringt. ;)
AMD wird aber wohl oder übel PCIE unterstützen müssen,da ja alle anderen(Intel,ATI,NV)das unbedingt wollen.
 
Ich kann zurzeit wegen folgende gründe keien System wechsel machen.

1. Mein System ist noch tauglich (oder sieht Ihr das anders?)
2. Kosten
3. Wegen PCI-Express, da es nicht all zu lange geht
4. Der AMD Athlon 64 3400+ unterstützt noch keine Dual Channel
5. Es gibt noch keien PCI-Express GK.

Ich glaube dass sicher ein paar andere auch ähnlichi Gründe haben wie ich.
 
Hallo

Meine Gründe sind auch so in der Art:

-Mein System ist ausreichend.
-Es gibt eigentlich kein Spiel welches nicht auf meinem PC läuft
-Ich sehe keinen Sinn in Grafikkarten zu investieren welche mir keinen großen Vorteil bringen
-Erst mal warten wie die Grafikkarten sich in der Praxis bewähren

Und in 1-2 Jahren werd ich mir wohl wieder einen Komplett-PC bauen und dann auch Board-CPU-RAM und Festplatte austauschen. Dann wird es auf dem Markt sicher wieder mehr neue Produkte geben:

Festplatten mit 10000-12000 U/min, CPU mit 4-5 GHZ, Boards mit Unterstützung für neusete Technolgie, RAM mit mehr MHZ u.s.w.
 
Ich hätte genau zwei Gründe warum ich mir das Ding net kaufen würde:

1. Geldmangel
2. sinnlose Energieverschwendung
 
Ich hätte 2 Gründe, warum ich das Teil mir kaufen werde.

1. endlich mal spielbare FPS bei allen aktuellen spielen.
2. Darüberhinaus will ich AA und AF einschalten können.
3. Ich benutze fürs surfen einen AXP 3200+. Mit Stromsparen habe ich so lange so wenig am Hut, bis es C&Q seitens AMD nicht endlich für meinen Prozessor aktiviert wird.

oh es waren schon 3. ;)
 
Hab einen Text der die aktuelle Situation sehr gut beschreibt,bin der gleichen Meinung

------------------------------------------------------------------------------------------------------

du darfst aber auch nicht vergessen, das der R3x0 bisher immer im 0,15µm design war (radeon 9600 mal ausgenommen). durch die verkleinerung auf 0,13 dürften deutliche taktreserven frei werden, oder es reicht ein kleinerer kühler (obwohl der alte ja schon recht klein war)


was ebenalls noch sein könnte, das ati ähnlich wie nvidia einen optimierungs-bot einsetzt. quasi der pixelshader automatisch optimiert. so ein automatismus wäre zwar wohl schwer zu realisieren, aber wenn er funktioniert könnte das ein großer vorteil sein. immerhin hätten es dann spieleentwickler auch ein wenig leichter, das sie ihren code nicht mehr von hand stark optimieren müssten. (nvidia nutzt ja nur code-ersetzung von bekannten spezifischen codes)


aber noch ist viel zu wenig bekannt als das man einen klaren sieger kühren könnte. derzeit hat zwar nvidia das schnellere geschoss aber vielleicht nicht mehr lange.
aber wie gesagt kann man das derzeit nicht sagen.

vielleicht wird der r420 eine überraschung, vielleicht aber auch nur ein kleiner aufguss.

so viel besser wie die radeon 9800 xt, ist der nv40 bei bisherigen spielen ja nicht gerade. da hätte ich mir eigendlich für einen komplett neue generation mehr von versprochen. klar sind die schwächen der NV3x architektur jetzt fast alle beseitigt, aber das hätte man eigendlich schon vom NV3x erwartet. einziger vorteil den ich beim NV40 bisher sehe ist der technologische.

wenn man sich die benchmarkergebnisse auch mal genau anschaut und einfach mal auf die pipeline-anzahl schaut, wäre es doch eigendlich auch genau das ergebnis was man sich hätte errechnen können. die verbesserungen der pixel shader scheinen weniger ins gewicht zu fallen, als viel mehr die doppelte anzahl der pipelines
und genau an der stelle sehe ich auch wieder den schwachpunkt des NV40. zwar scheint er derzeit ungeschlagen zu sein, jedoch scheint dieser vorsprung nur auf grund der pipelines zustande gekommen zu sein
wie die performance von pixel shadern 3.0 aussehen wird, kann man ebenfalls noch nicht sagen. aber da es sich lediglich um die einführung einer technologie handelt (als um die benutzung dieser technologie), kann man wohl davon ausgehen das die PS3.0 so oder so schonmal gelungen sind.


für mich ist der R420 einfach noch eine zu große unbekannte als das ich schon einen sieger kühren könnte. und wie ich auch geschrieben hab, ist der NV40 in meinen augen nicht wirklich eine revolution, sondern höchstens einen kleine evolution

-------------------------------------------------------------------------------------------------------


:daumen:
 
Wegen Strom mache ich mir am wenigsten Sorgen
 
Accuface schrieb:
@Daddes wenn du die "optimierten" spiele meinst, also bei mir läuft jedes spiel (ausnahme far cry), was nen nvidia logo drauf hat nicht richtig bzw liefert bildfehler bei diversen einstellungen, manche nur kleine wie z.b. im menü , manchmal ganz krasse im spielverlauf mal fehlt da nen haus und da sind paar weiße streifen und pixelfehler alá BTF vietnam bis zum total farblich überlagernden spiel wie "the westerner"....und nein es sind nich die treiber habe alles probiert oder sonstiges nun frag ich warum? da muss man doch denken das die spiele eher auf die nvidia abgestimmt sind um so den kauf einer nvidia zu fördern ?!

ich sag nur nen beispiel ich lese das in fast jeden forum die sich über die fehler bei btf vietnam beschwert haben das da sprüche kommen wie "schei** ati hätt ich lieber mir ne nvidia geholt", und "jetzt muss ich mir ne nvidia holen" leider wissen halt die wenigstens das man sowas auch per patch des spiels oder per treiber beheben kann und das unwissen nutz nvidia in meinen augen aus

achja und ich stell mir die Frage warum der 1.1 patch für farcry die nvidia GK zu mehr power verhilft bzw nv40 support hat ? bleiben die ati auf der strecke nur weil auf der hülle nen nvidia logo ist bzw sie finanziell von nvidia unterstützt werden/wurden?

also Daddes ich finde Nvidia wirklich "böse"


Aha und wie findest du es dann, dass ATI innerhalb kürzester Zeit 2 PowerPoint Präsentationen für Entwickler herausgegeben hat.
Beide betreffen die Get in The Game Marketing Kampagne von ATI. Das ist das exakte Gegenstück zu Nvidia's The way its meant to be played.

Auf der ersten Präsentation weisen sie Entwickler an
"Develop benchmarks in ATI's favor"

auf der zweiten weisen sie Entwickler an Shader Model 3. sowie Branching zu umgehen bzw. nicht einzusetzen.
Begründung: Es sei zu langsam und keínber braucht es.

Leider hat sich ATI selber angepisst. Die Deppen hatten die Kommentare für den Redner "Richard Huddy" noch in der Präsentation.
Dort schreiben sie dann für den Redner rein, dass diese Dinge nicht genutzt werden sollen, weil
A) ATI diese nicht bietet und erst mit dem R500 haben wird und
B) es die Hauptmerkmale vom NV40 sind.

Merkst du was? Die Fickladen ist kein Stück besser. Hier reden einige Leute einen ziemlich grossen Scheiss.
Und jeder der hier von Cheaten wegen geringerer Präzision und anderen bullshit labert, den werd ich daran erinnern wenn Nvidia die ersten SM3.0 Games für die FP32 zwingend ist herauslässt. ATI wird kein FP32 bieten und auf FP24 zurückgehen.
Genau von den Leuten will ich dann hier im 1 Stundenrythmus sehen, dass ATI cheatet.
Dann würdet ihr wenigstens eure Linie halten. So seit ihr einfach nur Fanboys mehr nicht.
 
Richthofen schrieb:
Aha und wie findest du es dann, dass ATI innerhalb kürzester Zeit 2 PowerPoint Präsentationen für Entwickler herausgegeben hat.
Beide betreffen die Get in The Game Marketing Kampagne von ATI. Das ist das exakte Gegenstück zu Nvidia's The way its meant to be played.

Auf der ersten Präsentation weisen sie Entwickler an
"Develop benchmarks in ATI's favor"

auf der zweiten weisen sie Entwickler an Shader Model 3. sowie Branching zu umgehen bzw. nicht einzusetzen.
Begründung: Es sei zu langsam und keínber braucht es.

Leider hat sich ATI selber angepisst. Die Deppen hatten die Kommentare für den Redner "Richard Huddy" noch in der Präsentation.
Dort schreiben sie dann für den Redner rein, dass diese Dinge nicht genutzt werden sollen, weil
A) ATI diese nicht bietet und erst mit dem R500 haben wird und
B) es die Hauptmerkmale vom NV40 sind.

Merkst du was? Die Fickladen ist kein Stück besser. Hier reden einige Leute einen ziemlich grossen Scheiss.
Und jeder der hier von Cheaten wegen geringerer Präzision und anderen bullshit labert, den werd ich daran erinnern wenn Nvidia die ersten SM3.0 Games für die FP32 zwingend ist herauslässt. ATI wird kein FP32 bieten und auf FP24 zurückgehen.
Genau von den Leuten will ich dann hier im 1 Stundenrythmus sehen, dass ATI cheatet.
Dann würdet ihr wenigstens eure Linie halten. So seit ihr einfach nur Fanboys mehr nicht.


Tja, teilweise könnte ATI recht haben. Zur Zeit ist das Branching anscheinend noch sehr langsam. 9 Takte braucht man dazu. Zwar gab es Beispiele, die aufzeigen, dass man es mindern kann, aber das Gerücht wurde bis jetzt nicht ganz wiederlegt und würde zur Presäntation von ATI passen.

Natürlich versucht jetzt ATI die Publisher dazu zu bringen, auf den min. Nenner zu kommen.> Kosten Sparen. PS3.0 sieht nicht wesentlich besser aus. Objektiv keine Verbesserung. Der käufer sieht diese Verbesserung aktiv nicht. Wieso sollten sie das machen? Des Nvidias Willen? Nein.

NV wiederrum versucht, dass die Publisher das Branching einsetzen. Somit wäre der NV40 theoretisch schneller, als der R420. Natürlich fragen sich die Publisher, wieso sie den Mehraufwand auf sich zu nehmen brauchen, und lassen sich von NV mit Zuschüssen überhäufen. Dasselbe gilt natürlich für ATI. FP32 ist zur Zeit nicht zwingendnotwendig. DX9 will FP24. Das bekommt sie von ATI. Was in Zukunft ist, wissen wir nicht. Echte DX9-Spiele sind nicht mal draussen, da machen sich die Leute Gedanken über PS3.0. Versuche mal mit einer R9700pro FarCry bei 1600x1200 mit eingeschaltetem AA und AF spielen. Du wirst sehen, du stößt an seine Grenzen. Jetzt mögen die Karten verdammt schnell sein, in einem Jahr werden sie es nicht mehr sein.
 
Selbst mit einer 9800XT bei 1600x1200 und AA und AF ist FarCry schon nichtmehr spielbar.
 
Ich hab da so eine kleine Frage.
Bei den NV30/35/38 VS. R350/360 haben die nVdia Karten verloren.
Die nVida Karten besitzen 16bit und 32bit Präzision, und ATI hat die gute 24bit Präzision getroffen. Das ist doch auch ein wichtige Grund weswegen ATI gewonnen hat.
Bei den jetzigen Generation hat nVidia doch 128bit Präzision, und ATI 96bit Präzision. Also 3/4 verhältniss, wie bei den alten Zeiten.
Was denkt Ihr, wieder eine schwäche für nVidia? :rolleyes:
Immerhin haben Sie 16 Volle Pips, und nicht so wie früher mit 4x2 Pips.

Was ist eigentlich 32x0 Pips? Habs nicht so kappiert bei dem.
 
Project-X schrieb:
Ich hab da so eine kleine Frage.
Bei den NV30/35/38 VS. R350/360 haben die nVdia Karten verloren.
Die nVida Karten besitzen 16bit und 32bit Präzision, und ATI hat die gute 24bit Präzision getroffen. Das ist doch auch ein wichtige Grund weswegen ATI gewonnen hat.
Bei den jetzigen Generation hat nVidia doch 128bit Präzision, und ATI 96bit Präzision. Also 3/4 verhältniss, wie bei den alten Zeiten.
Was denkt Ihr, wieder eine schwäche für nVidia? :rolleyes:
Immerhin haben Sie 16 Volle Pips, und nicht so wie früher mit 4x2 Pips.

Was ist eigentlich 32x0 Pips? Habs nicht so kappiert bei dem.

hi - du hast da was missverstanden ;)
Die 128Bit beziehen sich auf 4 Farbkanäle, ebenso die 96Bit - weshalb wir wie bei der letzten Generation bei 32Bit für nvidia und 24Bit bei Ati sind...

Jedoch muss ausdrücklich gesagt werden : 24Bit ist nicht schneller als 32 bit, ATi hat auf die 24Bit gesetzt weil die Integration weniger Transistoren als für 32Bit benötigt und man die Karte mit weniger Transistoren billiger herstellen kann...
Der Vorteil von 32Bit gegenüber 24Bit ist allein die höhere Rechengenauigkeit, ist dabei aber nicht langsamer ! 16Bit wiederrum ist jedoch deutlich schneller als 24/32Bit, sieht aber auch deutlich schlechter aus...
Ati hat auf 24Bit gesetzt, weil sie die Mindestanforderung für DirectX9 sind, 32Bit werden für DirectX9 Pixelshader 3.0 benötigt (für Pixelshaer 2.0 braucht man sie nicht)...
Der einzige Grund wieso nvidia mit der GeForce-FX bei Shaderanwendungen deutlich langsamer als Ati ist, dass die GeForce-FX Shader einfach so grottenlangsam sind und eigentlich nur in 16Bit lauffähig sind...

Bei der GeForce 6800 hat sich das ja glücklicherweiße geändert, hier hat nvidi bei maximaler Präzission (32Bit) auch eine sehr gute Perfomance... :)

greetz shaft
 
Danke für die Ausfürliche Erklärung. Hab mich schon gewundert mit 128bit Präzision bzw. 96bit :rolleyes:

Und was ist jetzt genau 32x0 Pips bei NV40 Architektur? Wenn ich mich nicht täusche wird es bei Spiele wie Doom3 als 32 Pips angesehen? 16x richtige und 16x Theoretische?
 
32x0 ist nur eine Ausnahme. Das gilt für Zpixel. Das heisst unter bestimmten Bedingen kann es 32ZPixel mit einem Takt berechnen. Speziell bei D³ kommt das zu gute, dass die Schattentechnik darauf basiert. Deshalb wird auch der R420 in diesem Benchmark imho gegen den NV40 keine Chance haben.
 
Zurück
Oben