Bericht Vorschau: nVidia GeForce 6800 Ultra

Ich finde , das die Karte gut abschneidet bei Benchmarks, aber so wirklich beeindruckt sie mich jetzt nicht wie es die meisten sagen. Es war klar das die 6800 besser als die 9800 XT wird. Da wunder ich mich aber mal wieder das die 9800XT in manchen Benchmarks mit nicht übertriebenen Settings mithält.
Ich denke die Fachleute werden alle nicht damit rechnen das ATI da noch was besserer auf den Markt wirft. Aber ich denke schon , da ist etwas im Anmarsch was die Welt noch nie gesehen hat .
 
Ich selbst zocke die meisten Games in 1024x768.Trotz meiner 9800XT.Dafür genehmige ich mir aber auch 4xAA und 8xAF.Sieht einfach besser aus als nur die Auflösung zu erhöhen und AA und AF aus zu haben.
Manche Games wie Colin4 zocke ich in 1280er Auflösung,aber 1600 ist doch etwas zu übertrieben.Da tuen einem ja die Augen weh.Menüs und Untertitel kann man damit nun wirklich nichtmehr lesen.
Im normalen Windowsbetrieb hab ich auch nur 1024 eingestellt.Das liegt aber vielleicht auch daran das ich keinen TFT sondern nur einen CRT Monitor habe.Bei TFTs ist die Auflösung von vornherein höher zu nehmen.

@BvB123-470 mhz ist doch ganz ordentlich.Da zieht die Karte ja noch mehr ab.
 
das ist ja auch mal interesant !

*klick*

mal seh wie schnell FarCry wirklich auf der 6800 leuft ... ich bin da mal gespannt!

die shader 3.0 ist das grösste as im den ärmeln von Nvidia

:cool_alt:
 
im juni soll eine 512mb version kommen und angeblich höherer takt

ich zock 1600*1200 natürlich auch mit 2aa weil da drüber bringts nix bei der auflösung aber 8 af ist immer an egal welche auflösung
 
Zuletzt bearbeitet:
Ich persönlich sehe die Karte als ein Griff ins Klo. Zumindest was die Ultra-Version angeht. Was soll denn dieser Mist mit zwei eigenen Kabelsträngen, die die Karte vom Netzteil braucht. Is doch ein wenig übertrieben. Wie wollen die das Teil denn verhöckern. Ich dachte eigentlich, daß man wieder weg von seperaten Stromanschlüssen für GraKas will (Stichwort PCI-Express). Aber das is ja wohl völlig daneben. Ich hoffe, daß die "normale" 6800 nicht so ausfällt.
 
@kreppel die karte würde auch mit einem laufen das ist nur zu sicherheit um die spannung hoch zuhalten

die karte braucht gerade mal nur 15% mehr saft
und das ist echt nicht so viel
 
noob-hunter schrieb:
das ist ja auch mal interesant !

*klick*

mal seh wie schnell FarCry wirklich auf der 6800 leuft ... ich bin da mal gespannt!

die shader 3.0 ist das grösste as im den ärmeln von Nvidia

:cool_alt:


Der Link ist auch der Witz.Seit wann unterstützt Far Cry und Painkiller u.s.w. Pixel Shader3.0?Spiele mit Shader 3.0 wird es in naher Zukunft garnicht geben.Das dauert noch.Daran sieht man wieder das NV die Leute wieder verarschen will!

Da hat man nun gedacht das die Volari die einzige Karte ist die 2 Stromanschlüsse hat,dann kommt NV und macht das auch so.Finde ich eigentlich eine Frechheit.Viele User haben noch 350/380Watt NTs,weil das ja eigentlich auch ausreicht.Bis jetzt.Wer kann sich zu einer 550€ Karte noch ein 100€ NT leisten?Denken die nichtmal an die Ottonormal Verdiener?Die Preise für die Karten reichen doch schon aus,oder?
Und was haben die sich nur mit dem Kartendesign gedacht?Gerade die Leadtek ist der Witz schlechthin.2-3PCI Steckplätze gehen mit der verloren.Da kannste Soundkarte,Videokarte und Netzwerkkarte zusammen im Gehäuse vergessen. :mad:
 
Zuletzt bearbeitet:
ähm bein PK weiss ich es nicht !

aber für FarCry wird bald ein patch kommen !

mit PS 3.0 suppurt
 
noob-hunter schrieb:
ähm bein PK weiss ich es nicht !

aber für FarCry wird bald ein patch kommen !

mit PS 3.0 suppurt

Echt?Wie soll das denn dann aussehen?Gibt es eigentlich schon irgendwelche Vergleichsbilder zwischen 2.0 und 3.0,damit man sich mal ein Bild machen kann?Der Unterschied zwischen 1.1 und 2.0 war ja schon eher marginal.
 
der unterschied wird in der geschwindigkeit liegen !
von aussehn her wird es nicht so dramtisch besser sein.
der schader arbeitet einfacher und somit schneller !

aber halt NUR mit 32 bit

das ist die schwach stelle der ATi architektur ! sie arbeitet NOCH nur mit 24 bit!

ich denk diesmal wird es mit der shadern leistung genau umgekärt sein ...

Nvidia vor ATi ?
 
Shagrath schrieb:
noch stehen sie nicht besser.
Wenn die diese Marketingstrategie allerdings weiter beständig so durchsetzen, wird sich das "meant to be played" irgendwann in die Köpfe der Spieler durchsetzen, die sich nicht viel um Geld und/oder Testberichte kümmern.

Dann wird wieder (wenn auch nur vereinzelt) blind das dickste Modell gekauft und nVidia hat wieder ein paar Kröten mehr.
Macht doch Sinn oder? :rolleyes:

Jedenfalls werde ich meine momentane (ATI-) Karte so lange behalten, bis nVidia eine Möglichkeit gefunden hat, die Karten wieder leise hinzubekommen.
Es muss zwar nicht flüsterleise sein, aber diese Gehäuseföns tue ich mir nicht wieder an - ich bin froh genug, dass mein System endlich einen angenehm niedrigen Geräuschpegel erreicht hat.
Das soll der neuen Karte natürlich nichts von ihrer Leistung absprechen, bevor wieder Beiträge wie folgende kommen.

Mhh Shagrath, im moment ist nicht gewiss, wie laut die Karte nun wirklich ist. Ich denke, dass NV aus dem Fiasko vom NV30 gelernt hat, und der Karte keinen Fön verpasst. Es scheint so, als würde die Karte zum einen nicht wirklich lauter als eine Fx5950U zu sein, zum anderen müssen die Hersteller nicht an die Vorgaben von NV halten. Bestes Beispiel: MSI.

Und an die anderen. Einen Benchmark zu bringen, welches bei 1024x768 CPU-Limitiert ist, ist keine Sache der Welt. Daran sieht man auch, dass selbst eine 9800xt bei den jetzigen Spielen völlig unterfordert ist, da die CPU nicht paralllel an Leistung gewinnt. Wenn jemand sich solch eine Karte kauft, der wird:

A: nicht bei 1024x768,
B: nicht ohne AA und AF spielen.

Wer es trotzdem tut, der ist imho entweder FPS Geil, oder nur dumm.

Die Ati-Anhänger sollten akzeptieren, dass der NV40 eine gute Grafikkarte geworden ist. Möglicherweise wird der R420 besser. Wartet noch ein wenig, anstatt hier ein FlameWar anzustiften. Imho ist doch sinnlos.
 
STEEL schrieb:
Echt?Wie soll das denn dann aussehen?Gibt es eigentlich schon irgendwelche Vergleichsbilder zwischen 2.0 und 3.0,damit man sich mal ein Bild machen kann?Der Unterschied zwischen 1.1 und 2.0 war ja schon eher marginal.

Es gibt keinen Optischen Unterschied. PS3.0 ist nur für mehr Leistung ausgelegt. Somit können spiele wie FarCry auf einem PS3.0 Chip schneller sein, als auf einem PS2.x Chip.
 
Wenn das so ist,dann ist es doch egal ob der R420 PS3.0 hat oder nicht.ATI hat doch schon mit dem 9800 gezeigt wie schnell ihre Karten mit PS2.0 sein können.Und wenn 3.0 nichtmal besser aussieht sondern nur schneller als 2.0 ist,dann mache ich mir keine Sorgen um ATI.Die werden sich dann schon etwas einfallen lassen.
Nur NV wird halt sehr viel mit 3.0 werben und dadurch einige Noobs auf ihre Seite ziehen,da ja viele denken das 3.0 bessere und schönere Effekte bringt als 2.0.
 
sag mal gehts noch ?

Wenn jemand sich solch eine Karte kauft, der wird:

A: nicht bei 1024x768,
B: nicht ohne AA und AF spielen.

Wer es trotzdem tut, der ist imho entweder FPS Geil, oder nur dumm.

also jeder der mit 1024x786 zoggt ist dumm.. gehts dir noch gut ?

es gibt Leute die können nich höher da Flimmern oder wollen kein Augenkrebs bekommen wenn sei in hohen Auflösungen versuchen die millimeter schrift zu entziffern, ich selber werde immer mit 1024x768 zoggn da ich kein Unterschied feststellen kann zw. 1024x768 oder 1280x1024 bis auf die millimeter schrift, also behalte es für dich und benutze nächstes mal die edit funktion


zu den PS 3.0: das stimmt Far cry hat angekündigt mit einen patch PS 3.0 support zu unterstützen u.a. auch die 64 Bit unterstützung für den A64 (passendes BS natürlich muss vorhanden sein ;-)) und das bringt mir auch 30 % mehr leistung , also kann ich mit meinen PS 2.0 weiter leben ;)
 
Zuletzt bearbeitet:
STEEL schrieb:
Wenn das so ist,dann ist es doch egal ob der R420 PS3.0 hat oder nicht.ATI hat doch schon mit dem 9800 gezeigt wie schnell ihre Karten mit PS2.0 sein können.Und wenn 3.0 nichtmal besser aussieht sondern nur schneller als 2.0 ist,dann mache ich mir keine Sorgen um ATI.Die werden sich dann schon etwas einfallen lassen.
Nur NV wird halt sehr viel mit 3.0 werben und dadurch einige Noobs auf ihre Seite ziehen,da ja viele denken das 3.0 bessere und schönere Effekte bringt als 2.0.

Problem sind, wie schnell es ist. Das kann man nicht voraussehen. Das Branching, als das Springen, wird ja mit Ps3.0 eingeführt. Wo eine 9800xt / auch R420!, noch an Pixeln arbeitet, obwohl das verlangte schon fertig ist, kann eine NV40 das nächste nehmen. Das spart viel Leistung. Man muss sehen, wie schnell der R420 bei PS2.0 ist. Noch knapp 11 tage, dann wissen wir mehr.
 
Accuface schrieb:
sag mal gehts noch ?
also jeder der mit 1024x786 zoggt ist dumm.. gehts dir noch gut ?

es gibt Leute die können nich höher da Flimmern oder wollen kein Augenkrebs bekommen wenn sei in hohen Auflösungen versuchen die millimeter schrift zu entziffern, ich selber werde immer mit 1024x768 zoggn da ich kein Unterschied feststellen kann zw. 1024x768 oder 1280x1024 bis auf die millimeter schrift, also behalte es für dich und benutze nächstes mal die edit funktion

ich habe nicht von windows gesprochen, sondern von spielen. Das Menü ist meist auf 1024x768 beschränkt. Und imho ist jemand dumm, der sich eine GF68U kauft und mit einem 15`er Zoller rumgurkt. Und das sage ich ohne irgendwelche Hemmungen.
 
Ich glaub die gefällt euch

asusnv40.jpg


Das erste Asus Bild war ja nur ein Fake aber das ist ein echtes Teil.

Ist genau mein Style aber Asus ist teuer :/

http://www.frazpc.pl/komentarz/10396

Der Standard Lüfter scheint wirklich leise zu sein,selbst Asus übernimmt das Design.
 
Zuletzt bearbeitet:
@bodylove ich schrieb "beim zoggn" und nich in windows


jetzt zum Bild: seht ihr das kabel links oben ? wo das wohl hinführt :-/ gehört das zur Lüftersteuerung oder für on/off der Beleuchtung
 
Zurück
Oben