News Leadtek GeForce 6800 Ultra für 559 Euro

559€ sind ziemlich hoch, ja. Aber es steckt ja auch eine Menge Entwicklung der VPU drin. Und das die meisten Produkte zum Launch relativ teuer sind ist ja wohl nix neues.

Kostet halt alles Geld und irgendwie muss selbst Nvidia das wieder eintreiben.

Ich selber würde mir so ein Karte kaufen, hätte ich das Geld dafür. Wer Geld verdient oder woher auch immer einnimmt, hat eben Glück.


Naja, ich wart halt erstma den X800 ab...
 
Mag ja alles ganz schön und gut sein ... ich frage mich nur wie man es rechtfertigen kann das eine graka überhaupt so viel kohle kostet. mir würde die kohle echt weh tun die ich für diese karte ausgeben müsste ... habe jetzt seit knapp 1 1/2 Jahren ne gf4ti4200 welche immer noch sehr gute dienste leistet allerdings werde ich schon allein wegen farcry auf die 6800 non-ultra aufrüsten, welche wahrscheinlich fast die gleiche leistung bringt und um einiges günstiger ist... bin doch nich bescheuert und geb nen 1/3 monatsgehalt für ne graka aus.
 
Ich weis nicht was Ihr da für probleme habt. Ich finde der Preis zwar auch recht deftig, aber bis jetzt war doch jede neue Grafikkarte etrem Teuer.
Allerdings hat Leadtek auch ein 120€ Teuren Software Paket mitgeliefert (Die keine braucht?!).
Am coolsten finde ich der Coolen Kühler. Lässt viel Spielraum zum übertakten, was Overclocker Freudige wie ich ein wichtiger Punkt ist.
Nur schade dass die Warme Luft nicht nach ausser befürdert wird.
Kartenlüfter Hersteller machen da sicher viel profit *g*
Wenn ich die Luft Zirkulation ansehe wird die Luft unten bei der GraKa nirgens Zirkuliert. Deswegen ist es auch wichtig die Warme Luft nach Aussen zu befördern.
Ich habe zurzeit einen Artic Silencer für meien GraKa, sowie eine Kartenlüfter damit es die Warme Luft da unten nach aussen befördert wird.
Würde es euch jeden auch empfehlen.
Und wenn man mal bedenkt wie teuer ein solche Kühlmonster eigentlich kostet, deckt der Preis alles ab. Ich würde mir warscheinlich ein Leadtek kaufen.
Da hauptsächlich alle Karten nur von der Kühldesign sowie Softwarepaket unterscheidet.
Allerdings hat nicht jede Karte viel Spielraum nach oben.
Wenn ich mal denke wieviel ich früher für mein GeForce4 Ti4600 Ultra gezahlt habe, ist der Preis hier für eine neue Grafikkarte Evolution sehr gerechtfertigt.
Hab 790CHF für mein GeForce4 Ti4600 Ultra gezahlt, das sind in etwa 500€.
Da ich zurzeit ein Radeon 9800 habe, muss ich nicht sofort zugreifen, warte deswegen auf der NV45.
 
Ich find den Preis auch ganz Normal, wieso sollten die Neuen Karten mit einmal auf ein niedrigeres Preis Niveau wie sonst sein. Alle neuen High End Garkas hatten den Preis und für den Leistungszuwachs der nunmal Offensichtlich ist, was ja in den letzten 2 Jahren nicht so war kann man schon was verlangen wie man sieht.
Die Karte ist wenn die Kühlung so gut ist wie man glaubt was für OC und wer von euch hat den alle PCI steckplätze besätzt ;)

Meine Karte sieht klasse aus aber um sie durch mein Fenster zu sehen muß ich mich veränken also was solls. :D
 
Zuletzt bearbeitet:
Eben.
So lange stets noch eine günstigere (meinetwegen dann auch abgespeckte) Variante wenigstens zur Verfügung steht, habe ich kein Problem damit.

Dann wird man wenigstens nicht gezwungen beim Aufrüsten auf Gebrauchthardware oder solche Geldbeutelmonster umzurüsten.

Ob man jetzt 500? für solch eine Grafikkarte ausgeben möchte (und kann) muss eh jeder für sich selbst (oder seine Kinder :D) entscheiden.
 
Was regt ihr euch auf? Die jeweils schnellste Karte hat schon immer 500€ gekostet, als sie in den Handel kam, das ist mindestens seit der GeForce2 so, die GeForce2 Ultra hat sogar 1500 Mark gekostet, als sie rauskam
 
vorhin ist mit der post die neue gamstar 6/04 gekommen. darin den 6800 ultra test auf seite 180-183 finde ich sehr interessant:

auch wenn es manche "ati-jünger" noch nicht so ganz wahrhaben wollen: nvidia ist auch nicht total doof. die karte, der nv40, ist gut! auf seite 181 z.b. die screenshots zeigen es sehr deutlich. zitat:

8xaf: radeon 9800XT schlechter als nvidia, selbst 16x noch hinter 5950(!)

und af ist das, was ich als gamer vor allem brauche "für tiefenschärfe zum ballern", die unterschiede im anti-aliasing zwischen 4xfsaa zwischen den karten (wo ati leichte vorteile hat) eher weniger wichtig für den gamer.


Fazit der GameStar:

NV 6800 Ultra bricht alle Rekorde: Strombedarf, Komplexität, Features und Performance! Satte 11.865 punkte im 3DMark03. Selbst im Qualitätsmodus schafft sie mit 6.996 Zählern noch mehr als 5950 Ultra und 9800XT ganz ohne FSAA und AF. ... Und das 4xAA erreicht .... endlich Radeon-Qualität. Der Beginn einer neuen Graphik-Ära.


das ist wirklich was. so messwerte überzeugen mich persönlich mehr als alles andere.


ansonsten waren meine gedanken noch: am ende kein wunder, dass futuremark statt wie von 3d01se auf 3d03 im bekannten 2-jahresrythmus jetzt direkt im einjahresrythmus auf 3d04 springen will, oder? die haben die karte auch wohl schon etwas länger gehabt.... .
 
Aber du bist objektiv,nicht? ;)

Naja,so nen einzelnen Satz aus der Gamestar zu quoten ist evtl. auch nicht so praktisch,könnte leicht aus dem Kontext fallen. Wer weiss wie das wirklich gemeint ist.
 
ist zwar eine scheiß antwort muß es aber einfach loswerden .
so wie ich das sehe wird das kühlssystem immer besser ;) was nicht heissen soll das die karten besser werden : meine meinung ist das studien große firmen gfk besitzten die nicht mitlerweile 2 pci slots verdeken sondern das die gfks haben die logische erweiterungen von berechnungsmöglichkeiten für verschiedene sachen haben . damit will ich sagen das die gfks die für den otto normalverbraucher auf den markt kommen nach meiner meinung nicht viel mehr ````unterstützen````
`sondern einfach sehr hoch übertaktet sind ( ddr3 und 500 mhz --->) das finde ich auf dauer keine lösung . Ich bin eine ati & nvidia fan weil ich beides benutzt von den firmen , und das soll hier auch nicht gegen nvidia gelten weil beide firmen großes bewiesen haben und das finde ich gut . ( ist meine meinung nicht böse sein)


AMD+ATi+NVIDIA
 
perfekt!57 schrieb:
vorhin ist mit der post die neue gamstar 6/04 gekommen. darin den 6800 ultra test auf seite 180-183 finde ich sehr interessant:

auch wenn es manche "ati-jünger" noch nicht so ganz wahrhaben wollen: nvidia ist auch nicht total doof. die karte, der nv40, ist gut! auf seite 181 z.b. die screenshots zeigen es sehr deutlich. zitat:

8xaf: radeon 9800XT schlechter als nvidia, selbst 16x noch hinter 5950(!)
Stimmt nicht. Beide haben jetzt ein adabtives AF, welches eben winkelabhängigi ist. Beide AF-Methoden finde ich für den Arsch.

Fazit der GameStar:

NV 6800 Ultra bricht alle Rekorde: Strombedarf
,Auf jeden Fall.;)
Komplexität, Features und Performance! Satte 11.865 punkte im 3DMark03.
Diesen enormen Leistungssprung sieht man imho nur im 3dmark.
Selbst im Qualitätsmodus schafft sie mit 6.996 Zählern noch mehr als 5950 Ultra und 9800XT ganz ohne FSAA und AF. ... Und das 4xAA erreicht .... endlich Radeon-Qualität.
Die schlechte Performence bei 8xAA wird hierbei nicht erwähnt? Es ist mir bewusst, dass zumindest bei der max. Bildquali der NV40 besser ist.
Der Beginn einer neuen Graphik-Ära.
Wohl war.

das ist wirklich was. so messwerte überzeugen mich persönlich mehr als alles andere.
Noch Bessere Messwerte wären wünschenswert.
 
Nun muss ich mich auch mal wieder melden.

Nachdem die Sache mit dem Preis schon etwas überstrapaziert wurde, lasse ich einen Kommentar diesbezüglich und möchte noch einmal auf die Lüfterthematik eingehen.

Ich finde es merkwürdig. Als das Design der Leadtek Karte veröffentlich wurde, wurde sie mehr als nur ausgelacht (zumindest hier im CB Forum), jetzt aber nicht mehr.

Ich persönlich finde das Ding nach wie vor unpraktisch (um nicht zu sagen potthäßlich). Gleich kommt sicher wieder "mir kommt es nicht auf das Aussehen an". Gut, sehe ich ein. Ich bin allerdings aus 4 Gründen heraus gegen diese Karte.

a) Meiner Meinung nach optisch ungeeignet für Case Modding. Wie schon erwähnt sieht das Ding hinter einer Plexischeibe sicher nicht annähernd so gut aus, wie z.B. der VGA Silencer von Arctic Cooling, denn der sieht für mich um Längen ansprechender aus als dieser Klotz.
b) Ich bin kein Freund vom Graka Übertakten, also ist das OC Potential für mich nicht relevant.
c) Das Gewicht. Ich würde zu gerne wissen, wie schwer das Ding ist. Aber ich denke, es wird ganz ordentlich am AGP Port ziehen (der VGA Silencer ist auch nicht gerade leicht, aber er ist aus Alu...)
d) Die Belegung der PCI Ports. Gleich zwei Ports unbrauchbar? In der Regel hat ein MoBo 5 oder 6 PCIs. Bei mir Sind es 5. Es hängen dort eine WinTV, Die Soundkarte, sowie FireWire Slotblech und USB Slotblech.
Ich nutze alle diese Anschlüsse aus (Firewire für Netzwerk, Sound ist logisch, und USB sind alle 8 Ports bei mir belegt). Damit habe ich nur einen ungenutzen PCI Port (der ja auch vom VGA Silencer belegt ist.

Das alles heißt, wenn ich schon auf eine solche High End Karte aufrüsten wollte, wäre es vorzugsweise die MSI GF 6800 U, ansonsten alle anderen Hersteller. Leadtek auf jeden Fall ganz und gar nicht!
 
Zuletzt bearbeitet:
"Stimmt nicht. Beide haben jetzt ein adabtives AF, welches eben winkelabhängig ist. Beide AF-Methoden finde ich für den Arsch."

stimmt anscheinend doch. screenshots in der gamestar anschauen. ich finde die pics ok.


und wg. des leistungsbedarfs "habe ich es fast satt" (ok) wieder und wieder die bekannten messwerte zu posten:

power1.gif



einfach mal zur kenntnis nehmen, dass im normalfall die 6800 ultra halt weniger strom braucht als eine 9800xt (ungefähr gleich viel, ok).

die thg messungen zeigen, dass stromverbrauch auch unter vollast im grunde überhaupt kein thema ist:

power3.gif


mit einer 430 oder 480 watt stromversorgung (aber beachte mit 12v 24a !) sollte man immer auf der sicheren seite sein. (288/261 = +10,3%)

zitat: "Daraus kann man auch den Stromverbrauch der anderen Karten ableiten. Angenommen, die Angabe NVIDIAs von 110 Watt ist korrekt und weiter angenommen, dass wir bei unseren Tests auch diese Worst-Cases erreicht haben, ergeben sich für die Radeon 9800XT ein maximaler Stromverbrauch von knapp 91,5 Watt und für die FX 5950 Ultra von 93,5 Watt."zitat ende.

das wären 110w-91,5w = +18,5 watt. für mich kein drama und/oder nicht relevant für eine kauf/nicht-kaufentscheidung.

quelle:

http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-20.html#leistungsbedarf_nichts_fuumlr_oumlkofreaks
 
Zuletzt bearbeitet:
perfekt!57 schrieb:
"Stimmt nicht. Beide haben jetzt ein adabtives AF, welches eben winkelabhängig ist. Beide AF-Methoden finde ich für den Arsch."

stimmt anscheinend doch. screenshots in der gamestar anschauen. ich finde die pics ok.
Hast du das schon gelesen? ganz unten, *klick*

und wg. des leistungsbedarfs "habe ich es fast satt" (ok) wieder und wieder die bekannten messwerte zu posten:

einfach mal zur kenntnis nehmen, dass im normalfall die 6800 ultra halt weniger strom braucht als eine 9800xt (ungefähr gleich viel, ok).

die thg messungen zeigen, dass stromverbrauch auch unter vollast im grunde überhaupt kein thema ist:

mit einer 430 oder 480 watt stromversorgung (aber beachte mit 12v 24a !) sollte man immer auf der sicheren seite sein. (288/261 = +10,3%)

zitat: "Daraus kann man auch den Stromverbrauch der anderen Karten ableiten. Angenommen, die Angabe NVIDIAs von 110 Watt ist korrekt und weiter angenommen, dass wir bei unseren Tests auch diese Worst-Cases erreicht haben, ergeben sich für die Radeon 9800XT ein maximaler Stromverbrauch von knapp 91,5 Watt und für die FX 5950 Ultra von 93,5 Watt."zitat ende.
Imho wird hier zuviel Spekuliert. Man nehme an, dass man annimmt...

das wären 110w-91,5w = +18,5 watt. für mich kein drama und/oder nicht relevant für eine kauf/nicht-kaufentscheidung.
Man sagte, er würde den Rekord für den Strombedarf brechen. Ich habe es so aufgefasst, dass man es ironisch meinte. Imho gibt es auch Tests, wo der NV40 nicht so gut abschneidet, wie auf dem Screenshot zu sehen.

power.gif
 
Generell wundert es mich, dass die Grafikkarten nicht kleiner, sondern immer größer und bulliger werden. Soundkarten wurden vor ein paar Jahren immer kleiner und leistungsfähiger, solange bis nur noch die Chips verbaut wurden.

Man muss sich schon deutlich vor Augen halten, dass diese Grafikkarten, die ein durchschnittlicher Spieler in seinem Rechner laufen hat, generell schon sehr gute Leistungen bringen. Die Front, die Nvidia und ATI im Moment antreiben, beschreibt ergo die Supersportautos unter diesen GraKas. Was mich an der Situation bloß stört, ist die Tatsache, dass der Stromverbrauch und der Platzbedarf im Vergleich zu den Modellen vor 5-10 Jahren unverhältnismäßig hoch ist. So eine 6800 wird in 3 Jahren zum alten Eisen gehören, und dann immer noch 110 Watt in Anspruch nehmen, aber dann nicht mehr die neuesten Spiele mit DX-11-Schnittstelle darstellen können.
Dieser Trend bereitet mir Sorgen :(
 
ok, ok, leonidas hat klug geschrieben. auch hier:

http://www.3dcenter.org/artikel/nv40_benchmarks/index30.php

zitat: "Beim anisotropen Filter hat nVidia nur scheinbar zulegen können, letztlich jedoch nur einen Vorwärtsschritt mit einem Rückwärtsschritt verbunden. Denn der neue 16x anisotrope Filter ist zwar vom Name her schön, doch vom Aufbau her enorm winkelabhängig und damit letztlich nicht besser als der 8x anisotrope Filter von GeForce 3/4/FX, sondern sogar eher schlechter. Einziger Pluspunkt beim anisotropen Filter ist die nun für den NV40-Chip vorhandene Möglichkeit, den bilinearen Filter zu deaktivieren und somit zu einem - für diese Hardware - eher standesgemäßen voll-trilinearen Filter zu kommen."

wozu die gamstar (seite 181) schreibt und mit bild belegen will: "Treiber "Trick": "Trilinear Optimizations On" auf "OFF" verbessert das Filtering" (!)

ich freue mich schon auf die 6800 xt. im spätherbst für liste 199,- euro, wird es sie recht bald bei ebay ab 159,- euro aufwärts geben. ich finde, damit tut nvidia was fürs volk.
 
perfekt!57 schrieb:
ich freue mich schon auf die 6800 xt. im spätherbst für liste 199,- euro, wird es sie recht bald bei ebay ab 159,- euro aufwärts geben. ich finde, damit tut nvidia was fürs volk.

Ich glaube nicht, dass diese XT version von NV mit der 5900xt viel gemein haben wird. Die MinderLeistung des 5900xts im Vergleich zum 5950u ist allein dem Taktunterschied zuzuschreiben. Nur wird man in dieser Generation leider einen anderen Weg einschlagen. Man kürzt die Pipes. Von 16 wird 12, wird 8? Diese sind imho nicht modbar, bzw. via Software freischaltbar.

Die Leistung des "6800xts" wird gemäß auch nicht mehr so nah zum großen Bruder sein. allein die 6800NU wird "nur" DDR-Speicher haben, welches für 400Mhz ausgelegt sein sollen, bei einem Chiptakt von 350Mhz. Da bleibt nicht viel Spielraum für die XT. Mehr Takt wird sie bestimmt nicht haben. Sie wird imho, falls sie kommt, nicht der Schlager sein, welches sie jetzt ist. Es sei denn, sie kommt mit einem Refresh zusammen. Dies wird auf sich dann warten lassen.


[edit:] Chiptakt des N40NonUltra anscheinend 375Mhz / Speichertakt 350Mhz real.
 
Zuletzt bearbeitet:
Kennt einer von euch nen Netzteil das 4 Kabelstränge hat?
Mein Antec TrueControl 550W hat nur 3
 
Zuletzt bearbeitet:
Zurück
Oben