Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Details und Fotos zur GeForce 9800 GTX
- Ersteller Sebastian
- Erstellt am
- Zur News: Details und Fotos zur GeForce 9800 GTX
Arbiter Elite
Banned
- Registriert
- Dez. 2006
- Beiträge
- 652
ATI und nur ATI ist Schuld an der aktuellen Misere. Nvidia steht nun konkurrenzlos da und kann einen Refersh nach dem Anderen rauhauen. Und als Gipfel der Dreistigeit als nagelneus Modell sprich Generation vermarkten.
crustenscharbap
Commodore
- Registriert
- Jan. 2008
- Beiträge
- 5.063
Jop davon noch ne X2 karte also ne 9800GTX2 im triple SLI und du brauchst nie mehr heizen. Jung Junge. Wie so eine einfache olle karte 170W ziehen kann. Die PS4 oder 5 wird dann auch einestages 600-700W ziehen. Ich find es ja schon heftig was die 8800GT an strom zieht im gegensatz zu einer 7600GT. Die sollten sich mal was von den Prozessorherstellern was abgucken. Die neun Intel (Wolfdale) brauchen auch so wenig strom und sind sehr stark. Eine Graka is der Leistung einer 8800GTS (512) und bei 60W. das wär doch mal ein Knaller. inzwischen brauchen ja schon Mittelklassengrafikkarten 100W. Auf der Anderen Seite bauen die Geräte mit niedrigen Verbrauch (z.B. Kühlschrank) und bei PC hauen die so richtig rauf. Na ja zum glück brauchen Lappis noch keine 100W. Aber wenn neue Akkus rauskommen, dann wird es kommen. Juhu 1h Akkulaufzeit.
Die neuen HD4000 werden bestimmt mal richtig krass. Ich vermute die HD 4850 hats drauf.
Die neuen HD4000 werden bestimmt mal richtig krass. Ich vermute die HD 4850 hats drauf.
Postman
Rear Admiral
- Registriert
- Juni 2003
- Beiträge
- 5.391
@ crustenscharbap: Doppelkarten sind null und nichtig eine Konkurrenz für Single Karten. Zwei, drei Grafikkarten aneinanderklemmen ist keine Kunst, sondern eher eine Notlösung weil die alte Technik ausgequetscht ist und ein komplettes Redesign sehr teuer bzw. auch mit Risiken verbunden ist.
zig*zag
Lieutenant
- Registriert
- Mai 2004
- Beiträge
- 688
Man... ich bete innerlich trotzdem noch, dass diese Specs ein Aprilscherz werden!!! Naja wie auch schon erwähnt dann spar ich mir das Geld für die nächste Generation evtl. sogar mal wieder ATi falls die mal was nettes bringen ![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
@ nVidia
So verliert man Kunden![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
@ nVidia
So verliert man Kunden
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
m3phist0201076
Lt. Commander
- Registriert
- Sep. 2006
- Beiträge
- 1.797
Ich verstehe nicht warum das neue Top modell weniger VRAM bietet als das alte...
Ist mehr VRAM nicht besser für die jungs mit dem "Großen"?^^ (Monitor)![Evil LOL :evillol: :evillol:](/forum/styles/smilies/evillol.gif)
Ist mehr VRAM nicht besser für die jungs mit dem "Großen"?^^ (Monitor)
![Evil LOL :evillol: :evillol:](/forum/styles/smilies/evillol.gif)
Arno Nimus
Commander
- Registriert
- Feb. 2008
- Beiträge
- 2.178
Nvida möchte uns scheinbar sagen, dass künftige Spiele neuerdings weniger Speicher benötigen, als die alten!
Ich spar weiter auf meinen Dell UltraSharp 3008WFP, das Geld is da um ein vielfaches besser angelegt, als sich diesen Schrott ins Haus zu holen!![Evil LOL :evillol: :evillol:](/forum/styles/smilies/evillol.gif)
Ich spar weiter auf meinen Dell UltraSharp 3008WFP, das Geld is da um ein vielfaches besser angelegt, als sich diesen Schrott ins Haus zu holen!
![Evil LOL :evillol: :evillol:](/forum/styles/smilies/evillol.gif)
Heretic Novalis
Banned
- Registriert
- Jan. 2002
- Beiträge
- 8.048
wenigstens keine multi-gpu-mauschellösung ala 3870x2. nette karte, vor allem, wenn sie äquivalent leistungsstärker ist im verhältnis zur 96gt.
die gx2 kann nvidia wegen mir gerne canceln. nischenprodukte ohne sinn und zweck, einzig für prestigezwecke gedacht.
diese news macht neugierig auf die 98gt/gts![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
die gx2 kann nvidia wegen mir gerne canceln. nischenprodukte ohne sinn und zweck, einzig für prestigezwecke gedacht.
diese news macht neugierig auf die 98gt/gts
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Edgecrusher86
Lt. Junior Grade
- Registriert
- Aug. 2006
- Beiträge
- 259
@BigBoys90: Bei nV ist seit der GeForce 6 (die 5900 / 5950 Ultra war ja der NV38), die niedrigste interne GPU Nummer, der schnellste Chip, z.B. NV40 (6800), G70 , später kam das schnellere G71 Refresh, G80 und hier G92 (wobei hinten dran nochmal eine 3 stellige Nummer steht - G92 - 270 = 8800 GT, G92-400 = 8800 GTS 512, G92-420 = 9800 GTX, G92-450 = 9800GX2, gut da wird ein Chip wegen runtertakten langsamer als ein G92-400 sein, aber die Masse soll es ja richten
)
Ich finde es schon seltsam - die Überlänge in Kombination mit 2 x PCIe Anschlüssen soll dem Kunden wohl nur Leistung vorgaukeln. ~ 24 cm und 1 x 6 Pin PCIe wie bei der GTS 512 hätten ja auch geschickt, wenn es schon eine, allerhöchstens minimal überarbeitete GTS (denk da kommen schon ein paar Sachen - wie nochmals verbesserte HD Wiedergabewerden und so) sein soll.
Also wenn G92, dann wären bei so einer Größe ein stärkerer Lüfter, Taktraten von 750 / 1850 / 2100 MHz + 1 GB GDDR3 für den Preis von 400 € Pflicht gewesen. Dann wäre sie auch trotz 256 Bit SI wegen den Taktraten auch in höheren Settings mindestens genauso schnell wie die 8800 GTX.![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Ich finde es schon seltsam - die Überlänge in Kombination mit 2 x PCIe Anschlüssen soll dem Kunden wohl nur Leistung vorgaukeln. ~ 24 cm und 1 x 6 Pin PCIe wie bei der GTS 512 hätten ja auch geschickt, wenn es schon eine, allerhöchstens minimal überarbeitete GTS (denk da kommen schon ein paar Sachen - wie nochmals verbesserte HD Wiedergabewerden und so) sein soll.
Also wenn G92, dann wären bei so einer Größe ein stärkerer Lüfter, Taktraten von 750 / 1850 / 2100 MHz + 1 GB GDDR3 für den Preis von 400 € Pflicht gewesen. Dann wäre sie auch trotz 256 Bit SI wegen den Taktraten auch in höheren Settings mindestens genauso schnell wie die 8800 GTX.
![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.326
schwach, einfach schwach. Und irgendwie auch dreist. Lohrt überhaupt garnicht. Hoffe die darauffolgende Generation kommt schnell...
Zuletzt bearbeitet:
Kane60
Lieutenant
- Registriert
- Nov. 2007
- Beiträge
- 819
also erstmal denke ich sollte man die die 9800GTX nicht unterschätzen - die 9600GT wurde auch unterschätzt trotz weniger Shader prozzis hat sie die 8800GS in allen punkten niedergemäht!
und noch was, wer sagt hier eig. dass ne 8800GTS 512 oder lol... ne 640er ^^.. für alles reicht?
ALso ich habe ne 8800GT OC wie ihr unschwer erkennen könnt! Und es reicht keineswegs!!!
Und das liegt nicht nur an meiner CPU!!
Ich denke dass die 9800GTX im vergleich zur 8800GTX gute 20% gutmachen wird! =)
und noch was, wer sagt hier eig. dass ne 8800GTS 512 oder lol... ne 640er ^^.. für alles reicht?
ALso ich habe ne 8800GT OC wie ihr unschwer erkennen könnt! Und es reicht keineswegs!!!
Und das liegt nicht nur an meiner CPU!!
Ich denke dass die 9800GTX im vergleich zur 8800GTX gute 20% gutmachen wird! =)
Zuletzt bearbeitet:
G
gecan
Gast
also wie würde das ganze jetzt passen?
gx2 im märz und gtx im april![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
ich mein sieht nach aus als wer die gx2 schneller![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
den wens alles so stimmen sollte mit den stromverbrauch![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
dann wers echt unmöglich das gtx bei 170watt die gx2 schlagen würde wo über 220watt verbraucht![Freak :freak: :freak:](/forum/styles/smilies/freak.gif)
oder wird es doch kein gx2 geben wegen der schlechten entwicklung -- > sehr heiss![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
und sollte gtx schneller sein, welchen sinn hatt es dann für die gx2 bitte?
das ganze alles etwas unlogisch oder![Verwirrt :confused_alt: :confused_alt:](/forum/styles/smilies/confused.gif)
gx2 im märz und gtx im april
![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
ich mein sieht nach aus als wer die gx2 schneller
![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
den wens alles so stimmen sollte mit den stromverbrauch
![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
dann wers echt unmöglich das gtx bei 170watt die gx2 schlagen würde wo über 220watt verbraucht
![Freak :freak: :freak:](/forum/styles/smilies/freak.gif)
oder wird es doch kein gx2 geben wegen der schlechten entwicklung -- > sehr heiss
![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
und sollte gtx schneller sein, welchen sinn hatt es dann für die gx2 bitte?
das ganze alles etwas unlogisch oder
![Verwirrt :confused_alt: :confused_alt:](/forum/styles/smilies/confused.gif)
Zuletzt bearbeitet:
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.326
@Kane60
es liegt schon auch mit an der CPU
und nur weil Crysis nicht auf very High läuft ^^ naja...
Fakt ist: Die 9800GTX hat den Namen nicht verdient wie bereits von Zykon gesagt. Die Shader müssen sich verdoppeln, genau wie die Gesamtperformance, sonst wird nichts gekauft![Lächeln :) :)](/forum/styles/smilies/smile.gif)
es liegt schon auch mit an der CPU
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Fakt ist: Die 9800GTX hat den Namen nicht verdient wie bereits von Zykon gesagt. Die Shader müssen sich verdoppeln, genau wie die Gesamtperformance, sonst wird nichts gekauft
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
Ähnliche Themen
- Antworten
- 64
- Aufrufe
- 9.150
- Antworten
- 60
- Aufrufe
- 9.940
- Antworten
- 16
- Aufrufe
- 1.466
- Antworten
- 16
- Aufrufe
- 1.858
- Antworten
- 47
- Aufrufe
- 8.805