News GeForce 9800 GT mit G92 in 55 nm und 65 nm

Ich find es immer wieder krass, wenn jemand behauptet, dass die 9er Reihe keine daseinsberechtigung hat. Die karten brauchen im Schnitt 30 W weniger als ihre Vorgängermodelle (8800GTX vs. 9800GTX). Wisst ihr eigentlich wieviel 30W sind? Nein natürlich nicht, weil Mami noch den Strom zahlt und euch die Umwelt eh egal ist.
Wenn man jetzt noch Hybrid Power hat, dann spart man im Idle wohl sogar 100W ein. Wenn das gescheit realisiert wurde, dann braucht der Rechner damit sogar einen niedrigeren Einschaltstrom und man kann sich deswegen sogar ein schwächeres Netzteil kaufen und hat somit im Idle einen höheren Wirkungsgrad. Ich würde das nicht unterschätzen.

Aber was schreib ich das überhaupt, die meisten haben ja bei einer einzigen Graka ein 600W Netzteil und wobei selbst bei 80+ im Idle der Wirkungsgrad weit unter 80% fällt, da der PC im Idle weniger als 50% der Maximalleistung braucht und somit unter der 80+ Spezifikation liegt. Ok, kann ja nicht jeder Elektrotechnik studieren, aber informieren sollte man sich schon.
 
bartio schrieb:
Eine 9800GT wird sicherlich keine schnellere 8800GT.
Wie denn auch.

nun ja ein bisschen schneller wird sie schon werden... wenn sie die Taktrate erhöhen, wird sie automatisch schneller. aber nicht übermäßig, da hast Du schon Recht!

bartio schrieb:
Eine 8800GT kratzt doch schon jetzt sehr am 9800GTX-Thron.
Und wenn die 9800GT noch schneller wird, wird die 9800GTX entgültig ins Abseits gestellt.

das ist richtig! die gesamte Namensgebung wird dadurch eigentlich ab absurdum geführt! was sich das Produktmanagement dabei gedacht wissen die, glaube ich, selbst nicht!

bartio schrieb:
Der Geforce9 Relaunch ist übrigens in meinen Augen nur passiert, damit Nvidia alte Technologie bei konstant hohe Preise verkaufen kann.

nicht nur... ich glaube nVidia ist eigentlich selbst von der schlechten Perfromance von ATI überrascht worden! die hatten nie im Leben damit gerechnet, dass sie so lange die Leistungskrone behalten können! die HD2000-Reihe war und ist leistungstechnisch ein Witz! auch die HD3000-Reihe ist in dieser Hinsicht nicht viel besser! nVidia hat de facto keine neue GPU-Generation gebraucht.... wieso auch? der Refresh ist auch in 2 Generation (G80 -> G92 -> G92b) schneller als die ATI-Karten! damit lässt sich nach wie vor gutes Geld verdienen... auch wenn ATI gute Mid-Range Karten im Angebot hat und sich der Massenmarkt eher hier abspielt! trotzdem kauft der normale User eher eine nVidia und viele OEM-PCs werde auch mit nVidia verkauft, weil die nun mal schneller sind...

zum einen kommt das uns zu Gute, da wir nun für wenig Geld sehr viel Leistung bekommen (egal ob ATI oder nVidia)! 8800GT ist das beste Beispiel hierfür! dennoch gibt es dadurch keinen wirklichen Fortschritt und dadurch auch keine neuen starken Single-GPUs! (mir geht es beim Thema Fortschritt nur um reine Leistung! Stromspartechniken sollten imho eigentlich seit jahren Standard sein. wieso das erst jetzt möglich ist, versteh ich nicht! und eine Verbesserung des Herstellungsprozesses versteht sich doch von selbst! das kommt mit der Zeit und ist in meinen Augen kein Fortschritt in der GPU-Architektur)

die 9er Reihe hätte als 89XX eine deutliche bessere Figur gemacht und wäre auch für den Kunden transparenter gewesen. Wie bei der 1950 ATI- oder 7950 nVidia-Reihe! mal ehrlich, ich erwarte doch von einer neuen Reihe, vor allem im Grafikkartenmarkt, das sie um einiges schneller ist als die alte... und das ist bei der neuen 9800er-Reihe definitiv nicht der Fall! in dieser Kategorie haben nVidia und auch ATI deutlich versagt! bin auf jeden Fall gespannt was und die R700 bringen und vor allem der G200! vielleicht werden sich diese neuen GPUs als "wahre Bringer" erweisen...
 
Die karten brauchen im Schnitt 30 W weniger als ihre Vorgängermodelle (8800GTX vs. 9800GTX).
Das ist Unsinn, eine G92-GTX verbrät load fast genauso viel wie eine G80-GTX und ist nicht wirklich besser, teils sogar deutlich schlechter. Für einen 65-nm-Chip aus Watt-Sicht ziemlich erbärmlich.
Eine 8800GT kratzt doch schon jetzt sehr am 9800GTX-Thron.
Naja, 20-30% ist eine GTX schneller, kratzen wäre unter 10%.

cYa
 
1) wer s haben will der holt sich s auch, egal was es kostet
2) es gibt nunmal "nvidia-jünger" als auch "ati-jünger" - sinnvolle argumente bringen da nix
3) eine umfrage von valve ergab: sli- oder crossfire-systeme haben weniger als 10% der gamer. mir erscheint es fraglich daß sich sli oder triple-sli für nvidia lohnt, aber s. 1)
4) solange ati nix großartig besseres als eine 8800 ultra oder die 9800 gx2 bringt wird sich nvidia ihre "10.000"er-technik für s weihnachtsgeschäft zurückhalten
5) letztlich muß jeder selbst wissen wieviel er ausgeben will
6) der technik- und somit auch preiskampf zwischen nvidia und ati kann doch dem kunden nur recht sein. so "müssen" wir halt alle 6 monate € 250,- für ne ordentliche graka hinlegen
 
Naja, 20-30% ist eine GTX schneller, kratzen wäre unter 10%.
Sieht hier aber anders aus:
https://www.computerbase.de/artikel...test.784/seite-21#abschnitt_performancerating

Ungefährt 15%.


Nochmal: Hast du dir mal den Preis angeguckt? Der ist nur minimal zu hoch.
Natürlich habe ich das. Anders als du, bin davon aber nicht so begeistert.
Für die gebotenen Leistung and Veränderungen gegenüber einer 1,5 Jahren alten Grafikkarte ist der Preis immernoch zu hoch.
Lass uns aber hier stoppen, bevor wir unsere Argumente immer und immerwieder wiederholen und uns gegenseitig damit langweilen.

Jeder ist schließlich ein mündiger Kunde, kann also selbst entscheiden ob er bereit ist den Preis für ein Produkt zu bezahlen.
Natürlich muss er dafür den vollkommenen Marktüberblick haben, was Nvidia mit ihrer momentanen Produktpolitik absichtlich erschwert.
Oh übrigens: habe selbst eine Nvidia-Karte, bin also kein Ati-Fanboi.


G-SAS schrieb:
Ich find es immer wieder krass, wenn jemand behauptet, dass die 9er Reihe keine daseinsberechtigung hat. Die karten brauchen im Schnitt 30 W weniger als ihre Vorgängermodelle (8800GTX vs. 9800GTX). Wisst ihr eigentlich wieviel 30W sind? Nein natürlich nicht, weil Mami noch den Strom zahlt und euch die Umwelt eh egal ist.
Nicht jeder der gegen die Geforce9 ist, geht noch zur Schule oder ist ein pickiliger Teenager. Also bleib beim Thema :P

30 Watt sind aufs Jahr umgerechnet nur 8 Euro an Mehrkosten.
Und das auch nur, wenn der PC jede Sekunde des Jahres läuft und der Unterschied während dieser Zeit durchgängig 30Watt beträgt. Utopisch
Selbst wenn sich der Strompreis verdoppeln würde, kann diese "Ersparnis" nicht ernsthaft als Kaufargument durchgehen.

Kommen wir zum nächsten beliebten Thema: Umweltschutz.
Dir ist schon klar, das die drastische Zunahme des Flugverkehrs schlimmere Auswirkungen hat als der gesamte Stromverbrauch in deinem privaten Haushalt?
Sonderangebote à la "Für nur 60 Euro zum shoppen nach Madrid fliegen" belastet die Umwelt mehr, als du im Jahr an Strom verbrauchst.

Und das neue Kraftwerke (vornehmlich Kohle) gebaut werden ist nicht die Schuld des gestiegenen Strombedarfs, sondern die Schuld unserer korrupten Politik (Kann da eine sehr interessante ZDF-Doku empfehlen, die aufzeigt wie gut sich die Stromlobby und Bundespolitik "verstehen".)

Wenn man jetzt noch Hybrid Power hat, dann spart man im Idle wohl sogar 100W ein.
Über die Sinnhaftigkeit von SLI kann man sich sowieso immer streiten.

Wenn das gescheit realisiert wurde, dann braucht der Rechner damit sogar einen niedrigeren Einschaltstrom und man kann sich deswegen sogar ein schwächeres Netzteil kaufen und hat somit im Idle einen höheren Wirkungsgrad. Ich würde das nicht unterschätzen.

Aber was schreib ich das überhaupt, die meisten haben ja bei einer einzigen Graka ein 600W Netzteil und wobei selbst bei 80+ im Idle der Wirkungsgrad weit unter 80% fällt, da der PC im Idle weniger als 50% der Maximalleistung braucht und somit unter der 80+ Spezifikation liegt. Ok, kann ja nicht jeder Elektrotechnik studieren, aber informieren sollte man sich schon.
Sollte der letzte Absatz ernst gemeint sein?

Das mag für Elektrotechnik Studenten interessant sein, aber für Otto-Normal in keinster Weise praktikabel.
Wenn sich jemand einen Gaming-PC zusammenstellt, nimmt er natürlich ein starkes Netzteil.
Rechenspielereien kann und will er sich nicht leisten. Schließlich will man auch für die Zukunft gerüstet sein.
Niemand, nicht einmal Elektrotechnik Sudenten, können genau berechnen welchen Strombedarf man als Nutzer in der Zukunft haben wird.
 
Zuletzt bearbeitet:
bartio schrieb:
Für die gebotenen Leistung and Veränderungen gegenüber einer 1,5 Jahren alten Grafikkarte ist der Preis immernoch zu hoch.
Ja gut, nach 1,5 Jahren ist der Preis also nur um etwas mehr als die Hälfte gefallen.
Aber, man muss auch sehen, das es keine (Single Die) Kokurrenzkarte gibt.

Wer auf Preis/Leistung aus ist der kann sie nicht kaufen, richtig, der greift zur 8800GT oder in Zukunft zur 9800GT, aber das ist normal, das man die Preis/Leistung nach oben hin abnimmt.
Die 8800GTX und die 9700Pro sind hier relativ einsame Ausnahmen.
 
@ 52 werd ich nächstes mal in betracht ziehen,damit es mit der verständlichkeit besser läuft aber bei so viel arbeitsstress schreibt man gerne mal alles an einem stück gruß triforce

back to topic naja die treiber von geforce könnten schon besser sein find ich da hat ati/amd gepunktet seid amd dort aufgeräumt hat läuft es rund um ati ^^ ich glaube das hat amd auch vor das sie ihren markt schwächen um bei grafikkarten voll attackieren zu können find ich gut siehe crossfire x ^^ einfach nur geil grins*

@ 54 ka ich würde 2 fotoaparate nehmen begründung ich würde das bild auf die hälfte fokosieren würde somit die poligonie dicht aneinander drücken und hab dann ein dichtes bild sprich 1/2 bild + 1/2 bild =ein ganzes von daher besser ^^ das beste wäre echt 4 core grafik cpu weil dann übernimmt ein gpu ein viertel des monitors das ist auch der gedanke seitens geforce ^^ sicher grafik wird immer besser und die cpus müssen besser werden um die einheiten verarbeiten zu können

zu der sache is gemeind das sich alle gegenseitig helfen und denoch geld machen was hat man davon ? die forschungskosten werden immer größer und in der foschung hängt man zurück weil die weissheit der vielen besser is was würde passieren wenn die besten pysiker und elektrotechniker an einem prozessor arbeiten wir würden wesendlich mehr leistung haben als wir sie jetzt haben , was würde es bringen? bessere hardware= bessere grafik in spielen, was meinst du warum bei solchen leuten urlaub zwingend notwenig is damit sie ideen sammeln könn wärend sie entspannen meist liegt eine lösung vor unseren augen man muss nur genau hinsehen ^^

und nicht nur in spielen auch für wetteranalysen besser und mal ehrlich scheiß auf den provit wenn man damit menschen heilen könnte zwecks in der medizin sehr wichtig ein leben is wohl wichtiger als alles geld der welt die forschung bringt die welt voran keine frage aber man sollte sich dazu einsetzen und gemeinsam forschen in sachen medizin,und pc hardware und ökologie mit sparmethoden


Anhang: Stimme G-SAS voll zu mit der sache !(beitrag 61)
 
Zuletzt bearbeitet:
Meiner Meinung nach hätte Nvidia die 9000er Serie auslassen können und stattdessen eine 8900 oder so für Trippe SLI fertigen können.Hoffentlich war es das jetzt und Nvidia schenkt dem GT200 die volle Aufmerksamkeit :lol:
 
So langsam denke ich das die scheinbar beabsichtigte Leistungsstagnation im PC-Sektor bei beiden Herstellern auf dem Erfolg des Konsolenmarktes beruht. Es scheint sich vermutlich zu rechnen massig im Konsolenbereich zu verdienen und die PC-Fraktion mit "Brökchen" zu füttern die oft grundsätzlich nur Namensänderungen beinhalten um einerseits die Schere zwischen PC- und Konsolengrafik nicht zu schnell wachsen zu lassen und andererseits auch noch im PC-Sektor zu verdienen.
 
Zuletzt bearbeitet:
Die 9800 GTX war ja schon ein bisschen zwielichtig, was soll die GT da erst noch machen?
 
Sie soll die in der Produktion zu teure 8800GT ersetzen und gleichzeitig etwas schneller werden, Raum für eine weitere Preissenkung schaffen und Hybrid-SLI einführen.

Ja ist schwer zu verstehen, aber im 100€ Bereich gibts auch Kunden, die Leistung wollen.
 
Der Thread ist mehr als 2 Monate alt ;)
 
Womöglich hast du nach einem Post von Unyu gesucht, dem du noch nicht widersprochen hast? :p
 
Zurück
Oben