Test GeForce GTS 250 im Test: Nvidias neue Grafikkarte ist nur eine 9800 GTX+

Ist es möglich das Bios der gts250 auf meine 8800gts 512 zu flashen? das mim runtertakten fänd ich ja schon cool :)
 
8800 GTS die 4. - der war gut. Stimmt aber. Wurde das non-feature Hybrid-Power bei der ebenfalls wieder ausgebaut? Kein Hybrid-SLI jedenfalls. Nicht, dass das viele Leute interessieren würde, aber die Kunden werden eben doch nach Strich und Faden verarscht. Bei der 9800 GTX wars noch ein äußerst wichtiges Alleinstellungsmerkmal, jetzt fällts sang und klanglos weg.
Insgesamt eine gegen Aufpreis sparsamere, lautere 9800 GTX+ mit weniger Features...
 
Zuletzt bearbeitet:
digitalangel18 schrieb:
Um die Leute zufrieden zu stellen, die lieber eine unnötig kühle GPU (warum auch immer) haben wollen, und sich mit dem Radau zufrieden geben. Zum Glück sind da ja laut Test reichlich reserven vorhanden, um den Lüfter mit Rivatuner oder direkt übers bios leiser zu drehen ;)

Nvidia hat da ganz ander Gründe die Karte im Idle und unter Last kühl zu halten.
Wer sich mit Elektronik etwas auskennt wird wissen warum ! ;)

Durch kühlere Halbleiter (Silizium = Heißleiter) läßt sich die Leistungsaufnahme deutlich reduzieren.
Sprich mit 34 Grad ist eine GTS250 eben doch sparsamer als eine 80 Grad heiße HD4850.
Das die Karte dadurch lauter wird ist offenbar nebensächlich den die Leute schauen zur Zeit eher auf den Verbrauch.

Ob man dies jetzt mit RivaTuner nachträglich bearbeitet um die Karte leiser zu manchen und dadurch die Leistungsaufnahme wieder steigt,spielt dann keine Rolle mehr.
 
Das man nVidia den Drang zum Sparen so deutlich ansieht, hätte ich nicht gedacht!

Wie schon erwähnt, ist diese Karte ein weiterer Schritt zurück. Der Kunde wird gleich doppelt geprellt, zum einen verspricht er sich mehr Leistung, die er nicht bekommt. Desweiteren wird ihm auchnoch ein qualitativ schlechteres Produkt verkauft.

Ich verstehe nicht warum nVidia nur 512Bit Monster oder "Greischende GTX285" bauen kann, dazwischen ist doch soviel Platz für hochwertige, aber rentable Produkte..
 
@Pickebuh: Der Widerstand sinkt, natürlich. Gleichzeitig lässt sich aber auch die Spannung weiter absenken. Intel macht das seit Jahren, Stichwort Vdroop. Eine kreischende, eiskalte Graka muss also nicht sein.
 
Also zur Namesgebung muss man wohl nicht mehr viel sagen...

Abseits davon verdient der Stromsparmechanismus durchaus erstmal ein Lob! Aber warum hat das eineinhalb Jahre gedauert, bis mal ein G92-Chip mit Energiesparmodus rauskam?

Ansonsten würde mich mal interessieren, ob wie der GTX 295 und 285 der Hybrid-SLI-Modus entfernt worden ist.

mfg
 
Weiß nicht was immer alle so meckern. Bis eine neue Generation erscheint dauert es halt immer etwas. Außerdem gibt es auch keine neue DirectX-Version, also was soll man machen, außer die Chips stromsparender zu machen oder eine neue Highend-Version zu bringen?

Bis auf die Lautstärke, die man sicher noch in den Griff bekommt, oder halt andere Hersteller, ist doch sinnvoll verbessert worden.

Übrigens ist ein Golf von Generation zu Generation auch hauptsächlich neu verpackt, mit einem Großteil der "alten" Technik. Da schaut nur keiner so genau hin und niemand beschwert sich. Da wird nur darauf Wert gelegt, was das Auto wirklich leistet. So sollte es bei Grafikkarten auch sein.

nvidia hätte einfach behaupten können es sei ein neuer Chip und alle wären glücklich, weil die Leistungsaufnahme so effektiv gesenkt wurde...
 
Wie sieht das eigentlich mit der neuen Grafikkarten Generation von Nvidia aus?
Weiß einer wann die nun ungefähr (nach letzten Gerüchten) kommen soll?
Bei Google findet man alle möglichen Daten von Q1 09 bis Ende 2009.

MfG
 
zum Fazit "Preis"

die GTS250 wird zwischen 139-155€ gelistet

interessanter ist jetzt nicht nur der preisliche vergleich GTS 150 vs HD 4850 sonder eher die HD4870 die es schon jetzt von einigen herstellern ab 155€ gibt , außerdem soll ja der Preis der HD48x0 noch fallen .
 
Netter Test.
In der Tabelle der technischen Daten fehlt ein + bei der 9800GTX und auf Seite 3 Abschnitt 3 soll wohl noch ne TDP Angabe der 9800GTX+ hin.

Die 9800GTX+ hätten sie von Anfang an mit1gb bringen sollen. In der Leistungsklasse sind 512MB zu wenig.
 
rumpel01 schrieb:
Wenn man sich den etwas mehr als ein Jahr alten Test der 8800GTS/512 ansieht, und v.a. die Bilder der Karte, dann erklärt das auch ein gewisses Deja Vu ... https://www.computerbase.de/artikel/grafikkarten/test-nvidia-geforce-8800-gts-512.738/seite-3

Sowohl vom PCB-Design, der Spannungsversorgung sowie vom Kühler her scheint nvidia eine Rolle rückwärts gemacht zu haben. Schade, dass man das wertige Auftreten der 9800GTX(+) zum großen Teil wieder aufgegeben hat.

Das ist echt sehr schade und eigentlich eine Frechheit.
Man könnte auch noch erwähnen, dass ATI Karten deutlich bessere HDMI Bildqualität haben und einen Soundchip dafür, was man bei Nvidia vergebens sucht.
Ebenso hätte man im Test zum Vergleich auch noch eine Overclocked Radeon4850 drin lassen können, wenn man auch eine AMP testet
 
Dio schrieb:
Aber den Test hast du schon komplett gelesen und auch mal die Diagramme richtig angeschaut?
Klar ist die Karte Laut, aber durch die hohe Lüfterdrehzahl auch sehr kühl. Denke hier sind noch genug Reserven die ich mit entsprechenden Tools wie RT oder Precision nutzen kann.
Ahja und du hast den Test komplett gelesen um dann zur gleichen Aussage zu kommen wie ich? Toll! :freak:
digitalangel18 schrieb:
Zum Glück sind da ja laut Test reichlich reserven vorhanden, um den Lüfter mit Rivatuner oder direkt übers bios leiser zu drehen ;)

Für euch beide gilt...was die Karte an Reserven mit sich bringt ist mir sch****egal, ich will von Werk aus ne leise Karte, ist das so schwer zu verstehen? Und eben so etwas bekommt man heutzutage nicht mehr so einfach. Warum sollte ich denn in ein Produkt noch Zeit für dessen Optimierung stecken und mir Rivatuner/ATT runterladen? Oder sit es dem Großteil der Käufer wirklich egal wie laut eine Grafikkarte ist?
 
Pickebuh schrieb:
Nvidia hat da ganz ander Gründe die Karte im Idle und unter Last kühl zu halten.
Wer sich mit Elektronik etwas auskennt wird wissen warum ! ;)

Durch kühlere Halbleiter (Silizium = Heißleiter) läßt sich die Leistungsaufnahme deutlich reduzieren.
Sprich mit 34 Grad ist eine GTS250 eben doch sparsamer als eine 80 Grad heiße HD4850.
Das die Karte dadurch lauter wird ist offenbar nebensächlich den die Leute schauen zur Zeit eher auf den Verbrauch.

Ob man dies jetzt mit RivaTuner nachträglich bearbeitet um die Karte leiser zu manchen und dadurch die Leistungsaufnahme wieder steigt,spielt dann keine Rolle mehr.

Stimmt, hätte garnicht gedacht das es soviel Unterschied macht (grad mal selbst getestet)

GTX 260 bei 70° idle laut GPU-Z 13.8 Ampere
bei 30° sinds tatsächlich nur noch 7.3 Ampere
:freaky:

Edit: die Stromwerte sind auf die Kernspannung von 1.035Volt bezogen.

Das sind also etwa 6.5Watt Differenz, wobei in diesem Fall der 100% drehende Lüfter das wieder aufrisst :evillol: Durch eine intelligentere Spannungsversorgung könnte man da beim heisseren Chip aber sicher noch was raus holen.

Edit: Ich habe mal noch den Gesamtverbrauch vom System gemessen,

System kalt volle Lüfter: 110W
System kalt leise Lüfter: 100W (erwärmt sich natürlich schnell wieder)
System warm leise Lüfter: 109W

Niedrigere Temp der Halbleiter spart also schon Strom, jedoch wird das mit gestiegenem Verbrauch der Lüftung in diesem Fall wieder zu nichte gemacht. Von der Lärmbelästigung mal ganz zu schweigen :D
 
Zuletzt bearbeitet:
Des einzig "neue" is doch eigentlich nur der Stromsparmodus im 2D, oder? Minimal weniger Stromverbrauch beim 3D und ein klein weng schneller. Die geringe Mehrleistung ist wohl auf den größeren VRAM zurückzuführen. Also ein einfacher Refresh der 9800GTX+ ohne Namensänderung hätte es doch auch getan...
Aber der 2D Modus macht die Karte doch interessanter als die 9800GTX+ :daumen:
Jetzt darf nur der Preis nicht zu viel höher sein. 5€ wäre noch vertretbar im Vergleich zu einer 9800GTX+ 1GB
 
Zuletzt bearbeitet:
Also ich finde die Karte eigentlich gar nicht so schlecht. Endlich hat sie einen Stromsparmodus und 1GB RAM (offiziell). Stimmt auch noch die von guru3D angegebene Preissetzung, finde ich sie sogar sehr attraktiv:
The GeForce GTS 250 will launch this March, with 512MB and 1GB models, at $129 and $149 respectively.
(guru3D hat sogar ein 2GB-Modell getestet klick)

Das in diesem Preisbereich des öfteren der Rotstift angesetzt wird und nicht mehr der "wertige Auftritt" beibehalten wird, verwundert eher weniger. Vielmehr braucht nVidia Spielraum um im Preiskampf mit AMD Schritt halten zu können. Sofern kein Spulenpfeifen o.ä. die Folge davon ist, bin ich eigentlich zufrieden. Auch das Problem des lauten Kühlers lässt sich sicherlich beheben. Nur der zweite Stromstecker wäre mir doch lieber gewesen. So nah an der Spezifikation zu arbeiten erzeugt bei mir immer etwas Unbehagen.
 
Leider kann man mit dem RivaTuner (zumindest noch) nicht die Drehzahl unter die standardmäßigen 35 Prozent einstellen.

Ich muss sagen, dass meine 55er GTX260 auf 18% Lüfterdrehzahl nicht wahrnehmbar ist. Das hat mich selbst sehr positiv überrascht.

Die GTS250 ist idle und unter Last grade mal 10 Watt sparsamer als die GTX260². Haut mich absolut nicht vom Hocker. Das Namensschema wurde bereits in einer der letzten News bis aufs Blut diskutiert. Klasse finde ich, dass Geizhals.at direkt wieder eine Warnung über die GTS250 schreibt und diese als 9800gtx+ deklariert.
 
Zurück
Oben