News GeForce 9800 GT mit 1 GB ohne Stromstecker

@HD-Ronny :
Es gab einen Artikel mit Grafikkarte von MSI mit "nativem" HDMI Anschluss und alle haben sich darüber aufgeregt, warum da "nativ" stand, ist auch jetzt egal.
Das geht zu weit OT.
 
Zuletzt bearbeitet:
Klamann schrieb:
[...]

Meiner Meinung nach ist das Gerät absolut sinnfrei. Ein kleiner Stromstecker würde einen absolut sicheren Betrieb gewährleisten und das Mainboard entlasten. Stromsparen kann man auch, wenn man einen extra Stromstecker verwendet. Der Chip nimmt sich nur so viel, wie er braucht.

Bin ganz deiner Meinung. Aber sowas wird sich wohl erst ändern, wenn der erste Hersteller in einem Schadensersatzprozess an die Wand geklatscht wird, weil jemanden die Hütte abgebrannt ist und als Ursache dafür n überlastete Grafikkartenstromversorgung nachweisbar ist. :evillol:
 
impressive schrieb:
es gibt keinen nativen hdmi anschluss - punkt und aus ;)

Das weiß ich, verstehe nur diese Wortwahl nicht.... Naja, egal!

Gibts Links mit Test von diesen stromsparenden Versionen?
 
Natürlich gibt es den. Native bedeuted übersetzt sowas wie angeboren, einheimisch , eingeboren. Auf diese Hardware bezogen ist damit ein HDMI Ausgang gemeint der nicht über eine Adapterlösung DVI--> HDMI realisiert wird.
 
da kannst du dichten wie du möchtest...

es gibt einen dvi-anschluss, es gibt einen hdmi-anschluss, es gibt einen adapter von dvi auf hdmi,
aber es gibt keinen nativen hdmi-anschluss.

und nu geh ich nach hause... schönen feierabend an alle;)
 
Klamann schrieb:
Die Grafikkarte wird also unter Last mehr als 75 Watt über PCIe ziehen und damit das Mainboard unnötig belasten.
Schön das du das jetzt schon weißt, aber vielleicht sollte man doch erst Tests abwarten.

Denn 1. ist bei HT4U ein G92 verbaut. Während hier ein G92b mit niedrigerem Takt genutzt wird. Eventuell hat der Hersteller ja auch noch extra die Spannung gesenkt.

2. Ist der Furmark auch ne Extremsituation die so in Spielen nicht vorkommt. Sollte aber dennoch nicht ungeachtet bleiben und von einer Karte problemlos gemeistert werden.


Mit dem G92b ist die Verlustleistung stark nach unten gegangen. Im 3D-Mark benötigt selbst eine 9800GTX+ "nur" 80W. (in 65nm waren es noch 114W für die 9800GTX+ und 84W für eine 8800GT laut xbitlabs)
Eine untertaktete 9800GT sollte erheblich drunter liegen.
 
Zuletzt bearbeitet:
Zu spät, jetzt habe ich die HD4670. :P

Freut mich aber das die maximale Rechenleistung
von Grafikkarten ohne Zusatzversorgung wieder höher liegt.
 
nur zur info: nicht der takt sondern die volt verursachen den verbrauch. wenn man bei gleichem takt die voltzahl senkt, sinkt der verbrauch. wenn man bei gleicher spannung den takt senkt passiert fast nichts. ich habe auch ca. 30 watt bei meinem notebook durch untervolten der cpu gespart, ohne auch nur ein mhz runterzutakten. allerdings wenn die spannung zu weit sinkt, lassen sich die hohen taktraten nicht mehr stabil realisieren. darum wird nv wohl sicherheitshalber den takt um 50mhz reduziert haben, damit alle 9800ge die niedrigere spannung stabil mitmachen.
und der hinweis mit den 111 watt einer 8800gt passt, wie bensen schon richtig sagt auch nicht aufgrund der 65nm zu 55nm. 75watt tdp sind imho also durchaus realistisch.

allerdings frage ich mich, ob die 9800ge so von der leistung her mit der 4750 mithalten kann. diese bedrängt ja angeblich schon stark die 4830 die ihrerseits mit der standart 9800gt gleichauf liegt...

ich denke die 9800ge ist zwar ne tolle karte, wird es aber gegen die 4750 sehr schwer haben...
 
Zuletzt bearbeitet:
Scheinbar versucht Nvidia jetzt auf der "grünen" Welle mitzureiten, nachdem man nichts Neues zu bieten hat und die Kunden durch das Umlabeln vergrault werden.

ATI ist mit der 4670 weiter (weniger Verbrauch + Passive Kühlung möglich) und die 47xx steht schon in den Startlöchern.

Statt mal nen Notebookchip als PEG Version rauszubringen, kastriert man einfach die Produkte, die der Kunde mit dem 98xx/GTSxxx Label nicht haben will und hofft, daß er diesmal mit der Green-IT Masche geködert werden kann. :rolleyes:
 
dir ist aber schon klar, dass die 4670 in einer ganz anderen klasse spielt, ja?^^
dass eine 9600gt oder sogar 9800gt nicht genausowenig verbrauchen können is wohl logisch. aber passiv gibt es die 9800gt ja auch und das sogar als normale version.

die sparsame 9800ge ist imho eine gute karte, aber die antwort von ati in form der 4750 wird wohl nicht mehr lange auf sich warten lassen... dann wirds wieder interessant :)
 
Die 9800 GT ist in etwas so schnell wie die Ati 4830. Als runtergetaktete GE Version wird sie einiges langsamer sein.
Die 4830 hat unter Furmark eine Leistungsaufnahme von knapp 90W. Das bei der 9800GE die Leistungsaufnahme bei Furmark max. 75W betraegt, moechte ich erst in einem Test sehen, bevor ich das glaube.
Genauso wie ich erst Benches von der 4750/70 sehen will, bevor ich da Freudenspruenge mache.
 
Lübke schrieb:
nur zur info: nicht der takt sondern die volt verursachen den verbrauch. wenn man bei gleichem takt die voltzahl senkt, sinkt der verbrauch. wenn man bei gleicher spannung den takt senkt passiert fast nichts
Da bist du aber leicht fehlinformiert. Schau dir mal den CB-Artikel "Mehr Akkulaufzeit für Centrino" an.

Kurz zusammengefasst:
Simon schrieb:
Taktrate und Verbrauch stehen linear in Beziehung, Spannung und Verbrauch verhalten sich sogar quadratisch zueinander
Die Spannung hat zwar grundsätzlich einen höheren Einfluss als der Takt, aber grundsätzlich änderst du die Spannung nicht so stark.

Einfaches Beispiel:
Mein Q6600 springt zwischen 1,05 und 1,21V hin und her (Idle und Last), das macht einen Unterschied von 15%.
Der Takt springt zwischen 2Ghz und 3Ghz - Unterschied von 50%.
Was hat im Alltag also mehr Einfluss? Takt oder Spannung? ;)

Selbst das relativ große Spannungsfenster meines HTPC (0,8V auf 1,1V - 37,5%), wird vom Takt (1,0 Ghz auf 2,3 Ghz - 130%) bei Weitem überholt. Da hilft auch ein quadratsiches Verhältnis nicht mehr.
 
@CHAOSMAYHEMSOAP
Im Notebook sind die Grakas nicht kastriert? :D
Mal davon ab, dass das die gleichen GPUs wie in den Desktopkarten sind.

Aber ansonsten geb ich dir recht, wenn sie die Green nennen dann soll auch ein merkbarer Unterschied da sein. Ich bin gespannt was die Tests zeigen.
 
Find ich gut dass es nun auch stromsparende Versionen gibt. Die Karte ist zwar ziemlich lahm, dennoch ist es ein Schritt in die richtige Richtung. Mehr Leistung bei weniger Verbrauch!
 
ja, bitte weiter so :)

Lasst den unsäglichen stromanschluss bitte aussterben. 75W sind immer noch viel, aber ein schritt in die richtige richtung.
 
Ziemlich lahm? oO Also ich finde eine 9800GT schon recht ordentlich.
 
Mal sehen, wie lange die Karte ihre Krone als "Schnellste ohne Stecker" behalten kann. Leistungsmäßig dürfte es gegen die Radeon 47xx eng werden (von der ich eigentlich eine steckerlose Variante erwarte). Damit sind die Top 10 derzeit:

9800GT Green, 9600 GT Green, 4670, 4650, 9500GT, 8600GTS, 3650, 2600XT, 8600GT und 4550. Die 7800 GS fällt als AGP-Karte raus (dort war die "Steckergrenze" noch bei 25W).
 
Auf jeden Fall der Erste in der Leistungsklasse ohne Extra-"Beströmung" ....

Und ich denke nicht, dass es weiterhin irgendwelche Probleme geben sollte, da der PEG ja so-oder-so bis 75 Watt freigegeben ist und ich nicht denke, dass es Peak-Power ist, sondern Dauerleistung.


Freundliche Grüße,

oykoi
 
Und das Ganze bitte noch in LowProfile für meine Schreibtischkiste - das wärs.
Dann kann's mit CUDA losgehen... :-)
 
Zurück
Oben