News Im Test vor 15 Jahren: Die GeForce 7900 GTX in 90 nm und mit höherem Takt

jotecklen schrieb:
Wenn man die Inflation einbezieht würde die Karte heute 630,- € kosten ca.

Erzähl das mal den Mieten, den Löhnen oder dem Goldpreis.

Der Warenkorb zur Berechnung der Inflation ist doch langsam nur noch lächerlich.

Wenn man den Preis der Karte in Gold bezahlt hätte, wären heute 1500 Euro der Gegenwert.

btt:

Wenn man den Nachfolger betrachtet, hat Nvidia hier tatsächlich noch genug "dumme" gefunden, die sie gekauft haben.

mfg
 
  • Gefällt mir
Reaktionen: bad_sign, maggotno999, jotecklen und 3 andere
[wege]mini schrieb:
Wenn man den Preis der Karte in Gold bezahlt hätte, wären heute 1500 Euro der Gegenwert.
Gold ist aber weder täglicher Bedarf noch Teil der durchschnittlichen Haushaltsausgaben.

Und Finanzwerte werden in dem Warenkorb weitestgehend ausgeblendet, der Gold-ETF der /r/finanzen-Leute ist da eher egal.
 
  • Gefällt mir
Reaktionen: jotecklen
@0x8100 na, dennoch sind die Karten heute sparsamer als damals. Betreib mal eine GTX 2080Ti mit der Leistung eine GTX 7900, dann taktet die Karte nichtmal hoch.

Von der Effzienz brauchen wir erst garnicht anfangen. Um die Leistung einer RTX 2080Ti zu erreichen musst du, ich schätze mal, 30-40 GTX 7900 zusammenpacken. Auch wenns nur 20 sind, verbrauchen die dann noch über 3000w/h.

Ist halt ne Milchmädchenrechnung, wenn man sich über den Verbrauch heutiger Karten aufregt.
 
  • Gefällt mir
Reaktionen: Klever
[wege]mini schrieb:
Was aber leider Quatsch ist.

Die Wahrnehmung der Menschen ist unterschiedlich und die "Verdoppelung" pro 10 dB ist nun einmal höchst subjektiv.
2 Gramm Zucker sind 2 Gramm. Ob du den Kaffee dann gleichsüß empfindest wie ich ist für den objektiven Vergleich unerheblich. Spätestens wenn 2 Geräte mit der selben Skala gemessen werden kann man die Werte vergleichen.
Und das ist der ganze Sinn und Zweck.

Das andere ist die subjektive, rechnerische und "gefühlte" Unverständlichkeit von dB. Und das wollte der Erstposter damit ausdrücken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rumpeLson, Yesman9277, II n II d II und eine weitere Person
Looniversity schrieb:
Jaa :) Die hat bei mir auch Dienst getan. Aber nur vier (?) Jahre, dann war der VRAM schon im Eimer. Das war schwach.

Müsste die Zeit des nVidia-"Backens" gewesen sein.
Meine ist auch am VRAM krepiert, aber noch gut innerhalb der Garantie. Modell war nicht mehr lieferbar, also hab ich einen Gutschein bekommen - und mit ein paar Euro Aufpreis ne ATi gekauft, müsste die 1950XT gewesen sein. Die musste dann einer 8800 GTX weichen, der G80 war einfach leider geil...
 
CyrionX schrieb:
Und das wollte der Erstposter damit ausdrücken.

Er wollte sagen, dass die Erhöhung von 53 auf 61 über 80% sind. Hier sind wir dann bei Wahrnehmung.

Bei den reinen Zahlen, sind es nicht einmal 20% ;D

Looniversity schrieb:
Gold ist aber weder täglicher Bedarf noch Teil der durchschnittlichen Haushaltsausgaben.

Gold ist ein Indikator für Ausgaben. Was deine täglichen Ausgaben sind, kann sowieso niemand anderes sagen. Wenn also die sogenannte Weißware im Index in sehr kurzen Zeitabständen enthalten ist, verfälscht das. Oder die Einberechnung der technologischen Entwicklung für Elektronik. Wenn das neue Gerät mehr kann aber gleich teuer ist, ergibt das im Index einen gesunkenen Preis.

Ich schau mir meist den Wert von Immobilien in Goldmark an. Gerne auch die Kosten in Kilogramm. (wurde vor den Nationalsozialisten so berechnet) und vergleiche das mit heutigen Preisen. Das Gold ergibt einen guten Durchschnitt, der tatsächlichen Inflation.

Die günstigen Nahrungsmittelpreise (als Beispiel) spiegeln doch die Inflation nicht wieder. Sie zeigen nur deutlich, wie sehr die Erzeuger heute ausgeplündert werden.

btt:

Das Geld für die (aktuelle) Hardware ist vorhanden, die Preise sind absolut Marktgerecht und zu behaupten, sie würden der Inflation nicht gerecht werden zeigt nur deutlich, dass man an eine falsche Zahl für die tatsächliche Inflation glaubt. Die Menge an verfügbarem Geld ist einfach unglaublich gestiegen, in den letzten Jahrzehnten.

mfg
 
  • Gefällt mir
Reaktionen: jotecklen
Nö. Es ging um das Nichtverständnis der Umrechnung.
Da waren noch mehrere Zahlen im Text. Das bedeutet das ist ein Vergleich.
Dann noch, dass "wie früher" viele die Kurve von dB nicht kennen. Kannst du mir folgen?
 
CyrionX schrieb:
Dann noch, dass "wie früher" viele die Kurve von dB nicht kennen.

Wir sind hier zwar bei Graka´s, wir schaffen es aber schon, es passend zu machen.

Damit die dB Angabe überhaupt sinnvoll wäre, müsste man die Frequenz des Geräusches noch mit einfließen lassen. Unterschiedliche Frequenzen können gleiche Drücke haben und werden trotzdem unterschiedlich wahrgenommen.

Man versucht jedoch, jedem Hinz und Kunz irgend einen Wert an die Hand zu geben, dass er sich ungefähr vorstellen kann, wie "laut" das alles dann ist. 50 dB im Infraschallbereich, merkst du nicht einmal.

Und versuche doch bitte deinen Unterton ein wenig zu mäßigen. Wenn du mir etwas beibringen kannst, habe ich persönlich absolut nichts dagegen. :D

mfg
 
TenDance schrieb:
Müsste die Zeit des nVidia-"Backens" gewesen sein.
So um den Dreh war das, ganz aus der Mode gekommen ist der Backtag aber immer noch nicht :D Bei meiner war nichts zu machen, jedenfalls nichts von Dauer, nach den ersten Fehlern nahm die Karte ein schnelles, dickes Ende. Schade wars. Bei beiden Herstellern ist das Backen immer mal wieder in Mode, auch wenn ich da keinen Überblick habe: Die Radeon 5850 danach ist immer noch geil und packt Anno 1800 - irgendwie jedenfalls, und gerade in Anbetracht der aktuellen Preise bin ich damit immer noch echt glücklich.
 
  • Gefällt mir
Reaktionen: Shoryuken94
Jetzt dauert es nicht mehr lange bis zur GeForce 8800 GTX und der Antwort HD2900XT, die trotz Dumpingspreis enttäuschte.
 
Xtrasmart schrieb:
Man sieht halt schon mal wieder, dass bei Verbräuchen von 204 Watt (Nvidia) und reichlich 250 Watt (ATI) schon ein Bereich erreicht wird, in dem man heute die Karten zwischen 2070 bis zur 2080 / Ti verorten kann.
Der Umstand, dass die Netzteile damals mit 400 - 550 W (und dann hatte man damals schon ein "Power" Netzteil) zeigt, dass der Energieverbrauch in diesem Bereich und jenseits der Problematik der Wärmeableitung in der Entwicklung bis heute keine Rolle spielt - dies ist auch analog auf die Konsolen übertragbar und ein Umstand, über den sich grundsätzlich die Industrie Gedanken machen sollte, wenn sie sich das "grüne Mäntelchen" umhängen will - und nicht der Anwender, der sich mit steigenden Strompreisen konfrontiert sieht. Aber die Industrie reagiert ja stets nur auf Druck "von Außen" - wie man an der Autoindustrie sehen kann.
Es war das Gesamtsystem das damals bei CB gemessen wurde, nicht die Karte. Das Gesamtsystem nahm 205W (Nvidia) bzw. 266W (ATI) auf. Das war übrigens auch die Zeit als AMD eigentlich Nvidia übernehmen wollte statt ATI, was allein daran scheiterte das Jensen CEO des Ganzen werden wollte, also Hector Ruiz seinen Job übernehmen. Deshalb schwenkte man dann auf ATI um.

@so_oder_so und @Skidrow1988 die 7900GTX war sehr leise, die 7900GT und die 7900GX2 bzw. 7950GX2 waren extrem laut. Selbst bei meinem SLI System hört man nicht wirklich unter Last die Grafikkarten aus dem PC heraus. Da ist die HDD lauter.

Meine beiden 7900GTX laufen auch heute noch ab und an bei einer Runde MfS Underground, Riddick, Doom 3 , Max Payne 2 etc..
7900_SLI.jpg
IMG_4139.JPG
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: -=[CrysiS]=-, Romanow363, jotecklen und 8 andere
Schaby schrieb:
@0x8100 na, dennoch sind die Karten heute sparsamer als damals. Betreib mal eine GTX 2080Ti mit der Leistung eine GTX 7900, dann taktet die Karte nichtmal hoch.

Von der Effzienz brauchen wir erst garnicht anfangen. Um die Leistung einer RTX 2080Ti zu erreichen musst du, ich schätze mal, 30-40 GTX 7900 zusammenpacken. Auch wenns nur 20 sind, verbrauchen die dann noch über 3000w/h.

Ist halt ne Milchmädchenrechnung, wenn man sich über den Verbrauch heutiger Karten aufregt.
natürlich sind heutige karten wesentlich effizienter, wenn man die leistung der damaligen 7900gtx abrufen will. aber man muss auch sehen, dass damalige top-modelle weniger strom (tdp der 7900gtx: 84W) aufgenommen haben als heutige. inzwischen werden die 320W einer 3080 fast kommentarlos hingenommen und auch die mittelklassemodelle kommen nicht unter 200W. der größte anteil an der heutigen mehrleistung kommt natürlich von den besseren fertigungsverfahren, aber es wird auch einfach mehr elektrische leistung benötigt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThePlayer
Hardy_1916 schrieb:
Es war das Gesamtsystem das damals bei CB gemessen wurde, nicht die Karte. Das Gesamtsystem nahm 205W (Nvidia) bzw. 266W (ATI) auf.
Trotzdem war der Strombedarf der alten Systeme höher als heutige, weil der Abstand Idle zu Höchstleistung gering war. Damals gab es keine Gamer PC mit unter 100 Watt Idle Verbrauch, aber sie wurden für alles genutzt und heizten dann unnötig bei allem, was kein Gaming war. Man kann sich das ausrechnen, wenn jemand einen Q6600 PC mit 8800 GTX 10 Jahre für alles nutzt, was da für Energie verschwendet wird. Andere, die neben dem reinen Gaming PC noch einen Laptop oder Mini PC für alles andere in der Zeit nutzten, sparten Geld.
 
  • Gefällt mir
Reaktionen: Klever und Swiffer25
War eine schöne Karte, hatte sie damals drin. P/L und Lautstärke waren wirklich gut.
 
@deo, das steht außer Frage, aber eine Karte brauchte keine 200W.
Außerdem gab es damals schon Cool and Quiet bei AMD und auch die 7900GTX takteten sich runter.
Später hatte ich einen Phenom X4 9850 mit GTX280 auf einem M3N-HT Deluxe. Es gab damals die Hybrid SLI Treiber die die 280 GTX in den Schlaf schickte und dann die Bildausgabe die Onboard GPU übernahm.
Ich müsste das Board und die 280GTX mal wieder einbauen, ob das noch läuft. Green IT fing damals an, zwar ganz langsam, aber es war ein Umdenken erkennbar.
 
Da ich eine Wassergekühlte XFX GTX7800 512 XXX hatte habe ich die 7900 übersprungen danach kam eine der besten Grafikkarten :)
 
[wege]mini schrieb:
Wir sind hier zwar bei Graka´s, wir schaffen es aber schon, es passend zu machen.

Unterschiedliche Frequenzen können gleiche Drücke haben und werden trotzdem unterschiedlich wahrgenommen.

Man versucht jedoch, jedem Hinz und Kunz irgend einen Wert an die Hand zu geben, dass er sich ungefähr vorstellen kann, wie "laut" das alles dann ist. 50 dB im Infraschallbereich, merkst du nicht einmal.
mfg
Wie genau spielen Infraschall oder tiefe Bassfrequenzen jetzt in Grafikkartengeräusche mit ein?
Die "lautheits" Referenz ist für jeden subjektiv. Habe ich doch nie bestritten. Sehe ich, dass Grafikkarte X mit 40dB gemessen wird und vergleiche sie mit meinem Erfahrungswert von Grafikkarte Y die 30dB aufweist, kann ich mir ungefähr ein persönliches Bild der Lautstärke in meinem Gehäuse erstellen. Wer noch nie eine Grafikkarte gehört hat, dem bringt das natürlich nichts.

Und versuche doch bitte deinen Unterton ein wenig zu mäßigen. Wenn du mir etwas beibringen kannst, habe ich persönlich absolut nichts dagegen. :D
Auf mich wirken deine Einwände, als hätten sie nur das Ziel den Kontext zu verfälschen. Ich würde auch nie Flugzeugturbinen mehr t Presslufthämmern vergleichen. Was du als Agression auffasst ist vielleicht auch nur Widerstand auf deinen eigenen Argumentationsdruck ;)

MfG
 
Zuletzt bearbeitet:
Zurück
Oben