News Im Test vor 15 Jahren: Die GeForce 7900 GTX in 90 nm und mit höherem Takt

Danke für den Rückblick. Die Karte war damals unbezahlbar für mich. Wie die Zeit vergeht...
Heute sehe ich es nicht ein, den doppelten Preis über UVP zu bezahlen😁.
 
0x8100 schrieb:
die im artikel erwähnten werte beziehen sich auf das gesamtsystem.
wohlgemerkt inklusive des effizienzverlustes im NT:D

Schaby schrieb:
na, dennoch sind die Karten heute sparsamer als damals.
sparsamer? im leerlauf ja, unter last absolut nicht. effizienter? klar, drastisch. aber effizient und sparsam sind zwei paar schuhe. ne 750ti z.b. ist nach heutigen maßstäben immer noch ne sparsame, aber keine effiziente karte mehr.
 
  • Gefällt mir
Reaktionen: Shoryuken94
War das nicht die krasse Nvidia Flimmerkiste damals?
 
  • Gefällt mir
Reaktionen: Looniversity
Wenn die Karte ohne Last so unerträglich laut war wie unter Vollast, dann war es eine Xpertvision :)
 

Anhänge

  • 20210327_134707.jpg
    20210327_134707.jpg
    126,6 KB · Aufrufe: 323
  • Gefällt mir
Reaktionen: Hardy_1916
Ich hatte die MSI 7900 GTO, die - soweit ich noch weiß - bis auf die Taktraten eigentlich eine GTX war - dafür aber nur halb so teuer.

Es war bisher aber auch die einzige Grafikkarte bei mir, die "einfach so" nach längerer Zeit den Geist aufgegeben hat. Glücklicherweise gab dann schon für ca. 110 Euro die AMD HD 4850, die ein bissel flotter war. (Man überlege, was man heutzutage für Grafikkarten für diesen Preis neu bekommt.)
 
  • Gefällt mir
Reaktionen: ThePlayer
Aber der wahre Knaller war doch die 7900 GTO =)
Oder täuscht mich meine Erinnerung da? Ist schon bisschen her
 
  • Gefällt mir
Reaktionen: Looniversity
xpgx1 schrieb:
Oder täuscht mich meine Erinnerung da?
Nope, genau richtig- das war die kleinere Karte wieder aufgebohrt. Blöd für alle Enthusiasten, weil die erst später kam als das Geld schon weg war und der geringere Preis nicht mehr hilfreich war, aber ich hab mir da nen Keks gefreut. :D

Ich weiß gar nicht, ob es in späteren Generationen öfters solche Modelle gab. Hab seitdem nur noch eine Karte gekauft und den Markt im Detail nicht verfolgt.
 
  • Gefällt mir
Reaktionen: xpgx1
Die GTO war eine vollwertige GTX mit niedriger getaktetem Speicher. Der hatte allerdings schärfere Timings, konnte man seine GTO erfolgreich auf GTX Taktraten flashen, war die GTO schneller als die GTX. Das machte die Karte so besonders.
 
  • Gefällt mir
Reaktionen: xpgx1
Mystique_ schrieb:
ATI Radeon X1950XTX - Der letzte Direct3D-9-Nachbrenner!

Zu lesen hier auf ComputerBase. Die einzig wahre Karte! Läuft bei mir mit einem DualCore Opteron 185!



Ohja, war damals schon ein Traum. Ich fand es absolut faszinierend, wie nVidia damals nur mit einer Dual-GPU gegen die X1950XTX ankam. Ein Brett!


FeldiSan schrieb:
War das nicht die krasse Nvidia Flimmerkiste damals?


Ja, waren sie. War damals aber vielen wohl egal. Genau wie Mikroruckler. Hat beides keine Aufmerksamkeit bekommen und wurde entweder nicht wahrgenommen oder stillschweigend ignoriert. Ist ja mittlerweile Gott sei Dank vorbei...


Looniversity schrieb:
Nope, genau richtig- das war die kleinere Karte wieder aufgebohrt. Blöd für alle Enthusiasten, weil die erst später kam als das Geld schon weg war und der geringere Preis nicht mehr hilfreich war, aber ich hab mir da nen Keks gefreut. :D

Ich weiß gar nicht, ob es in späteren Generationen öfters solche Modelle gab. Hab seitdem nur noch eine Karte gekauft und den Markt im Detail nicht verfolgt.


Direkt die nächste Generation danach gab's die HD2900 Pro. Eine stark runtergetaktete XT mit ansonsten demselben Chip, aber zu Dumpingpreisen von knapp über 200€ wenn ich mich recht entsinne. OC auf über XT-Niveau war auch drin, und dann hatte man für kleines Geld schon ein ziemliches Brett, wenn man den Stromverbrauch außer acht ließ, denn dass der R600 mit der GTX nicht mitkam war für den Preis dann auch egal.
 
Bierliebhaber schrieb:
Bei der B-Note hätte man auch die absolut miese Bildqualität erwähnen können...
NVidia wäre für mich damals mit dieser Schummelei nie in Frage gekommen. Die wussten, dass sie gegen ATi bei gleicher Bildqualität keine Chance hatten und haben lieber geschummelt...
Bitte was?
War nicht AF bei ATI damals der letzte Mist?
 
SavageSkull schrieb:
Bitte was?
War nicht AF bei ATI damals der letzte Mist?

Nö, das war Nvidia.
Die 7000er Serie hatte im Vwrgleich zu ATI ein sehr schlechtes AF, da hat Nvidia mehr auf Performance geachtet.
Erst die 8000er Serie zeigte ATI dann überall die Rücklichter.
 
  • Gefällt mir
Reaktionen: Looniversity
SavageSkull schrieb:
Bitte was?
War nicht AF bei ATI damals der letzte Mist?


"Der letzte Mist" war ATi da schon eine Weile nicht mehr, im Gegenteil. Die Xx00er und die X1x00er waren nVidia meilenweit überlegen. NVidia hat seit den GF6 mangels Leistung bei der Filterung ganz schön rumgetrickst. Die GF6 waren schon ein Schritt zurück und der Konkurrenz von ATi deutlich unterlegen, aber gerade bei den GF7 wurde die Bildqualität nochmal stark zurückgefahren, da gab es anfangs selbst mit High Quality enormes Texturflimmern. Da konnte man eigentlich nur zu ATi greifen, da hat man selbst mit Optimierungen auf Leistung wesentlich besseres AF bekommen als bei nVidia mit was die Bildqualität betrifft bestmöglichen Einstellungen.
Die Treiber haben das später teilweise behoben. Zwar auf Kosten der Leistung, und auf Standard war das Bild immer noch Grütze und man musste manuell im Treiber auf High Quality schalten, um mit ATi mit Standard-AF mitzuhalten (wurde bei CB auch so getestet), aber immerhin hatte man wieder die Option, zumindest halbwegs konkurrenzfähiges AF zu nutzen. Wobei das wenn ich mich recht entsinne nicht für OpenGL galt, da war das AF bei nVidia auch zu G80-Zeiten noch kaputt.
 
  • Gefällt mir
Reaktionen: [F]L4SH, Der Paule und Looniversity
CyrionX schrieb:
Sehe ich, dass Grafikkarte X mit 40dB gemessen wird und vergleiche sie mit meinem Erfahrungswert von Grafikkarte Y die 30dB aufweist, kann ich mir ungefähr ein persönliches Bild der Lautstärke in meinem Gehäuse erstellen.

Na wenigstens sind wir uns da einig.

Ob du jetzt den Unterschied von 10dB als doppelt so laut (von 30 kommend) oder eher nur als 1/3 lauter einstufst, liegt an dir persönlich.

Es soll halt ein Anhaltspunkt sein. Das Ganze dann in Prozenten auszudrücken ist per se nicht sonderlich hilfreich, wird aber gerne gemacht.

Der Infraschall ist genau wie der Ultraschall (oder die unangenehmen Töne von Spannungswandlern) zwar messbar, die meisten Menschen hören hier aber absolut gar nichts.

Selbst Pfeifen für Hunde werden in dB angegeben. Da hören wir aber alle nichts mehr.

Daher, um den Faden (edit lol, mit Pf...kommt vor) nicht zu verlieren, ist die gesamte Diskussion ziemlich sinnlos. Manche nehmen den Unterschied zwischen 53 und 61 dB als doppelt so laut wahr, manche sind so taub, die hören noch gar nichts und andere merken einen linearen Anstieg. Es ist eine Hilfsgröße für Menschen, die ihre Bildung gerne aus Büchern beziehen.

mfg
 
Zuletzt bearbeitet:
.... die Zeiten als AF noch Leistung gekostet hat und verschiedene QUalitätstufen vorhanden waren.
Looniversity schrieb:
Nope, genau richtig- das war die kleinere Karte wieder aufgebohrt. Blöd für alle Enthusiasten, weil die erst später kam als das Geld schon weg war und der geringere Preis nicht mehr hilfreich war, aber ich hab mir da nen Keks gefreut. :D

Ich weiß gar nicht, ob es in späteren Generationen öfters solche Modelle gab. Hab seitdem nur noch eine Karte gekauft und den Markt im Detail nicht verfolgt.
Ja gabs mit der 8800gts 512mb zb., die die 8800gts 640mb leicht geschlagen hat bei der Rohleistung.

Evtl noch.:
560Ti (448 Shader) vs. GTX 570
1070TI vs. 1080
RTX 2XXX vs. RTX 2XXX Super (vorallem die RTX 2060 Super, weil hier auch noch 2GB vram oben drauf kahmen)
diverse XXX Ti vs. Titan (Titan hatte oft weniger Leistung (Games) und nur mehr vram )
 
  • Gefällt mir
Reaktionen: Looniversity
Hardy_1916 schrieb:
@deo, das steht außer Frage, aber eine Karte brauchte keine 200W.
Außerdem gab es damals schon Cool and Quiet bei AMD und auch die 7900GTX takteten sich runter.
Später hatte ich einen Phenom X4 9850 mit GTX280 auf einem M3N-HT Deluxe. Es gab damals die Hybrid SLI Treiber die die 280 GTX in den Schlaf schickte und dann die Bildausgabe die Onboard GPU übernahm.
Ich müsste das Board und die 280GTX mal wieder einbauen, ob das noch läuft. Green IT fing damals an, zwar ganz langsam, aber es war ein Umdenken erkennbar.
Sicher? Meines Wissens kam das doch erst mit G92? Oder verwechsle ich das mit dem Runtertakten des VRAMs?
 
90nm Fertigung und heute sind wir bei 7nm oder auch schon fast bei 5nm wahnsinn hatte damals bei der nvidia 780 ti (28nm) schon gedacht es geht nicht mehr viel kleiner.
Bin gespannt wann schluss ist ich denke späterstens bei 1nm ist entgültig das ende erreicht.
 
Bei planarem NAND für SSDs kam es zu einem Punkt, wo die weitere Verkleinerung der Strukturen keine Vorteile mehr brachte und man erfand den 3D-V- NAND und stapelt ihn in immer mehr Schichten (Layern).
 
Raucherdackel! schrieb:
Sicher? Meines Wissens kam das doch erst mit G92? Oder verwechsle ich das mit dem Runtertakten des VRAMs?

Bei GTS 250 :
https://www.computerbase.de/2009-03/test-nvidia-geforce-gts-250/

"Darüber hinaus hat Nvidia der GeForce GTS 250 einen Stromsparmechanismus spendiert, der die Taktraten im Leerlauf herunter schraubt."

Aber man kann auch selbst manuell heruntertakten, z.B. mit Rivatuner oder Powerstrip Tool.
 
Zurück
Oben