News Im Test vor 15 Jahren: Fünf GeForce 8800 GTS 320 mit G80-GPU am Limit

Verblüffend.
Damals bestand die Anpassungsleistung der Boardpartner darin einen bunten Aufkleber auf den Referenzkühler zu kleben und die Taktraten und ggf. Spannungen etwas anzupassen.
Alles andere war nur Chiplotterie und im Rahmen der Messungenauigkeit.
Ergänzung ()

syfsyn schrieb:
das fear nen Ladebug hatte was den vram volllaufen ließ
das war ab der 9800gt+ Geschichte da diese genug vram hatte.
Naja, die 9800GT hatte doch nur 512MB, also eigentlich sogar ein Rückschritt zur 8800GTX und 8800GTS 640.
 
Balikon schrieb:
Dann wäre für doppelte Lautstärke etwa die zehnfache Verstärkerleistung notwendig, richtig?
Das kommt ungefähr hin, ja. Gleichzeitig erzielt man auch durch Verdopplung der Schallquelle eine +3 dB Anhebung, sofern ihr die selbe Menge an Leistung zugeführt wird, sprich:
1x Lautsprecher mit 10 Watt = 95 dB (das wäre übrigens ein sehr wirkungsgradschwacher Lautsprecher)
2x Lautsprecher mit je 10 Watt = 98 dB
4x Lautsprecher mit je 10 Watt = 101 dB

4x Lautsprecher mit je 80 Watt wären demnach schon 110 dB - klar, das ist nicht leise, aber da sieht man mal, wie schnell und einfach mal eigentlich selbst mit heimischen Mitteln, also einem vernünftigen AV-Receiver/Verstärker und ein paar Lautsprechern solche Pegel erreichen kann. Natürlich sollte man die Lautsprecher dabei nicht unbedingt in einem Abstand von einem Meter (oder weniger) rund um sich aufstellen. Solche Werte werden in der Regel immer in einem Meter Abstand gemessen und dann ist noch die Messkurve zu unterscheiden. Im Alltag für Mittel-Hochton wird in der Regel dB(a) verwendet, für den Bassbereich von unter 80 Hz z.B. dB(c) - hier werden in der Regel auch keine typischen Handmessgeräte mit Mikrofon verwendet, sondern Drucksensoren (vgl. Schallpegel vs. Schalldruck). Da sich diese Frequenzen vollkommen unterschiedlich auf das menschliche Ohr auswirken, ist es seitens des Innenohr-Aufbaus bzw. des Trommelfells überhaupt kein Problem, längere Zeit bei 150 dB(c) in einem kleinen, geschlossenen Raum (bestes Beispiel: Autos mit sehr großen HiFi-Installationen) auszuhalten. Im dB(a)-Bereich, also Mittel-Hochton, sorgen schon 120 bis 130 dB nach kurzer Zeit für bleibende Schäden.

So, soviel dazu :D

Solange Grafikkarten also fern von diesen Bereichen bleiben, sollten wir alle zumindest medizinisch betrachtet sicher sein ^^
 
  • Gefällt mir
Reaktionen: Balikon, NMA, ElderThing und eine weitere Person
<NeoN> schrieb:
Punktemäßig hat sicher der E2140 gebremst
Immer noch besser als ein Netburst Pentium.

Ich schmeiß gleich mal den Quad Core mit Quadro FX 4600 an und schaue, was die im 3DMark 06 bringt
Ergänzung ()

DJKno schrieb:
Damals bestand die Anpassungsleistung der Boardpartner darin einen bunten Aufkleber auf den Referenzkühler zu kleben und die Taktraten und ggf. Spannungen etwas anzupassen.
Bei weitem nicht!
DSC_0285.JPG

XFX Geforce 8600 GT Fatal1ty
Ergänzung ()

DJMadMax schrieb:
Solange Grafikkarten also fern von diesen Bereichen bleiben
Bis der Lüfter explodiert und sich durch die Seitenwand fräst🤣
 
  • Gefällt mir
Reaktionen: <NeoN>, Hexxxer76, PietVanOwl und eine weitere Person
DJKno schrieb:
Verblüffend.
Damals bestand die Anpassungsleistung der Boardpartner darin einen bunten Aufkleber auf den Referenzkühler zu kleben und die Taktraten und ggf. Spannungen etwas anzupassen.
Alles andere war nur Chiplotterie und im Rahmen der Messungenauigkeit.
Ergänzung ()


Naja, die 9800GT hatte doch nur 512MB, also eigentlich sogar ein Rückschritt zur 8800GTX und 8800GTS 640.
beim G80 Gabs von Nvidia damals die Vorgabe an die Boardpartner das die Karten only im Referenzdesign verkauft werden dürfen. deswegen gibt es vom G80 nur Referenzkarten.
Immerhion gabs den ein oder anderen Boardpartner der zum die Abdeckung vom Kühler in den Fingern hatte (siehe EVGA mit den ACS3 Modellen welche sogar ne "Backplate" hatten, oder Leadtek und Sparkle)
 
xdevilx schrieb:
Immerhion gabs den ein oder anderen Boardpartner der zum die Abdeckung vom Kühler in den Fingern hatte (siehe EVGA mit den ACS3 Modellen welche sogar ne "Backplate" hatten, oder Leadtek und Sparkle)
Ja stimmt, ich hatte die 8800GTS 640 von Leadtek, da war ne andere Abdeckung aus Metall auf dem Kühler.
 
Also ich kann mich an die Serie echt sehr gut dran erinnern und waren auch die gpus wo ich am längsten in Verwendung hatte. Zuvor habe ich von Jahr zu Jahr immer nur Mittelklasse gpus gegen ne einen Generation weiter Mittelklasse GPU getauscht gehabt. Also immer nur 150 € gpus gegen ne weitere 150 € GPU.
Doch dann war es bei der 8 Gen anderst gewesen.

Ich musste allerdings warten weil wollte Bildschirm mit der 8800gtx zusammen nutzen. Ich hatte 2008 einen schlimmen Unfall gehabt. Habe da Schmerzensgeld bekommen gehabt und von dem Geld mir einen 1920*1200 er Bildschirm samt 8800gtx gekauft gehabt.
Damit spielte ich Crysis und company of Heroes damals noch ohne opposing Front. Die Frames waren gut ,auch wenn manchmal noch immer niedrig gewesen war. Es lag am Athlon 64 X2 4600. Er bremste bei company of Heroes sehr stark. Ich musste darum CPU settings nach unten stellen und die GPU Einstellung bis zum Anschlag .damit könnten der vram und so gut ausgenutzt werden.
Später im Jahre 2011 kaufte ich dann nen i7 3770k und setze da die 8800 GTX dazu. Erst im Jahre 2013 wurde das ganze System sammt GPU ersetzt gegen ne GTX 570. Das ganze System mit der 8800gtx wurde als 2 system weiter verwendet .
Man kann sagen daß ich die 8800 GTX ganze 5 Jahre lang verwendet hatte. Da waren dann auch so spiele wie serious Sam 2 das dank der 8800 GTX auch prima liefen dabei. Dann später wurde dann die 8800 GTX gegen ne 9600 GT getauscht um Strom zu sparen. Die wurden dann vor 2 Jahren gegen ne GTX 750 ti getauscht worden. Also ein Wahnsinns tausch. Ich habe halt die GTX 8800 irgendwie an meinem besten Kumpel verkauft gehabt. Der PC mit dieser GPU steht bei mir noch herum. Viel Geld bekommt man für diese GPU heutzutage nicht mehr. Bekam ich ja für die GTX 570 auch nicht mehr so viel. Man merkt wie schnell heutzutage der Wertverlust ist. Da kann sie noch so legendär sein ,das nützt nix.

Die Entwicklung war wirklich interessant gewesen. Die zweite highend GPU brachte mir nicht mehr so starke Steigerung ein weil die erste GTX Titan dachte ich wow und am Ende naja weil sogar ne GTX 1060 gleich gut war.

Achja der wechsel von GT 7600 zu GTX 8800 war wohl der größte Sprung gewesen den ich je hatte. Und von 8800 GTX zu GTX 570 war dann nicht mehr so groß gewesen wie ich gedacht hatte. Aber für große kantenglättungs Modi notwendig. Weil wenn man da dann mit den hybrid Modi die durch GTX 8800 eingeführt worden waren wie 4*4 als cssaa x32 x16 usw. Wo die Auflösung 4*4 hochskaliert worden waren also die SSAA man waren das Zeiten gewesen. Die könnte ich noch immer nutzen. Diese waren allen Msaa Modi überlegen gewesen. Einziger Nachteil der sehr hohe Bedarf an Speicher sowie auch Rechenleistung. Dank GTX 8800 war es jedoch möglich gewesen zum ersten Mal endlich richtige rohleistung.

Später habe ich diese Games jedoch nicht mehr gehabt weil aufgegeben. War zu schwer und so. Zumindest Spaß dann geiler grafik aber dann sehr wohl gehabt . Also eine schöne Zeit ,kann man so sagen. Würde ich aus heutiger Sicht wieder so machen.
 
  • Gefällt mir
Reaktionen: Hexxxer76 und aklaa
latiose88 schrieb:
Viel Geld bekommt man für diese GPU heutzutage nicht mehr.
Teilweise werden trotzdem noch utopische Preise aufgerufen.
Meinst du die GTX 570?
 
Jap die meinte ich , es war die GTX 570 1,25 GB Version gewesen. Ich habe dafür halt echt nicht mehr so viel bekommen wie ich eigentlich gedacht hatte. Und die war zu der damaligen Zeit meine teuerste gewesen. Die 8800 GTX habe ich durch reduzierten Preis im Handel bekommen gehabt. Soweit richtig in erinnung waren es so 350 - 400 € gewesen also nicht mehr so teuer.
Und mit neuen und ersten Flachbildschirm gab es dann ne höhere Summe dann. Diese rund 750 € entsprach dann mehr als einer GTX 570 dann. Es kommt halt immer drauf an wie man es sieht.
Ich habe da vor 2 Jahren also so rund 40 € dafür bekommen also sehr wenig für ne GTX 570. Aber ich wollte sie wegen des hohen Stromverbrauchs eben nicht behalten.
Nun ja so ist das halt und ich bin froh kein Röhrenmonitor mehr zu verwenden weil das kannst du echt keinen mehr anteuen weil da nur 1280*1024 wirklich nutzbar Auflösung gewesen wäre . Wobei das dürfte dann auch noch ne 8800gtx mit niedrigen Einstellung noch heute packen also zumindest bei borderlands 2 noch.
 
Ich hatte damals noch längere Zeit eine PowerColor Radeon X1950 Pro Extreme. Die war zwar deutlich langsamer, als eine 8800 GTS, kostete aber auch nur gut die Hälfte.
Irgendwann musste aber was neues her, die 8800 GTS mit 320 MB kam aber nicht in Frage, da die damals schon als Speicherkrüppel bekannt war.
War immerhin 60-70% schneller als eine X1950 Pro, hatte aber nur 25% mehr Speicher.
Ist dann eine 8800 GTS 512 geworden, relativ kurz nach Release. Die kam ja sogar noch im selben Jahr, wie die 8800 GTS 320/640, hat aber mit beiden den Boden gewischt. 300 Euro waren dafür ein fairer Preis.
 
  • Gefällt mir
Reaktionen: andi_sco
Und eins darf man nicht vergessen Crysis ist darauf gelaufen!

Hab ich da Zeit ins OC und die Crysis Settings gesteckt um das alles flüssig zu bekommen :)
 
danyundsahne schrieb:
Oh was waren das für glorreiche Geforce 8 Zeiten.
Die Sparkle 8800 640MB war meine erste schnelle GPU. Richtig feines Teil.
Ich habe sie noch heute im Schrank liegen.

Schöner Retro Artikel! Danke.

Ich hatte zwei Sparkle GTS 8800 Karten. Mein erster und zugleich auch mein einzigster SLI Verbund den ich mit Nvidia Karten hatte. Nach diesem Abenteuer habe ich nie mehr zwei Karten Experimente gewagt.

Die erste Sparkle habe ich dann nach zwei Jahren verkauft und der Nachfolgebesitzer hat sie dann auch relativ schnell klein gekriegt weil er sie bis zum Abkotzen übertaktet hatte. Das Endresultat waren nach nach zwei Jahren zum ersten mal Reinigung total ausgehärtete Wärmeleitpads auf den VRAM Chips und Spannungswandlern, von der GPU Paste reden wir erst gar nicht.

Die Karten waren gut, nur bei der einen war die Fertigung anscheinend ein Montag. Die Karten wurden im SLI Verbund auch sehr warm, vor allem die untere Karte trotz NZXT Zero Gehäuse.

Es war eine schöne Zeit mit den G80 Chips, nur hatte ich mit AMD leider auf den falschen Unterbau gesetzt. Richtig gut liefen die Beschleuniger erst mit einem Sockel 775 XFX Mainboard mit nForce 680LT Chipsatz und dem Core 2 Quad 6600.
 
  • Gefällt mir
Reaktionen: danyundsahne
nun, soviel mehr verbraucht mein System auch heute nicht. bin bei 290-310 Watt beim zocken. nur Division 2 verballert ca 350 Watt, aber da ist kein uv bei der GPU eingestellt ..
 
Balikon schrieb:
Die 8800er Serie ist für mich Legende. Es gab, glaube ich, bis dahin keine Graka-Serie, die solange mit dem Entwicklungsfortschritt bei Spielen mithalten konnte.
Würde noch sagen die 7970er von AMD. Es kommt auch an den Anspruch an. Zur Zeiten der 8800er hat sich glaube ich ein gewisser Anspruch etabliert der bedient werden konnte und zu Lebzeiten nicht sonderlich in die Höhe gegangen ist. Bei einer 7970er gehen wir von teilweise 1080p Anspruch zu 2k, zu 4k über, von teilweise 60hz zu 140hz, zu 240hz, den unteren Anspruch kann sie teilweise heute noch erfüllen.

Die 8800er waren natürlich auch stark bzw. die Konkurrenz zu schwach, hat ja bis zur 4xxx AMD Generation gedauert um die endgültig zu schlagen, aber dann so das die 2xx Nvidia preislich viel zu schlecht aufgestellt waren, Anfangs. Aber das bedeutet auch bei Nvidia hat es bis zu den Zeitpunkt eigentlich keine wirkliche Steigerung gegeben.

Das waren 3 Jahre in dem Entwickler nicht auf stärkere Hardware setzen konnten bei der Entwicklung. Von Konsolen-Seite gab es auch keinen weiteren großen Sprung die waren ja erst released.
 
Das erinnert mich an meine erste "richtige" Grafikkarte, nachdem ich immer nur mit alten gebrauchten ala 5200fx, 6600gt..... rumgeeiert bin, stand damals vor der Entscheidung eine 8800 gts 320 oder die "modernere" 8800 GS mit 384mb Speicher zu kaufen, es wurde letztlich die 8800 GS und es war rückblickend auch meine beste Investition gewesen welche mir viele Jahre lang treue Dienste lieferte und sich nachdem scheinbaren ableben noch mittels "backen" für weitere 6 Monate benutzen lies :daumen:, danach ging es erst mit Big Fermi (Gen5) weiter
 
Ohje der 320 mb Blender, wobei mich ein Vergleich des Aufbaus zur damaligen xbox hier interessieren würde mit wie viel RAM die gearbeitet hat.
Die Nvidia G80 Karten ähnelten sehr dem Xbox Aufbau. Evtl liefen die Damaligen Games for Windows Live, ja besonders gut, da teils auch auf Xbox erhältlich
Twimtbp inkludiert,
Für den Rest empfahl es sich dx9 unter Vista nachinstallieren, und evtl auch das eax dessen Hardwarebeschleunigung in der Soundkarte ja auch mehr FPS brachte.
Wobei vermutlich die ATI Karten für dx9 xbox 360 Titel von gfwl die besseren Modelle waren, auch wenn deren Leistung im Vergleich nicht so hoch war
 
Zuletzt bearbeitet:
Painkiller72 schrieb:
Die Karten waren gut, nur bei der einen war die Fertigung anscheinend ein Montag.
Die Sparkle Karten waren zu 50% Montagsmodelle. Die sind doch reihenweise gestorben.
Die G80 Karten waren grundsätzlich nicht sehr langlebig hier wurde auch das Thema backen richtig populär.
 
  • Gefällt mir
Reaktionen: pulsar1
Pitt_G. schrieb:
damaligen xbox hier interessieren würde mit wie viel RAM die gearbeitet hat.
Die Nvidia G80 Karten ähnelten sehr dem Xbox Aufbau
512 MB Unified RAM für die XBox 360 und dem ATi Xenos Chip (ca. Radeon X1800).
Sowie die Playstation 3 mit 256 MB Arbeitsspeicher und 256 MB VRAM für den nVidia Rasterizer, der ca. einer 7800 entspricht.

Das sind jedenfalls die Daten von Wiki

Da lagen jedenfalls schnell Welten dazwischen
 
  • Gefällt mir
Reaktionen: Pjack und Pitt_G.
DJKno schrieb:
Die G80 Karten waren grundsätzlich nicht sehr langlebig hier wurde auch das Thema backen richtig populär.
Stimmt leider, wie ich an eigenen Backversuchen erlebt habe.

Hier die Basis meines Systems mit einer 8800 GTS:
1648973810774.png
1648973864205.png

Die 8600 GTS erwies sich als zu langsam für den gerade veröffentlichten FS:X, daher musste eine Club3D 8800 GTS 640 MB erworben werden, damals gekauft bei ATELCO für EUR 399,-.

1648973887831.png


Die hohe Leistungsaufnahme der G80-GPUs war zusätzlich beachtenswert, auch im Idle. Angeblich hat der Stromsparmechanismus nie funktioniert. Also musste Rivatuner nachhelfen. Mit abgesenkten Taktraten auf 198 MHz im Windows-Betrieb konnte ich den Lüfter auch langsamer laufen lassen, was das Arbeiten deutlich erleichterte.

Ein Zero-Fan-Modus war noch Jahre entfernt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pjack, PietVanOwl und andi_sco
DJKno schrieb:
Die Sparkle Karten waren zu 50% Montagsmodelle. Die sind doch reihenweise gestorben.
Die G80 Karten waren grundsätzlich nicht sehr langlebig hier wurde auch das Thema backen richtig populär.

Leider konnte man hier noch bei einigen Herstellern feststellen, was man heute zum Glück seltener feststellen muss. Schlechte Wärmeleitpads, die sehr schnell ausgehärtet sind.

Ist für mich heute auch noch ein Grund, warum ich VRAM nicht mehr übertakte. Warum auch ? Kurzlebigkeit nur für ein paar FPS mehr ? Nicht bei den heutigen Preisen für einen Pixelbeschleuniger.

Meine Gigabyte RTX 2070 Super ist schon von Werk aus ein OC Model. Ich habe sie durch UV gebändigt weil mich das Spulenfiepen so genervt hat.

Heute bin ich wesentlich genügsamer als damals, was die Leitung einer Graka angeht.
 
Wie können 320 MB "Speicherkrüppel" bedeuten, wenn selbst die 256 MB Varianten der 8800 GT in Benchmarks unauffällig waren und nur in hohen Auflösungen bei 4x MSAA langsamer war?

Die 320 MB Version der 8800 GTS war die Sparvariante der Mittelklasse. Dafür war die Speicherausstattung angemessen.

Ich hatte die 8800 GTS 512 lange im Einsatz und nie Probleme mit dem Speicher. Selbst die 9800 GTS kam ja mit 512 MB...


Viele vergessen eben -auch heute noch- dass man, wenn man ein bestimmtes FPS ziel hat, nach 2-3 Jahren die Grafikdetails auch mal reduzieren muss. Dadurch sinkt der Speicherverbrauch teilweise stärker als viele vielleicht glauben (nicht nur Texturen belegen Speicher). Der Speicher kann damit über viele Jahre ein non-issue sein.


Leider gibt es kaum Benchmarks bei denen ältere Karten mit spielbaren FPS Werten getestet werden. Da siehst du dann nur zufällig in irgend nem Benchmark z.B. die 512 oder 1024 MB Varianten bei 20-30 FPS rumkrebsen und irgend jemand nutzt das dann als Argument von wegen "siehste! Da, gereift wie feiner Wein, die ist jetzt dank doppeltem Speicher 50% schneller". Sorry, aber bei sowas kann ich mir dann auch nur an den Kopf fassen.

Mehr Speicher ist ja immer schön und gut, aber man sollte seine Schlüsse eben auch aus praxisnahen Szenarios (bei Settings, die 60+ FPS auf der jeweiligen Karte erlauben!) ziehen und da sieht das meistens deutlich weniger problematisch aus.


Zum Glück wird die Diskussion in Zukunft mit Direct Storage und SFS ein Ende haben. Denn dann wird der Grafikspeicher wie ursprünglich angedacht eben wirklich zum reinen "Framebuffer" und wird nur noch die Daten fassen müssen, die aktuell am Display aufgelöst werden können, dank VRAM Virtualisierung.

Die Qualität und Anzahl von Texturen und Objekten sollte damit keinen Einfluss mehr auf den benötigten Grafikspeicher haben.
 
Zuletzt bearbeitet:
Zurück
Oben