News Im Test vor 15 Jahren: Platz da, hier kommt die GeForce 8800 GTX

Eine 8800GTX hatte ich damals auch, allerdings später, als ich die von meinem späteren Schwager abgekauft hatte. Lief zusammen mit nen E6600. Konnte ich endlich in Supreme Commander die Grafik hoch stellen.
Später hatte ich mal einen Sidegrade gemacht (hatte wenig bedarf für mehr Grafikleistung zu der Zeit) auf ne Einsteiger-Radeon von Sapphire, passiv gekühlt und durch Stromsparmechanismen gerade im Idle deutlich Sparsammer.
 
Gelbsucht schrieb:
Ja gut, das is aber nur logisch. Das hab ich auf FB im späten 2008 oder 2009 auch schon geschrieben, als es um CPUs ging. Die Verkleinerung von Strukturen is halt endlich bzw die Hitzeentwicklung auf zu kleinem Raum wird ein Problem.
Das Beispiel 8800GTX ist besonders.
Der G80 (8800 GTX) und der G71 (7900 GT/GTX) wurden im gleichen Fertigungsverfahren produziert, doch der G80 war mit 484mm² vs 196mm² wirklich massiv größer. Selbst Turing stellt vs Pascal damit verglichen nur eine geringe Vergrößerung der Chipfläche im gleichen Grundfertigungsverfahren dar.
 
Gelbsucht schrieb:
Aha, ok. NVENC und NVDEC haben heute aus gutem Grund mit den CUDA-Cores nichts zu tun.
Mich würde also interessieren welche Software damals mit einem G80 und CUDA 1.0 überhaupt GPU-Encoding angeboten hat und wie brauchbar das gewesen sein soll? Denn es gab damals keine dedizierten Einheiten dafür.
 
Das erste Tool, was ich kenn, war beschriebenes Badaboom, das hab ich auf der 8600GTS getestet. Das gab schon einen erstaunlichen Temposprung, soweit ich mich noch erinnere. Drauf gekommen bin ich meine sogar über CB hier, weil die ne News dazu hatten. Moment ich suche...

gefunden= https://www.computerbase.de/2008-10/badaboom-1.0-video-transcodierung-mittels-cuda/

Aber wo Du es ansprichst, ich hab in den letzten rund 8 Jahren immer wieder probiert, wie GPU-Encoding aussieht und die Ergebnisse waren schlecht (alle paar Sekunden Block-Artefakte bei H.264 Export). Ich rendere bzw transkodiere Videos bis heute daher klassisch über CPU.

Was schade is, denn schon meine 780ti damals konnte FullHD (von Fraps Datei nach H.264 / .mp4) bei nicht übertriebenen Einstellungen so ziemlich in Echtzeit umwandeln.
 
@Kasjo

Das mag zwar die Lösung sein aber nicht die beste, weil durch das Öffnen verliert man ja seine Garantie. Im Zweifel hat man also Pech und joa man muss es auch können. Es reicht nicht aus nur den Laptop zu öffnen und so. Ich könnte mir vorstellen meinen aktuellen der dann später als Ersatz und so herhalten wird, öffnen zu lassen um dann zu köpfen. Dort wird dann die defekte Festplatte entfernt, dann windows neu installiert und geschaut das auch die gpu neben der CPU kühl bleibt so das der Laptop beim zocken nicht wie ein heizofen wird. Die gpu liegt beim zocken immer mindestens bei 100 - 110 Grad an. Die CPU bei so 95-100 Grad. Die Festplatte bei läßt bei 80 Grad. Heizen braucht man dann nicht mehr weil es bläst überall heiße Luft raus. Hier könnte also direkt köpfen etwqa bringen, damit die CPU auch ihre Leistung ausspielen kann und beim zocken es nicht ruckelt obwohl die Leistung ausreichend sein sollte. Tya da drosselt halt alles wegen der ganzen Hitze. So macht eine richtige Nutzung auch keinen Spaß. Zocke mit dem Laptop auch garnicht mehr weil ich dann mich nur noch meine Finger verbrennen könnte.

So habe ich mir ne laptop Nutzung jedenfalls nicht vorgestellt gehabt also ursprünglich.

Und das mit gpu Video umwandeln egal was ich gemacht hatte, nvenc war nie optimal für mich, zumal man da eh nur Durchschnitt Bitrate einstellen kann und nicht wie bei der CPU cfr Modus wo die Software selbst die Bitrate wählen kann. Wenn das mal bei gpu auch mal geht dann probiere ich es genre noch mal, bis dahin betreibe ich weiter CPU Video Umwandlung. Und vielleicht ist die gpu so flexible das man dann auch 2 Videos gleichzeitig drauf umwandeln kann. Oder vielleicht sogar ne super Option 1 mit gpu und 1 oder 2 mit CPU. Dann ist der ganze PC voll ausgelastet und das perfekt. Aber es kommt auf die Entwickler drauf an. Nur leider wird h264 nicht mehr weiter optimiert bzw angepasst. Denn dann hätte ich die perfekte Option dafür. Das was ich zocke da laste ich die gpu nicht voll aus, also Luft hätte ich schon mal. Bin gespannt wie flexible die gpu noch wird, video umwandeln + zocken gleichzeitig auf ner gpu, das wäre es doch.

Nur das wird halt eben nur ein Traum bleiben solange die Software bei gpu nicht mitmachen wird auch bleiben.
 
Hurricane.de schrieb:
Jeder, der aktuelle Grafikkartenpreise bezahlt, ruiniert den Markt nachhaltig und das vor allem zulasten derjenigen, für die es nie eine Option war auch nur 600€ für eine Grafikkarte auszugeben, sondern die auf relativ potente 250-400€ Mittelklassekarten angewiesen waren.

Ich würde es anders ausdrücken. Die Tatsache, dass die Kundschaft jedoch aktuell den Preis versaut und nicht der potentielle Verkäufer mit dem Angebot, lässt sich nicht weg diskutieren.

Evtl. schafft die Kundschaft mit ihren Preisen jedoch auch den Anreiz, schneller und besser zu produzieren, da man ja quasi jeden Preis aufrufen kann. :heilig:

btt:

Wenn man die GTX, die GTS und die Ultra betrachte und sie mit der später folgenden GT vergleicht, war es damals mehr oder weniger wie heute. Nur dass die Käufer nicht begreifen, dass nach 15 Jahren eine nahezu Verdopplung der Preise "normal" ist, wenn die potentiellen Käufer in der Anzahl immer mehr werden.

Da lohnt es auch nicht, mit "Inflation" zu argumentieren, da die meisten Produkte des sogenannten "Warenkorbes" im Überangebot sind und sehr häufig Waren entsorgt werden, um den Preis nicht zu gefährden. Das macht man selbst bei Nahrungsmitteln so.

mfg

latiose88 schrieb:
Heizen braucht man dann nicht mehr weil es bläst überall heiße Luft raus.

Und auch für dich noch einmal:

Dein Laptop bläst 100 Grad heiße Luft raus, die mit 200 Watt (maximal) erzeugt werden. Das Desktop System, welches 60 Grad warme Luft mit 600 Watt rausballert, erzeugt viel mehr Wärme.

Mit einem Laptop deinen Raum zu heizen, wird schwer. Mit einem Desktop System, ist das eher einfach.
 
Nun es geht mir ja darum das die Leistung nicht gefährdet wird weil so bleibt am Ende kaum Leistung übrig. Somit ist mein Laptop für produktive Nutzung außerhalb von im Internet surfen, ab und zu Videos schneiden und sonst nix zu gebrauchen. Klar kann er noch Spiele wiedergeben,aber Werder zocken noch videoumwandeln ist zufriedenstellend umsetzbar. Im Winter mag es aus haltbar sein weil ich da meine kalten Hände wärmen kann bis ich mich verbrennen, im Sommer ist es nicht mehr auszuhalten. So heiß wird mein laptop. So kann man ihn nicht nutzen, das ist ne Zumutung. Ich mache darum nur leichte Sachen mit dem Laptop. Die schweren macht dann mein Desktop PC. Und ja so wie du es sagst stimmt das auch, nur wenn man es so wie ich macht eben nicht mehr. Ne kleine gpu mit ner großen CPU zu kombinieren. Da heißt es dann 75 Watt bei 55 Grad abzukühlen ist ne ganz andere Welt als das bei meinem Laptop der Fall ist. Und auch wenn ich da nen 150 Watt Adapter als Netzteil dran habe, täuscht es nicht dem Problem hin weg,das es zu warm ist. Ich dachte viel Strom erzeugt viel Abwärme. In meinem Fall ist es dann wenig Strom erzeugt viel Abwärme. Das kann ja echt irgendwas nicht richtig sein.


Achja ups du bezogst es ja auf den ganzen PC und nicht auf einzelne Bauteile, na dann wären es so 250 Watt auf 70 Grad wenn man die CPU mit einrechnet. Aber selbst das ist ja noch immer nen besseres Verhältnis als beim Laptop.
 
Zuletzt bearbeitet:
Der Preis von 580€ würde heute unter Berücksichtigung der Inflation ca. 700€ betragen. Das muss man sich mal auf der Zunge zergehen lassen. Abgesehen von zyklisch schwankenden RAM Preisen und technischen Innovationen wie SSDs, habe ich in den letzten 10 Jahren bei den übrigen Komponenten kein derartige Preissteigerung erlebt.

Bf 20-42FPS muss ich auf meinem Monitor in 16:9 spielen, damit es mit einer 2080 überhaupt normal läuft. Meins System wartet jetzt schon über ein Jahr auf ein komplett Upgrade. Werde wohl noch bis ZEN 4 warten können bis die GPU Preise etwas besser sind.
 
Ja hast recht diese CPU ist keine schlecht, weil wer nur zockt wie du dem reicht die locker aus. Nur wer wie ich auch noch ne gewisse Anspruch bei der CPU mit der niedrigen Anspruch bei der gpu hat, der hat ne andere Konstellation. Würde ein neues Spiel nicht sein, dann könnte ich sogar noch heute mit ner 8800 Gtx Leistung klar kommen. Heutzutage erreicht so langsam ne onbaord gpu aus um da ordentliche Leistung zu haben gegenüber ner 8800gtx. Wobei ne vega 8 noch immer langsamer als ne 8800gtx ist. Habe es bei borderlands 2 gesehen gehabt. Mit ner 8800gtx habe ich da so bei Full HD mit ultra settings nur pysik Low 80 fps, mit ner vega 8 der selben setting nur rund 40-45 fps. Also von daher ist onbaord noch immer keine gute Alternative für sowas. Ne gtx 570 erreicht da mit selben settings rund 130-140 fps also mit full HD. Wie man sieht ne 8800gtx kann es durchaus mit etwas moderneren Games mithalten. Klar borderlands 3 ist dann zu viel des Guten. Da bricht die 8800gtx wohl unter der last zusammen weil selbst mit ner Gtx 1060 die höchsten settings nicht so richtig spielbar war. Ich hatte das game mal gehabt aber dann nicht mehr. So schlecht optimierte games kann halt nur ne echt gute und teure gpu noch was rausreisen.

Mal sehen wie sich das ganze bei der gpu hin entwickeln wird.
 
[wege]mini schrieb:
Und auch für dich noch einmal:

Dein Laptop bläst 100 Grad heiße Luft raus, die mit 200 Watt (maximal) erzeugt werden. Das Desktop System, welches 60 Grad warme Luft mit 600 Watt rausballert, erzeugt viel mehr Wärme.

Mit einem Laptop deinen Raum zu heizen, wird schwer. Mit einem Desktop System, ist das eher einfach.

Leistung und Temperatur haben erst einmal nichts miteinander zu tun, der Satz "mit 600W 60° rausballern" ist absoluter Unsinn. Aber ich würde mal behaupten, mit zwei 8800GTX im SLI unter Dauervolllast kann man sein Zimmer durchaus heizen. Lohnt sich natürlich absolut gar nicht.
 
Ja die war schon ein Brett. Nur heute legst du mehr als das doppelte für ne Karte auf den Tisch. Ah Wahnsinn.
 
Ist nur die Frage was macht man wenn seid der Gtx 8800 sich die Anforderungen nicht geändert hätte und aber die gpu den Geist aufgegeben hat. Ist halt alles nicht so leicht. Und joa so ne gtx 750 ti ist nun mal nicht super viel stärker. Das wird ja die Zukunft zeigen. Das mit dem Laptop hat sich leider noch immer nicht gelöst. Da muss ich mir noch was einfallen lassen.
 
Gelbsucht schrieb:
Das erste Tool, was ich kenn, war beschriebenes Badaboom, das hab ich auf der 8600GTS getestet. Das gab schon einen erstaunlichen Temposprung, soweit ich mich noch erinnere. Drauf gekommen bin ich meine sogar über CB hier, weil die ne News dazu hatten. Moment ich suche...
Badaboom war auch wirklich mehr eine Machbarkeitsstudie als ein funktionierender und brauchbarer Encoder. Ich meinte mit GPGPU solche Berechnungen, bei denen man nicht sofort an einen Grafikprozessor als Computing Unit denkt. Das war damals schon wirklich interessant, weil massiv parallele Berechnungen nicht unbedingt die Stärke von klassischen CPUs waren und sind.
 
latiose88 schrieb:
Das mag zwar die Lösung sein aber nicht die beste, weil durch das Öffnen verliert man ja seine Garantie.
Ne. Kommt auf den Hersteller an. Und ich kenn zwei bei denen verliert man die Garantie nicht. Acer und Schenker.

Im Prinzip gebe ich dir recht, aber es soll ja nicht der User machen sondern der Hersteller. So hab ichs aber glaub ich auch geschrieben.
Zu Heiße Laptop Chips ist in den meisten fällen ein Hausgemachte Problem der Hersteller das sie nur billig oder minderwertig lösen und nicht eines das auf die eigentliche Größe zurückzuführen ist.
 
Also paralell nicht die Stärke, das stimmt so nicht bei der CPU. Ich verwende ja 2 gleiche Programme gleichzeitig. Klar geht etwas die Geschwindigkeit zurück aber am Ende immer noch schneller unterwegs als ne einzelne Umwandlung. Ich kann gerne mal ne Stoppuhr machen und schauen wie lange 1 alleine und wie lange 2 gleichzeitig so brauchen. Dann habe ich nen Vergleich. Selbst wenn es 10 oder 15 % langsamer ne einzelne ist, ist es am Ende noch immer schneller.
Weil 1 in nur 1:20 und zwei in nur 1:30, wäre dies ja dann optimal. Das hat bestimmt sowas noch nie jemand auf ner gpu so gemacht. Wäre bestimmt interessant ob man dann nebenbei noch zocken auch kann. Ich habe bei der CPU 3 Kerne ausgepinnt zum zocken. Sowas geht wohl bei ner gpu irgendwie nicht, aber ich kann es ja gerne mal probieren sowas. Ob das game noch geht wird counterstrike source wohl selbst entscheiden. Und gibt es ne Software die crf auf gpu Ebene beherrscht oder nicht weil dann wird es ja echt interessant werden. Dann wäre ich dabei weil die 142 Watt beim 5950x sind für den Stromverbrauch nicht ohne. Nur das halt ne gtx 1650 nicht schneller ist als die CPU sondern gleich schnell. Mal sehen wo das Limit bei dem ganzen so sein wird.
Ergänzung ()

Kasjo schrieb:
Ne. Kommt auf den Hersteller an. Und ich kenn zwei bei denen verliert man die Garantie nicht. Acer und Schenker.

Echt nur bei den 2 Herstellern,hm dann ist msi schon mal raus. Aber gut der ist schon 6 Jahre alt da geht das auch klar weil eh keine mehr da ist. Aber das ist alles so fein, da traue ich mich nicht dies zu machen und ob da mein Bruder drauf Lust hat bezweifle ich weil der gesagt hatte, das sei doch nicht nötig und so. Der sieht es als harte Arbeit an. Man könnte diesen Laptop gewiss noch retten aber bei dem alter ob der nun 10-20 % mehr bei CPU hat oder nicht macht bei einem 4700hq auch nicht die welt mehr aus. Dann wäre er auf dem Level einer 3770k, also nix besonderes wie ich finde. Und naja langsam bleibt halt langsam, so ist das halt.

Aber bei der gpu könnte es ne Wirkung haben weil der dann die games nicht mehr ruckeln würden weil zu heiß und so. Da sind die Spiele drauf sogar abgestürzt weil die gpu zu heiß wurde. Mit einem error Code. Ich igronierte es und startet das game einfach noch mal. Dann ging es gut. Wohlgemerkt ich habe sonst mit dem Laptop nix gemacht gehabt. Darum habe ich beschlossen das er so nicht zum zocken geeignet sei.

Achso es spielt also keine Rolle ob 15 oder 17 ". Naja die selbe Hardware mit anderem hersteller war 10 grad im idle Kühler als bei mir. Wenn es im idle schon 60 Grad warm werden und bei meinem besten kumpel 50 Grad vielleicht weil er nen 17" und nicht wie ich ein 15 " hat, wer weiß was die Temps beeinflusst hat.
 
Zuletzt bearbeitet:
Hurricane.de schrieb:
Interessant, wie kam es dazu?

Haben sich über die Jahre so angesammelt :)

7900GX2.JPG
Striker2Extreme8800UltraSLI.JPG
Leadtek 8800 Ultra Leviathan.JPG
 
  • Gefällt mir
Reaktionen: marvm und cl4w
latiose88 schrieb:
Echt nur bei den 2 Herstellern,
Ich kenne das nur von den beiden. Habs von denen schriftlich. Andere würde ich nicht ausschließen.
Zerlegt hab ich alles, aber für den rein privaten gebrauch für mich hatte ich bisher immer nur Acer weil die immer super zum öffnen und warten waren. Klar, sind keine Super Premium teile, aber jeder laptop werkelt hier schon seit mehreren Jahren seinen dienst. Der älteste und mein erster Lapp schon seit über 10 Jahren.
Schenker deshalb weil der halt nen 9900K drinne hatte :D


Was deinen Laptop betrifft. Natürlich muss man dies im Einzelfall beurteilen. Es gibt Laptops die haben gesockelte chips, es gibt welche bei denen sind die verlötet. Köpfen in einem Laptop macht deshalb null sinn, weil du nur sehr schwer den fehlenden Heatspreader ausgleichen kannst. Die Kühler haben meist fixe punkte zum reindrehen. Und Köpfen ohne DirectDie macht im laptop ohnehin wenig sinn. Bei den Laptops bei denen aber die Chips verlötet sind, und gerade bei Gaming Kisten kann sich der Einsatz von Flüssigmetall richtig lohnen. Gesetzt dem Fall der wird auch nur Stationär betrieben. Groß rumtragen würd ich den nicht mehr.

Mein letzter war einer mit nem 9900K Desktop Chip. Bei dem wars schon grenzwertig was zu reißen. Aber is halt auch der 9900k... Der Werkelt jetzt im Desktop.

Also Abhängig von dem was verbaut ist und wie Dick die eigentliche Kühlung ist, kann Flüssigmetall wunder bewirken. Nach 6 Jahren is die Paste da drin wohl auch nur noch Mörtel. Setzt aber wie gesagt voraus die Kühllösung ist Potent und sinnvoll gestaltet und die chips sind verlötet ohne heatspreader.

Muss man selbst abwägen. Aber ich Zerlege Laptops hier am laufenden Band. Mehr als das ich an Desktops rumschraube. Flüssigmetall ist und bleibt Riskant wenn man nicht aufpasst. Klar. Ich setzte das auch nur da ein wos Sinn ergibt. Im Aktuellen Desktop nicht weil ich A den 9900K nicht köpfen will, einen hab ich schon zerlegt und B weil die Wasserkühlung bisher super funktioniert mit den Temps.
 
Zuletzt bearbeitet:
Boimler schrieb:
"mit 600W 60° rausballern" ist absoluter Unsinn.

Leider nicht.

Du kannst auch mit 5 Watt einen Wärmeleiter (gerne die DAU-Kappe) auf 100 Grad erwärmen, wenn kein Kühler oben ist.

Diese Dau-Kappe kannst du dann mit deiner Hand kühlen, da deine Haut genügend Wärme ableiten kann. Dein Blutkreisluft erzeugt dann die Zirkulation.

Wenn die Dau-Kappe durch eine 300 Watt GPU auf 100 Grad aufgehitzt wurde und wird, sollte du tunlichst deine Fingerchen davon fernhalten.

Das gilt übrigens ab ca. 42 Grad, falls mehr Wärme in die Dau-Kappe geleitet wird, als deine Haut ableiten kann. Ab diesem Zeitpunkt gerinnt das Eiweiß in deiner Haut und du hast "Verbrennungen".

Wenn du also einen 25m² großen Raum mit Deckenhöhe 2+m mit Wärme versorgen willst (viele m³ an Luft), brauchst du nicht mit 100 oder 200 Watt versuchen zu heizen. Da sind alle Ritzen in den Fenstern oder eine schlechte Isolierung der Wände ausreichend, um mehr Wärme aus dem Raum abzuleiten, als du reinleitest.

mfg
 
Zuletzt bearbeitet:
Nun ich glaube die CPU ist verlötet wie auch die gpu. Das einzige was man ändern kann ist Festplatte und Arbeitsspeicher. Hilft mir nur halt nix. Lüfter sind dort Mini Lüfter drinnen. Ist wie wenn keine kühlung vorhanden wäre. Erklärt auch warum es so heiß wird. Kühler kann man wechseln, aber ist halt die Frage wie viel man da an Aufwand reinstecken müsste. Leichter Staub ist auch drinnen aber kein großer. Überhaupt ist der Laptop sehr geräumig und sehr übersichtlich. Hatte mein Bruder schon mal offen gehabt. So kleine Schrauben waren kein Problem gewesen. Aber ran trauen tut er sich dennoch nicht wirklich. Naja lasse ich wohl welche ran die sowas mögen zu machen und es auch wirklich können. So jedenfalls kann ich den Laptop unter last nicht nutzen. Der Kühler dreht sogar bei HD und Full HD Videos auf. Warm wird der Laptop immer das ist sicher. Im Sommer etwas anzuschauen käme einer kernschmelze gleich, weil viel zu heiß. Gelegentlich hängt sich der Laptop auf, sogar der Firefox hängt sich auf. Ist alles bei dem Laptop normal,werde ihm also nix mehr geben was ihn überfordert. Ich denke mal ich kann ihn so niemals richtig nutzen, weil ich wüsste nicht was ich damit machen sollte um ihn zu schonen. Und nein ganz auslassen ist keine Option. Es spielt einfach keine Rolle ob gpu oder CPU, Hitze Probleme hat er immer. Viel Geld will ich da auch nicht mehr rein stecken. Ich könnte den Laptop ne große Festplatte und mehr RAM füttern als die 8 GB, heiß wird er dennoch. Daran bringt es also leider nichts was zu investieren.

Die gpu im Desktop war nie das Problem gewesen weil selbst ne 8800 Gtx wurde niemals bei mir zu heiß. Ich wusste nur nicht das sie so viel Strom fressen würde aber sonst war ja alles super gewesen. Sowas wünsche ich mir beim Laptop auch. In Zukunft werde ich so ein Problem nicht mehr haben weil ich dann auf ner CPU mit vega 8 gpu setzen werden. Das der so gut wie ne gtx 860m sei naja wird gewiss nen kleiner downgrade sein aber wie auch immer, mache ich das beste draus.
 
latiose88 schrieb:
niemals bei mir zu heiß

Die erhöhte Temperatur senkt bei Silizium basierenden Chips nur die Effizienz. Die arbeiten super bis 150 oder gar 200 Grad Celsius. Leider aber weder effizient, noch sonderlich "schnell", da mit zunehmender Temperatur die Taktrate abgesenkt werden muss, da die doofen Elektronen dann immer schneller ihre Bahnen verlassen.

Richtig geil sind diese Chips, bei -200 Grad Celsius bis ca. 20 Grad Celsius.

Leider wäre diese Umgebungstemperatur für die meisten Benutzer dann nutzlos, da man Minusgrade braucht, um mit Luftkühlung auf 20 Grad Celsius an der Wärmequelle zu kommen.

Einfach mal bei -20 Grad im nächsten Winter mit dem Notebook oder dem Desktop auf den Balkon gehen und einen Benchmark laufen lassen. Dann sieht man schon, was geht.

Ich bin früher immer fürs Benchen in das Kühlhaus gegangen. Wer will aber bitteschön dauerhaft vor seinem PC hocken, wie ein Polarforscher auf seiner Expedition.

mfg

p.s.

100 Grad Celsius an der GPU oder CPU ist absolut i.O.

Wenn das Gerät dann aber ein Notebook ist, könnte es sein, dass deine Finger langsam warm werden. Auch solltest du nicht dauerhaft einen 100 Watt Bomber auf deine Oberschenkel legen, die sind schlecht durchblutet.
 
Zurück
Oben