Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Im Test vor 15 Jahren: ATis Radeon 9500 wurde per BIOS-Mod zur 9700 (Pro)
- Ersteller Robert
- Erstellt am
- Zur News: Im Test vor 15 Jahren: ATis Radeon 9500 wurde per BIOS-Mod zur 9700 (Pro)
habichtfreak
Captain
- Registriert
- Aug. 2006
- Beiträge
- 3.542
lightyag schrieb:Ich will die hohen Preise dieser Branche keinesfalls rechtfertigen, aber um welchen Einstieg geht es dir? Einstieg in die Spielewelt oder Einstieg in Monitor überhaupt etwas anzeigen lassen?
Mit einer 9200 konntest du letzteres machen, mit einer 9500 ersteres, verstehst du diesen Unterschied?
du hast es richtig erkannt. vor 15 jahren gab es keine IGPs. man brauchte irgendeine karte damit ein bild erscheint. es soll auch menschen geben die sowohl heute als auch damals mit ihrem pc arbeiten. das funktioniert ohne bild schlecht. und man konnte damit auch spielen (ich habs getan). natürlich steht es dir jetzt frei mich als komplett anspruchslos hinzustellen, dass kann man nicht mal spielen nennen.
ich weiß, es ist für die meisten hier nicht vorstellbar, aber ich spiele heute ne runde anno1404 mit einer intel hd4600 und ich nenne auch das spielen. und grafikkarte nenne ich auch gerne die "schlechteste wertanlage der welt".
SFFox
Lt. Commander
- Registriert
- Dez. 2010
- Beiträge
- 1.567
Einmal das, aber ich glaube nur am Anfang der Generation, später wurden die Pipes mit Lasercut getrennt, wenn ich mich richtig erinnere. In der folgendene Refresh Generation dann (X850), die leider DX 9.0c nicht vollständig unterstützt hat (und weswegen damals BioShock als eines der ersten spiele ohne die Unterstützung nicht richtig spielbar war), wurde wohl zum Abverkauf der Chips von Sapphire eine X800 GTO² auf den Markt gebracht, die mit einem Biosflash und Erhöhung der Taktraten auf das X850 XT PE gebracht werden konnte. Für das Geld war das damals brachiale Leistung, eine super Karte. Nur der fehlende DX 9.0c Support, hat sie dann leider etwas schneller obsolet gemacht, als die Rechenleistung vermuten lies.Tenobaal schrieb:Bei der nachfolge Generation konnte die X800Pro (256MB) auch zur X800XT(256MB) per Biosmod freigeschaltet werden.
XTR³M³ schrieb:das waren noch zeiten... als ich mit meiner albatron Ti4200 die 9700pros versägt hatte... hatte zuletzt glaube ich 480/850Mhz die karte(voltmod und -15°c. auf der GPU), und war auf platz 1 in futuremark für ein paar tage in 3dmark01
Das klingt jetzt aber ziemlich übertrieben. War das alltagstauglich oder nur zum Benchen im Wettbewerb. Gerade die Ti4200, die ja schon bewusst schlechteren Speicher hatte als die 4400.
Tenobaal schrieb:Bei der nachfolge Generation konnte die X800Pro (256MB) auch zur X800XT(256MB) per Biosmod freigeschaltet werden. Wenn ich mir recht erinnere, waren dort Pixel Pipelines deaktiviert.
SFFox schrieb:Einmal das, aber ich glaube nur am Anfang der Generation, später wurden die Pipes mit Lasercut getrennt, wenn ich mich richtig erinnere. In der folgendene Refresh Generation dann (X850), die leider DX 9.0c nicht vollständig unterstützt hat (und weswegen damals BioShock als eines der ersten spiele ohne die Unterstützung nicht richtig spielbar war), wurde wohl zum Abverkauf der Chips von Sapphire eine X800 GTO² auf den Markt gebracht, die mit einem Biosflash und Erhöhung der Taktraten auf das X850 XT PE gebracht werden konnte. Für das Geld war das damals brachiale Leistung, eine super Karte. Nur der fehlende DX 9.0c Support, hat sie dann leider etwas schneller obsolet gemacht, als die Rechenleistung vermuten lies.
Ich bin mir nicht sicher, wie das genau aussah. Ich meine auf jeden Fall auch, dass nur die X800 Pro VIVO anfangs eine Chance hatte, die ohne VIVO und die seltene X800SE aber genauso wenig wie die R430 basierten Karten. Wenn man aber heute googlet scheint es, als ob das bei einer X850 Pro und manchen X800GT(O) auch so ging und die VIVOs nur eine höhere Chance hatten. Auf jeden Fall weiss ich noch, dass man bei ATI damals nicht mit freischalten rechnen sollte, bei Nvidias 6800(LE/XT) AGP schon.
Die X800GTO kam aber sowieso, wie du schon sagtest, zu X1800-Zeiten zum Abverkauf der R4x0-GPUs, war also mit Shader 2.0b noch veralteter als zu Beginn der X800-Ära. Die Sapphire GTO² war dann wirklich eine X850XT (identisches Layout inkl. PCIe-Stromstecker) mit X850-Pro-Kühler, nur hier war das Freischalten der Pipelines garantiert und auch der R480-Core und 1.6ns-Speicher verbaut. Es gab noch eine X800GTO-16 von Powercolor, aber die hatte wohl immer nur den schlecht zu taktenden R430-Core.
habichtfreak schrieb:du hast es richtig erkannt. vor 15 jahren gab es keine IGPs. man brauchte irgendeine karte damit ein bild erscheint. es soll auch menschen geben die sowohl heute als auch damals mit ihrem pc arbeiten. das funktioniert ohne bild schlecht. und man konnte damit auch spielen (ich habs getan). natürlich steht es dir jetzt frei mich als komplett anspruchslos hinzustellen, dass kann man nicht mal spielen nennen.
Das ist Blödsinn, natürlich gab es vor 15 Jahren IGPs, die hatten aber einen noch schlechteren Ruf bei Spielern als heute. Oft waren auch die Chipsets und Mainboards ziemlich anspruchslose Kost.
Aber z.B. Nvdias Nvidias nFore für Sockel A waren schon ganz gut. Der Erste hatte eine GeForce2 MX200-artige IGP, als nForce420(D) auch mit Dualchannel DDR266 (also im Idealfall mit mehr Bandbreite als eine MX400), bei den angeblich IGP-losen nForce415D-Boards wurden ggü. den 420D sichtbar nur die Grafikausgänge weggelassen. Das alles allerdings kurz vor Release der GeForce4. Der nForce2 hatte in der ersten Version eine GeForce4 MX420-artige GPU, wieder mit Dualchannel DDR400 mit soviel Bandbreite wie die MX440.
Auch Intel, SiS und VIA hatten für Sockel 370, 423 und 478 stets aktuelle IGP-Chipsätze, bei den älteren Sockeln dann oft ganz ohne AGP. Die waren aber technisch wirklich so simpel, dass selbst anspruchsloses Zocken damit unmöglich war. Für Office aber sicher völlig ausreichend.
C
Cr@zed^
Gast
Ich hatte mir damals im Mai 2002 eine Gainward GF 4 Ti 4600 geholt und als im August (war das August?) die 9700 Pro kam ziemlich neidisch, trotzdem dann als nächste Karte eine FX 5900 Ultra ^^
xxMuahdibxx
Fleet Admiral
- Registriert
- Juli 2011
- Beiträge
- 35.593
habichtfreak schrieb:du hast es richtig erkannt. vor 15 jahren gab es keine IGPs.
https://de.wikipedia.org/wiki/Intel-800-Serie
Falsch Intel IGP gab es schon seit April 1999
Seit 2002 auch von AMD
https://en.wikipedia.org/wiki/List_of_ATI_chipsets
aber naja it lange her .
Gandalf2210
Commodore
- Registriert
- Mai 2010
- Beiträge
- 4.166
Die 10 Sekunden wo beim rx480 580 biosflash keine Rückmeldung in der Konsole kam waren mit die aufregendsten Sekunden meines Computer Lebens. Und das alles nur wegen der YouTube Taktraten...
digitalangel18
Vice Admiral
- Registriert
- Mai 2005
- Beiträge
- 6.579
Zur Radeon 9x00 Serie fällt mir immer direkt das Quecksilber Wasser (aber hey, damals war es toll) in Morrowind ein. Meine Güte, mit dem Spiel habe ich die kompletten Sommerferien im dunkeln verbracht
Hatte das gleiche zwei Generationen davor mit einer Geforce 2 Ultra (Elsa Gladiac Ultra, der Hardwarehimmel hat sicher immer noch einen schönen Platz für sie) - dickes Peltierelement drauf, Zern Wasserkühler, Voltmod, und wenn ich nicht aufgepasst hab, Kondenswasser aufm PCB....hach ja, früher, schön war das
XTR³M³ schrieb:das waren noch zeiten... als ich mit meiner albatron Ti4200 die 9700pros versägt hatte... hatte zuletzt glaube ich 480/850Mhz die karte(voltmod und -15°c. auf der GPU), und war auf platz 1 in futuremark für ein paar tage in 3dmark01
Hatte das gleiche zwei Generationen davor mit einer Geforce 2 Ultra (Elsa Gladiac Ultra, der Hardwarehimmel hat sicher immer noch einen schönen Platz für sie) - dickes Peltierelement drauf, Zern Wasserkühler, Voltmod, und wenn ich nicht aufgepasst hab, Kondenswasser aufm PCB....hach ja, früher, schön war das
Zuletzt bearbeitet:
Ach ja, man wird alt.
Waren schöne Karten damals. Nur mit dem Serienlüfter unverschämt laut. Damals lohnte es sich wirklich sich nach Zubehör umzusehen. Da gabs tolle Dinger für kleines Geld. Hab nur die Namen vergessen...alt...siehe oben
Der Mod von 9500 auf 9700 ging aber nicht bei jeder, auch wenn das im Netz immer behauptet wurde. Da gingen ein paar von den Dingern durch meine Hände und bei keiner gings.
OK, ging schon, aber idR kam dann recht schnell immer der eine oder andere kleine oder große Grafikfehler. der um eine Rolle rückwärts bat.
Aber wies so ist. Die Leute bei denen es funktionierte jubelten die Foren rauf und runter und die anderen hielten eher die Klappe.
Waren schöne Karten damals. Nur mit dem Serienlüfter unverschämt laut. Damals lohnte es sich wirklich sich nach Zubehör umzusehen. Da gabs tolle Dinger für kleines Geld. Hab nur die Namen vergessen...alt...siehe oben
Der Mod von 9500 auf 9700 ging aber nicht bei jeder, auch wenn das im Netz immer behauptet wurde. Da gingen ein paar von den Dingern durch meine Hände und bei keiner gings.
OK, ging schon, aber idR kam dann recht schnell immer der eine oder andere kleine oder große Grafikfehler. der um eine Rolle rückwärts bat.
Aber wies so ist. Die Leute bei denen es funktionierte jubelten die Foren rauf und runter und die anderen hielten eher die Klappe.
Raucherdackel!
Banned
- Registriert
- Jan. 2014
- Beiträge
- 3.266
Computerbase-Umfrage schrieb:Hast du schon einmal Hardware per Trick (nicht OC) zu mehr Leistung verholfen?
Ich hatte zwei HD5570 im Low Profile Format, die ich per Volt Mod schneller als ne HD5670 getaktet habe. Statt 700MHz gingen da stolze 1050 MHz... und das alles im wunderbar kleinen Low Profile - Single Slot Kühlung Design. Damit machte Crossfire im Videorecorder-Gehäuse richtig viel Spaß
Davor diverse Athlon mit Bleistift freigeschaltet, auf einer Geforce FX 5800 hab ich einen S939 CPU Kühler montiert, weil das Teil so unerträglich laut war.
Und seit ~15 Jahren läuft jede Hardware mit meinen eigenen Spezifikationen. Entweder Vollgas-übertaktet oder verbrauchsoptimiert.
Zuletzt bearbeitet:
Mich würde mal sehr interessieren wie so ein alter Vertexshader oder eine TnL-Einheit im Vergleich zu einem einzelnen Shader heute abschneidet. Natürlich sind es nicht genau dieselben Dinge, aber ein paar der Aufgaben sind vergleichbar.
Die Pixel- und Texelfüllraten sind aber vergleichsweise enttäuschend. Die 1070 ist nur etwa um den Faktor 100 mal so schnell. In dem Aufgabenbereich sind die tausenden "Compute Units" oder Shader nicht großartig besser. Dabei sind sogar die Taktraten deutlich gestiegen.
Und Vertexshader und T&L-Einheit haben, nehme ich an, hauptsächlich Polygone berechnet.
Edit: Anscheinend gibt es noch "Texture Mapping Units" in aktuellen Karten, auch wenn so gut wie gar nicht direkt erwähnt werden. Und deren Anzahl vermehrt sich nur im überschaubaren Rahmen, so etwa von 50 zu 150 in 10 Jahren. (Hab ich fast zufällig bei GPUBoss gesehen, obwohl ich dort fast nie vorbeischaue.) D.h. sie sind trotzdem extrem viel schneller. Das heißt auch, die Shader könnten durchaus im Verhältnis sehr, sehr schnell sein, was wohl ohnehin von der Aufgabe abhängt (und sicher bei vielen Engines in den fps limitiert ist).
Die Pixel- und Texelfüllraten sind aber vergleichsweise enttäuschend. Die 1070 ist nur etwa um den Faktor 100 mal so schnell. In dem Aufgabenbereich sind die tausenden "Compute Units" oder Shader nicht großartig besser. Dabei sind sogar die Taktraten deutlich gestiegen.
Und Vertexshader und T&L-Einheit haben, nehme ich an, hauptsächlich Polygone berechnet.
Edit: Anscheinend gibt es noch "Texture Mapping Units" in aktuellen Karten, auch wenn so gut wie gar nicht direkt erwähnt werden. Und deren Anzahl vermehrt sich nur im überschaubaren Rahmen, so etwa von 50 zu 150 in 10 Jahren. (Hab ich fast zufällig bei GPUBoss gesehen, obwohl ich dort fast nie vorbeischaue.) D.h. sie sind trotzdem extrem viel schneller. Das heißt auch, die Shader könnten durchaus im Verhältnis sehr, sehr schnell sein, was wohl ohnehin von der Aufgabe abhängt (und sicher bei vielen Engines in den fps limitiert ist).
Zuletzt bearbeitet:
Uridium
Commander
- Registriert
- Juni 2005
- Beiträge
- 2.124
Ich habe lange Zeit die Softmodtreiber für W1zzard/TechPowerUp erstellt. Im Prinzip wurden nur die DeviceIDs vertauscht und die Prüfsumme korrigiert. Irgendwo defekt (nach der Freischaltung) waren aber alle Karten, die ich in den Fingern hatte.
Hab mir gerade Benches dazu angsehen und ich muss sagen: so wahnsinnig viel mehr leistung war da ja trotzdem gar nicht drinnen. 20-25% oder so durch den mod.
wenn ich da an meine 6800LE denke. da waren 100% mehr leistung drinnen. Das war tuning das noch laune gemacht hat
wenn ich da an meine 6800LE denke. da waren 100% mehr leistung drinnen. Das war tuning das noch laune gemacht hat
Lextor
Lieutenant
- Registriert
- Dez. 2003
- Beiträge
- 716
ich hatte so eine 9700 SE ,die man zur 9700 "freischalten" konnte,wenn ich nicht irre.danach dann dick in wasserkühlung investiert.
und mind.3 athlon-cpus zerkocht!
das waren noch zeiten,als öfter mal rauchschwaden aus dem riesentower strömten und ich mal wieder etwas dazugelernt hatte
learning by doing at its best !!
und mind.3 athlon-cpus zerkocht!
das waren noch zeiten,als öfter mal rauchschwaden aus dem riesentower strömten und ich mal wieder etwas dazugelernt hatte
learning by doing at its best !!
kisser schrieb:Also an der Speicheranbindung lässt sich per BIOS nichts freischalten. Entweder war der mit 128 Bit angebunden (64MB Variante) oder mit 256 Bit (128MB Variante) der 9500.
Meine ist eine 128MB auf 128Bit gesetzte Karte. Mit Omegatreiber läuft sie auf 256Bit.
Tigerfox schrieb:[...]
Mich würde aber interessieren, wie Ihr darauf kommt, dass man aus der 9500 auch eine 9700Pro machen konnte. Vom Chiptakt her bestimmt, aber der Speicher wird doch auf keiner poppeligen 9500 anders gewesen sein als auf der 9500Pro und 9700, wird also wie bei meiner nur mit ach und Krach 300MHz erreicht haben.
[...]
Das kommt tatsächlich darauf an welcher Speicher verbaut wurde. Wenn ich mich richtig erinnere kannst du anhand der letzten(?) Zahlen ablesen welche Latenzzeit in Nanosekunden der verträgt. Daher kannst du so den maximalen vorgesehenen Takt bestimmen. Sicherlich gehen noch ein paar MHz mehr. Meine hat, allerdings mit Wasserkühlung für Chip und Speicher, 325/325 erreicht. Mehr habe ich nicht getestet.
da_reini schrieb:Hab mir gerade Benches dazu angsehen und ich muss sagen: so wahnsinnig viel mehr leistung war da ja trotzdem gar nicht drinnen. 20-25% oder so durch den mod.
[...]
Liegt an der CPU-Limitierung. Wenn du doppelt so viele Pipelines (8 statt 4) hast die mit 325 statt mit 275 laufen und noch dazu das Speicherinterface von 128 auf 256 verdoppelt wurde.... Was meinst was dann in Benchmarks wie 3DMark2000 in 640x480x16 passiert?
Zuletzt bearbeitet:
GnumbSkull
Lieutenant
- Registriert
- Juni 2001
- Beiträge
- 925
Ach das waren noch Zeiten. Ich war zu dem Zeitpunkt noch ziemlich "hardwaresüchtig", allerdings habe ich selten überteuert Highest-End gekauft, sondern lieber ein oder zwei Segment(e) tiefer zugefriffen und die Unterschiede dann so gut wie möglich mit Übertaktung ausgeglichen. Das Übertakten fing bei mir mit dem Pentium II 233 @ ~300MHz und dem Celeron 300MHz auf 450MHz an.
Die erste GeForce sowie auch die GF2 habe ich mir direkt bei Erscheinen gekauft, die GF3 habe ich ausnahmsweise übersprungen.
Die angesprochene GF4 Ti4200 musste ich dann wieder haben und ist mir noch gut in Erinnerung. Diese war mir den Ausfall einer Unterrichtsstunde nach der Mittagspause während meiner Systemelektroniker-Umschulung wert, um zum PC-Laden zu fahren - Hauptsache es kaufte mir niemand die Grafikkarte weg.
Meine ITSE-Kollegen haben bei meiner verspäteten Rückkehr zum Unterricht erst den Kopf geschüttelt und danach über die brandneue GF4 Ti4200 gestaunt.
In die Kategorie Hardware-Hacks fallen auf jeden Fall meine unzähligen Übertaktungen mit "Bleistift-Trick" auf dem Athlon XP, um per Lasercut getrennte Brücken neu zu verbinden und den Prozessor damit (wieder) zu einem höherwertigen Modell zu machen.
Auch das Ersetzen vom Standard mit selbst modifizierten Grafikartenkühlkörpern und leistungsfähigeren aber leiseren Lüftern fällt sicherlich in die Kategorie Hardware-Tuning, da die Karten anschließend schon allein durch die verbesserte Kühlung schneller und leiser laufen - vom resultierenden höheren (Software-)Übertaktungspotential mal abgesehen, es geht ja hier um Hardware nicht Software - manchmal hängt das beides aber auch zusammen.
Der Anbau eines KryoM.2 micro-Kühlers auf meine Samsung PM961 zählt ja wohl auch in die Hardware-Hack-Kategorie, da die SSD nun ebenfalls mehr Leistung bei niedrigeren Temperaturen durch den Anbau bringt.
Bei dieser Modifikation handelte es sich aber im Prinzip mehr um eine Problemlösung, als um Tuning, da mein einziger M.2-Steckplatz leider unter dem Grafikkartenslot sitzt. Blöde Konstruktion - aber beim Kauf des Mainboards habe ich damals niemals auch nur im Entferntesten auf den Einbau einer M.2-SSD irgendwann zur Lebzeit des Systems gerechnet.
Durch das direkte Anblasen mit der Abluft meiner GTX1070 waren die Betriebstemperaturen der M.2-SSD schon im Leerlauf der SSD grenzwertig, mit meiner GTX 1060 war dies noch völlig unkritisch. Durch Anbau des hier auf CB getesteten (https://www.computerbase.de/2017-04/m.2-ssd-kuehler-test/) Aqua Computer Kryo-M.2 micro (danke dafür CB, Ihr habt mir die Entscheidung leicht gemacht) sind die Betriebtemperaturen natürlich nun nicht perfekt, durch die ungünstige Position auf dem Mainboard, aber wenigstens jederzeit unterhalb der Temperatur für's Throtteling. Nächstes Jahr ist dann ein neues System fällig, bei dem ich auf den Ort für den M.2-Steckplatz Rücksicht nehmen werde.
Der Hardware-Hack, der bei mir als nächstes ansteht, ist das lang geplante und immer wieder verschobene Köpfen meines jetzigen Prozessors, um stabile 4,8 oder hoffentlich 4,9GHz bei gleichzeitig guten Temperaturen zu ermöglichen, was im Moment nicht erreichbar ist.
Besonders Core #1 tanzt von Anfang an ständig etwas aus der Reihe und hat durchgehend eine um 5-10 °C höhere Temperatur, als alle anderen Kerne - da ist die schlechte Intel-Paste wohl zusätzlich auch noch schlecht verteilt. Ich merke mit der Zeit auch, wie die Temperaturen beim Übertakten mit der Alterung der eh schon miesen Intel-Wärmeblockierpaste langsam aber sicher steigen. Da wird es bald Zeit, mal ernst zu machen mit dem Deliding, da ich schon runtertakten musste von 4,7GHz im Neuzustand über 4,6 auf nun "nur noch" 4,5GHz.
Auch für meine GTX 1070 ist noch ein kleiner Kühler-Mod in Planung, da die Lüfter der Gigabyte Windforce leider nicht zu den leisesten zählen.
Also Meine Meinung ist ganz klar: Hardware-Hacks können sich sehr lohnen und ich bin bereit dafür gewisse Risiken (z.B. Garantieverlust) in Kauf zu nehmen.
Die erste GeForce sowie auch die GF2 habe ich mir direkt bei Erscheinen gekauft, die GF3 habe ich ausnahmsweise übersprungen.
Die angesprochene GF4 Ti4200 musste ich dann wieder haben und ist mir noch gut in Erinnerung. Diese war mir den Ausfall einer Unterrichtsstunde nach der Mittagspause während meiner Systemelektroniker-Umschulung wert, um zum PC-Laden zu fahren - Hauptsache es kaufte mir niemand die Grafikkarte weg.
Meine ITSE-Kollegen haben bei meiner verspäteten Rückkehr zum Unterricht erst den Kopf geschüttelt und danach über die brandneue GF4 Ti4200 gestaunt.
In die Kategorie Hardware-Hacks fallen auf jeden Fall meine unzähligen Übertaktungen mit "Bleistift-Trick" auf dem Athlon XP, um per Lasercut getrennte Brücken neu zu verbinden und den Prozessor damit (wieder) zu einem höherwertigen Modell zu machen.
Auch das Ersetzen vom Standard mit selbst modifizierten Grafikartenkühlkörpern und leistungsfähigeren aber leiseren Lüftern fällt sicherlich in die Kategorie Hardware-Tuning, da die Karten anschließend schon allein durch die verbesserte Kühlung schneller und leiser laufen - vom resultierenden höheren (Software-)Übertaktungspotential mal abgesehen, es geht ja hier um Hardware nicht Software - manchmal hängt das beides aber auch zusammen.
Der Anbau eines KryoM.2 micro-Kühlers auf meine Samsung PM961 zählt ja wohl auch in die Hardware-Hack-Kategorie, da die SSD nun ebenfalls mehr Leistung bei niedrigeren Temperaturen durch den Anbau bringt.
Bei dieser Modifikation handelte es sich aber im Prinzip mehr um eine Problemlösung, als um Tuning, da mein einziger M.2-Steckplatz leider unter dem Grafikkartenslot sitzt. Blöde Konstruktion - aber beim Kauf des Mainboards habe ich damals niemals auch nur im Entferntesten auf den Einbau einer M.2-SSD irgendwann zur Lebzeit des Systems gerechnet.
Durch das direkte Anblasen mit der Abluft meiner GTX1070 waren die Betriebstemperaturen der M.2-SSD schon im Leerlauf der SSD grenzwertig, mit meiner GTX 1060 war dies noch völlig unkritisch. Durch Anbau des hier auf CB getesteten (https://www.computerbase.de/2017-04/m.2-ssd-kuehler-test/) Aqua Computer Kryo-M.2 micro (danke dafür CB, Ihr habt mir die Entscheidung leicht gemacht) sind die Betriebtemperaturen natürlich nun nicht perfekt, durch die ungünstige Position auf dem Mainboard, aber wenigstens jederzeit unterhalb der Temperatur für's Throtteling. Nächstes Jahr ist dann ein neues System fällig, bei dem ich auf den Ort für den M.2-Steckplatz Rücksicht nehmen werde.
Der Hardware-Hack, der bei mir als nächstes ansteht, ist das lang geplante und immer wieder verschobene Köpfen meines jetzigen Prozessors, um stabile 4,8 oder hoffentlich 4,9GHz bei gleichzeitig guten Temperaturen zu ermöglichen, was im Moment nicht erreichbar ist.
Besonders Core #1 tanzt von Anfang an ständig etwas aus der Reihe und hat durchgehend eine um 5-10 °C höhere Temperatur, als alle anderen Kerne - da ist die schlechte Intel-Paste wohl zusätzlich auch noch schlecht verteilt. Ich merke mit der Zeit auch, wie die Temperaturen beim Übertakten mit der Alterung der eh schon miesen Intel-Wärmeblockierpaste langsam aber sicher steigen. Da wird es bald Zeit, mal ernst zu machen mit dem Deliding, da ich schon runtertakten musste von 4,7GHz im Neuzustand über 4,6 auf nun "nur noch" 4,5GHz.
Auch für meine GTX 1070 ist noch ein kleiner Kühler-Mod in Planung, da die Lüfter der Gigabyte Windforce leider nicht zu den leisesten zählen.
Also Meine Meinung ist ganz klar: Hardware-Hacks können sich sehr lohnen und ich bin bereit dafür gewisse Risiken (z.B. Garantieverlust) in Kauf zu nehmen.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 50
- Aufrufe
- 5.013
- Antworten
- 122
- Aufrufe
- 7.141
- Antworten
- 90
- Aufrufe
- 4.736
- Antworten
- 24
- Aufrufe
- 3.682
- Antworten
- 89
- Aufrufe
- 10.962