Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Hat die GeForce 8800 GT ein Temperaturproblem?
- Ersteller Volker
- Erstellt am
- Zur News: Hat die GeForce 8800 GT ein Temperaturproblem?
silent-efficiency
Banned
- Registriert
- Aug. 2004
- Beiträge
- 5.253
@19) xXstrikerXx
Hast du schon mal in einem Betrieb mit einem Projektleiter hinter vorgehaltener Hand geredet?
Zuerst heißt es, dass der G92 im November kommt. Dann wird der Chip und die Treiber früher fertig. Man legt den Termin auf Oktober vor. Die Kühllösungsentwickler schreien: "Aber wir haben noch gar nicht getestet" Der Projektmanager sagt: "Macht einen kurzen Test, wenn alles OK ist, schieben wir die Karten raus, wenn dann doch noch irgendwas sein sollte können wir sie noch vor Marktstart zurückordern" Der Ingenieur nickt ab und macht den Kurztest und gibt die Kühlung frei. So oder so ähnlich kann es dann schon mal laufen, wenn man den Termin nach vorne verschieben will, oder einhalten will.
Hast du schon mal in einem Betrieb mit einem Projektleiter hinter vorgehaltener Hand geredet?
Zuerst heißt es, dass der G92 im November kommt. Dann wird der Chip und die Treiber früher fertig. Man legt den Termin auf Oktober vor. Die Kühllösungsentwickler schreien: "Aber wir haben noch gar nicht getestet" Der Projektmanager sagt: "Macht einen kurzen Test, wenn alles OK ist, schieben wir die Karten raus, wenn dann doch noch irgendwas sein sollte können wir sie noch vor Marktstart zurückordern" Der Ingenieur nickt ab und macht den Kurztest und gibt die Kühlung frei. So oder so ähnlich kann es dann schon mal laufen, wenn man den Termin nach vorne verschieben will, oder einhalten will.
V
val9000
Gast
bin mal gespannt...
hier noch was interessantes über Nvidia und ATI
http://www.theinquirer.net/gb/inquirer/news/2007/10/03/nvidia-admits-defeat-g92-vs
hier noch was interessantes über Nvidia und ATI
http://www.theinquirer.net/gb/inquirer/news/2007/10/03/nvidia-admits-defeat-g92-vs
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
immer diese sensationsgier^^ nvidia möchte die karten in den gehäusen der oem´s testen und sofort heist es die haben temperaturprobleme...
vllt wollen die ja testen ob die mit der baulänge des pcb auch passt oder das vllt noch modifiziert werden muß oder was weis ich was.
das mit den temps halte ich jedenfalls für eher unwahrscheinlich...
wie hier schon richtig gesagt wurde handelt es sich um einen 65 nm mittelklasse-chip der wohl deutlich weniger transistoren wie die 90nm g80 highend-modelle haben dürfte und damit nichmal ansatzweise so hohe temps erreichen dürfte...
vllt wollen die ja testen ob die mit der baulänge des pcb auch passt oder das vllt noch modifiziert werden muß oder was weis ich was.
das mit den temps halte ich jedenfalls für eher unwahrscheinlich...
wie hier schon richtig gesagt wurde handelt es sich um einen 65 nm mittelklasse-chip der wohl deutlich weniger transistoren wie die 90nm g80 highend-modelle haben dürfte und damit nichmal ansatzweise so hohe temps erreichen dürfte...
herby53
Lt. Commander
- Registriert
- Juli 2005
- Beiträge
- 1.540
Viellicht hat sich Nvidia auch mit dem Kühlung etwas übernommen und möchte nun im Konkurrenz-Kampf zur RV 670 auch eine Single-Slot Kühlung anbieten. Das wäre marketing-technisch sinnvoller. Aber die Wahrheit werden wir wohl nie erfahren. Schauen wir einfach mal, was die Tests dazu sagen. Und ich würde mir die hohen Temperaturen so erklären, dass ja der Shader-Takt doch 2400 Mhz betragen sollte und das ist ja im Vergliech zu den etwas über 1500 Mhz der 8800 Ultra einiges mehr.
silent-efficiency
Banned
- Registriert
- Aug. 2004
- Beiträge
- 5.253
@26) herby53
Shader-Takt ein vierfaches (600x4) des restlichen Chips? Kann ich irgendwie nicht glauben. Da würden ja die Shader im Halbleerlauf laufen, wenn nicht an dem restlichen Chip gravierende Änderungen vorgenommen wurden.
Shader-Takt ein vierfaches (600x4) des restlichen Chips? Kann ich irgendwie nicht glauben. Da würden ja die Shader im Halbleerlauf laufen, wenn nicht an dem restlichen Chip gravierende Änderungen vorgenommen wurden.
GeneralHanno
Commander
- Registriert
- Juni 2006
- Beiträge
- 2.538
es ist wohl so, dass die GT 2,4GHz shadertakt spitze schafft, der shadertakt wird serienmäßig aber eher bei 1,8 GHz liegen (3*600mhz)
_pillepalle_
Lieutenant
- Registriert
- Juni 2006
- Beiträge
- 608
Testet Nvidia ihre Grafikkarten nicht selbst ausführlich ein einem geschlossenen System oder geben die die auf gut Glück raus, ohne Testläufe??
KAOZNAKE
Captain
- Registriert
- Aug. 2007
- Beiträge
- 3.844
http://www.theinquirer.net/gb/inquirer/news/2007/10/02/phenom-launch-2007-whoops
Die Meldung find ich auch geil, aus Q3 mal schnell Q4 gemacht, schon bringt AMD dieses Jahr keinen Phenom mehr raus und auch sonst nix weiter. GOIL! AMD ist TOT :ironie
Die Meldung find ich auch geil, aus Q3 mal schnell Q4 gemacht, schon bringt AMD dieses Jahr keinen Phenom mehr raus und auch sonst nix weiter. GOIL! AMD ist TOT :ironie
N
NeoXpert
Gast
Was war es schön als Highend-Karten noch passiv gekühlt werden konnten.....
silent-efficiency
Banned
- Registriert
- Aug. 2004
- Beiträge
- 5.253
8800 GT= 64 SP @ 1,8 Ghz Shadertakt = 346 GFlops
8800 GTS=96 SP @ 1,2 Ghz Shadertakt = 346 GFlops
Damt wäre die 8800 GT von der Shaderleistung Gleichauf mit der alten 8800 GTS. Wie ist der Rest des Chips, wenn man das Speicherinterface kleiner macht?
Texelfüllrate bei unverändertem Grunddesign:
8800GT=32 TMUs @600Mhz=19.200 MT/s
8800GTS=48TMUs @500Mhz=24.000 MT/s
@29) bensen
Weil bei der Annahme, dass Shaderleistung jetzt zu wenig ist, würde anderenfalls die Schlussfolgerung folgen, dass im jetzigen Zustand der restliche Chip halb im Leerlauf läuft^^ Was ich aber nicht glaube (bei eingeschaltetem AA und AF).
8800 GTS=96 SP @ 1,2 Ghz Shadertakt = 346 GFlops
Damt wäre die 8800 GT von der Shaderleistung Gleichauf mit der alten 8800 GTS. Wie ist der Rest des Chips, wenn man das Speicherinterface kleiner macht?
Texelfüllrate bei unverändertem Grunddesign:
8800GT=32 TMUs @600Mhz=19.200 MT/s
8800GTS=48TMUs @500Mhz=24.000 MT/s
@29) bensen
Weil bei der Annahme, dass Shaderleistung jetzt zu wenig ist, würde anderenfalls die Schlussfolgerung folgen, dass im jetzigen Zustand der restliche Chip halb im Leerlauf läuft^^ Was ich aber nicht glaube (bei eingeschaltetem AA und AF).
Zuletzt bearbeitet:
herby53
Lt. Commander
- Registriert
- Juli 2005
- Beiträge
- 1.540
mmh http://www.fudzilla.com/index.php?option=com_content&task=view&id=3479&Itemid=1 da steht, dass die 8800 GT vielleicht kein DX 10.1 unterstützt. Ob da was dran ist?
acmilan1899
Lt. Commander
- Registriert
- März 2007
- Beiträge
- 1.571
Glaub auch kaum dass sie DX 10.1 unterstützt.
Wers glaubt ^^
Als hätten die bei nVidia nicht selbst geschlossene Testgehäuse um Tests durchführen zu können.
Neeee... mal im ernst aber das können die deren Großmutter erzählen, die würde das vielleicht glauben.
Da wird jetzt schon ein Traraa um die Temperaturprobleme gemacht, dabei ist das Teil in der Finalen Version nicht mal raus... autsch
Übrigens, wie kann man dann in diesem Fall explizit von einem "Problem" sprechen?
Ein "Problem" wäre es, wenn die Karte so auf dem Markt wäre mit zu kleinem Kühler und sie dann Schwierigkeiten mit der Hitze bekommt. So eine überaus schwachsinnige News müsste dann bei nahezu "jeder" neuen Karte erscheinen, noch bevor sie in der entgültigen Fassung auf dem Markt ist....
Fazit: Niveaulose unbegründete Vorabpanikmache
Als hätten die bei nVidia nicht selbst geschlossene Testgehäuse um Tests durchführen zu können.
Neeee... mal im ernst aber das können die deren Großmutter erzählen, die würde das vielleicht glauben.
Da wird jetzt schon ein Traraa um die Temperaturprobleme gemacht, dabei ist das Teil in der Finalen Version nicht mal raus... autsch
Übrigens, wie kann man dann in diesem Fall explizit von einem "Problem" sprechen?
Ein "Problem" wäre es, wenn die Karte so auf dem Markt wäre mit zu kleinem Kühler und sie dann Schwierigkeiten mit der Hitze bekommt. So eine überaus schwachsinnige News müsste dann bei nahezu "jeder" neuen Karte erscheinen, noch bevor sie in der entgültigen Fassung auf dem Markt ist....
Fazit: Niveaulose unbegründete Vorabpanikmache
Zwirbelkatz
Fleet Admiral
- Registriert
- Juni 2006
- Beiträge
- 44.065
Papa Schlumpf schrieb:Es gab damals bei der Geforce 6800 von Leadtek eine 1-Slot Variante mit dicken Kupferkühler vorne und hinten und zusätzlich noch einen Lüfter vorne.
Ich hatte sie auch und sie war unerträglich laut, auch wenn dadurch die Kühlleistung zufriedenstellend war. Habe mir damals den Zalman Vf900 draufgeschnallt, dann war wenigstens halbwegs Ruhe.
@ 8800GT
Hoffentlich wird das kein Blindgänger, der zu heiß wird. Mit einem wirklich guten Referenzdesign und Übertaktbarkeit wäre sie bei einem Preis gegen 200€ (in absehbarer Zeit) ein Kracher finde ich.
Ähnliche Themen
- Antworten
- 23
- Aufrufe
- 2.575
- Antworten
- 133
- Aufrufe
- 19.542
- Antworten
- 104
- Aufrufe
- 14.936
- Antworten
- 80
- Aufrufe
- 17.465
- Antworten
- 26
- Aufrufe
- 8.318
G