News IDF: i945G verbraucht mehr als Pentium M

Frank

Chefredakteur
Teammitglied
Registriert
März 2001
Beiträge
9.118
Zum Intel Developer Forum sind nun auch weitere Informationen zu Intels kommendem Memory Controller Hub (MCH) 945G bekannt geworden, der einigen besser unter dem Namen Lakeport bekannt sein dürfte. Der Stromverbrauch des MCH 945G übersteigt dabei sogar den Bedarf eines Pentium M-Prozessors.

Zur News: IDF: i945G verbraucht mehr als Pentium M
 
Also ich weiß nicht.

Wo soll das denn bitteschön noch hinführen, wenn man bald schon für die Mainboard Chips Kühler braucht mit denen man auch fast schon CPUs kühlen könnte. Und das bei einer so umständlichen Befästigungsmethode!

Intel verfolgt wohl das erst kürzlich abgelegte "pentium"-Prinzip "Mehr Takt und Abwärme bei wenig Recheneffizienz" nun bei den Mainboard Chipsätzen! ;)
 
[82nd]Hawk schrieb:
Also ich weiß nicht.

Wo soll das denn bitteschön noch hinführen, wenn man bald schon für die Mainboard Chips Kühler braucht mit denen man auch fast schon CPUs kühlen könnte. Und das bei einer so umständlichen Befästigungsmethode!


Peltier-Elemente ,PC-Gehäuse dient dann als Kühlkörper . :freak:
 
conspectumortis schrieb:
Peltier-Elemente ,PC-Gehäuse dient dann als Kühlkörper . :freak:


oh nein Peltier-Elemente, damit entsteht ja noch mehr Wärme ohne die Rechenleistung zu erhöhen :evillol: PC-Gehäuse als Kühlkörper würde ich geil finden, nachteil wäre aber dass sobald die sonne aufs gehäuse scheint die CPU überhitzen könnte
 
@1: Was meinst du denn, was sich der nForce 4 genehmigt? Der kann bislang nur aktiv gekuehlt werden. Intel schaffts noch passiv.
Der einzige Unterschied zwischen nVidia und Intel wird sein, dass Intel die Verlustleistung oeffentlich spezifiziert. nVidia spezifiziert dagegen gar nichts.
 
Sorry TeeKay, aber dein Argument mit dem nForce4 ist schlichtweg falsch. Der lässt sich durchaus passiv kühlen.
 
na hallo?!
der kühler ist riesig! mit so einem teil bräuchte man keinen nforce aktiv kühlen und außerdem müssen die nforce nicht zwingend aktiv gekühlt werden!!
aber diese entwicklung ist echt krass! aber nicht positiv!
 
[82nd]Hawk schrieb:
Wo soll das denn bitteschön noch hinführen, wenn man bald schon für die Mainboard Chips Kühler braucht mit denen man auch fast schon CPUs kühlen könnte. Und das bei einer so umständlichen Befästigungsmethode!
Wieso nur "fast"!? Der verbraucht doch schon mehr wie manche CPUs!

Intel verfolgt wohl das erst kürzlich abgelegte "pentium"-Prinzip "Mehr Takt und Abwärme bei wenig Recheneffizienz" nun bei den Mainboard Chipsätzen! ;)
Das ist aber nur ne Modifikation des alten Prinzips:

P4.jpg
:)
 
@8: Der Kuehler ist nicht groesser als die bisherigen auf Intel-Boards. Siehe Bild 2.
Abgesehen davon, wenn der nForce nicht zwingend aktiv gekuehlt werden muss, warum tuts dann ausnahmslos jeder Hersteller? Warum selbst Nvidia waehrend einer Praesentation - mit nachtraeglich aufgeschraubtem Luefter. Lief das Ding etwa unstabil?
Und komm mir jetzt nicht mit deinem Nachbarn Herbert, der seinen nForce passiv kuehlt.
 
@teekay: zb asus mit dem a7n8x rev2 ( also die fsb 400MHz variante ).
instabil war das die letzten monate nicht...
 
Intel Pentium Prescott 103 Watt + 28 Watt = 131 Watt (Last)
AMD Athlon64 3500+ 90nm Venice+SB = Watt 67 Watt (Last)


Sorry, Intel das haut doch voll nicht :freak:
 
w00t?

Ich denke, dass diese 3 Watt niemanden stören, außer die, die anti Intel eingestellt sind, da sie nun wieder etwas haben über das sie lästern können. Die Leute, die ein SLI ihr eigen nennen, oder einen CRT benutzen sollen mal schön leise sein, und erstmal das SLI System ausbauen, und sich dafür einen TFT kaufen. Somit hat man den Stromverbauch erstmal signifikant gesenkt. Und ich denke, dass die nForce Chips Aktiv gekühlt werden, damit SICHER gegangen werden kann. Intel geht auch auf nummersicher, und zwar passiv!
Ich denke es wäre absoluter Schwachsinn Intels Chipstets als "schlecht" oder "ineffizient" zu deklarieren, denn in dieser Paradedisziplin wurde Intel bisher nicht geschlagen!

Just my opinion!

MfG GuaRdiaN
 
Bei passiver Kühlmethode braucht man mehr Kühlfläche als bei einer aktiven Methode. Dabei reicht auch bei aktiven meistens eine kleine Lüfterdrehzahl aus, da ein stätiger Luftstrom das wichtigste ist - permanente Wärmeabfuhr.

Nur es kann denke ich nicht angehen, getreu dem Moto "Höhe, Schneller, Weiter" ("Schneller, Heißer, Dicker"), dass man bald etliche kg an Kühlelementen im Gehäuse hat.
Man schaue sich mal BTX an. Da kommt nicht weiteres als nen dicker-fetter Kühlkörper drauf und dann kann man 120W problemlös kühlen, aber für was? Die Hersteller klagen immer über zu viel Wärme im Gehäuse.
Nur anstatt immer mal nur Arbeit und Geld darin zu stecken, neue Gehäuse-Standards zu bringen, sollte man doch lieber das Problem an der Wurzel anpacken und den ERZEUGER der Wärme optimieren und verbessern - sprich CPUs, Chips, etc.

Klar, es muß auch eine effiziente Gehäusekühlung her, aber man sollte sie nicht als Mittel zum Zweck benutzen um den Bau heißerer CPUs zu "rechtfertigen"!
 
Zuletzt bearbeitet:
Ich binn ja generell ein ferfechter neuer Technologien, aber zu welchem Preis?
 
GuaRdiaN schrieb:
Die Leute, die ein SLI ihr eigen nennen, oder einen CRT benutzen sollen mal schön leise sein, und erstmal das SLI System ausbauen, und sich dafür einen TFT kaufen.

OK, dann nenn mir einen TFT der die Bildqualität eines gescheiten CRTs rankommt. Im moment leider keiner, noch keiner, trotz rascher Weiterentwicklung. Grafiker würden einen auslachen wenn man denen nen TFT für die Arbeit anbietet. Die Reaktionszeiten und die schlechte Interpolation in manchen Auflösungen machen für mich die wirklich guten Kaufgründe (leichter, weniger Stromverbrauch) eines TFTs zu nichte. Ich werde noch ein paar jährchen warten bis ich von meinen geliebten Iiyama VisionMaster Pro 450 abschied nehmen werde. Erst wenn die Quali wirklich einen guten CRT schlägt, dann ist ein TFT es werd.

Naja, anderes Thema zu dem man sich genug "streiten" kann ;)
Zurück zum Thema Hitze! :D
 
lol

was ich bei all den nörglern nicht verstehe:
"mehr performance...mehr möglichkeiten...schneller schneller schneller...
aber das ganze bitte mit geringerem stromverbrauch"

jo klar geht das...aber nicht so schnell wie die leistung bereitsteht...
man kenn das doch...potentieller anstieg bei doppelter endleistung, bis halt bessere möglichkeiten gefunden werden (ok stimmt nicht ganz und nicht immer aber ihr wisst was ich meine*g*). man kann natürlich auch einfach was entwickeln und dann erst am stromsparen genauso lang arbeiten und 3-4jahre zwischen dem einen und nem neuen produkt vergehen lassen...also kriegt euch mal ein =)

nicht jede firma kann alles und die werden sicher wissen was sie tun...zumindest irgendwie...die sind die experten im chipdesign, nicht ihr ;-)
soweit ich weiss hatten cpus früher auch nur nen kleinen passivkühlkörper...oder gpus gar keinen...oder nicht^^

wenn euch die spezifikationen der produkte nicht passen, kauft sie nicht und wartet halt bis ne andere variante rauskommt oder steigt auf was anderes um *nerv*
 
Zuletzt bearbeitet:
@11: Wird das Board neuerdings mit dem nForce4 bestueckt? Wusste ich gar nicht. Wenn wir einen Steinzeitchipvergleich machen wollen, hat Intel genug Chips im Angebot, die sich ebenfalls mit geringem Aufwand passiv kuehlen lassen.
 
[82nd]Hawk schrieb:
OK, dann nenn mir einen TFT der die Bildqualität eines gescheiten CRTs rankommt. Im moment leider keiner, noch keiner, trotz rascher Weiterentwicklung. Grafiker würden einen auslachen wenn man denen nen TFT für die Arbeit anbietet. Die Reaktionszeiten und die schlechte Interpolation in manchen Auflösungen machen für mich die wirklich guten Kaufgründe (leichter, weniger Stromverbrauch) eines TFTs zu nichte. Ich werde noch ein paar jährchen warten bis ich von meinen geliebten Iiyama VisionMaster Pro 450 abschied nehmen werde. Erst wenn die Quali wirklich einen guten CRT schlägt, dann ist ein TFT es werd.

Naja, anderes Thema zu dem man sich genug "streiten" kann ;)
Zurück zum Thema Hitze! :D

Hi!

Ich kann dich beruhigen, ich hatte selbst den Iiyama Visionmaster Pro 512, also ich weiß sehr genaz, wovon ich rede! Die Bildqualität ist in Sachen Video und in Sachen Gaming, besser @ CRT, jedoch, wenn man einen TFT in hinreichender größe hat (19" aufwärts), dann unterstützen diese auch native Auflösungen von 1600x1200. Dieses ist sicherlich hinreichend für Grafiker, zudem hat es immense Vorteile, wenn jedes einzelne Pixel selbst angesteuert wird. Es gibt einfach schräfe. Und ein CRT kann niemals an die Schärfe eines TFT herankommen, da er Analog ist. (Gut TFT's via normalem VGA sind da dann von ausgenommen, ich gehe mal von der DVI Schnittstelle aus)

Aber du hast völlig Recht, back 2 Topic!

-> Natürlich schreien die Hersteller von Prozessoren jegliche Art nach guter Kühlung. Natürlich AMD zur Zeit weniger als Intel, jedoch ist das immer ein Saisongeschäft. Früher waren die AMD's die Hitzköpfe, zur Zeit sind es die Intel Prozessoren. Ich bin mir relativ Sicher, dass auch das sich wieder angleichen wird. Davon gehe ich spelulativ einfach mal aus. Wenn dem nicht so ist... ich kann nicht hellsehen! ^^

MfG GuaRdiaN
 
LCTron schrieb:
lol

was ich bei all den nörglern nicht verstehe:
"mehr performance...mehr möglichkeiten...schneller schneller schneller...
aber das ganze bitte mit geringerem stromverbrauch"

jo klar geht das...aber nicht so schnell wie die leistung bereitsteht...
man kenn das doch...potentieller anstieg bei doppelter endleistung, bis halt bessere möglichkeiten gefunden werden (ok stimmt nicht ganz und nicht immer aber ihr wisst was ich meine*g*). man kann natürlich auch einfach was entwickeln und dann erst am stromsparen genauso lang arbeiten und 3-4jahre zwischen dem einen und nem neuen produkt vergehen lassen...also kriegt euch mal ein =)

Man könnte ja mal nen effizierentes Core-Design machen :rolleyes:

LCTron schrieb:
wenn euch die spezifikationen der produkte nicht passen, kauft sie nicht und wartet halt bis ne andere variante rauskommt oder steigt auf was anderes um *nerv*

Und genau das werde ich tun! :evillol:
Wird denke ich jeder machen der bescheiß weiß und weiß was er will :)

@Guardian
Was die Schärfe bei nativen Auflösungen angeht gebe ich die Recht, da sind die Dinger scharf! Dann kommt es eben noch auf Farbdarstellung etc. an ob der Grafiker ihn haben will! :freaky:

OK, wieder back 2 topic! :p
 
Zuletzt bearbeitet:
Zurück
Oben