News Notebooks mit Prescott inside

Ich finde, man kann Intel dabei nichts vorwerfen. Auch Gericom nicht. So lange es Leute gibt, die maximal viel GHz, Ram und HD wollen (denen der Rest aber piepegal ist), sollen sie es doch erhalten. Wo eine Nachfrage ist, gibts auch ein Angebot. Intel und Gericom und Co. wären ja doof, wenn sie diese Nachfrage nicht befriedigen würden.
 
@ 21
Der Prescott ist bei gleichem Takt langsamer und um einiges wärmer als ein Northwood. Das kann man Intel vorwerfen. Mag sein, dass es auch Nachfrage nach Hochleistungs-Notebooks gibt, aber diese wird doch bereits durch den 3,06er Northwood befriedigt, dessen Vorteile ich oben schon aufgeführt habe...
Eine CPU mit bis zu 100 W Verlustleistung als mobile CPU zu verkaufen ist schon fast eine Frechheit.
 
Ich finde den Prescott wirklich Mist! Intel sollte sich lieber auf die Entwicklung der Centrino-Technologie konzentrieren! Warum nicht aus einem Pentium M eine Desktop-Variante machen? Man stelle sich mal folgendes System vor:
Pentium M (Dothan-Kern mit 2 MB L2 Cache und ca. 2 GHz) auf dem Alviso Chipsatz (PCI-Express, S-ATA, DDRII)! Dann müsste Intel nur noch den FSB des Pentium M auf 800 MHz steigern und Hyperthreading einbauen und fertig ist das aus meiner Sicht perfekte System!
 
phs schrieb:
Warum nicht aus einem Pentium M eine Desktop-Variante machen?
Der Banias kern basiert auf dem Pentium 3 Tualatin, hat zusätzlich die Features des Northwood und einen QDR FSB des P4s. Da er die kurzen Pipelines vom Tualatin hat kann er nicht hoch getaktet werden hat aber eine hohe Takteffektivität.

und warum verheimlicht Intel dass? Und warum macht intel ausschließlich aus dem Banias ein derartiges großes Geheimnis? Intel wird doch nie zugeben wollen dass die P4 Strategie in die falsche richtung ging.
 
ich frage mich warum die Fertigungstechnik immer kleiner werden muß.
je kleiner es ist desto höher ist die Abwärme. gut beim Umstieg von 0,18 auf 0,13 nm wars umgekehrt, aber des do... neeee
 
In der Regel ist es natürlich so, je kleiner die Fertigungsstruktur desto weniger Strom & Spannung sind nötig was dann zwangsweise die "Verlust"-Leistung erhöht. Wäre der Prescott in 130nm gefertigt würde er noch heißer werden.

Warum er aber trotz 30 Stufen Pipeline und 90nm so warm wird bleibt mir ein Rätsel.
 
Sorry, ich kann das nicht nachvollziehen. :volllol:

Warum werden Notebooks immer weiter auf Performance getrimmt? Warum müssen in Notebooks immer die allerneuesten (Stromfressenden) Technologien eingebaut werden? Warum konzentrieren die Hersteller ihre Entwicklungen in diesem Bereich nicht verstärkt auf die weitere Senkung des Stromverbrauchs?

Eigentlicher Sinn eines Notebooks ist es doch, mobil mit dem Gerät arbeiten zu können. Oftmals werden diese genau aus diesem Grund gekauft. Wenn dann der Akku nach 2,5 Stunden leer ist, macht das nicht wirklich Sinn.

Ein Pentium-M Notebook mit 1,4 oder 1,5 GHz bringt doch wohl für die allermeisten Anwender genügend Leistung, gleichzeit hält sich der Stromverbrauch noch in Grenzen. Auch zocken kann man damit, entsprechende Grafikhardware vorrausgesetzt.

Ich selbst habe an einem Pentium-M Notebook mit 1,4 GHz satte 7 Stunden gearbeitet, somit hat sich der Einsatz des Notebooks für diese Arbeit im Freien fern jeder Steckdose sinnvoll rentiert.

Alles andere wäre hier inakzeptabel gewesen.

Sorry, Hersteller. Notebooks mit Prescott - da kann ich nur noch mit dem Kopf schütteln. :volllol:


Bye,
 
Zuletzt bearbeitet:
1. Was der Kunde will, wird produziert. Wenn er "einen Prozessor der neusten Generation" will, wird der in ein Laptop gebaut, ohne wenn und aber.

2. Die Hersteller brauchen nicht die bis zu 120 Watt abführen (nicht TDP, oder MP). Schon heute können mache Laptops nicht durchgehend mit der Maximalgeschwindigkeit arbeiten. Auch der Prescott wird sich vermutlich nach ner halben Stunde auf die Hälfte des Maximaltakes drosseln (Überhitzungsschutz) und dann dementsprechend weniger Strom brauchen. Welchem "Otto-Normal-Verbraucher" wird das auffallen ?

-> Die Produktion ist für die Hersteller sinnvoll.

cu! sloven
 
@26) Online-Slider

Grob kann man sagen.
Jeder Transitor braucht pro takt eine bestimmte energie. und jeder Transitor hat auch einen leckstrom wo ein teil auch ohne taktfrequenz fließt.

jetzt sind beim Prescot sehr mehr Transistoren da, und durch die kleinere strucktur ist auch der leckstrom höher.

Ein Großteil der Leckströme fließen bei der CMOS-technologie durch die beiden complementer geschalteten transistoren beim umschalten. Intel hat die technologie so gut im griff gehabt das erste eine schließt und dann der andere öffnet, damit ist der verluststrom STARK gesenkt worden. wer weiß vieleicht funktioniert das nicht so gut bei 90nm, wer weiß.

Eine hohe pipeline-tiefe bringt mehr komplexibilität in den Prozessor damit braucht man mehr schnelle transistoren damit steigt in diesen gebieten auch die verlustleistung, eine große Pipeline ist nicht ein garant für niedrige verlustleistung. sieht man doch das jeder CPU die viele pipestufen hat verbraucht mehr als die anderen.
Athlon XP gegen Atlhon 64 | A64 mehr pipestufen mehr strom
P3 gegen P4 | schlechter vergleich, aber das selbe
P4 Northwood gegen P4 Prescott | genauso

man kann behaupten das es doch an den fortschritt liegt aber was ist mit Itanium1 gegen Itanium2? Der Itanium2 ist sehr viel mehr schneller bei gleicher Verlustleistung.
naja Cache braucht auch strom.
 
Wie soll man den solch ein Monstrum in einem NB kühlen? es ist ja schon schwierig aktuelle Grafikkarten im NB zu kühlen, geschweige denn solch eine CPU. Naja, wers kauft ist selber schuld.
 
BodyLove schrieb:
Wie soll man den solch ein Monstrum in einem NB kühlen? es ist ja schon schwierig aktuelle Grafikkarten im NB zu kühlen, geschweige denn solch eine CPU. Naja, wers kauft ist selber schuld.

Gericom wirds schwer haben mit dem Prescott. Die müssen es ja kühlen. Ich sehs schon kommen es kommt wie beim PIII 1.0 GHz :D
 
Ich kauf mir auch so ein Teil.
Bei -10 Grad im Winter, morgens 5 Minuten vor Abfahrt das Notebook mit Wake on Wlan ;-) anmachen und schon wird mollig warm :D
 
sloven schrieb:
2. Die Hersteller brauchen nicht die bis zu 120 Watt abführen (nicht TDP, oder MP). Schon heute können mache Laptops nicht durchgehend mit der Maximalgeschwindigkeit arbeiten. Auch der Prescott wird sich vermutlich nach ner halben Stunde auf die Hälfte des Maximaltakes drosseln (Überhitzungsschutz) und dann dementsprechend weniger Strom brauchen. Welchem "Otto-Normal-Verbraucher" wird das auffallen ?

also bei der letzten lan-party auf de ich saßen 4 typen mit nem notebook da und haben mit den teilen gezockt ich mal denen würde es auffallen wenn du gerade counterstrike spielst und das ding plötzlich anfängt zu ruckeln und du nicht weißt warum.

und ich kann es eigendlich nur immer wieder sagen ihr müsst sowas ja nicht kaufen, wenn ich mir ein notebocck kaufen würde würde ich mir auch eins mit ner sparsamen cpu kaufen, da ein notebook das man nur mit netzteil betreiben keinen sinn macht. und wie schon von FH16 angesprochen so lange es leute gibt die dumm genug sind sich sowas zu kaufen kann man es auch herstellen, denn wenn gericom und intel so etwas nicht auf den markt schmeißen machen es halt andere, solange ein absatz dafür da ist. und ich verspreche euch die gesteckten ziele für den prescot mit 40-45% marktanteil bis ende des jahres wird intel erreichen dafür werden die OEM's ala dell und medion schon sorgen.
 
@33) Night-Hawk

klar counterstrike fängt an zu ruckeln nur weil die CPU nur mit 1GHz läuft. Bei Counterstrike macht die CPU doch nichts anderes als warten. ich hab counterstrike auf meinen 550MHz P3 gespielt das spiel hat nicht geruckelt auch wenn ich server für 15leute gemacht habe. Wie schon gesagt das ist ein irrglaube das man für die jetztigen spiele eine 2GHz CPU braucht. ich hab die meisten spiele letztes jahr noch mit diesen 550MHz PIII gespielt, auch welche wo drauf stand braucht min 1GHz. battlefield ist auch auf diesen rechner gelaufen, server konnte ich aber nicht machen. Mein alter P3 wurde aber auch schon langsam alt. UT 2003 läuft auch super auf so einen alten rechner, Unreal leider nicht mehr. Warcraft3 habe ich auch durchgespielt, im multiplayer hat der rechner aber nicht mehr gereicht. also glaubt mir eine 3GHz CPU oder ein 3000+ ist garnicht nötig für die spiele, dann doch lieber eine bessere graka.
 
xLoMx schrieb:
@33) Night-Hawk

klar counterstrike fängt an zu ruckeln nur weil die CPU nur mit 1GHz läuft. Bei Counterstrike macht die CPU doch nichts anderes als warten. ich hab counterstrike auf meinen 550MHz P3 gespielt das spiel hat nicht geruckelt auch wenn ich server für 15leute gemacht habe. Wie schon gesagt das ist ein irrglaube das man für die jetztigen spiele eine 2GHz CPU braucht. ich hab die meisten spiele letztes jahr noch mit diesen 550MHz PIII gespielt, auch welche wo drauf stand braucht min 1GHz. battlefield ist auch auf diesen rechner gelaufen, server konnte ich aber nicht machen. Mein alter P3 wurde aber auch schon langsam alt. UT 2003 läuft auch super auf so einen alten rechner, Unreal leider nicht mehr. Warcraft3 habe ich auch durchgespielt, im multiplayer hat der rechner aber nicht mehr gereicht. also glaubt mir eine 3GHz CPU oder ein 3000+ ist garnicht nötig für die spiele, dann doch lieber eine bessere graka.

Vietcong ist ein sehr gutes Bsp, wo die CPU ultra limitierend ist. mit einem Athlon 1,33Ghz und ner R9700 kam ich dagegen nicht an. Auch die zukünftigen Spiele sind dank der komplexen Physik-Eniges immernoch CPU-Lastig. Man spekuliert, dass HL² hier als "Vorreiter" gelten darf. D³ soll nicht so stark auf die CPU fixiert sein. Für die next-GEN spiele sind imho 2Ghz durchschnitt!. 3Ghz ist für anständige Leistungen imho zwingend notwendig.
 

Ähnliche Themen

  • Artikel Artikel
Antworten
19
Aufrufe
4.093
  • Artikel Artikel
2
Antworten
29
Aufrufe
9.174
  • Artikel Artikel
2
Antworten
35
Aufrufe
5.371
  • Angepinnt
  • Artikel Artikel
2 3
Antworten
43
Aufrufe
17.897
Zurück
Oben