Bericht Bericht: Intels „Nehalem“ Architektur im Überblick

> Neueste K10-Technik - geschlagen von einem alten X2 5000+ für 80 Euro, weil sich in manchen
> Bereichen einfach kaum etwas verbessert hat. Bis auf UT3 und MainConcept gibt es da kaum
> Lichtblicke.

Oje oje ...
was soll denn herauskommen, wenn man hauptsächlich Software bencht, die für einen oder
zwei (Intel-)Kerne optimiert wurde ??
Die erwähnten "Lichtblicke" sind vernünftig programmiert und heute schon in der Lage
aus 4 Kernen nutzen zu ziehen ... hier haben andere (auch das sehr oft zitierte Crysis)
noch großen Nachholbedarf ...

Ich erwarte mal, dass in den kommenden Monaten immer mehr Softwate herauskommt,
mit der man 4 Kerne vernünftig auslasten kann ... und bis dahin hat auch der PhenomX4
mehr als genug Rechenleistung, um den alten Applikationen und Spielen Beine zu machen ...
 
Also ich würde AMD noch lange nicht abschreiben!
pleite gehen ist bei denen Kaum möglich.
Und selbst wenn kommt IBM oder SAMSUNG kauft AMD und vereint mit einer solche Firma kommt AMD wieder HOCH!
Auserdem 2009 kommt "BULLDOZER" der soll gut werden.
 
Die Beckton Plattform mit 24mb extra cache ist vielleich heftig. Da will Intel wohl in der Liga von Power6 und Sparc mitspielen, wo sie bisher chancenlos waren, selbst mit dem tollen Itanium.
 
#124

Woher willst du wissen das Bulldozer so gut wird. Man weiß noch nicht mal wie der Nehalem wird und da willst du wissen wie Bulldozer wird.

Die Glaskugel die du hast will ich auch mal haben.
 
Was glaut ihr wie sieht es mit den Sockeln aus?
Werden da neue aungeführt, wenn die Nehalem Architektur rauskommt?
Oder kann man die alten 775 weiter verwenden?
 
@PunGNU
Schau dir einfach die entsprechende CB- oder Heise-News an. Intel führt ungefähr fünf neue Sockel ein.
 
1. ich weiss nich warum einige leute immer erzählen das intel von amd abkupfert? amd und intel haben seit mehreren jahrenzenten einen vertrag abgeschlossen, welches die gegenseitige nutzung aller patente erlaubt.

Seit 1976 hat AMD ein Patentaustauschabkommen mit Intel, so dass alle technischen Innovationen wechselseitig genutzt werden können.
(wikipedia)

amd hat einfach nicht mehr das geld für neue inovationen...zuerst das werk in dresden...dann der aufkauf von ati.
intel wollte doch mal alles sparsamer machen, schön und gut - aber warum nehmen sie dann nicht mal einfach die taktraten(vcores) runter? brauch man wirklich für word 2Ghz (*4 kerne) und mehr? und jeder weiss das in heutigen spielen die rechenleistung nich vom cpu sondern von der gpu entschieden abhängig ist.
und die leute, die dann ein stromfresser namens grafikkarte in ihrem pc haben interessiert es wohl eher nicht ob der rechner nun schlappe 250W oder 350W verbraucht...aber die, die den pc/laptop nur fürs office (büro, nicht microsoft's office!) gebrauchen wollen und für die wo für ne runde call of duty auch ne onboardlösung ausreicht. und ob winzip und co. bei 1000MB/100Dateien nun 1 minute länger packen is doch auch wurst - hauptsache es wird überhaupt fertig! ich persönlich würde einfach zu 7zip greifen, dann klappts auch mit der größe *gg.
wenn intel denkt die können das geld in sinnlose investitionen/(und auch mal innovationen) stecken, sollen sie doch machen - die hams ja, aber obs wirklich sinnvoll is? habe mir eigentlich erhofft das vorallem mal die tdp runtergeht und man irgendwann mal nen cpu gar nicht mehr kühlen muss - evtl. n kleines metallplätchen auf den heatspreader druff und gut is ^^.

2. ich finde intel geht im moment den falschen schritt, aber amd kann im moment auch nicht mehr als aufholen und beide sind eigentlich doch total arm.
ich habe da vor ca. 1 jahr mal einen bericht über einen prozessor gelesen, welcher von einem professor und seinen studenten entwickelt wurde. obwohl er nur mit 300Mhz getaktet war, hatte er eine beachtliche anzahl an flops, mit 500 Mhz sogar mehr als c2d's und das bei minimaler leistungsaufnahme! warum kann das amd oder intel nich?
hat jemand evtl. auch diesen bericht/artikel gelesen und weiss auch noch wo dieser zu finden ist?


ps: ich spreche hier als privatanwender, nicht als großkunde einer firma!
 
Floletni schrieb:
Naja davon sind 2 Sockel für den Desktop.
Mag sein, er hat aber nach der Nehalem-Architektur gefragt.

ekin06 schrieb:
1. ich weiss nich warum einige leute immer erzählen das intel von amd abkupfert? amd und intel haben seit mehreren jahrenzenten einen vertrag abgeschlossen, welches die gegenseitige nutzung aller patente erlaubt.
Darum geht es nicht. Der Patentaustauschvertrag kommt z. B. bei neuen SSE-Generationen, NX-bit, Virtualisierungstechniken oder 64 Bit zum Zuge. Hier geht es um das Prozessordesign.

ekin06 schrieb:
amd hat einfach nicht mehr das geld für neue inovationen...zuerst das werk in dresden...dann der aufkauf von ati.
Für Innovationen braucht man nicht immer (nur) Geld.

ekin06 schrieb:
intel wollte doch mal alles sparsamer machen, schön und gut - aber warum nehmen sie dann nicht mal einfach die taktraten(vcores) runter?
Da tust du Intel unrecht. Die Firma bereitet derzeit eine Plattform mit In-of-order-CPUs vor, also Prozessoren ohne Prefetching. Z. B. für Subnotebooks und andere Geräte mit niedrigem Energieverbrauch (etwa analog zum Geode von AMD).

ekin06 schrieb:
ich habe da vor ca. 1 jahr mal einen bericht über einen prozessor gelesen, welcher von einem professor und seinen studenten entwickelt wurde. obwohl er nur mit 300Mhz getaktet war, hatte er eine beachtliche anzahl an flops, mit 500 Mhz sogar mehr als c2d's und das bei minimaler leistungsaufnahme! warum kann das amd oder intel nich?!
Das ist ganz einfach. Intel und AMD sitzen im wesentlichen auf der x86-Architektur fest und können sich keinen Millimeter bewegen.
Der Prozessor aus deinem Bericht hat eine grundsätzlich andere, vermutlich neue (oder zumindest hochwertige) Architektur. Für einen Wechsel der grundsätzlichen CPU-Architektur müsste man sämtliche wichtige Software umschreiben. Du weißt vermutlich, was für Probleme es alleine wegen des relativ kleinen Updates auf 64 Bit gibt und gab - überall fehlten erstmal die Programme.
 
ekin06 schrieb:
amd hat einfach nicht mehr das geld für neue inovationen...zuerst das werk in dresden...dann der aufkauf von ati.
Das solltest du nicht überbewerten. AMD hat noch genug Geld, welches sie in Forschung und Entwicklung stecken. Es ist ja nicht so, dass sie überhaupt keinen Umsatz machen würden.

ekin06 schrieb:
intel wollte doch mal alles sparsamer machen, schön und gut - aber warum nehmen sie dann nicht mal einfach die taktraten(vcores) runter? brauch man wirklich für word 2Ghz (*4 kerne) und mehr? und jeder weiss das in heutigen spielen die rechenleistung nich vom cpu sondern von der gpu entschieden abhängig ist.
und die leute, die dann ein stromfresser namens grafikkarte in ihrem pc haben interessiert es wohl eher nicht ob der rechner nun schlappe 250W oder 350W verbraucht...aber die, die den pc/laptop nur fürs office (büro, nicht microsoft's office!) gebrauchen wollen und für die wo für ne runde call of duty auch ne onboardlösung ausreicht.
Da hast du nicht ganz Unrecht. Was den Stromverbrauch betrifft, war Merom jedenfalls erstmal ein Rückschritt im Vergleich zum Yonah bzw. Pentium-M. Mit aktuellen Steppings bzw. 45nm Mobilchips dürfte das aber besser sein. Warum hohe Taktraten? Nun, wenn der Fertigungsprozess dies hergibt, warum nicht. Mir wäre es aber auch lieber, wenn man sich auf niedrigere Taktraten konzentrieren würde, um die Leistungsaufnahme weiter zu senken und stattdessen mehr Leistung pro Takt herausholt. Intel würde vermutlich aber auch Netburst zurückholen, wenn sie leistungstechnisch damit vor AMD bleiben können. Der QX9775 mit seiner TDP von 150W spricht da jedenfalls Bände. Und was einige Freaks betrifft, die brauchen es wohl für ihr Ego, irgendwo in der Signatur einen Quad mit 3,5 oder 4 GHz stehen zu haben, obwohl 99% dieser Leute die Leistung nicht mal ansatzweise brauchen und nur unnötig Strom verballern. Glücklicherweise gibt es aber auch noch die Szene der Underclocker, ausreichend Leistung bei möglichst geringem Stromverbrauch. Das ist im Vergleich zu OC sogar richtig sinnvoll.

ekin06 schrieb:
ich habe da vor ca. 1 jahr mal einen bericht über einen prozessor gelesen, welcher von einem professor und seinen studenten entwickelt wurde. obwohl er nur mit 300Mhz getaktet war, hatte er eine beachtliche anzahl an flops, mit 500 Mhz sogar mehr als c2d's und das bei minimaler leistungsaufnahme! warum kann das amd oder intel nich?
Das könnte AMD und Intel auch. Du kannst das aber nicht vergleichen. Das sind idR Spezial CPUs, die für einen bestimmten Einsatzzweck gute Leistung liefern, im Alltagsgebrauch aber universellen Architekturen wie x86 nicht das Wasser reichen können. Hinzu kommt die Abwärtskompatibilität, die kann AMD und Intel nicht einfach über den Haufen werfen. Intel hat das mit Itanium ja schon mal versucht, und dass dieser hier kläglich gescheitert ist, dürfte bekannt sein.
 
Zuletzt bearbeitet:
Also Leute, zum Stromsparen gibt es Cool&Quiet und Speedstep, wenn leistunbg nicht gebraucht wird, werden frequenz und Spannung automatisch abgesenkt. Dass der rechner in dem moment, wo die Leistung gebraucht wiord, mehr verbraucht muss auch keinen allgemein höheren Gesamtverbrauch bedeuten, denn dafür verbraucht er auch kürzer - je mehr Leistung, desto schneller kann die Rechenarbeit dann erledigt werden. Wenn eine bestimmte Datei zu entpacken auf nem 50-W-Proz 2 min und auf nem 100-W-Proz 1 min braucht, beide dank Stromspartechniken danach auf 1,2 GHz und xy V herunterregeln, dann ist das auf der Stromrechnung gehupft wie gesprungen. ;)

P.S.
Leistung durch Takt lässt sich im Idle besser zum Stromsparen runterregeln, als Leistung pro Takt. ;)
 
@Macrowelle
Darum geht es nicht. Der Patentaustauschvertrag kommt z. B. bei neuen SSE-Generationen, NX-bit, Virtualisierungstechniken oder 64 Bit zum Zuge. Hier geht es um das Prozessordesign.
naja, meine aussage bezog sich eher auf das was hier 2-3 leute in dem thread von sich gegeben haben...hab jez keine lust das rauszusuchen, kann natürlich auch sein das ichs missverstanden hab.


Für Innovationen braucht man nicht immer (nur) Geld.
stimmt, man brauch schlaue leute, gute ideen (innovationen *g) und uhm... geld um die fachleute und ihre labore zu bezahlen. was sonst noch? evtl. noch einen tollen arbeitsplatz und eine tolle firmenkantine, damit sich alle wohlfühlen :D

Da tust du Intel unrecht. Die Firma bereitet derzeit eine Plattform mit In-of-order-CPUs vor, also Prozessoren ohne Prefetching. Z. B. für Subnotebooks und andere Geräte mit niedrigem Energieverbrauch (etwa analog zum Geode von AMD).
1. hast du dazu'n link bzw. quelle?
2. werden sie es auch für den desktopbereich entwickeln?

Das ist ganz einfach. Intel und AMD sitzen im wesentlichen auf der x86-Architektur fest und können sich keinen Millimeter bewegen.
Der Prozessor aus deinem Bericht hat eine grundsätzlich andere, vermutlich neue (oder zumindest hochwertige) Architektur. Für einen Wechsel der grundsätzlichen CPU-Architektur müsste man sämtliche wichtige Software umschreiben. Du weißt vermutlich, was für Probleme es alleine wegen des relativ kleinen Updates auf 64 Bit gibt und gab - überall fehlten erstmal die Programme.
seh ich ein (da gibs doch aber bestimmt noch n anderen weg...zum beispiel eine revolution*g)

@gruffi
Das solltest du nicht überbewerten. AMD hat noch genug Geld, welches sie in Forschung und Entwicklung stecken. Es ist ja nicht so, dass sie überhaupt keinen Umsatz machen würden.
naja, war bissl übertrieben, aber ich meinte damit das amd in der letzten zeit zuviel um die ohren hatte, wenn man bedenkt das das neue werk in dresden schon wieder umgestellt werden soll auf 45nm oder ausgebaut, weil der platz net reicht, oder irgendwie so war das.
 
ekin06 schrieb:
naja, war bissl übertrieben, aber ich meinte damit das amd in der letzten zeit zuviel um die ohren hatte, wenn man bedenkt das das neue werk in dresden schon wieder umgestellt werden soll auf 45nm oder ausgebaut, weil der platz net reicht, oder irgendwie so war das.
Was meinst du mit schon wieder? In Dresden gibt es zwei Fabs von AMD, Fab30 und Fab36. Fab36 ist neuer und wurde vor über einem Jahr auf 65nm umgerüstet, später soll hier afaik auch in 45nm produziert werden. Die 45nm Pilotfertigung läuft dort ja ebenfalls. Fab30 ist hingegen älter und produzierte zuletzt in 90nm. Diese wird momentan auf 45nm zur Fab38 umgerüstet. Es schwebten mal Gerüchte im Raum, dass sich dies wegen der finanziellen Lage von AMD bis 2009 verzögert. Laut den letzten offiziellen Informationen soll die Fab aber Mitte 2008 die Produktion aufnehmen können. Insofern läuft da bisher alles nach Plan. Man kann nur hoffen, dass dies auch so bleibt.

@MountWalker
Du hast das vermutlich falsch verstanden. Was hat wohl eine bessere Effizienz? Eine CPU mit 20% mehr Takt oder eine mit 20% mehr IPC? Vorausgesetzt, beide CPUs basieren auf dem selben Fertigungsprozess und haben damit identische thermische Kenndaten. Problem dabei ist einfach, dass es meistens einfacher ist, die Taktrate zu erhöhen, um so mehr Leistung zu erhalten, anstatt die Architektur zu verbessern. Ausserdem ist das auch nur die halbe Wahrheit. Bei Intel hängen zB alle Kerne an einer Taktdomäne. Wird ein Kern belastet und fährt damit mit vollem Takt, tun die anderen das auch, obwohl sie weiterhin runtergeregelt bleiben könnten. Phenom ist hier zB schon einen Schritt weiter. Etwas vergleichbares kommt bei Intel mit Nehalem.
 
Zuletzt bearbeitet:
Was meinst du mit schon wieder?
war ungünstig ausgedrückt, im groben und ganzen mein ich das beschriebene von dir.


aber wozu so einen schwachen im desktop bereich?
takte nen core2 auf benötigtes niveau und undervolte ihn kräftig

genau das ist es, dass es einfach noch keine cpu's in dieser richtung gibt (zumindest von intel)
selbst bei dem ganzen mobilezeugs, also LV und ULV cpus reicht die leistung einfach net.
bei meinen eltern hab ich nen x2 3600+ wieviel der schluckt hab ich jez net genau im kopf aber unter 40W idle waren es -> der gesamte rechner, aber da is halt auch keine grafikkarte drin. davon kann ich mit meinem c2d nur träumen, ich hab halt ne grafikkarte drin, weil ich ab und zu auch mal was zocken will, da bringt das undervolten vom prozi ein paar watt...wär halt toll wenn die grafikkarte einfach auf sparflamme geht , gut das hat jez nix mit cpus zu tun aber sollte mal genannt werden. (ich weiss das nvidia in der richtung was am laufen hat)

ach egal...einfach abwarten und irgenwann in 5 oder 10 jahren wird die herstellung und materialien von cpus mal wieder revolutioniert und dann hat man sicher schon <22nm und 50W tdp trotz 16cores *g
 
gruffi schrieb:
... Was hat wohl eine bessere Effizienz? Eine CPU mit 20% mehr Takt oder eine mit 20% mehr IPC? ...
Darum gings ja so nicht, es ging um die Frage, warum überhaupt so viel Rechenleistung auf dem Heim-Computer für Zip, Audio/Video Encoding usw. benötigt wird. Ein Athlon 64 taktet in jedem Fall auf 1,2 GHz herunter, auch auf die gleiche Spannung, egal wie hoch seine Vollast-Frequenz ist. Je höher die Vollast-Frequenz, desto höher der nominelle Verbrauch, aber desto kürzer ist er auch auf Vollast. In Zeiten von Speedstep und C&Q - auch mit dem Einheitstakt bei Intel, ist manuelles Underclocking deshalb reiner Unsinn - er verbraucht weniger, bei Last, ist aber dafür länger unter Last. ;)

@ Abkehr von X86 wäre eine brachiale Leistungsrevolution

Vergleiche zwischen Opteron und Power6 zeigen, dass die Leistungsunterschiede nun nicht so wahnsinnig weltbewegend sind. (auch wenn der Power6 derzeit besser da steht) Nominelle FLOPS sind auch nicht immer das, was sie auszudrücken scheinen, wer bspw. mal den Wikipedia-Artikel zum Cell liest, stellt fest, dass dessen als zehn mal oder ähnlich höher beworbene FLOPS-Leistung eine Werbelüge ist. IBM hat auch einen sehr hohen Entwicklungsetat, also zieht auch das Argument von wegen, X86 könne sich einfach mehr leisten, nicht wirklich - der "Massenmarkt"-Absatz ist mit XBox und PS auch gegeben.

CISC(-Code)-Architekturen wie X86 und Itanium brauchen aufwendigere Compiler, als RISC-Architekturen, aber mittlerweile haben wir eben auch hervorragende X86-Compiler.
 
Zuletzt bearbeitet:
@MountWalker
Grundsätzlich hast du recht, die Hardware skaliert heute ihren Energieverbrauch entsprechend der Rechenlast. Und eine CPU, die eine Aufgabe schneller bewältigt, kann früher zurück in ihren kuscheligen, sparsamen Idle-Modus.

Aber: Nehmen wir mal an, ein Prozessor mit 1,0 Volt verbraucht bei einem Takt von einem Gigahertz genau 10 Watt, während dieser Prozessor unter Volllast einen Benchmark durchläuft und bei diesem genau 100 Punkte einfährt.
Jetzt taktest du die CPU hoch auf 1,5 bzw. 2 Ghz und machst den Benchmark nochmal. Die CPU schafft höchstwahrscheinlich keine 50 bzw. 100% Leistungssteigerung in dem Benchmark, sondern weniger. Gleichzeitig steigt der Energieverbrauch nicht nur aufgrund des höheren Taktes linear an, sondern wahrscheinlich musst du auch noch die Spannung erhöhen (und die Kühlung fällt dann auch aufwendiger aus).

Die Takt- und Energieeffizienz nimmt bei höheren Taktraten also immer weiter ab, ähnlich wie bei einem Auto. Wenn der Rechner eine Aufgabe nicht gerade möglichst schnell oder gar in Echtzeit abwickeln soll, sind hohe Taktraten theoretisch Blödsinn.
 
Zuletzt bearbeitet:
Floletni schrieb:
Naja davon sind 2 Sockel für den Desktop.

eigentlich nur einer, der 1160. Alle anderen sind für Desktop vollkommen uninteressant. Und nein, es geht kein alter Chipsatz damit.

ekin06 schrieb:
1. ich weiss nich warum einige leute immer erzählen das intel von amd abkupfert? amd und intel haben seit mehreren jahrenzenten einen vertrag abgeschlossen, welches die gegenseitige nutzung aller patente erlaubt.
[...]

Ohne IMC und x86-64 von AMD hätten wir jetzt keine 64bitter im x86 Universum und auch keinen IMC bei Intel. Natürlich kupfert Intel ab und das ist ja auch gut so.
 
Zuletzt bearbeitet von einem Moderator: (Beiträge zusammengeführt. Regeln beachten!)
MountWalker schrieb:
Darum gings ja so nicht, es ging um die Frage, warum überhaupt so viel Rechenleistung auf dem Heim-Computer für Zip, Audio/Video Encoding usw. benötigt wird. Ein Athlon 64 taktet in jedem Fall auf 1,2 GHz herunter, auch auf die gleiche Spannung, egal wie hoch seine Vollast-Frequenz ist. Je höher die Vollast-Frequenz, desto höher der nominelle Verbrauch, aber desto kürzer ist er auch auf Vollast. In Zeiten von Speedstep und C&Q - auch mit dem Einheitstakt bei Intel, ist manuelles Underclocking deshalb reiner Unsinn - er verbraucht weniger, bei Last, ist aber dafür länger unter Last. ;)
Inwiefern sowas manuell sinnvoll ist oder nicht, hängt ja immer davon ab, welche Möglichkeiten Energiesparfunktionen wie CnQ oder Speedstep bieten. Optimal ist natürlich, wenn man für Idle und Last die jeweiligen Multiplikatoren und Spannungen einstellen kann und alles weitere automatisch geregelt wird.

MountWalker schrieb:
@ Abkehr von X86 wäre eine brachiale Leistungsrevolution
Sei dir da mal nicht so sicher. Moderne x86 CPUs sind im Kern kaum noch das, was der 8086 einst war. x86 kommt eigentlich nur noch in der Dekodierungsphase zum tragen. Und inwiefern das einen Flaschenhals darstellt, kann man schwer beurteilen. Ich fände es aber durchaus spannend, wenn eine komplett neue Architektur, speziell angepasst auf die heutigen Bedürfnisse des Consumer Marktes, entwickelt werden würde.

MountWalker schrieb:
also zieht auch das Argument von wegen, X86 könne sich einfach mehr leisten, nicht wirklich - der "Massenmarkt"-Absatz ist mit XBox und PS auch gegeben.
Naja, das kann man ja nicht wirklich vergleichen. Konsolen sind ein spezieller Markt, wo jeder weiss, mit jeder neuen Generation kommt neue Hardware und neue Spiele. Versuche mal, in einem Unternehmen 100 Bürorechner mit neuer Hardware und neuer Software auszustatten, so dass mindestens der Arbeitszustand wie vorher gegeben ist. Du wirst einfach scheitern. Grossflächige Softwareunterstützung für neue Hardware ist da nur ein Problem.

MountWalker schrieb:
CISC(-Code)-Architekturen wie X86 und Itanium brauchen aufwendigere Compiler, als RISC-Architekturen, aber mittlerweile haben wir eben auch hervorragende X86-Compiler.
Nicht nur das. x86 ist mittlerweile eher ein Mix aus CISC und RISC. CISC oberflächlich, RISC unter der Haube.
 
Tjo, x86 ist halt nur noch ne ISA. Das hat mit der tatsächlichen Leistung, die der Prozessor liefern kann heutzutage nichts mehr zu tun. Die x86er sind nunmal die besten CPUs (vom Kosten/Nutzen-Verhältnis her), da ist das Instruction Set heutzutage schlicht irrelevant. AMD64 hebt da die letzten Einschränkungen auf, die damit einhergingen. Ein AMD64 Prozessor (von AMD und Intel) hat überhaupt keine Nachteile gegenüber einer CPU mit einem anderen Instruction Set.
 
Zuletzt bearbeitet:
Zurück
Oben