Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Neue, offizielle Prozessor-Roadmap von Intel
- Ersteller Volker
- Erstellt am
- Zur News: Neue, offizielle Prozessor-Roadmap von Intel
TheGhost31.08
Captain
- Registriert
- Okt. 2007
- Beiträge
- 3.436
Oder direkt den Markt zusammenbrechen lassen, indem man nurnoch Cpu´s mit passendem Cpu-Kühler drauf, der die Cpu umschließt und außreichend kühlt ^^
Oder Komplettsysteme mit Ölkühlung...
Oder Komplettsysteme mit Ölkühlung...
skcusBC <-
Ensign
- Registriert
- Dez. 2008
- Beiträge
- 132
6 Kerne, 12 Threads - ich lach' mich schlapp!
Das hört sich für mich nach einer deutlich vorgezogenen Agenda 2020 an... ;-)
Ich für meinen Teil werde das atuelle Treiben jedenfalls mit postitiver Grundeinstellung - aber mit zurückhaltender Skepsis - aus der Ferne beobachten. Ich halte erstmal am Sockel 775 fest und halte mir damit die Möglichkeit offen, später problemlos auf einen der überdimensionierten nicht-nativen Vierkerner zu wechseln.
Vor meinem geistigen Auge sehe ich schon das Rummgeheule der vielen Neukäufer, weil sie dank
Sockeldifferenzierung nichtmehr aufrüsten können und es undbedingt der Octacore (natürlich mit SMT)
sein muss, weil man ja mit einem extrem hohen Paralleliserungsgrad am PC vor sich hinwerkelt. Allein das Hochfahren benötigt ja schon mindestens 3 Threads und Word macht für jede Taste auch 'nen eigenen Thread auf, damit das Schreiben schneller geht...
Das hört sich für mich nach einer deutlich vorgezogenen Agenda 2020 an... ;-)
Ich für meinen Teil werde das atuelle Treiben jedenfalls mit postitiver Grundeinstellung - aber mit zurückhaltender Skepsis - aus der Ferne beobachten. Ich halte erstmal am Sockel 775 fest und halte mir damit die Möglichkeit offen, später problemlos auf einen der überdimensionierten nicht-nativen Vierkerner zu wechseln.
Vor meinem geistigen Auge sehe ich schon das Rummgeheule der vielen Neukäufer, weil sie dank
Sockeldifferenzierung nichtmehr aufrüsten können und es undbedingt der Octacore (natürlich mit SMT)
sein muss, weil man ja mit einem extrem hohen Paralleliserungsgrad am PC vor sich hinwerkelt. Allein das Hochfahren benötigt ja schon mindestens 3 Threads und Word macht für jede Taste auch 'nen eigenen Thread auf, damit das Schreiben schneller geht...
Dann kommt der wahrhaftige "Intel Atomprozessor"!wenn silizium am rand der strukturgröße angelangt ist, was kommtn dann ?
Zuletzt bearbeitet:
Floletni schrieb:@TheK
Wie kommts du darauf das ser Clarkdale nen anderen Sockel bekommt als de Lynnfield.
Guck dir mal das Diagramm an. Da muss irgendwo das "FDI" ("Flexible Display Interface") hin.
Denahar
Banned
- Registriert
- Apr. 2008
- Beiträge
- 1.783
Sehr interessante Neuigkeiten! Da hat doch Intel einfach mal still und heimlich an der Entwicklung des Bloomfield-Nachfolgers gearbeitet, ohne dass es auf einer Roadmap vorgesehen war. Ich meine, 6 native Kerne und 12 Threads, IMC und 32nm noch Ende dieses Jahres ist auf jeden Fall eine Hausnummer. Wow!
Ein wenig stutzig machte mich aber die Lücke dann zum Clarkdale/Lynnfield. Keinen Quad, sondern lediglich einen DC mit SMT scheint Intel sehr sicher zu machen, dass damit die Amd-Quads locker in Schach gehalten werden können oder es wird eben darauf gebaut, dass eben noch immer Bloomfield da ist bzw. selbst noch neue Steppings oder sogar einen shrink bekommt.
Also, dass wird dann ja wirklich spannend in diesem Jahr. Besonders freue ich mich auf die Nehalem-Xeons kommenden Monat! Immerhin noch früher als erwartet bzw. angekündigt. Dieses Tempo ist schon sehr beeindruckend und zeugt von der hohen Entwicklungsleistung und guten Arbeit bei Intel.
Ein wenig stutzig machte mich aber die Lücke dann zum Clarkdale/Lynnfield. Keinen Quad, sondern lediglich einen DC mit SMT scheint Intel sehr sicher zu machen, dass damit die Amd-Quads locker in Schach gehalten werden können oder es wird eben darauf gebaut, dass eben noch immer Bloomfield da ist bzw. selbst noch neue Steppings oder sogar einen shrink bekommt.
Also, dass wird dann ja wirklich spannend in diesem Jahr. Besonders freue ich mich auf die Nehalem-Xeons kommenden Monat! Immerhin noch früher als erwartet bzw. angekündigt. Dieses Tempo ist schon sehr beeindruckend und zeugt von der hohen Entwicklungsleistung und guten Arbeit bei Intel.
joda89
Cadet 3rd Year
- Registriert
- Jan. 2008
- Beiträge
- 55
Wow, eine ganz schön straffe Roadmap mit vielen interessanten Neuerungen. Insbesondere der Clarkdale und der Arrandale werden wohl die neuen Verkaufsschlager.
Bleibt nur abzuwarten, ob es nicht zu grösseren Verzögerungen beim Umstellen des Fertigungsprozesses kommen wird. Eine Roadmap ist ja schön und gut, aber ein Shrink lässt sich nicht immer genau planen.
Bleibt nur abzuwarten, ob es nicht zu grösseren Verzögerungen beim Umstellen des Fertigungsprozesses kommen wird. Eine Roadmap ist ja schön und gut, aber ein Shrink lässt sich nicht immer genau planen.
Crystal
Lt. Commander
- Registriert
- Mai 2006
- Beiträge
- 1.385
2 Chip Solution + CPU + GPU
Sind wohl die "geilsten" Neuerungen, neben dem verkleinertem Prozess. Das ganze erinnert mich irgendwie stark an AMD's Fusion. Es sieht für mich nach einem weiteren Schritt in die richtige Richtung aus. Chipsatz wird verkleinert und die wichtigsten Funktionen in die CPU integriert -> kleiner, Stromsparender und viel schneller durch die Vorteile der integration.
Jetzt interessiert mich nur noch AMD, ihre Pläne und Visionen. Ich will wissen was seitens AMD auf uns zukommt, Fusion und co. mehr Details bitte..
Sind wohl die "geilsten" Neuerungen, neben dem verkleinertem Prozess. Das ganze erinnert mich irgendwie stark an AMD's Fusion. Es sieht für mich nach einem weiteren Schritt in die richtige Richtung aus. Chipsatz wird verkleinert und die wichtigsten Funktionen in die CPU integriert -> kleiner, Stromsparender und viel schneller durch die Vorteile der integration.
Jetzt interessiert mich nur noch AMD, ihre Pläne und Visionen. Ich will wissen was seitens AMD auf uns zukommt, Fusion und co. mehr Details bitte..
Dr.Pawel
Lt. Commander
- Registriert
- Nov. 2007
- Beiträge
- 1.766
Schon lustig, ich hab schon vor 10 Jahren Leute sagen höhren das das gute alte Silizium am Ende sei, kommt immer wieder. Das dauert noch ne ganze Weile bis wir uns davon verabschieden werden.
Das wird sicher interessant werden mit den neuen in 32nm. Ich hoffe es kommt was dabei raus und nicht sowas wie der i7, hoffen wir das Intel dann wieder soon kracher bringt wie den E6750, der mMn der beste Prozzi ist den ich je hatte, und das waren nicht wenige....
Genauso gespannt bin ich auf die neuen Grafikkarten in 40nm. Insgesamt hoffe ich nämlich darauf das mein neuer PC Sommer 2010 vorallem beim Stromverbauch vieles besser machen als die derzeit aktuellen Cpus und Grafikkarten. Dies beinhaltet auch das dann endgültig wirklich effektive Stromsparmechanismen vorhanden sind, auch und vorallem in Zusammenarbeit von IGP und diskreter Grafikkarte.
Überhaupt ist die Leistungsaufnahme das Feld in dem das größte Potential derzeit vorhanden ist und zwar sowohl bei Cpus, Grafikkarten und Monitoren. Den nur eine minderheit an Anwedern wird die hohen Rechenleitungen der neuen Technik brauchen, wenn dann aber plötzlich der ganze PC nur noch 30 Watt + Bildschirm braucht und für alle normalen Sachen reicht ist das durchaus ein nicht zu verachtender Kaufgrund. Gerade im HDPC Sektor der mMn in den nächsten Jahren rapide wachsen wird.
Mfg
Das wird sicher interessant werden mit den neuen in 32nm. Ich hoffe es kommt was dabei raus und nicht sowas wie der i7, hoffen wir das Intel dann wieder soon kracher bringt wie den E6750, der mMn der beste Prozzi ist den ich je hatte, und das waren nicht wenige....
Genauso gespannt bin ich auf die neuen Grafikkarten in 40nm. Insgesamt hoffe ich nämlich darauf das mein neuer PC Sommer 2010 vorallem beim Stromverbauch vieles besser machen als die derzeit aktuellen Cpus und Grafikkarten. Dies beinhaltet auch das dann endgültig wirklich effektive Stromsparmechanismen vorhanden sind, auch und vorallem in Zusammenarbeit von IGP und diskreter Grafikkarte.
Überhaupt ist die Leistungsaufnahme das Feld in dem das größte Potential derzeit vorhanden ist und zwar sowohl bei Cpus, Grafikkarten und Monitoren. Den nur eine minderheit an Anwedern wird die hohen Rechenleitungen der neuen Technik brauchen, wenn dann aber plötzlich der ganze PC nur noch 30 Watt + Bildschirm braucht und für alle normalen Sachen reicht ist das durchaus ein nicht zu verachtender Kaufgrund. Gerade im HDPC Sektor der mMn in den nächsten Jahren rapide wachsen wird.
Mfg
Eisenfaust
Banned
- Registriert
- Feb. 2007
- Beiträge
- 1.212
Vor 10 Jahren hat man, zumindest in einigen Kreisen, das Hohelied auf Gallium-Arsenid angestimmt, als Ablöser der Sizliziumarchitekturen. Bis dann eine Ökowelle (zu Recht) diesem Treiben durch Vor-Augen-Führen der enormen Umweltbelastungen durch die verwendeten Schwermetalle ein Ende setzte.
Ist der 32nm-Prozeß ersteinmal etabliert, geht es ja schon in großen Schritten hin zu 22nm - und dann bewegt man sich allerdings in Bereichen physikalischer Grenzen bei herkömmlichen Belichtungstechniken. Eventuell wird man die eine oder andere Hürde noch nehmen können, man erinnere sich an Quantenverschränkung, derzeit ein oftgenannter populärwissenschaftlich entlehnter Begriff. Sind die CPU-Rechenwerke ersteinmal verkleinert und am Ende ihrer Ausbaufähigkeit, werden die Graphikkartenkerne nochmals verkleinert, man ist ja bei diesen gerade bei 55nm angekommen - etwas mehr geht wohl problemlos noch. Und mittels neuer Hard- und Softwaretechniken wird man hier auch noch Leistung nutzbar machen können, CUDA und OpenCL weisen in die richtige Richtung.
Das Silizium mag irgendwann am Ende seiner Ausbaufähigkeit- und Miniaturisierbarkeit sein, aber wie man auf Basis 32 oder 22nm-breiter Strukturen eine CPU baut, ist ja nicht alleine Intel in die Wiege gelegt worden. Der x86-CISC-Methusalem mit all seinen Relikten ist sicherlich keine Glanzleistung - allenthalben hinsichtlich seiner R-Strategie. Ein bißchen mehr 'UNIX' würde der Rechnerwelt nichts schaden. Früher, das heißt noch Anfang der 90iger Jahre, hat man, theoretisch, lediglich einen auf eine Plattform angepaßten Compiler benötigt und hat so Software übersetzt und eingesetzt. Heute noch genauso, aber leider zunhemedn auf Intel-kompatiblen Krempel.
Ist der 32nm-Prozeß ersteinmal etabliert, geht es ja schon in großen Schritten hin zu 22nm - und dann bewegt man sich allerdings in Bereichen physikalischer Grenzen bei herkömmlichen Belichtungstechniken. Eventuell wird man die eine oder andere Hürde noch nehmen können, man erinnere sich an Quantenverschränkung, derzeit ein oftgenannter populärwissenschaftlich entlehnter Begriff. Sind die CPU-Rechenwerke ersteinmal verkleinert und am Ende ihrer Ausbaufähigkeit, werden die Graphikkartenkerne nochmals verkleinert, man ist ja bei diesen gerade bei 55nm angekommen - etwas mehr geht wohl problemlos noch. Und mittels neuer Hard- und Softwaretechniken wird man hier auch noch Leistung nutzbar machen können, CUDA und OpenCL weisen in die richtige Richtung.
Das Silizium mag irgendwann am Ende seiner Ausbaufähigkeit- und Miniaturisierbarkeit sein, aber wie man auf Basis 32 oder 22nm-breiter Strukturen eine CPU baut, ist ja nicht alleine Intel in die Wiege gelegt worden. Der x86-CISC-Methusalem mit all seinen Relikten ist sicherlich keine Glanzleistung - allenthalben hinsichtlich seiner R-Strategie. Ein bißchen mehr 'UNIX' würde der Rechnerwelt nichts schaden. Früher, das heißt noch Anfang der 90iger Jahre, hat man, theoretisch, lediglich einen auf eine Plattform angepaßten Compiler benötigt und hat so Software übersetzt und eingesetzt. Heute noch genauso, aber leider zunhemedn auf Intel-kompatiblen Krempel.
Welche? 6 Kerne und 12 Threads? Ich hab 2009 weiterhin massive Probleme Programme zu finden die vernünftig auf mehr als 2 Threads/Kerne skalieren. Ich unterhalte keine Webserver hier.Dr.Pawel schrieb:Den nur eine minderheit an Anwedern wird die hohen Rechenleitungen der neuen Technik brauchen
Wann kann ich eine CPU kaufen die ~80% mehr Leistung pro Thread (!) als mein 45nm ~3.7Ghz 1.25V Dualcore liefern kann? DAS ist hier die Frage. Die schnellsten (auch OC) 45nm Quads wie auch die i7 sind keine Optionen die mich heiß machen würden. Selbst wenn ich 3 Anwendungen im System habe die auf 4 Cores noch brauchbar skalieren...
Bis die Leute lernen bzw. bis es entsprechende Ideen und Techniken gibt wie man auf einfachere Weise mehr als 2 Threads nutzt wird noch ziemlich viel Zeit vergehen. Bis dahin wird man das meiste mit DX11 (was eine API ala CUDA/OpenCL haben soll) mehrfach schneller mit der GPU wegschaufeln. Was aber den Durchbruch beim multithreaded programing widerum ausbremsen wird.
Die von dir erwähnten Komplettsysteme mit 30W wären ok. Auch 50W wären ok, aber die Hersteller werden erstmal lernen müßen effiziente Netzteile zu bauen die zwischen 60W und 140W liefern können. Sowas sehe ich nirgendwo. Das ist auch jetzt schon das größte Problem, falls man sich einen brauchbaren HTPC selber bauen will. "Sparsame, ausreichende Rechenleistung" ist überall zu haben.
Zuletzt bearbeitet:
Eon-Deon
Rear Admiral
- Registriert
- Mai 2007
- Beiträge
- 5.507
@BeeHaa
Dieses geheule das CUAD oder OpenCL die CPU in weiten Bereichen ersetzen könnte ist absoluter humbug. Eine GPU kann nur einfache Berechnungen, welche sich extrem stark parallelisieren lassen, durchführen, mehr nicht. Das wird sich auch in Zukunft nicht ändern. Die meisten Dinge kann eine GPU nicht berechnen. Das verstehen nur sehr viele leider nicht.
Die GPU wird in "einigen" Bereichen die Berechnungen übernehmen und so die CPU stark entlasten, aber eben nur in einigen. Seh dich doch jetzt mal um. Was kann denn die GPU bisher berechnen? Ein paar Filter in Photoshop, Videocompremierung oder Decodierung, ein bisschen was in Cad und ein paar Filter in einigen anderen Programmen. Das wars auch schon. Das ist ein Bruchteil dessen was eine CPU berechnen kann.
Was die 6 Kerner angeht, ich freu mich drauf. Man sollte nicht vergessen das die Entwickler mittlerweile immer mehr parallelisieren und langsam lernen es richtig zu machen. Die Softwareentwciklung hängt in der Regel knapp 2 Jahre hinter der Hardwareentwicklung zurück. Da man erst die Hardware benötigt um richtig programmieren zu können. Leider hatte man bis vor kurzem nur Multi CPU Systemen auf Servern, nicht im Heimanwenderbereich. ICh hatte viele Interviews von Spieleentwicklern gelesen die alle meinten das sie erstmal lernen müssen mit mehr als 2 Threats zu arbeiten. Die umstellung von Singelcore auf Dualcore war nicht schwierig. Grafikpart extra und der Rest auf den anderen Kern, keine große Sache.
Allerdings entwickelt man bei Spielen mittlerweile in mehreren Threats. KI, Sound, Grafik teilweise auf zwei Threats, Physik u.s.w.! Möglichkeiten sind gegeben. Natürlich fällt die Skalierungskurve mit steigender Kernzahl, da man es bei Spielen kaum schaffen kann alle Kerne immer auf ca. 90% zu halten, trotzdem ein Fortschritt.
Bei Programmen sieht die Sache schon viel besser aus. Grade wer höherwertiges am PC macht als Office, hat jetzt schon seine Freude an mehr Kernen. Nahezu alle Programme können mehr als 2 Kerne nutzen und das sogar sehr gut. Wo liegt das Problem?
Einzig der Stromverbrauch ist enorm unter Vollast, allerdings haben es mittlerweile alle Hersteller gescaht ihren Idle Verbrauch stark zu minimieren. Selbst der i7 verbraucht Idle nicht wirklich viel.
Was ich allerdings erschreckend finde, ist tatsächlich das 4 Kerner weg fallen sollen. Das man hier glaubt AMD mit 2 Kernern und SMT in Schach halten zu können, wäre schlichtweg Dumm. Bleibt die Frage ob man hier AMD absichtlich eine Lücke lässt. Und bevor mich alle für verrückt erklären, sollte man sich folgendes durch den Kopf gehen lassen. AMD steht sehr sehr schlecht da, Finahziell zumindest, würde AMD pleite gehen gäbe es nur noch Intel als absoluter Monopolist, was eine Zerschlagung durch das Kartellamt zur Folge hätte.
Dieses geheule das CUAD oder OpenCL die CPU in weiten Bereichen ersetzen könnte ist absoluter humbug. Eine GPU kann nur einfache Berechnungen, welche sich extrem stark parallelisieren lassen, durchführen, mehr nicht. Das wird sich auch in Zukunft nicht ändern. Die meisten Dinge kann eine GPU nicht berechnen. Das verstehen nur sehr viele leider nicht.
Die GPU wird in "einigen" Bereichen die Berechnungen übernehmen und so die CPU stark entlasten, aber eben nur in einigen. Seh dich doch jetzt mal um. Was kann denn die GPU bisher berechnen? Ein paar Filter in Photoshop, Videocompremierung oder Decodierung, ein bisschen was in Cad und ein paar Filter in einigen anderen Programmen. Das wars auch schon. Das ist ein Bruchteil dessen was eine CPU berechnen kann.
Was die 6 Kerner angeht, ich freu mich drauf. Man sollte nicht vergessen das die Entwickler mittlerweile immer mehr parallelisieren und langsam lernen es richtig zu machen. Die Softwareentwciklung hängt in der Regel knapp 2 Jahre hinter der Hardwareentwicklung zurück. Da man erst die Hardware benötigt um richtig programmieren zu können. Leider hatte man bis vor kurzem nur Multi CPU Systemen auf Servern, nicht im Heimanwenderbereich. ICh hatte viele Interviews von Spieleentwicklern gelesen die alle meinten das sie erstmal lernen müssen mit mehr als 2 Threats zu arbeiten. Die umstellung von Singelcore auf Dualcore war nicht schwierig. Grafikpart extra und der Rest auf den anderen Kern, keine große Sache.
Allerdings entwickelt man bei Spielen mittlerweile in mehreren Threats. KI, Sound, Grafik teilweise auf zwei Threats, Physik u.s.w.! Möglichkeiten sind gegeben. Natürlich fällt die Skalierungskurve mit steigender Kernzahl, da man es bei Spielen kaum schaffen kann alle Kerne immer auf ca. 90% zu halten, trotzdem ein Fortschritt.
Bei Programmen sieht die Sache schon viel besser aus. Grade wer höherwertiges am PC macht als Office, hat jetzt schon seine Freude an mehr Kernen. Nahezu alle Programme können mehr als 2 Kerne nutzen und das sogar sehr gut. Wo liegt das Problem?
Einzig der Stromverbrauch ist enorm unter Vollast, allerdings haben es mittlerweile alle Hersteller gescaht ihren Idle Verbrauch stark zu minimieren. Selbst der i7 verbraucht Idle nicht wirklich viel.
Was ich allerdings erschreckend finde, ist tatsächlich das 4 Kerner weg fallen sollen. Das man hier glaubt AMD mit 2 Kernern und SMT in Schach halten zu können, wäre schlichtweg Dumm. Bleibt die Frage ob man hier AMD absichtlich eine Lücke lässt. Und bevor mich alle für verrückt erklären, sollte man sich folgendes durch den Kopf gehen lassen. AMD steht sehr sehr schlecht da, Finahziell zumindest, würde AMD pleite gehen gäbe es nur noch Intel als absoluter Monopolist, was eine Zerschlagung durch das Kartellamt zur Folge hätte.
J
Jimmy_1991
Gast
Wenn ich das richtig sehe dann wird der Gulftown doch der Nachfolger des Bloomfield. Das heist dann das sechs Kerne vier ersetzen und 12 Theads 8 ersetzen. Aber auch das der Gulftown die Northbrige und die Grafikeinheit schon in sich trägt und das heist doch dann das es wieder einen neuen Sockel gibt, oder?
Ähnliche Themen
- Antworten
- 67
- Aufrufe
- 11.200
- Antworten
- 38
- Aufrufe
- 5.977