News Intel zeigt Prozessor mit 48 Kernen in Aktion

Das ist doch eine theoretisch mögliche Entwicklung. Und wenn es hart auf hart kommt, dann werden einfach keine Prozessoren mehr für den Normalverbraucher verkauft, b.z.w. keine passende Software mehr.

Und über das Netz kann man alles verschlüsseln, schon mal was von ssl gehört? Das Hauptproblem ist wie schon geschrieben wurde die zu geringe Anbindung der Rechner ans Netz. Man bräuchte daher einen hochoptimierten Grafikchip, der z.B. nur dafür da ist H264 zu dekodieren.

Die Vorteile wären ja da:
- Keine Raubkopierer mehr
- Nie mehr aufrüsten
- Billige Hardware
- Wesentlich geringere Stromkosten

Aber bis wir soweit sind wird es noch ein paar Jahre dauern. ;)
 
Wieder sehr lustig zu lesen was hier so gepostet wird.


Mehr Takt = Zukunft? Defintiv Fail! Sieht man schon allein daran das ein poppliger Q6600 mit 2.4 Ghz wesentlich mehr auf die Reihe bekommt als mein alter P4 mit 2.6 Ghz und das nicht nur in gethreadeten Anwendungen.

Nur Clustercomputing? Muss nicht sein. Würde man Konzepte entwickeln, um viele kleine Kernen sinnvoller auszulasten könnte das auch für Spiele interessant sein. Auch hier gibt es schon Ansätze wo Kerne z.b. nur Physik übernehmen oder nur KI. Außerdem könnte man viele kleine niedrig getaktete Kerne nehmen und dann auf diesen alles verteilen. Das könnte auch wieder sehr viel Hitze und Energie sparen. Das Problem ist auch momentan nur der Entwicklungsaufwand dafür.

1.5 Ghz Takt? Würd mich wundern. Wenn die bei Volllast angeblich nicht einmal 125 Watt brauchen, aber auf Pentium-Kernen basieren, wär schon krass. Ich denke die sind wesentlich niedriger getaktet. Da es wohl einfach primär darum geht neue Architekturansätze zu testen und einfache Algorithmen auf sovielen Cores zu synchen und ohne viel Overhead auszureizen.


@ Topic:
Definitiv ne coole Sache das sowas geht. Mehr Infos wären natürlich toll, aber ich denke Larabee wird da schon ein wenig Licht ins Dunkel bringen. Geht ja auch ansatzweise in diese Richtung.

Wird sehr interessant sein was sich durchsetzt Many-CPU-Cores oder doch eher eine Multi-GPU Entwicklung.
 
Suxxess schrieb:
...
- Wesentlich geringere Stromkosten
...
Ich sag nicht, dass das nicht möglich wäre aber ich bin nicht eindeutig davon überzeugt. Viel Internet-Datenverkehr braucht auch viel Strom.
 
alles ganz toll und super. bringt mir aber als kunde rein garnichts.
ich würd gern so einen prozessor in meinem privat pc haben und die dazu gehörige software die es ordentlich ausreizt.

als endverbrauchen hab ich auch von 100000 core prozessor nichts wenn ich die leistung nicht beanspruchen kann.

aber sonst ne nette entwicklung.
 
Wie ich denke wirst du es noch früh genug sehen. Haswell (Nachfolger von Sandy Bridge) soll mal keine Weiterentwicklung des jetzigen Architektur sein, sondern etwas neues sein. Da wird sich bestimmt die Kommunikationsform unter den Kernen wieder finden. Wenn ich den Larabee-DIE nicht kennen würde würde ich sagen das ist Larabee. Also wirst du dort bestimmt auch was von diesen Testprozessor finden.

Und wie sie gesagt haben zum Entwickeln der entsprechenden Software. Spätestens 2012 wirst du Techniken (Soft- und Hardwaremäßig) auf dem Markt sehen.

Und über das Netz kann man alles verschlüsseln, schon mal was von ssl gehört?

Ist auch nur eine Frage der Zeit bis sowas geknackt ist. Und dann will ich bestimmt nicht, bestimmt auch du, das ein anderer dann an deine ganzen Daten du zum berechnen schickst, sieht. Zudem müssen die Leitungen entsprechend ausgebaut werden. Am Ende zu viel Kosten bei kau einer Strom ersparnis.
 
berserk3r schrieb:
Mehr Takt = Zukunft? Defintiv Fail! Sieht man schon allein daran das ein poppliger Q6600 mit 2.4 Ghz wesentlich mehr auf die Reihe bekommt als mein alter P4 mit 2.6 Ghz und das nicht nur in gethreadeten Anwendungen.
Ich gehe davon aus dass die Taktfrequenzen nicht mehr so stark steigen werden da der Bereich des mobilen Computing immer wichtiger wird und der Stromverbrauch nun allgemein eine größere Bedeutung hat im Vergleich zu früher.
Dazu kommt dass die Software immer besser auf Multithreading optimiert wird.

berserk3r schrieb:
1.5 Ghz Takt? Würd mich wundern. Wenn die bei Volllast angeblich nicht einmal 125 Watt brauchen, aber auf Pentium-Kernen basieren, wär schon krass...
Ein Atom Z530, mal zum Vergleich, braucht ca. 2,2 Watt bei 1,6 GHz Takt. Ein Kern eines Atom dürfte ähnlich komplex aufgebaut sein und wird im gleichen Fertigungsverfahren hergesellt. Ich denke schon dass Intel die 1 GHz Schwelle überschreitet mit diesem Chip.

2,2 Watt x 48 ergeben rechnerische 106 Watt.
 
berserk3r schrieb:
Wird sehr interessant sein was sich durchsetzt Many-CPU-Cores oder doch eher eine Multi-GPU Entwicklung.

Ich habe da fast so einen Verdacht :
1. Im Vergleich zu Intel und AMD sind NVidia und ATI Zwerge
2. Multicore x86 wird nicht erst seit gestern entwickelt (Zumindest für die Sockel A Athlon und die Sockel Pentium III gab es Boards mit 2 CPU)
3. Intel und AMD bauen zunehmend Multicore CPU und die werden auch immer billiger
4. Alle Betriebssysteme für x86 unterstützen Multicore CPU
5. Die Softwareentwickler werden von Intel und AMD unterstützt
6. Etliche Spiele unterstützen und profiteren von Mehrkern CPU.

Vielleicht ist NVidia mit CUDA oder auch ATI mit Stream einfach auf dem Holzweg ?
 
genghis.

Die beiden Dinge werden sich sehr wahrscheinlich ergänzen.

zum bsp. in Games.
Physik + Grafik von der Graka.
KI usw. von dem Prozessor.

Und beides kann man so auslasten.

Graka für Massig Parallelisierte Berechnungen.
Prozessor für Massig unterschiedliche Komplexe Berechnungen.
 
Wundert mich das noch keiner gefragt hat ob man da drauf gut Crysis zocken kann :lol:
Oder ich habs überlesen ^^.

@Topic
Respekt was da abläuft. Der Takt ist in meinen Augen nicht so wichtig. Ich denke mal die kunst an diesem Prozi wird das Managen der CPU-Kerne sein.
 
@genghis
Erstmal ATI gehört AMD also da wird parallel entwickelt

@Topic
Sehr nette News aber wie hier schon mehrfach gesagt das Teil ist immer noch eine Studie, Prototypen sollen an Forscher gehen die zb Betriebssysteme für ManyCores entwickeln und natürlich zeigt es eine enge Verwandtschaft zum LRB. Aber wenn man schon einen so kleinen Kern entwickelt hat warum dies wieder tun?
Grade die Verknüpfung der Kerne wird für Intel einiges an neuem Wissen gebracht haben auch das thermische Verhalten solcher Monster kann getestet werden usw aber das Teil wird man so nie zum Crysis spielen bekommen.

PS:Wem ich nun seine Crysis-Träume zerstört Habe tut mir wirklich leid
 
@stryke : Sicher weis ich das. Davon wird ATI aber nicht grösser.

@topic : GPUComputing - nunja, ein Sonderweg, eine Sonderform. Manche sagen, schwer zu programmieren, schwer zu erlernen. Auch wäre es ein Irrtum, es mit echtem RISC Processing zu verwechseln.
Programmierer sind auch nur Menschen, niemand kann sie zwingen, CUDA/Stream Software zu entwickeln und ihre Zeit mit Lernen zu Verbringen. Schon gar nicht, wenn Intel "handfest" andere Technologie favorisiert und unterstützt.
Physikberechnung in Spielen ist nicht der Stein der Weisen, ein paar x86 Kerne reichen da bis in ferne Zukunft.

Und mit Tesla und "Supercomputing" steht NVidia in direkter Konkurrenz zu echten Riesen wie Intel, IBM und NEC -
das ist wie die Maus, die brüllte.
Stream ist wie schon erwähnt die ATI Entwicklung - und wenn AMD sagt, der Zug geht Richtung x86 Multicpu - dann ist's ganz schnell in der Schublade verschwunden.

Nope - wenn Stream oder Cuda eine Chance hätten haben sollen, dann hätte schon vor einem Jahr ein Aufschrei der Freude und des Enthusiasmus durch die Spieleentwicklerbüros rauschen müssen - da war aber in den Medien nix von Begeisterung zu lesen, Keiner hat gesagt, ich setz mich hin und lern das.
OK - so ein paar Fritzies von NVidia waren unterwegs vor Ort bei den Entwicklern und haben in Handarbeit für eine Handvoll Spiele etwas mit Cuda hingefrickelt - aber so richtig interessiert hat das Keinen.

Ich denke, aus NVidia wird kein CPU Hersteller und Grafikchips werden sich wieder um Grafik kümmern. Vielleicht können sie das dann ja mal richtig, wenn sie nicht mehr unsinnig CPU Funktionen nachahmen müssen.
 
Zuletzt bearbeitet:
Also ich bin schon überzeugt das es Synergieeffekte durch die AMD/ATI Fusion gibt wo wir gerade beim Wort Fusion sind ;-)
Ich denke ja eher das AMD einfach in beide Bereiche forscht und entwickelt um einfach immer ein passendes Produkt zu haben.
Programmierer sind nicht das flexsibelste Volk stimmt völlig aber deswegen werden ja heute auch Multicores noch nicht (selten) ausgereizt ein umdenken muss also so oder so passieren aber man kann Intel schon Vorteile eingestehen alleine durch ihre Marktmacht Forschungsgelder usw.
 
Interessant finde ich nur den Staub auf Bild 57, haben die nur zur Show die Platine aufgebaut und sonst liegt sie in der Ecke....?
 
@ genghis99

Schonmal den Begriff OpenCL gehört? Medienecho gefällig? Die Zeiten ändern sich - Programmierer mussten schon immer gelegentlich neues lernen.
 
Zuletzt bearbeitet:
MountWalker schrieb:
@ genghis99

Schonmal den Begriff OpenCL gehört? Medienecho gefällig? Die Zeiten ändern sich - Programmierer mussten schon immer gelegentlich neues lernen.

Und gelegentlich haben sie darauf gesch*****. Wie war das ? NVidias erster Grafikchip floppte weil - NVidia eine andere Technologie bevorzugte als Polygone. Glide verschwand vom Markt weil : 3DFX DirectX ignoriert haben. 3DFX verschwand. Transmeta wollte die CPU Architektur mit Crusoe revolutionieren - musste aber auf eine andere Programmiertechnik setzen. Crusoe wurde ATOMisiert, Transmeta verschwand. Linus Thorwalds war frustriert. Apropos : Gibt's inzwischen Crysis II für Linux ?
IA64 hat Intel viel Geld gekostet und ne Menge Erfahrung gebracht - man lizenzierte AMD64.

Nunja - es ist ein weiter Weg von der Nischentechnologie zu einem Verkaufsschlager.
 
Medienecho ? Soll ich im Ernst nachgooglen was früher an Heisser Luft produziert wurde ?
Ach - Rechthaberei Hin oder her - die Zeit wird sowieso zeigen.

Sollen ATI und NVidia erstmal ihre Probleme lösen und überhaupt wieder ein gescheites Angebot an Grakas lieferbar machen. lol.
 
3DFX DirectX ignoriert haben.

Haben sie nicht, Voodoo 3 und drüber hatten genauso Direct3D 8 Support wie jede andere damalig aktuelle Karte auch.
 
Zurück
Oben