News Intel: Erster Prozessor mit acht Kernen

Wozu Quelle?
Meine Aussage ist doch vollkommen klar. Man kann an Computern auch was anderes machen als Spielen und die Millionen Office-Rechner die vor sich hindümpeln haben mit Sicherheit noch keine Spiele außer vielleicht mal Moorhuhn oder sowas gesehen.

btw. Deine Quelle ist ziemliches Nonsens und steht in überhaupt keiner Beziehung zu den allgemeinen Computeranwendern, wie auch, wenn die Umfrage innerhalb einer Spiele-Platform gemacht wurde.
 
Zuletzt bearbeitet:
Azi schrieb:
Die Top 500 repräsentieren wohl kaum den Marktschnitt, die meisten Server sind nunmal x86 und ein sehr großer Teil davon Windows.

Mag sein, aber wenn es um Zuverlässigkeit geht, kann man weder mit x86 oder Windows punkten.
Warum ist IBM mit seinen Mainframes so erfolgreich bzw. warum setzt die Mehrzahl der Top500 Rechner auf Linux?

Mallar schrieb:
Vllt nicht den Markschnitt (wobei...wenn man HPC machen will dann sollte die TOP500 doch schon ein wenig interessieren)..außerdem sind fast alle Maschinen in der Liste x86 (im Prinzip sonst nur noch ein paar PowerPC...)

Trotzdem erreichen die 12% der Power Maschinen 25% der Gesamtleistung aller Top 500 Rechner (zum Vergleich: 85% der Systeme setzen auf x86, kommen aber nur auf nur 72% der Gesamtleistung).

<NeoN> schrieb:
Wenn ich mich in meinem Freundes- und Bekanntenkreis umsehe ...
Glücklicherweise interessieren sich Unternehmen, die leistungsfähige Server brauchen, nicht für deinen Freundes- oder Bekanntenkreis.
Und keine Sorge, diese Unternehmen haben ihre Software auch schon auf mehrere Cores optimiert, da dort keine Gamerkiddies damit daddeln sollen.
 
CHAOSMAYHEMSOAP schrieb:
Mag sein, aber wenn es um Zuverlässigkeit geht, kann man weder mit x86 oder Windows punkten.
Warum ist IBM mit seinen Mainframes so erfolgreich bzw. warum setzt die Mehrzahl der Top500 Rechner auf Linux?

Was hat Die Architektur mit der Zuverlässigkeit zu tun? - genau - gar nix.
Und die x- Millionen Windows Server auf x86 beweisen wohl das gegenteil.

Die Top500 Rechner sind meistens Computer die auf wenige spezielle Funktionen zugeschnitten sind und darin die höchste Leistung erzielen.

Es ist eigentlich sogar ein Wunder das die x86- entwicklung schon so weit ist sogar spezialisierte CPUs in den Boden zu rammen.

IBM Mainframes gibts übrigens genaus mit x86 ;)

Den Vergleich mit der Leistung bringt nur dann was wenn man schaut wiviele Cluster Nodes man braucht um auf die Leistung zu kommen.
 
Zuletzt bearbeitet:
CHAOSMAYHEMSOAP schrieb:
Mag sein, aber wenn es um Zuverlässigkeit geht, kann man weder mit x86 oder Windows punkten.
Warum ist IBM mit seinen Mainframes so erfolgreich bzw. warum setzt die Mehrzahl der Top500 Rechner auf Linux?

x86 Server sind nicht zuverlässig oder wie? Wir haben seit Jahren IBM und Dell Server im Einsatz (Rechenzentrum) mit Windows Server 2003, 2008 und RHEL 5.

Bisher haben wir damit keinerlei Zuverlässigkeits oder Performance Probleme. Ich weiss nicht wie du auf sowas kommst.

Das x86 auf dem Desktop teilweise ein schlechtes Image hat liegt an den ganzen Billigherstellern und Gamer Hardware für ein Sockel. Der kram ist zum teil wirklich schrott.

Aber Dual oder Quad Sockel Systeme mit Server Chipsätzen sind da wunderbar stabil und haben keine der Probleme auf dem Desktop.

Die ganzen Gamerboards bei Alternate & Co kann man natürlich vergessen. Zu teuer und schlechte Qualität.

CHAOSMAYHEMSOAP schrieb:
Glücklicherweise interessieren sich Unternehmen, die leistungsfähige Server brauchen, nicht für deinen Freundes- oder Bekanntenkreis.
Und keine Sorge, diese Unternehmen haben ihre Software auch schon auf mehrere Cores optimiert, da dort keine Gamerkiddies damit daddeln sollen.

Die Server Software von Microsoft und Redhat ist auch alles mutlithreaded und nutzt alle verfügbaren Kerne effektiv aus.

Die Top500 Computer stellen nur Highend Cluster da die für besondere Rechenaufgaben optimiert sind.

D.h. die Programme dafür werden individuell geschrieben um den bestimmten Zweck zu erfüllen. Ob man dann Windows oder Linux nimmt ist an sich egal weil diese Server keine general purposes als Aufgabe haben sondern meistens nur reine Rechenaufgaben.

Wenn man Tausende von Nodes hat ist zudem Linux auch die günstigere Variante.

Diese Top500 Computer sind nicht geeignet für allgemeine Server Applications sondern das sind ausschließlich reine Rechenmaschinen im Cluster.
 
Zuletzt bearbeitet:
<NeoN> schrieb:
Ich habe auch nicht über die Multicoreunterstützung im Server- bzw. Unternehmermarkt gesprochen sondern über die im stinknormalen Desktopmarkt.

Nur ist das bei einem Artikel zu einer Server-CPU völlig irrelevant.

Azi schrieb:
Was hat Die Architektur mit der Zuverlässigkeit zu tun? - genau - gar nix.
Eigentlich sollte ich hier auf Dieter Nuhr ("Wenn man keine Ahnung hat: Einfach mal Fresse halten") verweisen, aber es hat sicherlich einen Grund, weshalb viele Banken und die größten Einzelhändler in den USA nicht auf x86 + Windows, sondern auf IBMs Mainframes setzen.
Azi schrieb:
Und die x- Millionen Windows Server auf x86 beweisen wohl das gegenteil.
Die x-Millionen Autos der Golf Klasse sind auch kein Beweis dafür, daß man damit in der Formel 1 gewinnen kann. :rolleyes:
Azi schrieb:
IBM Mainframes gibts übrigens genaus mit x86 ;)
Träum' weiter. Emulatorkarten oder eine Software Emulation machen noch keinen Mainfraime. Womit wir aber wieder bei der Zuverlässigkeit wären, die x86 und Windows nicht auf dem selben Niveau bieten können.
 
Ein Autovergleich (noch dazu ein unpassender, denn in der F1 hält ein Motor 2 rennen) - rofl. Damit hast du dich doch schon Disqualifiziert.

Erklär mir doch mal worin der Zuverlässigkeitsnachteil von X86 besteht?
Darin?
http://h71028.www7.hp.com/ERC/cache/618681-0-0-0-121.html?ERL=true

Übrigens gibt es zig banken die x86 server am laufen haben.
http://www.linux-magazin.de/news/hsbc_bank_stellt_auf_suse_linux_enterprise_um
http://illsinger.at/BlogEngine/post/Datawarehouse-fur-Raiffeisenbanken-auf-Basis-SQL-Server.aspx
https://www.techworld.com.au/article/204618/bank_vault_data_centre_tests_server_2008?fp=4&fpid=170
http://www.avanade.com/au/customers/detail.aspx?id=255

Sogar die Londoner Börse rennt auf Windows + x86.
http://h41131.www4.hp.com/at/de/press/Londoner_Brse_dank_HP-Servern_die_schnellste_der_Welt_.html
 
Zuletzt bearbeitet:
OMG ich bekomm hier noch die Krise, alle 2 Posts liest man TDP hier TDP da. Was ist bloss los mit euch, TDP ist so interessant, wie dem Gras beim wachsen zu zu schauen!

Ich hab im meinem Leben noch nie auf irgendeine Wattangabe bei einer CPU geschaut, das mag vll. für Hersteller mobiler Geräte wichtig sein, aber ich bezweifel, dass ihr euren PC mit ein 100000 Watt Netzteil mit Akkus betreibt. Und fals das ding wirklich heiss wird, dann kommt da halt ein fetterer Kühler drauf und gut is.

Anstatt sind mal über die Technik, die Leistung oder die Inovationen zu unterhalten/diskutieren, labbern alle nur müll über die Abwärme! Kauft euch ne Heizung, dann könnt ihr über Abwäre so viel diskutieren wiw ihr wollt!
 
Zuletzt bearbeitet:
Konti schrieb:
Diese Einstellung finde ich ziemlich ignorant. Es gibt auch genug Leute, die vor allem ein LEISES System haben wollen. Und wenn man da Komponenten reinbaut, die eine abnorme Abwärme produzieren, ist eine leise Kühlung schweineteuer!

Hier gehts aber nicht um Silent Systeme oder Desktop Hardware sondern um Server Prozessoren.

Und richtige gute Server von Dell oder IBM sind laut.

Da spielt das keine Rolle.
 
Naja, man darf nicht vergessen das diese CPU wohl 1:1 (bis auf Multi CPU Fähigkeiten) in Desktop PCs wandern wird, somit ist die Frage schon berechtigt.
 
Mit Sicherheit nicht. Da wird bestimmt noch der Speichercontroller und L3-Cache beschnitten.
Wäre zu teuer zu fertigen und neue Boards müssten auch her, ok das würde Intel wohl nicht stören. ;)
 
Zuletzt bearbeitet:
Azi schrieb:
Naja, man darf nicht vergessen das diese CPU wohl 1:1 (bis auf Multi CPU Fähigkeiten) in Desktop PCs wandern wird

Garantiert nicht, denn FB-DDR3 DIMMs wären für ein Desktop-PC viel zu teuer, würden auch mehr Strom ziehen und den AMD Jüngern noch mehr Gründe geben wegen dem teuereren Nehalem auszuflippen. ;)
 
Ok, omg, FB Dimm ganz vergessen ;) sry!
 
Mal davon abgesehen bedienen diese CPU´s das Intel Highend Server Segment.

Die aktuellen 6 Kern CPU´s von Intel gibt es auch nur für HighEnd Server zu entsprechenden Preisen.

Wenn man in dem Bereich Server kauft dann spielt TDP nurnoch eine untergeordnete Rolle.

So schnell wirds aufn Desktop keine echten 8 Kerner geben.
 
Konti schrieb:
Äh .. ne ...
Mehr Kerne auf eine CPU zu packen ist im Moment mehr oder weniger das einzige, um noch vernünftig mehr Performance zu erhalten. Und warum sollte das irgendwann nichts mehr bringen? Super-Rechner haben doch auch zich CPUs/GPUs drin.
Außerdem ist in Sachen Taktung denke ich langsam das Limit des Materials erreicht.

Trotzdem hat er irgendwo recht - wenn es immer so weiter geht, wird der Verwaltungsaufwand immer größer. Zudem ist der nächste Flaschenhals schon greifbar: Die Datenübertragung von der CPU zum Hauptspeicher und zurück.
Man arbeitet ja mittlerweile schon an einer Datenübertragung mittels Glasfasern und Licht, aber das steckt noch, gelinde gesagt, in den Kinderschuhen :)
Zudem schließt deine Antwort den Zitierten Post ja nicht aus. Ganz einfach Lösung: irgendwann ist Ende. Zumindest mit althergebrachten Methoden. Was als nächstes kommt, weiß keiner. Aber was man eigentlich quasi wissen kann, ist, dass es etwas Neues geben wird, das schneller sein wird. Ob das nun neue Halbleiter, Quantenrechner oder was auch immer sind: es geht immer weiter - es sei denn, jemand drückt die bösen Knöpfe und die nuklearen Sprengköpfe, deren Anzahl global im fünfstelligen Bereich liegt, lösen den 50fachen Overkill aus. Aber wir wollen ja mal nicht den Teufel an die Wand malen :D

BTT: Schön, zu sehen, wie eine Technologie sich entwickelt. Richtig jubeln werde ich aber erst, wenn es gelingt, den ersten nichtflüchtigen RAM marktreif zu machen. HDDs/SSDs, alles in die Tonne, einfach nur noch RAM. 256-bit OS, ich komme! :D
 
Jo klar .. optimal ist das mit dem Multicoring auf Dauer auch nicht .. es gibt ja auch einige Applikationen, die sich kaum bzw. nur mit sehr schlechter Effizienz auf mehrere Threads aufteilen lassen.
Aber ich denke mal, damit könnte man theoretisch jetzt noch recht weit kommen. Vorraussetzung ist natürlich auch, daß sich die Software-Programmierer die Mühe machen, entsprechend zu coden.

Das beste wär imo aber, mal so langsam mit ner komplett neuen Architektur zu kommen. Das geht natürlich auch nicht mal eben so von heute auf morgen, aber man könnte ja so langsam mal anfangen, sich da was einfallen zu lassen.
 
DrToxic schrieb:
Trotzdem hat er irgendwo recht - wenn es immer so weiter geht, wird der Verwaltungsaufwand immer größer. Zudem ist der nächste Flaschenhals schon greifbar: Die Datenübertragung von der CPU zum Hauptspeicher und zurück.
Nur zur Information, diesen Flaschenhals haben wir systembedingt seit Jahrzehnten dank von-Neumann-Architektur...:rolleyes:
 

Ähnliche Themen

Zurück
Oben