News Intel: 50-fache Performance in sechs Jahren im HPC-Segment

Oromis schrieb:
Intel und Leistungssteigerung? :D
Das hat man ja seit Sandy gesehen...
seeeehr groß diese Leistungssteigerung
Es geht im Artikel zum Teil um HPC, also teilweise um die Serversparte von Intel.
Und genau hier haben wir noch große Leistungssprünge wie früher im Desktop Bereich.
Das zeigen Ivy Bridge EP und die neuen IBM CPUs sehr gut.
https://www.computerbase.de/2013-08/ibm-nennt-details-zum-high-end-prozessor-power8/
https://www.computerbase.de/2013-09/intel-stellt-18-xeon-e5-2600-v2-ivy-bridge-ep-vor/


aivazi schrieb:
( ich weiß Konsumer etc. variieren, aber warum mit Zahlen Prahlen wenn der Konsument davon nie etwas sehen wird ? ), abgesehen davon, heißt es nicht dass man die Prozesse der CPU nciht endlos parallelisieren kann, ergo bringen auch mehr Kerne ncihts
Der Konsument wird direkt davon profitieren.
Aber in einer Form die die meisten User hier abstoßend finden, in Form der Cloud.
Und genau hier machen viele Kerne auch besonders viel Sinn.
Die große Steigerung vom Power 8 und Ivy Bridge EP entsteht fast nur durch die zusätzlichen Kerne.

Es wäre durchaus möglich, dass der Desktop noch stärker als jetzt stagnieren wird.
Und das zukünftig viel mehr in der Cloud berechnet wird.
Vorausgesetzt natürlich, dass der Breitbandausbau weiter so wachst, die Geschwindigkeit und dass Datenvolumen weltweit weiter zunehmen werden. News wie diese hier, passen da nicht in Intels Pläne.
Möglich ist das man zukünftig nicht nur eine Flatrate, sondern auch noch Rechenkapazität kauft.
Der Computer zu Hause wird dann teilweise durch die Cloud ersetzt, und immer unwichtiger.
 
Alle die sich ueber die angeblich langsame Leistungssteigerung aufregen duerfen die Xeon CPUs nicht vergessen. Dort ist man mittlerweile schon bei 10 Kernen waerend die Desktop CPUs noch bei hoechstens 6 rumschleichen. Das ist schon ne ganz ordentliche Leistungssteigerung.
 
wie heißt der Professor denn nun genau, wenn er schon so wichtig ist?!

im Text steht "Curling" und unter dem Foto "Curley"?!

Gleich zu Beginn der Veranstaltung hob Prof. Martin Curling als Direktor der über 40 Intel Labs und mehr als 4.000 Angestellten in Europa nicht ausgefallene, hippe Dinge hervor, sondern betonte, dass 80 Prozent der Forschung im Exascale-Bereich auf dem alten Kontinent erbracht werde. Das Segment High Performance Computing (HPC) ist in Zukunft eines der wichtigen Standbeine von Intel, weshalb dem Hersteller dies zwei Tage lang eine extra Themensparte mit vielen Vorträgen wert ist. Das selbst auferlegte Ziel: Bis 2018/'19 soll der erste Supercomputer die Marke von einem ExaFLOP überschreiten, was dem fünfzigfachen des aktuellen Spitzenreiters entspricht.


herman-munster.jpg
Prof. Martin Curley, Chef der Intel Labs Europe

mußte leider ein Archivbild nehmen, da ich Euer Bild nicht einfügen konnte ... die Technik halt. :D
 
Für was man die Leistung braucht...

Beispiel am CERN, da wird jetzt so manchem die Auffassungsgabe fehlen...weils auch einfach unglaubliche Datenmengen sind :D

Die Datenmenge, die im Betrieb durch aufgezeichnete Detektorsignale oder Computersimulationen anfällt, wird auf 15 Millionen Gigabyte pro Jahr geschätzt.[44] Die Datenmenge wäre wesentlich größer, wenn nicht ausgeklügelte Trigger auf Hard- und Softwareebene einen Großteil der Messsignale bereits vor der Verarbeitung oder dauerhaften Speicherung verwürfen. Allein die Datenmenge des CMS-Detektors ist mit der einer 70-Megapixel-Kamera vergleichbar, die 40 Millionen Bilder pro Sekunde macht. Ohne Trigger wären solche Datenmengen mit aktueller Technik nicht beherrschbar. So werden am ATLAS-Detektor in der ersten Triggerstufe von den Daten der 40 Millionen Strahlkreuzungen pro Sekunde etwa 75.000 ausgewählt. Von diesen passieren weniger als 1000 die zweite Triggerstufe, und nur diese Ereignisse werden vollständig analysiert. Letzten Endes werden etwa 200 Ereignisse pro Sekunde dauerhaft gespeichert.[45]
Um diese reduzierte Datenmenge zu verarbeiten, ist die benötigte Rechnerleistung immer noch so groß, dass dafür etwa 150 weltweit verteilte Computercluster verwendet werden. Diese sind zu einem Computernetzwerk verbunden, dem LHC Computing Grid.[46] Für die Simulation der Teilchenbahnen werden im LHC@Home-Projekt Computerbesitzer eingebunden, die nach dem Prinzip des verteilten Rechnens die Rechenleistung ihres Privatcomputers zur Verfügung stellen.

Der maximale Jahresenergieverbrauch des LHC wird mit 700–800 GWh angegeben

Die Rechnerei zum Nachweis des Higgs-Teilchens hat ganze 2 Jahre gedauert... wäre schon geil, wenn man da einen Rechner hätte der das in 2 Minuten erledigt... sonst wird das nie was mit dem WARP-Antrieb! :D
 
Zuletzt bearbeitet:
Das eigentlich überraschende (oder auch nicht) an den INTEL Informationen ist doch, dass man den Energieverbrauch nicht mehr steigen lassen möchte. Die *Neuigkeit*, dass die Leistung steigen würde, verursacht zumindest bei mir nur ein müdes Gähnen. Rechenleistung war noch nie so billig, wie heute. Aber die Energie wird immer teurer. Über den Lebenszyklus der Hardware verursacht der Energieverbrauch (Stromverbrauch) viel höhere Kosten, als die Anschaffung.
 
Zurück
Oben