Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntel: 50-fache Performance in sechs Jahren im HPC-Segment
Zum Auftakt der diesjährigen European Research & Innovation Conference (ERIC) im französischen Nizza betonte der Chef der Intel Labs in Europa die Wichtigkeit der Forschung und Entwicklung auf dem Kontinent. Ein Standbein sei die Exascale-Forschung, die in den kommenden Jahren imposante Ergebnisse zeigen soll.
in den letzten 3 Jahren hab ich bestenfalls 30% mehr Performance gesehen, jetzt heißt es dass man in 6 Jahren 5000% mehr Performance haben wird ? ( ich weiß Konsumer etc. variieren, aber warum mit Zahlen Prahlen wenn der Konsument davon nie etwas sehen wird ? )
, abgesehen davon, heißt es nicht dass man die Prozesse der CPU nciht endlos parallelisieren kann, ergo bringen auch mehr Kerne ncihts
Bin ja mal gespannt - Ich glaub Seagate meinte auch mal dass bis 2012 20 TB Festplatten absolut kein Problem seien.
Das gleiche läuft ja auch in der Fusionstechnologie - vor 50 Jahren hieß es - in 50 Jahren ist er betriebsbereit. Heute heißt es immernoch - in 50 Jahren ist er betriebsbereit.
Wenn man pro Fertigungsnode die Packungsdichte verdoppeln kann, dann müßte 2020 ein "7nm Knights Corner" "nur" 1776mm² groß sein um die 50-fache Performance (angenommen als 50-fache Transistorzahl) zu bringen. Wenn man nicht noch hier und da was optimiert kann scheint das "locker" etwas optimistisch.
ich kann heute schon den exaflop bauen wen ich einen 50 ma so großen supercomputer habe einfach 25 gebäude a 2x das vom aktuellen flagschiff ende.
die haben nicht gesagt in welcher größe also ob gleiche anzahl kerne oder karten oder selbe cpu zahl oder sonst was.
reine pr sache.
wen er mir jetzt zusichert das er mit doppelter hardware also 2x so viel cpu´s und 2 ma so viel gpu´´s das in 6 jahren hinbekommt dann sag ich glaub ich nicht das wäre eine rießen leistung.
wen man bedenk sie müssten in 6 jahren die leistung x25 schaffen. wen sich cpu größe und gpu größe nicht verändert gehn wir aber davon aus das es so ist müssten sie ca:
bei der doppelten größe heutiger super computer eine verfünfachung der leistung bringen.
was echt extreme gut währe.
wohl gemerkt wen sie regelmässig shrinken können und somit mehr transistoren auf ein immer leicht größer werdendes die bekommen.
ist also schon ein enges fenster das er sich da auferlegt.
gehe aber davon aus die rechnen das einfacher
die werden erst ma den wackstum der rechenzentren einrechnen wo man in 6 jahren ca bei der 3 fachen fläche heutiger ankommen wird.
dazu werden cpu´s nochma 60% transis zulegen karten werden etwas weniger geschätz zulegen da die dies dort recht am größen limit sind.
Wirklich spannend wird das erst wenn die nächste Energierevolution kommt, also sowas wie der Sprung von Holz auf Kohle auf Öl auf Kernenergie.
Wie der Herr ausgeführt hat ist die Leistung technisch nicht das Problem, der Energieaufwand ist es bezogen auf unseren heutigen Output.
Vielleicht erleb ichs noch.
P.S. natürlich nutzt viel Rechenleistung ALLEN. Alle wichtigen Bereiche nutzen Simulation/Modelling um ihre Theorien zu entwickeln (Chemie Nobelpreis ging gerade an genau sowas), heute mehr den je notwendig. Woher glaubt ihr denn kommen die neuen Erkenntnisse?
@LundM
Bevor man motzt könnte man sich schon die Güte geben den Text zu lesen ja?
Das Kriterium: selber Energieverbrauch wie heutige Nr.1, nur eben 50x effizienter.
Du hast mitbekommen, dass die die 50-fache Leistung bei gleichem Energieverbrauch erreichen wollen?
Denn damit ergibt mal mindestens die Hälfte deines Posts überhaupt keinen Sinn.
Man könnte auch sagen, daß ein Verbund geschaffen werden soll der 50 mal weniger verbraucht als der heute beste Supercomputer - und das in 6 Jahren. Ich find das ist schon eine Hausnummer. Glaub ich ehrlich gesagt erst wenn mir das sichere Quellen bestätigen.
Wirklich spannend wird das erst wenn die nächste Energierevolution kommt, also sowas wie der Sprung von Holz auf Kohle auf Öl auf Kernenergie.
Wie der Herr ausgeführt hat ist die Leistung technisch nicht das Problem, der Energieaufwand ist es bezogen auf unseren heutigen Output.
Vielleicht erleb ichs noch.
P.S. natürlich nutzt viel Rechenleistung ALLEN. Alle wichtigen Bereiche nutzen Simulation/Modelling um ihre Theorien zu entwickeln (Chemie Nobelpreis ging gerade an genau sowas), heute mehr den je notwendig. Woher glaubt ihr denn kommen die neuen Erkenntnisse?
@LundM
Bevor man motzt könnte man sich schon die Güte geben den Text zu lesen ja?
Das Kriterium: selber Energieverbrauch wie heutige Nr.1, nur eben 50x effizienter.
hm naja die 50-fache Performance bezieht sich ja nicht auf das Desktop segment.
@BuffyYasha
Das gleiche läuft ja auch in der Fusionstechnologie - vor 50 Jahren hieß es - in 50 Jahren ist er betriebsbereit. Heute heißt es immernoch - in 50 Jahren ist er betriebsbereit.
Am 9. November 1991 konnte am JET erstmals eine nennenswerte Energiemenge aus kontrollierter Kernfusion freigesetzt werden. Ein Deuterium-Tritium-Plasma lieferte zwei Sekunden lang eine Leistung von 1,8 Megawatt. 1997 wurde eine Fusionsleistung von 16 Megawatt erreicht, wobei allerdings 24 Megawatt für die Plasmaheizung erforderlich waren.[5]
Ich versteh einfach nicht worauf du raus willst.
Sie wollen 2018/2019 mit der gleichen Energie, wie jetzt die Nr. 1 verbraucht, eine 50-fache Leistung erreichen.
Dass das nicht mit der gleichen Hardware wie bisher erreicht wird, ist doch völlig logisch. Also warum sollten die sich auf Größe des Rechners / Anzahl Kerne oder sonstwas jetzt schon festlegen?
angepeilt war ja 1,25 facher ertrag der inwestierten leistung wen ich mich recht erinnere.
energie zu erzeugen beim energie verschwenden können wir heute schon bringt uns aber nicht weiter
holzkohle zb da verbrauchen wir beim herstellen mehr energie als sie nacher freisetzt.
ausser wir warten halt ewig und 3 tage bis mutter natur das produkt hergestellt hat