News Intel investiert in ExaFLOP-Forschung

Was hat das bitte mit Nvidia zu tun?
Ich glaub nicht, dass sich das gegen Nvidias neue Fermi richtet^^
 
Klar richtet sich das gegen Fermi, Marketingglocken möglichst laut läuten eh noch jemand auf die Plattform der konkurrenz umsattelt.
 
Wohl eher Fusionsforschung für Reaktoren und eine ganze Masse anderer Bereiche.
Leute, Materialforschung am Supercomputer kommt euch teils heute schon im Alltag zu Gute, biologische/medizinische Simulationen ebenfalls, dann wären da X Bereiche in der Physik, aber in wirklich jedem Supercomputerpost wird dumm rum gelabert.
Das ist echt erstaunlich.
@topic: So lange dort neben der reinen Rechenleistung auch die Watt/Performance im Auge behalten wird, solls mir recht sein.

P.S.: In der VDI Nachrichten war letztens ein lustiger Beitrag zu Green IT. Die Abwärme von Rechenzentren/Supercomputern für Fernwärme oder das Beheizen von Hallenbädern nutzen.
:lol:
 
Bin mal gespannt wo wir in 50 jahren stehen.
Du meinst wo wir in 50 Jahren fliegen. :lol:

Solange diese Rechner für etwas sinnvolles genutzt werden *GrennIT* dann haben die von mir die Erlaubnis diese Rechenmonster zu bauen. :D

Ich bezweifle aber, dass dieser Rechner einen wirklichen Sinn hat, man will einfach das beste vom besten mit nem Multi von 1000 toppen...
 
An für sich ist die Rechenleistung doch schon vorhanden.
Es nennt sich schlicht Grafikkarte. Siehe Nummer 5 der schnellsten Systeme der Welt.

Da arbeiten 4870er Atis drin. Wenn man dann noch die Kernanzahl mit der von der Nummer 1 vergleicht weiß man doch schon wie die Zukunft geschlagen hat.

Was Intel da betreibt ist sinnlos weil die CPU in dem Sinne der Peta/Exaflopberechnung schon ausgedient hat.
 
Ich finde die Zusammenarbeit mit Intel komisch.

Eher würde ich mit AMD zusammenarbeiten, da sie viel mehr Erfahrung mit Supercomputer haben, da sie in den 3 schnellsten Super-Computer vertreten sind.

Und AMD wäre auch deshalb interessanter, weil sie ja je nach Anwendung auf CPUs oder auf GPUs rechnen lassen können.

Es sieht sehr nach Hilfeschrei aus, da man keine Zahlen nennt.

Wieso ist die Zusammenarbeit komisch? Intel hat mehr Geld und kann sich diese Forschung leisten.

Und da die TOP3 Supercomputer AMD Prozessoren haben ist da AMD besser?
Ignorierst du dabei 400 Supercomputer mit Intel-Prozessor?

Wennschon hat da Intel deutlich mehr Erfahrung.

Zu den GPU's. Momentan sind die schon noch ein Stück entfernt so flexibel zu sein wie CPU's. nVidia's Fermi wird wohl flexibler sein als die HD5000.
 
:freak: oohh man! Jetzt kommt mal wieder runter. :cool_alt: Die Nachricht wird mal wieder von einigen völlig über-interpretiert. Es ist doch ganz normal, dass Unis/Firmen und Behörden mit Intel oder anderen nen Rechenzentrum planen. Was ist denn daran so spektakulär ??? Gut nen Exa-flop Rechner, toll. Vor 15 Jahren, und das ist noch nicht so lang her, gabs Petafloprechner auch nur in der Fantasie. Nich mal nen Teraflop war möglich (973 GF).
 
Zuletzt bearbeitet:
Naja so wird das ganze Geld was Intel mit seinen Mafiamethoden verdient hat also angelegt für Prestigeprojekte...
 
Wieso ist die Zusammenarbeit komisch? Intel hat mehr Geld und kann sich diese Forschung leisten.
Stimmt, wenn Intel die ganze Forschung zahlt und Rabatte gibt, ergibt das wieder einen Sinn.

Und da die TOP3 Supercomputer AMD Prozessoren haben ist da AMD besser?
Ignorierst du dabei 400 Supercomputer mit Intel-Prozessor?

Wennschon hat da Intel deutlich mehr Erfahrung.
Warum nicht, es war immer so, dass AMD sehr gut in den Top10/Top3 vertreten ist, obwohl Intel extrem die Top500 bzw. das Mittelfeld beherrscht hat.

Hier gehts wahrscheinlich um einen Top-Computer der an die Spitze will und nicht im Mittelfeld herumgurken will.

Zu den GPU's. Momentan sind die schon noch ein Stück entfernt so flexibel zu sein wie CPU's. nVidia's Fermi wird wohl flexibler sein als die HD5000.
Peinlich, wenn AMD mit seinen GPUs auf Platz 6 liegt und Nvidia erst mit 50+ daherkommt.
Na ja, oder vielleicht iwar es eben doch kein Zufall.

Nvidia mag seine Vorteile haben, aber wie gesagt hört sich deshalb AMD interessant an, weil der ATI-Stream CPU + GPU flexibel nutzen kann. Cuda kann nur GPU.
Also, gerade in Universitäten soll AMDs-Lösung interessanter ein, da ein Institut bzw. Software mal Hauptsächlich die CPU braucht und ein anderes Institut bzw. Software mal hauptsächlich die GPU.
 
Im Jahre 2059 wurde die Erde bereits ins letzte Jahrhundert zurückgebombt und die ersten Internetforen werden eröffnet.
 
Ich empfehle allen Orakeln hier mal zur Abwechslung offline zu lesen... Und zwar das Buch Accelerando von Charles Stross. Da wird ein für mich erschreckendes Bild über die digitale Zukunft gezeichnet. Absolut und unbedingt empehlenswert für alle Kellerkinder, Nerds, Technophile, Admins, PC-Interessierte, Zocker, User und Trolle... (damit dürfte ich alle abgedeckt haben, oder nicht? :D)

PS: Wer Ironie nicht versteht, soll danach googeln ;)
 
@ Computerbase: Die Überschrift ist fehlerhaft: Es heißt ExaflopS. Da FLOPS die Abkürzung für Floating Point Operations per Second ist, ergibt es ohne "S" am Ende keinen Sinn.
-------------

Wir brauchen 57.500 ExaFLOPS um den Computer der Voyager einzuholen! Das schaffen wir noch vor dem 24. Jhd! ^^
 
Parwez schrieb:
Die schnellsten Supacomputer können mittlerweile Rechenleistungen im PetaFLOP-Bereich vorweisen....... einer tausdendmal größeren Rechenleistung im ExaFLOP-Bereich......

digitalangel18 schrieb:
kilo-mega-giga-terra-peta-exa-zetta-yotta-[insert more here*])


Aha,, Also sind wir grade bei PetaFLOP. Bei wieviel PetaFLOP denn genau, dass sich deshalb Intel schon an die ExaFlop traut?
Kann man mit einen ExaFLOP Rechner Crysis flüssig spielen?



*Ist doch klar! Nach YottaFlop kommt Flip-Flop!
 
allhere schrieb:
Das werden wir nicht mal erahnen. Einiges entwickelt sich schneller, anderes widerum garnicht. Fakt ist das alle die das Jahr 2059 noch erleben, sich über die Technik ala 2009 kaputt lachen werden.

Mir gefällt die Idee wie in Star Trek per Stimme mit dem Computer zu kommunizieren.

Wie Scotty in "Zurück in die Gegenwart" Computer... Compuuuuter... - hier, das ist die Maus :D

da muss man nicht 50 jahr zurückgehen, da reicht schon eine dekade

PS: ich glaube das war eine tastatur *fingerknack* :D
 
Haudrauff schrieb:
Kann man mit einen ExaFLOP Rechner Crysis flüssig spielen?

:D Niemals. Ne mal ganz im ernst. Ich glaube, dass es noch gut 3 Jahre dauert bis man Crysis in Full HD mit 8xAA oder besser SGSSAA iflüssig zocken kann.
Bis man das kann hat das Spiel schon den Reiz verloren.^^
 
zitat
Problemen in Gebieten wie der Medizin, der Seismologie und der Meteorologie

ja klar, und deswegen arbeitet man mit der französischen Atomenergiekommission zusammen. ein wenig mehr ehrlichkeit würde da nicht schaden. auch wenn er dann für atomenergie- und atomwaffenberechnungen eingesetzt wird, werden auch zivile projekte davon profitieren.
 
Unterschied zwischen GPU Berechnung und CPU Berechung ganz simpel ausgedrückt:

GPU schneller bei dauerhaft gleichen berechnungen

CPU schneller bei sich ständig wechselnden Berechnungen
 
Okay, wieviel Petaflops mach denn jetzt der aktuellste Supacomputer?

Damit http://www.top500.org/system/details/10184 kann ich irgendwie nix mit anfangen.

Meine Frage ist weiterhin, sind wir schon so nahen an den ExaFlops das Intel das in Angriff nehmen kann? Oder ist das mal wieder so ein Wahlversprechen?
 
Hab ich das richtig gelesen? 1 - ein Mitarbeiter?
Der hat ja am Anfang ein Traumjob. Ein recht nettes Budget, und keinen, der sonst noch in seinem Büro oder im Labor sitzt :D
Ergänzung ()

manoman3 schrieb:
An für sich ist die Rechenleistung doch schon vorhanden.
Es nennt sich schlicht Grafikkarte. Siehe Nummer 5 der schnellsten Systeme der Welt.

Da arbeiten 4870er Atis drin. Wenn man dann noch die Kernanzahl mit der von der Nummer 1 vergleicht weiß man doch schon wie die Zukunft geschlagen hat.

Was Intel da betreibt ist sinnlos weil die CPU in dem Sinne der Peta/Exaflopberechnung schon ausgedient hat.

Die GUP kann nur eins: Vektoren berechnen. Addieren, Subtrahieren, vll. auch noch Skalarprodukte berrechnen... Das war's leider schon - auch wenn sie das gut beherrscht ;)

Ansonsten ist sie sehr unflexibel. Trotz CUDA usw.

Die CPU hat da wahrhaft mehr zu bieten... Viel mehr ;) Das ist auch der Grund, warum ich keine 5 Grakas in meinem System habe, sondern eine CPU :D
Und das ist auch der Grund, warum Simulationtionsrechner, die z.B. den Verlauf des Lichtbogens an einer bestimmten Stelle in einer Vakuumschaltröhre berechnen sollen, herzlich wenig mit GPUs anfangen können, sondern "viele" CPUs benötigen ;) => keine Vektoren.

Kaigue
 
Zuletzt bearbeitet:
Das ist doch clever von Intel, so sparen die 50% Ihrer Kosten.
Und wenn die Uni schon mit-werkelt, dann werden anderen Unis sicherlich auch die gleiche Technologie haben wollen...
 
Zurück
Oben