Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Intel investiert in ExaFLOP-Forschung
- Ersteller Parwez
- Erstellt am
- Zur News: Intel investiert in ExaFLOP-Forschung
Piktogramm
Admiral
- Registriert
- Okt. 2008
- Beiträge
- 9.393
Klar richtet sich das gegen Fermi, Marketingglocken möglichst laut läuten eh noch jemand auf die Plattform der konkurrenz umsattelt.
C
captain carot
Gast
Wohl eher Fusionsforschung für Reaktoren und eine ganze Masse anderer Bereiche.
Leute, Materialforschung am Supercomputer kommt euch teils heute schon im Alltag zu Gute, biologische/medizinische Simulationen ebenfalls, dann wären da X Bereiche in der Physik, aber in wirklich jedem Supercomputerpost wird dumm rum gelabert.
Das ist echt erstaunlich.
@topic: So lange dort neben der reinen Rechenleistung auch die Watt/Performance im Auge behalten wird, solls mir recht sein.
P.S.: In der VDI Nachrichten war letztens ein lustiger Beitrag zu Green IT. Die Abwärme von Rechenzentren/Supercomputern für Fernwärme oder das Beheizen von Hallenbädern nutzen.

Leute, Materialforschung am Supercomputer kommt euch teils heute schon im Alltag zu Gute, biologische/medizinische Simulationen ebenfalls, dann wären da X Bereiche in der Physik, aber in wirklich jedem Supercomputerpost wird dumm rum gelabert.
Das ist echt erstaunlich.
@topic: So lange dort neben der reinen Rechenleistung auch die Watt/Performance im Auge behalten wird, solls mir recht sein.
P.S.: In der VDI Nachrichten war letztens ein lustiger Beitrag zu Green IT. Die Abwärme von Rechenzentren/Supercomputern für Fernwärme oder das Beheizen von Hallenbädern nutzen.

A
Adam Gontier
Gast
Du meinst wo wir in 50 Jahren fliegen.Bin mal gespannt wo wir in 50 jahren stehen.

Solange diese Rechner für etwas sinnvolles genutzt werden *GrennIT* dann haben die von mir die Erlaubnis diese Rechenmonster zu bauen.

Ich bezweifle aber, dass dieser Rechner einen wirklichen Sinn hat, man will einfach das beste vom besten mit nem Multi von 1000 toppen...
JiJiB!
Commander
- Registriert
- Juli 2008
- Beiträge
- 2.715
An für sich ist die Rechenleistung doch schon vorhanden.
Es nennt sich schlicht Grafikkarte. Siehe Nummer 5 der schnellsten Systeme der Welt.
Da arbeiten 4870er Atis drin. Wenn man dann noch die Kernanzahl mit der von der Nummer 1 vergleicht weiß man doch schon wie die Zukunft geschlagen hat.
Was Intel da betreibt ist sinnlos weil die CPU in dem Sinne der Peta/Exaflopberechnung schon ausgedient hat.
Es nennt sich schlicht Grafikkarte. Siehe Nummer 5 der schnellsten Systeme der Welt.
Da arbeiten 4870er Atis drin. Wenn man dann noch die Kernanzahl mit der von der Nummer 1 vergleicht weiß man doch schon wie die Zukunft geschlagen hat.
Was Intel da betreibt ist sinnlos weil die CPU in dem Sinne der Peta/Exaflopberechnung schon ausgedient hat.
- Registriert
- Feb. 2009
- Beiträge
- 679
Ich finde die Zusammenarbeit mit Intel komisch.
Eher würde ich mit AMD zusammenarbeiten, da sie viel mehr Erfahrung mit Supercomputer haben, da sie in den 3 schnellsten Super-Computer vertreten sind.
Und AMD wäre auch deshalb interessanter, weil sie ja je nach Anwendung auf CPUs oder auf GPUs rechnen lassen können.
Es sieht sehr nach Hilfeschrei aus, da man keine Zahlen nennt.
Wieso ist die Zusammenarbeit komisch? Intel hat mehr Geld und kann sich diese Forschung leisten.
Und da die TOP3 Supercomputer AMD Prozessoren haben ist da AMD besser?
Ignorierst du dabei 400 Supercomputer mit Intel-Prozessor?
Wennschon hat da Intel deutlich mehr Erfahrung.
Zu den GPU's. Momentan sind die schon noch ein Stück entfernt so flexibel zu sein wie CPU's. nVidia's Fermi wird wohl flexibler sein als die HD5000.
flickflack
Lieutenant
- Registriert
- Sep. 2006
- Beiträge
- 832


Zuletzt bearbeitet:
M
MixMasterMike
Gast
Naja so wird das ganze Geld was Intel mit seinen Mafiamethoden verdient hat also angelegt für Prestigeprojekte...
Stimmt, wenn Intel die ganze Forschung zahlt und Rabatte gibt, ergibt das wieder einen Sinn.Wieso ist die Zusammenarbeit komisch? Intel hat mehr Geld und kann sich diese Forschung leisten.
Warum nicht, es war immer so, dass AMD sehr gut in den Top10/Top3 vertreten ist, obwohl Intel extrem die Top500 bzw. das Mittelfeld beherrscht hat.Und da die TOP3 Supercomputer AMD Prozessoren haben ist da AMD besser?
Ignorierst du dabei 400 Supercomputer mit Intel-Prozessor?
Wennschon hat da Intel deutlich mehr Erfahrung.
Hier gehts wahrscheinlich um einen Top-Computer der an die Spitze will und nicht im Mittelfeld herumgurken will.
Peinlich, wenn AMD mit seinen GPUs auf Platz 6 liegt und Nvidia erst mit 50+ daherkommt.Zu den GPU's. Momentan sind die schon noch ein Stück entfernt so flexibel zu sein wie CPU's. nVidia's Fermi wird wohl flexibler sein als die HD5000.
Na ja, oder vielleicht iwar es eben doch kein Zufall.
Nvidia mag seine Vorteile haben, aber wie gesagt hört sich deshalb AMD interessant an, weil der ATI-Stream CPU + GPU flexibel nutzen kann. Cuda kann nur GPU.
Also, gerade in Universitäten soll AMDs-Lösung interessanter ein, da ein Institut bzw. Software mal Hauptsächlich die CPU braucht und ein anderes Institut bzw. Software mal hauptsächlich die GPU.
MiTx
Lt. Junior Grade
- Registriert
- Mai 2009
- Beiträge
- 325
Ich empfehle allen Orakeln hier mal zur Abwechslung offline zu lesen... Und zwar das Buch Accelerando von Charles Stross. Da wird ein für mich erschreckendes Bild über die digitale Zukunft gezeichnet. Absolut und unbedingt empehlenswert für alle Kellerkinder, Nerds, Technophile, Admins, PC-Interessierte, Zocker, User und Trolle... (damit dürfte ich alle abgedeckt haben, oder nicht?
)
PS: Wer Ironie nicht versteht, soll danach googeln

PS: Wer Ironie nicht versteht, soll danach googeln

@ Computerbase: Die Überschrift ist fehlerhaft: Es heißt ExaflopS. Da FLOPS die Abkürzung für Floating Point Operations per Second ist, ergibt es ohne "S" am Ende keinen Sinn.
-------------
Wir brauchen 57.500 ExaFLOPS um den Computer der Voyager einzuholen! Das schaffen wir noch vor dem 24. Jhd! ^^
-------------
Wir brauchen 57.500 ExaFLOPS um den Computer der Voyager einzuholen! Das schaffen wir noch vor dem 24. Jhd! ^^
Haudrauff
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.788
Parwez schrieb:Die schnellsten Supacomputer können mittlerweile Rechenleistungen im PetaFLOP-Bereich vorweisen....... einer tausdendmal größeren Rechenleistung im ExaFLOP-Bereich......
digitalangel18 schrieb:kilo-mega-giga-terra-peta-exa-zetta-yotta-[insert more here*])
Aha,, Also sind wir grade bei PetaFLOP. Bei wieviel PetaFLOP denn genau, dass sich deshalb Intel schon an die ExaFlop traut?
Kann man mit einen ExaFLOP Rechner Crysis flüssig spielen?
*Ist doch klar! Nach YottaFlop kommt Flip-Flop!
allhere schrieb:Das werden wir nicht mal erahnen. Einiges entwickelt sich schneller, anderes widerum garnicht. Fakt ist das alle die das Jahr 2059 noch erleben, sich über die Technik ala 2009 kaputt lachen werden.
Mir gefällt die Idee wie in Star Trek per Stimme mit dem Computer zu kommunizieren.
Wie Scotty in "Zurück in die Gegenwart" Computer... Compuuuuter... - hier, das ist die Maus![]()
da muss man nicht 50 jahr zurückgehen, da reicht schon eine dekade
PS: ich glaube das war eine tastatur *fingerknack*

Schaffe89
Banned
- Registriert
- Sep. 2008
- Beiträge
- 7.933
Haudrauff schrieb:Kann man mit einen ExaFLOP Rechner Crysis flüssig spielen?

Bis man das kann hat das Spiel schon den Reiz verloren.^^
zitat
Problemen in Gebieten wie der Medizin, der Seismologie und der Meteorologie
ja klar, und deswegen arbeitet man mit der französischen Atomenergiekommission zusammen. ein wenig mehr ehrlichkeit würde da nicht schaden. auch wenn er dann für atomenergie- und atomwaffenberechnungen eingesetzt wird, werden auch zivile projekte davon profitieren.
Problemen in Gebieten wie der Medizin, der Seismologie und der Meteorologie
ja klar, und deswegen arbeitet man mit der französischen Atomenergiekommission zusammen. ein wenig mehr ehrlichkeit würde da nicht schaden. auch wenn er dann für atomenergie- und atomwaffenberechnungen eingesetzt wird, werden auch zivile projekte davon profitieren.
Pixelmonteur
Lt. Commander
- Registriert
- Nov. 2007
- Beiträge
- 1.026
Unterschied zwischen GPU Berechnung und CPU Berechung ganz simpel ausgedrückt:
GPU schneller bei dauerhaft gleichen berechnungen
CPU schneller bei sich ständig wechselnden Berechnungen
GPU schneller bei dauerhaft gleichen berechnungen
CPU schneller bei sich ständig wechselnden Berechnungen
Haudrauff
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.788
Okay, wieviel Petaflops mach denn jetzt der aktuellste Supacomputer?
Damit http://www.top500.org/system/details/10184 kann ich irgendwie nix mit anfangen.
Meine Frage ist weiterhin, sind wir schon so nahen an den ExaFlops das Intel das in Angriff nehmen kann? Oder ist das mal wieder so ein Wahlversprechen?
Damit http://www.top500.org/system/details/10184 kann ich irgendwie nix mit anfangen.
Meine Frage ist weiterhin, sind wir schon so nahen an den ExaFlops das Intel das in Angriff nehmen kann? Oder ist das mal wieder so ein Wahlversprechen?
K
kaigue
Gast
Hab ich das richtig gelesen? 1 - ein Mitarbeiter?
Der hat ja am Anfang ein Traumjob. Ein recht nettes Budget, und keinen, der sonst noch in seinem Büro oder im Labor sitzt
Die GUP kann nur eins: Vektoren berechnen. Addieren, Subtrahieren, vll. auch noch Skalarprodukte berrechnen... Das war's leider schon - auch wenn sie das gut beherrscht
Ansonsten ist sie sehr unflexibel. Trotz CUDA usw.
Die CPU hat da wahrhaft mehr zu bieten... Viel mehr
Das ist auch der Grund, warum ich keine 5 Grakas in meinem System habe, sondern eine CPU 
Und das ist auch der Grund, warum Simulationtionsrechner, die z.B. den Verlauf des Lichtbogens an einer bestimmten Stelle in einer Vakuumschaltröhre berechnen sollen, herzlich wenig mit GPUs anfangen können, sondern "viele" CPUs benötigen
=> keine Vektoren.
Kaigue
Der hat ja am Anfang ein Traumjob. Ein recht nettes Budget, und keinen, der sonst noch in seinem Büro oder im Labor sitzt

Ergänzung ()
manoman3 schrieb:An für sich ist die Rechenleistung doch schon vorhanden.
Es nennt sich schlicht Grafikkarte. Siehe Nummer 5 der schnellsten Systeme der Welt.
Da arbeiten 4870er Atis drin. Wenn man dann noch die Kernanzahl mit der von der Nummer 1 vergleicht weiß man doch schon wie die Zukunft geschlagen hat.
Was Intel da betreibt ist sinnlos weil die CPU in dem Sinne der Peta/Exaflopberechnung schon ausgedient hat.
Die GUP kann nur eins: Vektoren berechnen. Addieren, Subtrahieren, vll. auch noch Skalarprodukte berrechnen... Das war's leider schon - auch wenn sie das gut beherrscht

Ansonsten ist sie sehr unflexibel. Trotz CUDA usw.
Die CPU hat da wahrhaft mehr zu bieten... Viel mehr


Und das ist auch der Grund, warum Simulationtionsrechner, die z.B. den Verlauf des Lichtbogens an einer bestimmten Stelle in einer Vakuumschaltröhre berechnen sollen, herzlich wenig mit GPUs anfangen können, sondern "viele" CPUs benötigen

Kaigue
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 19
- Aufrufe
- 2.867
- Antworten
- 24
- Aufrufe
- 3.631
R
- Antworten
- 17
- Aufrufe
- 4.044
- Antworten
- 19
- Aufrufe
- 3.005
- Antworten
- 25
- Aufrufe
- 5.220