News Loihi 2: Ein Neuromorphic-Chip ist der erste in Intel-4-Fertigung

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.774
  • Gefällt mir
Reaktionen: kryzs, NMA, flo.murr und 10 andere
"zehn Mal höher soll die Leistung unterm Strich ausfallen."

Wenn INTEL dass mal für uns GAMER gebacken bekäme, hätten wir (mal wieder) einen "Deal" ...

p.s. außer "natürlich" anstatt 250 Watt dann 2500 Watt nur für die CPU ;)

MfG Föhn.
 
  • Gefällt mir
Reaktionen: IgorGlock und Makso
Onkel Föhn schrieb:
Wenn INTEL dass mal für uns GAMER gebacken bekäme, hätten wir (mal wieder) einen "Deal" ...
Hat nur leider nichts mit dem Anwendungsgebiet zu tun.
Hier ist man bei Grundlagenforschung.
Stelle dir Performance und Effizienz eines x265-HW-Encoders vs. Software vor und du sagst "Wieso bringt Intel nicht solche Performancesprünge bei GTA V raus, die Lappen. AMD FTW".
 
  • Gefällt mir
Reaktionen: Affe007, AwesomSTUFF, Kitsune-Senpai und 15 andere
Onkel Föhn schrieb:
Wenn INTEL dass mal für uns GAMER gebacken bekäme, hätten wir (mal wieder) einen "Deal"
Das Problem liegt da aber nicht nur bei Intel. Selbsta auf µOP-Ebene kann man ein Programm nicht beliebig effektiv parallelisieren. Out-of-Order ist toll, nur muss dafür auch genug unabhängige Befehle vorhanden sein.

Auch wenn es etwas pessimistisch ist, aber die großen Sprünge bei den CPUs sind - zumindest was Single-Thread-Leistung angeht - zum Teil vorbei. Es gibt Szenarien, da klappt das heute noch sehr gut in anderen weniger.
 
  • Gefällt mir
Reaktionen: konkretor, Mumbira, Onkel Föhn und eine weitere Person
DevPandi schrieb:
Auch wenn es etwas pessimistisch ist, aber die großen Sprünge bei den CPUs sind - zumindest was Single-Thread-Leistung angeht - zum Teil vorbei. Es gibt Szenarien, da klappt das heute noch sehr gut in anderen weniger.
Naja, wenn der Schritt von Si zu z.b. GaN (oder was auch immer es dann wird) gegangen wird, dann könnte schon nochmal ordentlich über die Taktschraube an der Single-Thread-Leistung gedreht werden.
Aber klar, Steierungen über die IPC werden immer schwieriger, "diminishing returns" gibt es halt überall wo man schon sehr hochentwickelt ist.
 
  • Gefällt mir
Reaktionen: HolySkillet
Interessant, was für Anwenungsgebiete sind das denn, wenn es ein menschliches Gehirn simulieren soll?
Bei der Hochtechnologie frage ich mich auch, was für Technik das amerikanische Militär nutzt und vor allem woher diese Chips dann kommen? Meist sind die ja schon ein zwei Jahrzehnte ziviler Technik voraus. Weiß man da was, oder sind das Geheimverträge mit den Big Playern?
 
Eventuell wird Intel auch unter den Gamern hier mal wieder durch sowas in ein positiveres Licht gerückt.
Die machen seit Jahren schon Grundlagenforschung und experimentieren mit alternativen Chips... sind hier aber durch ihre 14nm als Altbacken verrufen.
Auch sind die in anderen Bereichen Markführer und das absolut zurecht.

Tagesmenu schrieb:
Meist sind die ja schon ein zwei Jahrzehnte ziviler Technik voraus.

Sowas trifft eventuell auf irgendwelche experimentelle Flugzeug/Antriebstechnology zu aber mit Sicherheit nicht auf Microelektronik, was da in ein bis zwei Jahrzehnte alles passiert kann aktuell keiner Sagen.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai und CyrionX
eRacoon schrieb:
Sowas trifft eventuell auf irgendwelche experimentelle Flugzeug/Antriebstechnology zu aber mit Sicherheit nicht auf Microelektronik, was da in ein bis zwei Jahrzehnte alles passiert kann aktuell keiner Sagen.
Da bin ich mir nicht so sicher. Was z.B. die NSA für Kapazitäten hat laut Snowdenleaks war ja vorher nicht mal vorstellbar. Das wird doch kaum mit herkömmlicher Technik laufen.
Nicht nur das Sammeln an Daten, vor allem das Analysieren fordert doch ganz andere Dimensionen an Rechenleistung.

Edit: Ein, zwei Jahrzehnte mag zu hoch gegriffen sein, außer bei dem von dir Erwähnten, aber ich kann mir nicht vorstellen, dass sie sonst keinen Vorsprung haben.
 
Tagesmenu schrieb:
Da bin ich mir nicht so sicher. Was z.B. die NSA für Kapazitäten hat laut Snowdenleaks war ja vorher nicht mal vorstellbar. Das wird doch kaum mit herkömmlicher Technik laufen.
Nicht nur das Sammeln an Daten, vor allem das Analysieren fordert doch ganz andere Dimensionen an Rechenleistung.

Edit: Ein, zwei Jahrzehnte mag zu hoch gegriffen sein, außer bei dem von dir Erwähnten, aber ich kann mir nicht vorstellen, dass sie sonst keinen Vorsprung haben.
<Conspiracy>
Wegen einem Vertrag mit der NSA darf ja Intel auch nicht die Chip-Generation auf dem Markt bringen, die sie vor 5 Jahren für die NSA entwickelt hat. Diese Prozessoren könnten jeden aktuellen Prozessor um den Faktor 5-8 schlagen! :p
</Conspiracy>
 
  • Gefällt mir
Reaktionen: medsommer, CyrionX und Tagesmenu

Schönes Interview zum Thema
 
  • Gefällt mir
Reaktionen: NMA, konkretor und v_ossi
Warum Gehirn simulieren? Können doch auch einfach mich fragen. Bei mir läuft das sogar nativ.
 
  • Gefällt mir
Reaktionen: Coeckchen
"Die Aufgaben, die einem solchen Chip zufallen, sind sehr speziell. Deshalb wirbt Intel um Entwickler, die helfen, Einsatzszenarien zu bauen."

Ne Lösung für ein Problem, dass es noch nicht gibt. Sinnvoll.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
Tagesmenu schrieb:
Interessant, was für Anwenungsgebiete sind das denn, wenn es ein menschliches Gehirn simulieren soll?
Kann jemand sagen was mit der v1 gen schon so gemacht wurde? Irgendwas muss doch bei raus gekommen sein....
 
  • Gefällt mir
Reaktionen: NMA
Ich sehe Einsatzgebiete wie Kybernetik, Hochfrequenzwertpapierhandel, Holografie, Spracherkennung, Neurologie, taktische lernfähige Abwehrsysteme, Forensik, KI in jeglicher Form, z. B. Generative Adversarial Networks, Deepfakes.
Wird mit Sicherheit für Nachrichtendienste, Militär, Autonomie, Wissenschaft - Forschung - Entwicklung, Luft- und Raumfahrt, Robotik, Medizin, Wirtschaft.... interessant werden.

Die Amerikaner stecken sehr viel Geld in ihre digitale Infrastruktur, wir sollten auch mal anfangen.
Seht euch mal cisa.gov an, kein Wunder, dass wir von denen so abhängig sind.
AMD help
 
  • Gefällt mir
Reaktionen: CyrionX
Tagesmenu schrieb:
Interessant, was für Anwenungsgebiete sind das denn, wenn es ein menschliches Gehirn simulieren soll?
Bei der Hochtechnologie frage ich mich auch, was für Technik das amerikanische Militär nutzt und vor allem woher diese Chips dann kommen? Meist sind die ja schon ein zwei Jahrzehnte ziviler Technik voraus. Weiß man da was, oder sind das Geheimverträge mit den Big Playern?
Vielleicht ja ein Bug ? Ein Kakerlakenverschnitt der selbsttätig durch Spalten krabbelt oder gar fliegt und finstere Typen belauscht. So als Alternative zum Staatstrojaner auf Suche nach dem rechten Zero-Day Bug. Kann auch mit dem rechten Vorderbein einen Seitenkanal öffnen und Nachrichten durch Fenster morsen.

Aber es gibt ja durchaus auch nützliche Insekten. Wenn die auch oft noch ein paar Neurönchen mehr haben. Geringen Stromverbrauch brauchen die auch alle.
 
Zuletzt bearbeitet:
Irgendwie sieht der Chip genauso aus, wie der aus dem T800. 😱
 
  • Gefällt mir
Reaktionen: kryzs, konkretor und Knaecketoast
Tagesmenu schrieb:
Interessant, was für Anwenungsgebiete sind das denn, wenn es ein menschliches Gehirn simulieren soll?

Das menschliche Gehirn ist ja in erster Linie Rechen und Speichereinheit gleichzeitig. Wir sind dann quasi das OS was darauf läuft.

Gerade in Aufgaben wie Bilderkennung oder dergleichen ist das menschliche Hirn extrem schnell und energieeffizient. Die temporale Rekonstruktion der Daten des menschlichen Auges ist z.B. um ein Vielfaches besser als DLSS und co. (auch wenn auch diese manchmal ins straucheln gerät (optische Illusionen)).

Stand jetzt betreiben viele Firmen und Hochschulen FPGa Cluster auf denen Hirne simuliert werden. Unter anderem um sich das ein oder andere bei der Algorithmik und beim Entwurf von Beschleunigern für Neural Network Aufgaben abzuschauen.

Auch hier schont man sich wie in vielen anderen Bereichen gerne Mal was von der Natur ab.

Ansonsten gibt es natürlich auch noch viele Anwendungen wo pseudo native Netze einfach sehr gut sind.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, LukS und Tagesmenu
ein Gehirn nachzuahmen, obwohl man die Funktionen und zusammenhänge von hirnregionen, im menschlichen Gehirn, nur ansatzweise erforscht und erklären kann
somit für mich eine gewagte aussage und eher wunschdenken
 
feidl74 schrieb:
ein Gehirn nachzuahmen, obwohl man die Funktionen und zusammenhänge von hirnregionen, im menschlichen Gehirn, nur ansatzweise erforscht und erklären kann

Gerade um dies zu erforschen bringt man das Ganze "Programm" ja auch auf ein Gerät welches man deutlich leichter und genauer beim laufenden Betrieb analysieren kann und die entsprechenden mathematischen Operationen nachvollziehen kann.

Man kann die Software auf einem FPGA verstehen, ohne genau zu verstehen wie man einen FPGA entwickelt. (Mal als kleine Analogie)

Grundlegende Kenndaten wie Latenz, Architektur der einzelnen bit Verbindungen im Gehirn, Anzahl der Einheiten etc. sind schon recht gut erforscht. Neuromorphes Computing und die Biologische Grundlagenforschung dazu gibt es ja nicht erst seit gestern.
 
  • Gefällt mir
Reaktionen: Affe007, LukS und Klever
Knaecketoast schrieb:
"Die Aufgaben, die einem solchen Chip zufallen, sind sehr speziell. Deshalb wirbt Intel um Entwickler, die helfen, Einsatzszenarien zu bauen."

Ne Lösung für ein Problem, dass es noch nicht gibt. Sinnvoll.

Ich kenn schon ein Szenario: Realdoll mit mit Exoskelett für Männer mit Anspruch :D
 
  • Gefällt mir
Reaktionen: Viper816 und Knaecketoast
Zurück
Oben