- Registriert
- Nov. 2024
- Beiträge
- 179
Fuer diesen Tiefschlag haste aber ganz schoen ausgeholt.Hancock schrieb:Ich bin hier jetzt raus, du bist mir zu trollig
Schade.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Fuer diesen Tiefschlag haste aber ganz schoen ausgeholt.Hancock schrieb:Ich bin hier jetzt raus, du bist mir zu trollig
Nein, absolut nicht. FPGAs sind sehr flexibel, aber nicht high-density und nicht stromsparend.diogeneo schrieb:Aber weniger also CPUs verbrauchen sie auf jeden Fall.
Ich habe hier einen Board mit einem Efinix Trion-T8, von der absoluten Leistungsaufnahme liegt der auch nur im Bereich von MCUs wie dem RP2040. Er ist hat 7384 Logik Elemente, damit kann man durchaus was anfangen. Allerdings wird in den meisten Fällen der RP2040 mit seinen zwei CPU Cores und seinen speziellen PIOs, die z.B. Statemaschinen ähnlich gut wie ein FPGA implementieren können, dem T8 überlegen sein.Hancock schrieb:Nope, jede Mobilcpu braucht weniger, da die Power islands haben. Vergleich doch mal ein kleinen FPGA mit einem RP2040.
Du darfst nicht Äpfel mit Birnen vergleichen. Ein typisches FPGA Board (z.B. Digilent Arty) ist eher mit einem Raspberry Pi oder ähnlichem vergleichbar. Aber selbst das hinkt. Ein aktueller Raspi hat 4 CPU Cores, die z.B. jeweils eine Vektor und SMID FPU haben. Generell eignen sich FPGAs nicht mehr wirklich, sobald man Floating Point Daten verarbeiten muss.diogeneo schrieb:Aber weniger also CPUs verbrauchen sie auf jeden Fall.
NPUs und GPUs arbeiten auch mit hoher Parallelität und sind einem FPGA in von der rohen Rechenpower massiv überlegen. Eine GPU hat tausende Shader-ALUs, die alle mit FP Zahlen arbeiten können.diogeneo schrieb:NN brauchen sehr viel Rechenleitung weil seriell alles abgearbeitet werden muss.
Da waere die Parallelverarbeitung bei FPGAs sehr vorteilhaft.
TomH22 schrieb:Es gibt natürlich Anwendungen die man mit ein CPU nicht hinbekommt, aber mit einem FPGA.
TomH22 schrieb:Aber auch da geht es wieder nicht um die Rechenleistung, sondern eben um den direkten I/O Pfad.
Hast Recht, aber Verbindungen in NN sind nur 1-Bit und nicht FP-Zahlen.TomH22 schrieb:implementiert aber eine recht komplexe reelle Funktion und arbeitet daher mit Floating Point Zahlen und nicht 1-Bit Digitalwerten.
Ja klar, innerhalb des Resourcengrenzen des FPGA (hier Routing/Interconnect Ressourcen) natürlich.diogeneo schrieb:Korrigiere mich bitte, wenn ich damit falsch liege, aber ich glaube, dass man dem einen Ausgang auf fasst beliebig viele andere Eingaenge schalten kann.
Du scheinst bei allem was du hier an Themen im Forum aufmachst die Grundlagen nicht zu verstehen.diogeneo schrieb:Hast Recht, aber Verbindungen in NN sind nur 1-Bit und nicht FP-Zahlen.
Weniger mangelnde Rechenleistung als die Knappheit an Speicher wird in dem Artikel gelöst, den du verlinkt hast. An sich sind die Operationen ja alle gut mit ARM NEON abzubilden und selbst die eher teueren STM32 mit NEON gehen ab 4€ los, haben aber weniger als 1MB SRAM. Bei den ICE40 aus deinem Artikel haben selbst die großen mit 7680LE 128kbit (Bit!) Speicher.TomH22 schrieb:BNNs (um die es unter anderem in meinem Link geht) sind wohl eine Lösungsansatz um auf sehr rechenschwacher Hardware (wie z.B. auch MCUs) implementiert zu werden.
Habe nie behauptet, dass es das ist. Nur, dass man Overclocking dafuer einsetzt ist auf jeden Fall "neu".TomH22 schrieb:nichts Revolutionäres.
Wenn ich nicht uebertackte...TomH22 schrieb:Taktfrequenz, die ist ein mehrfaches geringer als bei einer gleichartigen Schaltung in einem ASIC.
Wirfst mir vor, dass ich keine Ahnung habe, aber wie waere es, wenn Du zuerst vor Deiner Tuer kehrst?Piktogramm schrieb:abzubilden für jedes Neuron n-Bit vorhalten müsste,
Damit spielst Du auf die Lichtgeschwindigkeit an. Keine Sorge, bis wir an solche Frequenzen kommen, wird es noch ne Weil dauern...Piktogramm schrieb:Und ganz nebenbei ergibt sich die erreichbare Frequenz von konfigurierten FPGAs aus der größten Länge an Pfaden.
Stimmt, KI ist nicht sinnvoll und hat auch keinen Mehrwert.Piktogramm schrieb:Es fehlt der Ansatz daraus sinnvoll irgend einen Mehrwert zu ziehen.
Danke fuer den Link Tom! Das ist das, was was Piktogramm einfach ausblendet, deshalb behauptet er, dass das nichts damit zu tun hat, weil es ihn ja eindeutig widerlegt.Piktogramm schrieb:@TomH22
Das was du da gefunden hast, ist mit dem was der TE beschreibt nicht annähernd vergleichbar.
Ich habe beschrieben wo das Problem liegt..diogeneo schrieb:Wirfst mir vor, dass ich keine Ahnung habe, aber wie waere es, wenn Du zuerst vor Deiner Tuer kehrst?
Eine Neuronenverbindung kann nur an oder aus. Wie viel Bit braucht man denn dafuer?
Die Lichtgeschwindigkeit ist an der Stelle kein Problem. Es ist Signalintegrität die schlicht und ergreifen leidet wenn man Signal durch zig Gatter mitsamt aller parasitären Induktivitäten und Kapazitäten.diogeneo schrieb:Damit spielst Du auf die Lichtgeschwindigkeit an. Keine Sorge, bis wir an solche Frequenzen kommen, wird es noch ne Weil dauern...
Wenn du in irgend einer Form Verbindungen darstellen willst, dann sind diese Verbindungen immer Vektoren. Neuronalenetze ohne Verbindungen sind witzlos, du selbst beschreibst, dass du Verbindungen über True/False Bits abbilden willst. Bei aller Liebe, du selbst beschreibst Vektoren in deinem Ansatz. Halt ohne zu verstehen, dass Vektoren eine Richtung+Länge oder Koordinaten brauchen und im Falle von NN auch eine Wichtung.. Es bleiben dennoch Vektoren.diogeneo schrieb:Und zu den Vektoren:
Die brauche ich nicht im FPGA, sondern nur in dem Teil, was die Programmierung vom FPGA berechnet.
Da hast du etwas falsch verstanden. Mit Wohlwollen hast du einen Ansatz beschrieben, wie sich ein Graph in einem FPGA abbilden lassen soll. Daraus ergibt sich halt kein Mehrwert einen Graphen irgendwo abzubilden und vielleicht gar durchschreiten zu können. Bei dir fehlt jeglicher Ansatz irgendwelche Informationen auf die Neuronen zu mappen und wie dieses Mapping in einen FPGA zu gießen wären.diogeneo schrieb:Stimmt, KI ist nicht sinnvoll und hat auch keinen Mehrwert.
Piktogramm schrieb:Wie willst du das abbilden?
Habe nie geschrieben, dass das leicht ist. Und Du hast Recht, von 3 auf 2 Dimensionen zu gehen, bringt Schwierigkeiten. Leider sind ja FPGAs noch nicht 3D, kommt aber sicher noch.Piktogramm schrieb:Bei dir fehlt jeglicher Ansatz irgendwelche Informationen auf die Neuronen zu mappen
Bei den ICE40 gibt es glaube eine Variante mit zusätzlichem RAM, was aber im Gegensatz zu den Block RAMs außerhalb der FPGA Fabric liegt.Piktogramm schrieb:Die iCE40HX mit 7680LE listet Mouser mit 128kbit Speicher, der verlinkte Artikel schriebt aber etwas von 1024kbit.
Neon gibt es bei den Cortex-M Kernen, die bei STM32 verbaut sind, nicht. Meist haben die immerhin eine Single precision FPU. Einige Chips haben HELIUM, das ist eine Vector FPU für MCU.Piktogramm schrieb:An sich sind die Operationen ja alle gut mit ARM NEON abzubilden und selbst die eher teueren STM32 mit NEON gehen ab 4€ los,
Beim biologischen Vorbild tun sie das. Aber klar, wenn man mehr will, muss man natuerlich auch mehr reinstecken.Piktogramm schrieb:Als ob NNs bei drei Dimensionen aufhören würden..