@realredfox
Die krankte beim Quark noch etwas. Jedenfalls für die Schnittstellen die wichtig sind, nämlich GPIO, I2C, Anlog read,.. ist ziemlich langsam. Beim Quark nimmst du das effizienteste LE oder WIFI Modul und koppelst es an den I2C/SPI/UART Bus auf einer Platine. Besser geht es nicht und bist nicht auf eine bestimmte Anzahl an TCP/UDP Verbindungen begrenzt.
Ich persönlich arbeite lieber mit den Tinkerforge Module. Mit gefällt es die Logik und die Ausführung zu trennen. So kann ein schneller ARM/x86 ein super aufwendiges Programm abarbeiten und dabei den unzähligen Microcontrollern die notwendigen Befehle mitteilen. Und alles kann schön über Ethernet oder ein RS458 Bus erweitertet werden, so das Subkomponenten einzeln agieren aber mit zentraler Steuerungslogik.
Du hast zum Thema Microcontroller nur nicht sinvolles geliefert, da brauch ich kein Hirn einschalten. Denn in dem Fall sind Benchmarks völlig wertlos weil das wichtigste vorher schon bekannt ist.
Denn die Benchmarks vom Quark sind schon bekannt und im besonderen die wichtige Geschwindigkeit der I/O Module wie I2C, SPI, GPIO und co. Die hat sich aber zum 400 MHz Modell nicht verändert. Somit ist klar was an I/O Leistung geliefert wird und die ändert sich nicht, dann die Frequenz der Module fest vorgeben sind. Steht als beim Microcontroller beim I2C-Expanders 100 kHz darauf, wie es beim Quark der Fall ist, arbeitet der auch mit 100 kHz - dann dauert auch eine I2C-Anfrage im Schnitt 2ms. Das sind Komponenten die eben nicht wie bei der klassischen CPU von anderen Teilen abhängig sind.
Aus Larrabee wurde aber das Beste was Intel passieren konnte. Ein Rechenbeschleuniger der für sehr viel Geld super Leistung bringt und vom Start an gut in der Branche verkauft wurde. Warum 500€ für ne GPU, wenn ich damit auch 5000€ machen kann. Vom Start weg 25% Marktanteil beim Rechenbeschleuniger in einem Markt der recht stabil ist. Augen auf bei deiner Aussage. Das war ein schlechtes Beispiel. Nicht aus guten Grund rettet die Data Center-Sparte Intel das Quartal.
Quelle: http://www.forbes.com/sites/greatsp...hreaten-nvidias-leadership-in-the-hpc-market/
Auch die Atoms waren genau richtig, zu Zeit der Netbooks hat hier Intel auch super verdient und das richtige Marksegment entdeckt. Jetzt hat man die passende Nische für kleine Server SoCs gefunden.
Quelle: http://ht4u.net/news/22670_intel_hat_bereits_70_millionen_atom-prozessoren_verkauft/
Die Beispiele gingen aber gut in die Hose. Gib es ruhig zu war wieder Intel Bashing vom feinsten ohne Ahnung vom Thema zu haben.
Die krankte beim Quark noch etwas. Jedenfalls für die Schnittstellen die wichtig sind, nämlich GPIO, I2C, Anlog read,.. ist ziemlich langsam. Beim Quark nimmst du das effizienteste LE oder WIFI Modul und koppelst es an den I2C/SPI/UART Bus auf einer Platine. Besser geht es nicht und bist nicht auf eine bestimmte Anzahl an TCP/UDP Verbindungen begrenzt.
Ich persönlich arbeite lieber mit den Tinkerforge Module. Mit gefällt es die Logik und die Ausführung zu trennen. So kann ein schneller ARM/x86 ein super aufwendiges Programm abarbeiten und dabei den unzähligen Microcontrollern die notwendigen Befehle mitteilen. Und alles kann schön über Ethernet oder ein RS458 Bus erweitertet werden, so das Subkomponenten einzeln agieren aber mit zentraler Steuerungslogik.
Ergänzung ()
Chesterfield schrieb:bevor du kritik ausübst, hirn einschalten wäre nicht schlecht !!
Du hast zum Thema Microcontroller nur nicht sinvolles geliefert, da brauch ich kein Hirn einschalten. Denn in dem Fall sind Benchmarks völlig wertlos weil das wichtigste vorher schon bekannt ist.
Denn die Benchmarks vom Quark sind schon bekannt und im besonderen die wichtige Geschwindigkeit der I/O Module wie I2C, SPI, GPIO und co. Die hat sich aber zum 400 MHz Modell nicht verändert. Somit ist klar was an I/O Leistung geliefert wird und die ändert sich nicht, dann die Frequenz der Module fest vorgeben sind. Steht als beim Microcontroller beim I2C-Expanders 100 kHz darauf, wie es beim Quark der Fall ist, arbeitet der auch mit 100 kHz - dann dauert auch eine I2C-Anfrage im Schnitt 2ms. Das sind Komponenten die eben nicht wie bei der klassischen CPU von anderen Teilen abhängig sind.
Chesterfield schrieb:und nicht nur larabee sondern auch Atom cpus ( siehe absatzzahlen),
Aus Larrabee wurde aber das Beste was Intel passieren konnte. Ein Rechenbeschleuniger der für sehr viel Geld super Leistung bringt und vom Start an gut in der Branche verkauft wurde. Warum 500€ für ne GPU, wenn ich damit auch 5000€ machen kann. Vom Start weg 25% Marktanteil beim Rechenbeschleuniger in einem Markt der recht stabil ist. Augen auf bei deiner Aussage. Das war ein schlechtes Beispiel. Nicht aus guten Grund rettet die Data Center-Sparte Intel das Quartal.
Quelle: http://www.forbes.com/sites/greatsp...hreaten-nvidias-leadership-in-the-hpc-market/
Auch die Atoms waren genau richtig, zu Zeit der Netbooks hat hier Intel auch super verdient und das richtige Marksegment entdeckt. Jetzt hat man die passende Nische für kleine Server SoCs gefunden.
Quelle: http://ht4u.net/news/22670_intel_hat_bereits_70_millionen_atom-prozessoren_verkauft/
Die Beispiele gingen aber gut in die Hose. Gib es ruhig zu war wieder Intel Bashing vom feinsten ohne Ahnung vom Thema zu haben.
Zuletzt bearbeitet: