GrumpyDude
Lt. Commander
- Registriert
- Okt. 2007
- Beiträge
- 1.315
Hallo,
kann mir jemand den technischen Unterschied zwischen Hardware und Software Beschleunigung erklären?
Beispielsweise haben Intel Prozessoren ab einer bestimmten Generation sog. "AES Instruction sets" womit die AES Encryption schneller stattfindet.
Ich erinnere mich als blu-rays noch neu waren und Full HD Material auf damaligen X86 Prozessoren emuliert wiedergegeben werden musste, was ziemlich performance gekostet hat (hohe CPU Last). Wie ist es technisch umgesetzt worden, dass die Prozessoren eines jeden 100 Euro Bluray Players damals viel besser die Aufgaben bewerkstelligen konnten als die meisten x86 Prozessoren? Was war das entschieden spezielle an diesen Prozessoren? Dasselbe ist doch jetzt mit Skylake und HEVC passiert oder?
Soweit ich weiß gibt es auch keine Hardware Implementierung von OpenVPN, was dazu führt, dass die meisten Consumer-Router den OpenVPN Throughput bei 20-30 Mbit/s schaffen.
Was ist schwer an einer Hardware Implementierung? Jetzt nicht nur im Beispiel OpenVPN sondern generell?
(Klar - Kosten; aber mich interessieren die technischen Hürden die es zu überwinden gilt)
Vielen Dank
Edit: Meine Vorstellung des ganzen ist, dass ein Hardware-Beschleuniger bestimmte Befehlssätze zusammenfassen kann und dadurch Rechenzeit spart. So analog zur Analysis in der Mathematik wo es darum geht Terme zusammenzufassen und sich Arbeit zu sparen. Der Software Rechner, rechnet jeden einzelnen Term aus um das Endergebnis zu bekommen wohingegen der Hardware Beschleuniger sehr viele Terme aus der Gleichung "herausstreicht" und weniger rechnen muss.
Wenn diese Analogie von mir im Ansatz richtig ist - woher weiß der Hardware Beschleuniger welche Terme er herausfiltern muss? Ist das eine spezielle Art der Verdrahtung im Prozessor?
kann mir jemand den technischen Unterschied zwischen Hardware und Software Beschleunigung erklären?
Beispielsweise haben Intel Prozessoren ab einer bestimmten Generation sog. "AES Instruction sets" womit die AES Encryption schneller stattfindet.
Ich erinnere mich als blu-rays noch neu waren und Full HD Material auf damaligen X86 Prozessoren emuliert wiedergegeben werden musste, was ziemlich performance gekostet hat (hohe CPU Last). Wie ist es technisch umgesetzt worden, dass die Prozessoren eines jeden 100 Euro Bluray Players damals viel besser die Aufgaben bewerkstelligen konnten als die meisten x86 Prozessoren? Was war das entschieden spezielle an diesen Prozessoren? Dasselbe ist doch jetzt mit Skylake und HEVC passiert oder?
Soweit ich weiß gibt es auch keine Hardware Implementierung von OpenVPN, was dazu führt, dass die meisten Consumer-Router den OpenVPN Throughput bei 20-30 Mbit/s schaffen.
Was ist schwer an einer Hardware Implementierung? Jetzt nicht nur im Beispiel OpenVPN sondern generell?
(Klar - Kosten; aber mich interessieren die technischen Hürden die es zu überwinden gilt)
Vielen Dank
Edit: Meine Vorstellung des ganzen ist, dass ein Hardware-Beschleuniger bestimmte Befehlssätze zusammenfassen kann und dadurch Rechenzeit spart. So analog zur Analysis in der Mathematik wo es darum geht Terme zusammenzufassen und sich Arbeit zu sparen. Der Software Rechner, rechnet jeden einzelnen Term aus um das Endergebnis zu bekommen wohingegen der Hardware Beschleuniger sehr viele Terme aus der Gleichung "herausstreicht" und weniger rechnen muss.
Wenn diese Analogie von mir im Ansatz richtig ist - woher weiß der Hardware Beschleuniger welche Terme er herausfiltern muss? Ist das eine spezielle Art der Verdrahtung im Prozessor?
Zuletzt bearbeitet: