hat hier wer das original white paper gelesen? glaube nicht. das was in der news schlecht übersetzt ist (weil wichtiges weggelassen wurde) findet sich in der quelle wieder. ABER, das ist selbst nur die einleitung eines white papers der Universal Parallel Computing Research Center.
1. die argumentation in dieser einleitung ist blödsinn, denn als bremse wird dort die teilung von resoursen wie der zugriff auf dateien angegeben (beispiel vierenscanner). die reaktionszeit in dem beispiel würde nicht die bohne steigen durch da exklusive zuordnen eines prozesseses auf einen prozessor.
2. kommt der mann zu spät: sowohl apple, sgi, als auch linux bieten das schon (linux im linux-realt-time-tree)
3. im white-paper geht es um was ganz anderes als das, was in der einleitung bzgl. betriebssystem angedeutet wird. da hat sogar eure quelle gepennt, die selbst auch nur das intro gelesen hat.
im paper geht es um die verbesserung der automatischen optimieung bei der compilierung und ausführung von parallelen programmen, in dem sinne, dass man parallele programme einfacher designen und schreiben kann, so wie es in speziellen dafür designten sprachen geht.
die news ist so wie sie presäntiert wurde überflüssig und desinformiert mehr, als sie irgendeine sinnvolle information enthält.
edit: der abschnitt in der einleitng bezüglich der prozessorzurdungen sagt im original folgendes:
es soll ein besseres scheduling eingeführt werden, welches durch benutzer eingaben trainiert wird. d.h. wenn dem benutzer der rechner zu lahm ist, dann drückt er nen knopf "rechner lahm". dann wird aufgezeichnet, was alles aktiv ist und resourcen bracuh. daraus soll dann später ein scheduling entwickelt werden, dass bestimmte programme/prozesse mehr nach user-wünschen priorisiert - so nen quatsch hab ich selten gelesen, so nebenbei.
eine zweite geschihte ist die oben schon angesprochene exklusive zuteilung eines prozesses an einen prozessor. nur gibt es das wie oben gesagt schon und macht obendrein in den dort angesprochenen szenarios keinen sinn. das wechseln zwischen prozessen kosten bei modernen OSen ohnehin kaum zeit und wird für prozesse mit hoher last ausserdem weitestgehend ausgesetzt.
einzig für realtime anwendungen macht sowas sinn und das gibt es schon.
fail auf ganzer linie. lediglich der rest vmo whitepaper (also alles ausser der einleitung) scheint sinnvoll zu sein.
1. die argumentation in dieser einleitung ist blödsinn, denn als bremse wird dort die teilung von resoursen wie der zugriff auf dateien angegeben (beispiel vierenscanner). die reaktionszeit in dem beispiel würde nicht die bohne steigen durch da exklusive zuordnen eines prozesseses auf einen prozessor.
2. kommt der mann zu spät: sowohl apple, sgi, als auch linux bieten das schon (linux im linux-realt-time-tree)
3. im white-paper geht es um was ganz anderes als das, was in der einleitung bzgl. betriebssystem angedeutet wird. da hat sogar eure quelle gepennt, die selbst auch nur das intro gelesen hat.
im paper geht es um die verbesserung der automatischen optimieung bei der compilierung und ausführung von parallelen programmen, in dem sinne, dass man parallele programme einfacher designen und schreiben kann, so wie es in speziellen dafür designten sprachen geht.
die news ist so wie sie presäntiert wurde überflüssig und desinformiert mehr, als sie irgendeine sinnvolle information enthält.
edit: der abschnitt in der einleitng bezüglich der prozessorzurdungen sagt im original folgendes:
es soll ein besseres scheduling eingeführt werden, welches durch benutzer eingaben trainiert wird. d.h. wenn dem benutzer der rechner zu lahm ist, dann drückt er nen knopf "rechner lahm". dann wird aufgezeichnet, was alles aktiv ist und resourcen bracuh. daraus soll dann später ein scheduling entwickelt werden, dass bestimmte programme/prozesse mehr nach user-wünschen priorisiert - so nen quatsch hab ich selten gelesen, so nebenbei.
eine zweite geschihte ist die oben schon angesprochene exklusive zuteilung eines prozesses an einen prozessor. nur gibt es das wie oben gesagt schon und macht obendrein in den dort angesprochenen szenarios keinen sinn. das wechseln zwischen prozessen kosten bei modernen OSen ohnehin kaum zeit und wird für prozesse mit hoher last ausserdem weitestgehend ausgesetzt.
einzig für realtime anwendungen macht sowas sinn und das gibt es schon.
fail auf ganzer linie. lediglich der rest vmo whitepaper (also alles ausser der einleitung) scheint sinnvoll zu sein.
Zuletzt bearbeitet: