Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsFehlertolerante Chips schneller und effizienter
Ich denke das ist ein denkbar schlechter Vergleich.
Bei mp3s werden gezielt die Informationen weggelassen, die wir nicht wahrnehmen, hier geht es um Fehler bei der Berechnung.
Bei einer mp3 wäre das vergleichbar mit z.B. einem lauten Ton/Störgeräusch mitten in nem leisen Song welcher nicht da hin gehört und evtl. das ganze Lied kaputt machen würde.
Und die Solarzellen werden in Indien anständig entsorgt? In Indien und China landen solche Sachen doch einfach im normalen Mülleimer. So viel zum Thema Umweltschutz!
Hab ich das richtig verstanden? Man baut Billige Scheisse um danach massiv Korrigieren zu müssen aber Hauptsache die Fertigung hat so wenig wie möglich gekostet
Sowas nenn ich am Falschen Ende gespart bzw. dem Käufer Sand in die Augen gestreut. Gute Intention reicht hier nicht aus Leute, so läuft die Marktwirtschaft nun mal nicht. Da heißt es Fressen oder gefressen werden.
Der entscheidende Satz ist: "Auf diese Weise war es den Forschern möglich, einerseits den Energiebedarf der Chips zu senken und andererseits im gleichen Atemzug deren Geschwindigkeit zu erhöhen."
Ich finde ihn ganz gut nachvollziehbar.
Es ist interessant, wie einige hier davon ausgehen, dass heutige Prozessoren in der Lage sind die meisten der gängigen Berechnungen (Fließkommaberechnungen) exakt zu erledigen.
Wäre dem so, würde es 60 Jahre Forschung in Numerischer Mathematik und Linearer Programmierung kaum geben.
Wenn ich einen Chip bauen kann, der nur ein Fünftel so viel kostet und auch nur ein Fünftel so viel Strom verbraucht wie ein anderer Chip, aber trotzdem ein HD-Video mit der gleichen Qualitätsstufe encodieren kann mit der einzigen Einschränkung, dass einzelne Farb- oder Helligkeitswerte um höchstens 1% variieren, dann ist das durchaus ein beachtenswerter Ansatz.
Mp3s sind eigentlich ein gutes Beispiel: es wird nichts "unhörbares" weggelassen, es wird nur versucht das originale Audiosignal mittels Funktionen nachzubauen, und je höher die Bitrate, desto besser sind Möglichkeiten für den Mp3-Encoder das Ursprungssignal möglichst exakt nachzubilden.
Ich frage mich wieviele von den Leuten, die hier gleich gemeckert haben, einen farblich kalibrierten Bildschirm haben, wisst ihr was, ihr seht vermutlich alle fehlerhafte Farben - ich auch, Wert legen darauf eher nur Grafiker.
Schonmal Videos oder Bilder aus dem Internet gesehen? das ist so ziemlich alles komprimiert, man geht bewusst einen Kompromiss aus Abweichender (fehlerhafter) Darstellung und Datengröße ein.
Man sieht, dass wir eigentlich überall mit fehlerbehafteten Informationen versorgt werden, da braucht man nur noch ein bischen Fantasie um sich Anwendungsfälle für fehlertolerante Chips vorzustellen.
Der entscheidende Satz ist: "Auf diese Weise war es den Forschern möglich, einerseits den Energiebedarf der Chips zu senken und andererseits im gleichen Atemzug deren Geschwindigkeit zu erhöhen."
Ich finde ihn ganz gut nachvollziehbar.
Hier wird jetzt aber schon in der Hardware rumgepfuscht und nicht in der Software. Ist ja toll das die Forscher den Energiebedarf der Chips senken aber für welchen Preis? Die Dinger können dann dies und jenes nicht wegen der Fehlerrate, werden wohl noch Falsch eingesetzt und das nur für ein paar Zweifelhafte Vorteile die Entlastung bewirken sollen aber auf der anderen Seite Belastungen herstellen. Hier muss man in größeren Dimensionen denken und Fehler miteinkalkulieren. Die Sache geht aber leider von einem Beispiel aus das spezifisch an die Situation angepasst ist und die Erwartungen erfüllt ohne den DAU zu spielen.
Ich als Photgraph: " Hier sind ihre Bilder, sie sind etwas unscharf und haben ein paar fehler, das liegt aber nur daran das der Chip diese verursacht hat, das koset dann 40 Euro bitte."
Die Bilddaten sind auch so total fehlerhaft (zB. Rauschen), weil die Messvorrichtung (Sensor) immer unzulänglich ist. Man könnte dann argumentieren, dass die Verrechnung auch nicht so genau sein muss. Weil es inmitten der ganzen Fehler nicht auffällt. In dem Beispiel wäre es dann natürlich das mittlere Bild, nicht das dritte. Das Foto ist sowieso total behämmert ^^
Man geht bei Software andauernd Kompromisse ein. Bei der jpeg-Qualität kann auch niemand den Unterschied zwischen 90% und 100% sehen bzw. standard und fine.
Genauso wie bei Musik, wo wir uns beispielsweise mit 192kbs MP3 zufrieden geben. In dem Fall ist ein Unterschied hörbar, ab es reicht den meisten Leuten. Dafür passt halt mehr aufs Handy
@Mr.Kaijudo
Du scheinst davon auszugehen, dass diese neue Chips alle gängigen ersetzen soll. Das ist falsch.
Sie sollen nur in Bereichen eingesetzt werden, wo Fehler nicht auffallen bzw. egal sind. In diesen Bereichen sind sie gängigen Chips leistungs- und verbrauchsmäßig überlegen. Und damit billiger.
Wenn du wüsstest, wie ungenau deine CPU bei Gleitkommaberechnungen ist...
Versuch da mal einen Wert wie 0,9 zu speichern. Das kann das Ding schlicht nicht. Er sucht sich da einfach einen Wert, der in der Nähe liegt. Es ist sozusagen ein Fehler und - oh Wunder - die meisten Rechnungen kommen doch ganz gut hin. Aber nicht alle!
Das ist eines der besten Beispiele, dass die Chips trotz Fehler immer noch genau genug sind.
Sollen ist hier das Stichwort, diese Chips sollen in Gewissen Bereichen eingesetzt werden jetzt wird es aber passieren das die BWLer wie bei den Boxed-Kühlern(Material, Lautstärke) oder Brazos APUs(17Zoll Laptop 8GB Ram usw.) nur auf den Preis achten. Dann kommen solche Ungewollten Systeme raus.
Sie sollen nur in Bereichen eingesetzt werden, wo Fehler nicht auffallen bzw. egal sind. In diesen Bereichen sind sie gängigen Chips leistungs- und verbrauchsmäßig überlegen. Und damit billiger.
Das wird in der Werbung erzählt ja aber das Endprodukt ist immer was anderes Ich sehe das als einen ganz hinterhältigen Trick der Chipindustrie und ihrer Verbündeten. Nach dem Motto was wäre wenn, wie man es ja an Zahllosen Beispielen schon erleben musste. Im Endeffekt wird dann an der Fehlerkorrektur gesparrt (nach eigenem Ermessen eingesetzt )
Wenn du wüsstest, wie ungenau deine CPU bei Gleitkommaberechnungen ist...
Wenn man das Wort "Forscher " hört denkt man sich sofort, dass es sich um ganz intelligente Menschen handelt...
Öfters ist das leider nicht der Fall.
Ich finde es auch lächerlich dass "Forscher" diese "Entdeckung" gemacht haben. Als ob es die Chiphersteller nicht wüssten.
Außerdem finde ich das Beispiel mit Ländern ohne Strom lächerlich.
Erstens gibt es schon sparsame chips die man verwenden kann zb arm.
Zweitens das Display wird immer noch mehr verbrauchen.
Und letztendlich möchte ich sehen wie auf so einem Chip irgend eine Software ohne ständigen abstürzen laufen soll.
Es wird eh nie umgesetzt werden. Also Forschung für die Mülltonne
Jetzt mal Enrsthaft, was ist daran die Überaschung?
Ist doch etwas der klarsten dinge dieser Welt, je grober und ungründlicher ich vorgehe, je mehr tempo kann ich machen.
Fertig schreien bevor man fertig ist, hats noch nie gebracht ...
Die Kunst ist, an den Stellen grob vorzugehen, an denen es nicht groß von Belang ist. Dass ich die Rechenzeit extrem drücken kann wenn ich einfach jeden Pixel schwarz mache, sollte klar sein O.o
ExcaliburCasi schrieb:
verstehe die News jetzt auch nicht, wo soll das Anwendung finden? bei Kameras? bei Bildern sieht man doch das ergebnis. Beim Hörgerät? ja, da hat Opa den passenden Technosound im Ohr wenn er in beim Familienfest dabei sitzt ...
die Technik ist einfach ein Rückschritt, man hat die Fehlertoleranz ja nicht aus spaß gesenkt ...
edit: Achso, das sind die neuen Unicef chips, ja für die Ausländischen Kinder reichts !? Als ob die nicht andere Probleme hätten, wenn es auf sowas ankommt ...
Was du da schreibst ist mal sowas von daneben, und dass sich da alle an den drei Bildern hochziehen ist ja mal der Höhepunkt -.- Mein Gott, dass sollen keine High-End Fotochips für eure Urlaubskamera werden X)
Anwendungsgebiet ist zB Echtzeit-Bildverarbeitung. Wenn ich Facetracking betreibe, ist mir die Qualität des Bildes fast egal, solange ich ein Gesicht erkenne. Und 'Opa' ist es auch herzlich egal, ob sein Hörgerät die Realität zu 95% oder zu 100% wiedergibt, da ist die Verzerrung durch Mikro und Lautsprecher schon höher. 'Opa' ist es aber nicht egal, dass er am Hörgerät alle paar Tage die teuren Batterien wechselt.
Mir fallen auf Anhieb 100 Stellen ein, wo man so einen Chip einbauen könnte. Angefangen bei der batteriebetriebenen Gegensprechanlage über Echtzeitbildbearbeitung (und Erkennung ) und endend beim besagten Tablet für indische Kinder. Und NEIN nicht weil das Inder sind, sondern weil die Innovation des Chips eben darin liegt, nicht an wichtigen Stellen Mist zu machen sondern da wo es nicht auffällt. Sprich für die ist es ein normales Tablet mit weniger Stromverbrauch (ob der Chip da so viel ausmacht wage ich aber zu bezweifeln, Hauptteil wird wohl Display sein).
Ergänzung ()
Blutschlumpf schrieb:
Ok, dann formulier es anders:
In wie viel Prozent der Prozesse würde sich die Berechnung ohne Checks anbieten ?
1 % ? 0,5 % 0,1 % Vielleicht weniger ? Man sollte im Hinterkopf behalten, dass der "unsichere Modus" Schreibzugriffe auf den Speicher fast schon ausschließt.
Wie viel Mehraufwand bräuchte man in der Software um "umzuschalten" ?
Du müsstest dazu vermutlich jede Zeile Code anpassen die den unsicheren Teil benutzt, aktuelle Software ist auf Rechenfehler der CPU nicht ausgelegt und resultiert dann nicht selten im Absturz.
Das kommt auf deine Anwendung an. Wenn du zB nur Bilder auswertest oder Sound analysierst brauchst du keine 100% Genauigkeit, aber geringe Latenzen(meistens ). Dh das bietet sich IMHO eher weniger für All-Round Geräte an, eher für embedded Zeugs a la Überwachungskameras und Audiosteuerung für Geräte usw...
Ja, aber wenn es für gewisse Anwendungen noch sparsamere Chips gibt, die beispielsweise ein Vielfaches an Akkulaufzeit ermöglichen, ist eine Sinnhaftigkeit wohl kaum abzustreiten.
suriya schrieb:
Zweitens das Display wird immer noch mehr verbrauchen.
Beim Lesen der Kommentare der meisten Leute hier kommt mir das Kotzen! Wie kann man so kleinkarriert denken? Hier geht es für einmal nicht um eure Desktop PCs mit super highend hardware!! Diese "Forscher" leisten tagtäglich hervorragende Arbeit. Nur weil hier nicht jedem gleich Anwendungsbereiche bewusst werden, heisst das nicht, dass es sie nicht gibt. Man sieht in der Geschichte der Menschheit ständig, wie neue Ideen bei der breiten Masse zunächst auf Entsetzen und Angst stossen. Ihr Leute, seid das Paradebeispiel dafür.
Vielen scheint hier nicht bewusst zu sein, was Fehlertoleranz heisst. Es bedeutet NICHT, dass 4+4 =9 ist, das ist völlig schwachsinnig. Bilddaten wie beispielsweise JPG werden mit diversen Matrixoperationen umgewandelt. Die Fehlerhaftigkeit liegt in der NATUR jedes dieser Codecs, ausser Ausnahmen wie FLAC und Adobes Lossless Derivate für Video und Foto.
Fehlertoleranz heisst in dem Sinne, dass die Rechnung bereits bei einer Kongruenz auf 8 Nachkommastellen abgebrochen wird anstatt auf 9 Kommastellen.
Desweiteren sagt keiner, dass diese Chips als einzige Kerne in PCs eingesetzt werden. Viel interessanter ist die Anwendung bei SoCs von grossen Herstellern, wenn solche Prozessoren dann zusätzlich zur richtigen CPU aufgelötet werden. Anwendungsbereiche wären z.bsp Wiedergabe von stark komprimierten Dateien (hier fällt KEINE weitere Fehlertoleranz von 5% auf), rendern von Vorschaubildern, rendern von Thumbnails, gewöhnliche Telefonie etc.
Ähnliches wird schon heute praktiziert. Smartphones wie das Galaxy S2 haben neben der Dualcore CPU noch eine 200MHZ pups-cpu installiert, um möglichst stromsparend banale Rechenarbeit erledigen zu können.
Hmmmm für fehlerhafte berechnungen gibts in der Schule eine 6 !
Und für diese Dinger da auch !
Einzige daseinsberechtigung wäre in Hörgeräten , obs da n bisi mehr rauscht oder weinger merkt eh niemand.
Das ganze bei gringerem Stromverbrauch (wg. ständigem Batteriewechsel) und keine Mondpreise mehr bei den dingern (Mittelklasse ab 700€) !
Ups , da war ja gar keine Rede davon ....
@Blutschlumpf: Wie Jensenmannwurst schon geschrieben hat ist der Vergleich ganz gut. Denn bei Mp3s werden auf gar keinen Fall Störungen herausgeschnitten oder ähnliches. Man versucht nur so zu komprimieren dass man möglichst wenig davon hört, allerdings kann kein Encoder entscheiden ob ein Geräusch gewollt ist oder nicht, nur ob die "Information" hörbar ist. Umso niedriger die Bitrate, umso mehr hörbare Geräusche werden weggeschnitten. Ganz ähnlich wie bei Bildkompression. Und ein komprimiertes Bild sieht ja ganz ähnlich aus wie das vom Bild berechnete.
wo bei bestimmten Aspekten Fehlertoleranz vertretbar oder vielleicht sogar notwendig ist und die Vorteile des Designs ebenfalls willkommen sind.
Hier geht es nicht ums rausschneiden, sondern darum, dass ein paar falsch gesetzte Bits in ner mp3 ne ähnliche Auswirkung haben können wie ein fetter Kratzer oder jemand der auf Mikro haut.
Kan mir keienr erzählen, dass er noch nie ne defekte mp3 gehabt hat wo eine kurzes fettes "Pock" drin ist und die gesammte Datei wertlos macht.
@Blutschlumpf: Wenn Du ein mp3 im Hex-Editor öffnest und einzelne bits veränderst, hörst Du bei Musik nichts. In wenigen Fällen ein Knacksen bei einem Testton. Abspielen kann man solche Dateien auch noch problemlos.
Aber Encoding wär gar nicht der Einsatzbereich für sowas. Wenn dann das Decoding (von beispielsweise Videodateien)