Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchfĂŒhren oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchfĂŒhren oder einen alternativen Browser verwenden.
News Forschung: Seagate arbeitet mit am DNA-Datenspeicher von CATALOG
- Ersteller MichaG
- Erstellt am
- Zur News: Forschung: Seagate arbeitet mit am DNA-Datenspeicher von CATALOG
Bigeagle
Lt. Commander
- Registriert
- Nov. 2008
- BeitrÀge
- 1.530
Klingt wie hardcore VLIW. Man schreibe ein paar EB an Daten auf DNS, den Algorithmus dazu, bringe die Enzyme/Bakterien zum rechnen und holt ein paar Minuten/Stunden spÀter das Ergebnis.DNA from individual reservoirs is mixed to produce chemical reactions for a range of computing functions, including search and analytics, machine learning, and process optimization.
It's
Was fĂŒr MaĂstĂ€be haben die an langzeitstabilitĂ€t und datensicherheit? Ich denke da sofort an Strahlenbedingte SchĂ€den die im lebenden Organismus laufend repariert werden mĂŒssen, sonst droht Zelltod ('freiwillig', vorbeugend, oder infolge der SchĂ€den selbst), oder Krebs.
Dazu der Antrieb der Evolution, Kopierfehler
Und all das trotz eigentlich erstaunlich effektiver Mechanismen zur Fehlerkorrektur. Da kann ich mir irgendwie nur schwer vorstellen dass 'tote' DNS ohne gröĂeren Aufwand zum Schutz vor Strahlung, oder diesem fiesen Sauerstoff langzeitstabil ist.
Schnelle Suche findet Alterungsstudien ĂŒber Temperatur, doch 20 Jahre und ein paar kB sind jetzt nicht wirklich ĂŒberragend finde ich. Zu wenig Daten um sinnvoll Fehler zu messen und 20 Jahre dĂŒrften Archivorientierte CD/DVD/BluRay oder Magnetband auch problemlos schaffen was reine Temperaturbeschleunigte Alterung angeht. Strahlung ist da komplett auĂen vor und ich bin nicht so sicher ob man damit langfristige Effekte wie Gasdiffusion durch SchutzgehĂ€use abbilden kann.
Das hies es zu vielen Dingen. BĂŒcher, Rechenmaschinen, Feuerwerk, vermutlich dem Feuer selbst XDalex22 schrieb:Im Alltag wird das niemals relevant sein.
Ich meine mal ehrlich, wer stellt sich so einen Computer zuhause hin? Allein die 3 RĂ€ume die dafĂŒr draufgehen, die Unmengen Strom, die LautstĂ€rke! Egal ob mit Lochkarten, MagnetbĂ€ndern oder Trommelspeicher! Das ist nix fĂŒr zuhause.
So ein paar Bakterien auf einem 'Zusatzchip' fĂŒr AVXDNA2 sind da doch kein Problem. Alle 2 Jahre die NĂ€hrstofflösung nachfĂŒllen und den AbfallbehĂ€lter wechseln. Lagerung nicht ĂŒber 42° C und ab 5000m Höhe wird empfohlen einen DruckbehĂ€lter fĂŒr den PC zu verwenden.
0x8100
Admiral
- Registriert
- Okt. 2015
- BeitrÀge
- 9.701
die hier erzeugte dna repliziert sich aber nicht stĂ€ndig selbst, es treten also auch keine kopierfehler auf. ebenso ist sie in keiner lebenden zelle, die sauerstoff braucht, man kann sie also unter sauerstoffabschluss lagern. bleibt die strahlung, aber man stellt ja nicht nur ein molekĂŒl dna her, sondern viele. damit hat man ein hohes mass an redundanz, zudem lassen sich die daten auch fehlertolerant speichern.Bigeagle schrieb:Was fĂŒr MaĂstĂ€be haben die an langzeitstabilitĂ€t und datensicherheit? Ich denke da sofort an Strahlenbedingte SchĂ€den die im lebenden Organismus laufend repariert werden mĂŒssen, sonst droht Zelltod ('freiwillig', vorbeugend, oder infolge der SchĂ€den selbst), oder Krebs.
Dazu der Antrieb der Evolution, Kopierfehler
Und all das trotz eigentlich erstaunlich effektiver Mechanismen zur Fehlerkorrektur. Da kann ich mir irgendwie nur schwer vorstellen dass 'tote' DNS ohne gröĂeren Aufwand zum Schutz vor Strahlung, oder diesem fiesen Sauerstoff langzeitstabil ist.
Zuletzt bearbeitet:
Bigeagle
Lt. Commander
- Registriert
- Nov. 2008
- BeitrÀge
- 1.530
Sie muss geschrieben und dann wieder ausgelesen werden, das sind zwei VorgÀnge bei denen Fehler auftreten können.0x8100 schrieb:die hier erzeugte dna repliziert sich aber nicht stÀndig selbst, es treten also auch keine kopierfehler auf.
Das Lesen ist afaik ein Problem fĂŒr diese Betrachtung, denn meines begrenzten Wissens nach liest man DNS praktisch indem man sie aufspaltet und kopiert.
Ggf. kommt man auch nur mit dem aufspalten weiter. Doch soweit ich das sehe wird die DNS in jedem Fall zum auslesen verÀndert und ggf. kopiert, bzw zerstört.
Das ist anders als bei unseren aktuellen DatentrĂ€gern wo sich das Medium beim auslesen praktisch nicht verĂ€ndert. Bei einem Lesefehler probiert man es dann eben ein paar mal, vielleicht kommt ein Wert raus der zur PrĂŒfsumme passt.
Bei einem DNS Speicher hÀtte aber jeder Lesezugriff das potential die Daten zu verÀndern.
Was leicht klingt und auch bei optischen DatentrĂ€gern meist nötig ist. Haben HDDs wenn sie nicht gerade HeliumgefĂŒllt sind normale Luft drin, oder ein Schutzgas?0x8100 schrieb:man kann sie also unter sauerstoffabschluss lagern.
Bei langzeitstabilitÀt von Daten lohnt es schon zu wissen wie empfindlich der DatentrÀger an sich ist damit man einschÀtzen kann wie empfindlich er ist. GehÀuse altern, oder es treten diffusionseffekte auf.
Wenn der DatentrĂ€ger nur sicher ist wenn völlige Gasdichtigkeit gewĂ€hrleistet ist wird es irgendwie unpraktisch. Ggf. stören auch mit der Zeit von der OberflĂ€che des BehĂ€lters stammende MolekĂŒle.
Redundanz mag helfen, aber es wĂ€re schon nett zumindest in etwa die Rohfehlerrate zu kennen. Je nachdem muss man auch regelmĂ€Ăig auslesen und wieder korrekte Daten zurĂŒckschreiben. Warmer RAM ohne refresh kann noch so viel Redundanz haben, irgendwann ist nur noch rauschen drin. Das Problem betrifft alle DatentrĂ€ger, wenn auch in deutlich geringerem MaĂe. Deshalb gibts bei ZFS scrubbing.0x8100 schrieb:aber man stellt ja nicht nur ein molekĂŒl dna her, sondern viele. damit hat man ein hohes mass an redundanz.
Ja das ist der use-case den ich mir vorstelle, (einmal schreibbarer) Langzeitspeicher, deswegen der Vergleich mit MagnetbĂ€ndern. Aber MagnetbĂ€nder sind nicht Alltag.0x8100 schrieb:das ziel ist langzeitarchivierung grosser datenmengen und da hĂ€tte ein dna-basierter speicher doch ein paar vorteile gegenĂŒber magnetbĂ€ndern. braucht weniger platz, speichert mehr daten und ist stabiler. das wird nicht gleich morgen fertig sein, aber es funktioniert heute schon und muss "bloss" noch kleiner gemacht werden.
Mit Alltag meine ich als Rechner/Speicher, den eine normale Person sich kaufen kann bzw auch kauft weil es sinnvoller ist als andere Technik, inkl. Cloud Lösungen.
Keines der Beispiele ist auch vergleichbar. Alle diese die Dinge haben Nischen gefĂŒllt, fĂŒr die es zu der Zeit keine Alternative gab. In diesem Falle muss aber eine neue Technik gegen eine hochentwickelte bestehende Lösung antreten, mit nur sehr wenigen herausragenden einzigartigen Eigenschaften. Und da sehe ich eben auĂer in ganz bestimmten Nischen keinen Vorteil.Bigeagle schrieb:Das hies es zu vielen Dingen. BĂŒcher, Rechenmaschinen, Feuerwerk, vermutlich dem Feuer selbst XD
Ich meine mal ehrlich, wer stellt sich so einen Computer zuhause hin? Allein die 3 RĂ€ume die dafĂŒr draufgehen, die Unmengen Strom, die LautstĂ€rke! Egal ob mit Lochkarten, MagnetbĂ€ndern oder Trommelspeicher! Das ist nix fĂŒr zuhause.
Auslesen von DNA StrÀngen funktioniert seriell (sowohl technisch als auch in den Zellen), indem man den DNA Strang durch ein LesegerÀt fÀdelt und dann wie ein Magnetband abliest. Die Geschwindigkeit mit der das passieren kann ist einfach physikalisch begrenzt, genauso wie du beim Magnetband das Band immer schneller bewegen kannst. Parallel ablesen ist einfach unrealistisch, da der Strang extrem flexibel ist. Stell dir Spaghetti in kochendem Wasser vor und wie du ein LesegerÀt an einen Strang dran hÀlst. Und wir sind hier nur beim lesen von Daten.
Desweiteren sind wir beim Transport von Daten oder bei chemischen Reaktionen durch die Diffusionsgeschwindigkeit von MolekĂŒlen begrenzt und da sie wir bei der Geschwindigkeit von Information in cm/s viele tausendfach langsamer als bei elektrischen Signalen, daher sehe ich nicht wie da eine realistische Rechenleistung bei rumkommen soll.
Mal abgesehen davon dass das Szenario nicht realistisch ist, das findest du echt eine akzeptable Lösung? NĂ€hrstofflösung nachfĂŒllen heiĂt auch wieder potential fĂŒr Kontamination, womöglich ist damit dann dein chip direkt Schrott. AuĂerdem musst du auch Abfallprodukte der Reaktion herausfiltern, wie auch immer das gehen soll. Wahrscheinlicher ist dass der chip regelmĂ€Ăig (evtl. alle paar Minuten bis Stunden) in einen Reinigungsmodus gehen muss.Bigeagle schrieb:So ein paar Bakterien auf einem 'Zusatzchip' fĂŒr AVXDNA2 sind da doch kein Problem. Alle 2 Jahre die NĂ€hrstofflösung nachfĂŒllen und den AbfallbehĂ€lter wechseln. Lagerung nicht ĂŒber 42° C und ab 5000m Höhe wird empfohlen einen DruckbehĂ€lter fĂŒr den PC zu verwenden.
Vielleicht kann man alle technischen HĂŒrden irgendwie ĂŒberwinden, aber ich sehe nicht wie sowas (wie gesagt auĂer ganz bestimmten Nischen) FuĂ fassen soll.
ErgÀnzung ()
Man kann DNA und RNA auch zerstörungsfrei lesen, dazu gibt es bereits Produkte zu kaufen die hierauf basieren: https://en.wikipedia.org/wiki/Nanopore_sequencingBigeagle schrieb:Das Lesen ist afaik ein Problem fĂŒr diese Betrachtung, denn meines begrenzten Wissens nach liest man DNS praktisch indem man sie aufspaltet und kopiert.
Ggf. kommt man auch nur mit dem aufspalten weiter. Doch soweit ich das sehe wird die DNS in jedem Fall zum auslesen verÀndert und ggf. kopiert, bzw zerstört.
Im Prinzip wir die DNA durch ein Loch gefÀdelt und dabei das sich Àndernde elektische Feld im Loch ausgemessen (analog zum Magnetfeld am Lesekopf beim Magnetband). Die verschiedenen Basenpaare erzeugen dabei jeweils eigene charakteristische Muster im Signal.
Zuletzt bearbeitet:
I
IHEA1234
Gast
Das hĂ€ngt davon ab, ob die Chinesen wirklich da forschen wollen. Die EuropĂ€er, mit ihrer Dekadenz und pathologischen Technikfeindlichkeit, wĂŒrden noch 100 Jahre beauchen.Zarlak schrieb:Kernfusionsreaktoren
Wenn die Chinesen ernst machen, steht die erste Anlage in 40 Jahren. Denn die Physik ist bereits gelöst; das sind "nur" noch praktische Probleme.
Bright0001
Commander
- Registriert
- Juli 2011
- BeitrÀge
- 2.636
Schreibgeschwindigkeit eine Sache, aber wie siehts mit dem Lesen aus?
FĂŒr Privatanwender kann ich es mir höchstens in der Nische vorstellen, wenn man Dinge langfristig archivieren möchte (Bilder, Dokumente, Ă€hnliches). Aber glaube kaum, dass Latenzen und Geschwindigkeiten wirklich praktikabel werden, die Informationsdichte hat ja ihren Ursprung in den wirklich sehr kleinen Strukturen.
FĂŒr Privatanwender kann ich es mir höchstens in der Nische vorstellen, wenn man Dinge langfristig archivieren möchte (Bilder, Dokumente, Ă€hnliches). Aber glaube kaum, dass Latenzen und Geschwindigkeiten wirklich praktikabel werden, die Informationsdichte hat ja ihren Ursprung in den wirklich sehr kleinen Strukturen.
Hat jemand ein Paper dazu? Als Biotechnologe in der synthetischen Oligonukleotidsynthese bin ich schon sehr interessiert.
Verstehe nicht so Recht wie die DNA wirklich assembliert wird. Und das Vorallem kostengĂŒnstig. Transkription und Sequenzierung ist auf jedenfall kein Problem nur aber erst Mal das Template zu bekommen ist eine andere.
Verstehe nicht so Recht wie die DNA wirklich assembliert wird. Und das Vorallem kostengĂŒnstig. Transkription und Sequenzierung ist auf jedenfall kein Problem nur aber erst Mal das Template zu bekommen ist eine andere.
https://www.microsoft.com/en-us/res...locking-scalable-dna-data-writing-technology/
Da gibt es auch links zu Papers
Schon irgendwie lustig, wer jetzt hier wieder weiĂ, daĂ es nie funktionieren wird đ
Ich verstehe zu wenig von den Details um mir ein Urteil bilden zu können.
Aber wie man so schön sagt Wissen wird ĂŒberbewertet wenn man eine Meinung hat.
Da gibt es auch links zu Papers
Schon irgendwie lustig, wer jetzt hier wieder weiĂ, daĂ es nie funktionieren wird đ
Ich verstehe zu wenig von den Details um mir ein Urteil bilden zu können.
Aber wie man so schön sagt Wissen wird ĂŒberbewertet wenn man eine Meinung hat.
Bigeagle
Lt. Commander
- Registriert
- Nov. 2008
- BeitrÀge
- 1.530
Naja, am Anfang der Rechenmaschinen waren menschliche Computer schneller. Ich dachte am Anfang der Elektrischen Rechenmaschinen waren auch mechanische schneller.alex22 schrieb:Keines der Beispiele ist auch vergleichbar. Alle diese die Dinge haben Nischen gefĂŒllt, fĂŒr die es zu der Zeit keine Alternative gab.
Vorrausgesetzt DNS Speicherung oder Berechnungen wĂŒrden gĂŒnstig und gut einsetzbar könnten sich schon neue Nischen auftun. Oder es bleibt eine interessante Nische fĂŒrs Labor und Langzeitspeicher in Archiven gut ausgestatteter Einrichtungen. Ich wollte nur deutlich machen dass man manches schlecht vorher wissen kann.
Ich glaube ich muss mehr Smileys nutzen wenn ich etwas nicht ganz ernst meinealex22 schrieb:Mal abgesehen davon dass das Szenario nicht realistisch ist, das findest du echt eine akzeptable Lösung?
Wobei ich mir eine durch den Nutzer zu wartende Variante schon vorstellen kann wenn man das technisch richtig anstellt und Laiensicher macht. Wir reden ja nicht von heute. SterilitÀt der Verbindungsstellen lÀsst sich doch sicher machen.
Ich wĂŒrde allerdings autarke Einheiten fĂŒr wahrscheinlicher halten die ggf. einfach nicht zu lang vom Strom getrennt werden dĂŒrfen damit Licht, Temperatursteuerung und Abfallfilter nicht zu lange wegfallen.
Letztere sollten doch wohl kein Problem sein wenn man RNA StrÀnge einzeln durch Poren schieben kann, oder? Ob das bezahlbar, miniaturisierbar und massenproduktionstauglich ist ist eine andere Frage.
Aber bei dem Thema sind wir doch im SciFiTalk.
Ob die Höhe ein Problem ist weiĂ ich garnicht, das war nur geraten falls die Bakterien wie Menschen auf höheren Sauerstoffpartialdruck angewiesen sind. Vielleicht fĂŒhlen die sich ja auf dem Everest noch wohl genug dass das keine Rolle spielt.
Die Lesetechnik ĂŒber Nanoporen hatte ich gesehen, doch das schien nur mit EinzelstrĂ€ngen zu funktionieren, womit eben die DNA vorher aufgetrennt werden muss. Wenn man die als ganzes durchschieben kann entfĂ€llt das natĂŒrlich.
Was die Lesegeschwindigkeit angeht muss man das wohl oder ĂŒbel irgendwie parallelisieren können. Wer wird denn ein paar Exabyte schreiben wollen wenn das lesen dann tausende Jahre dauert.
WORF - Write Once, Read Forever
man beachte den Smiley, es wĂŒrde pro Exabyte nur um die 70.000 Jahre dauern bei den rund 500 kB/s. Also nicht ewig, nur etwas lĂ€nger.
Dass man in DNA Daten speichern kann, ist schon lange bekannt. Ich sehe das Problem viel eher darin, wie man die Daten dort wieder herausbekommt. Als jemand, der in der Bioinformatik forscht, wird man alltĂ€glich mit den Problemen konfrontiert, die eigentlich nur deswegen existieren, weil wir nach wie vor NICHT in der Lage sind DNA akkurat auszulesen. Ein menschliches Genom besteht aus ca. 3 Gigabasen, was einem Informationsgehalt von 750MB entspricht. Die neuesten Sequenziermethoden (third generation sequencing) schaffen aber nur, zusammenhĂ€ngende DNA-Schnipsel von ca. 10 bis 100 Kilobasen zu generieren und das mit einer Pro-Basen-Fehlerrate von gut 10%. Allein um diese Lesefehler zu korrigieren muss man das Genom (im Durchschnitt) mindestens 30 mal lesen. Und dann muss man auch ĂŒberhaupt erst herausfinden zu welcher Position die Schnipsel gehören, denn das steht da logischerweise nicht dran.PSY-BORG schrieb:Sehr gut, dass man nun in der Wissenschaft endlich aufgewacht ist und viele technologische Entwicklungen ĂŒber die AnsĂ€tze der Natur, die nun mal ĂŒber Jahrmillionen Zeit hatte in Sachen Effizienz & Struktur GröĂe alles bis ins kleinste Detail zu perfektionieren, zu lösen versucht.
Wenn man ehrlich ist, wir befinden uns eigentlich technologisch in einer Sackgasse, aus der wir mit den bisherigen konventionellen Methoden garantiert nicht rauskommen.
Vielleicht wird die synthetische DNA irgendwie anders gelagert, sodass ein spĂ€teres Einlesen deutlich einfacher ist als bei der Gewebeprobe, wo man die DNA-MolekĂŒle erst aus irgendwelchen Zellen raustrennen muss und in irgendwelchen FlĂŒssigkeiten rumschwimmen. Aber ich sage es mal so: Mit einer Sequenziermethode, die ein DNA-MolekĂŒl in einem Zug mit 0,5MB/s (=2 Megabasen pro Sekunde) fehlerfrei (!!!) lesen kann, wĂŒrde man vermutlich die gesamte Krebs- und Erbkrankheitenforschung revolutionieren, weil das einfach so viel besser wĂ€re, als alles was man bisher in der Praxis verwendet, um die Genome einzelner Individuen zu assemblieren.
Ăhnliche Themen
- Antworten
- 34
- Aufrufe
- 6.261