Snowden hat spezialisierten Webcrawler eingesetzt
Wie Edward Snowden an die Menge von 1,7 Millionen Dokumenten gelangen konnte, enthüllte am Wochenende ein Bericht von NSA-Offiziellen, die anonym blieben. Demnach hat Snowden das Material nicht vorher gesichtet, sondern einen spezialisierten Webcrawler auf die Server der NSA angesetzt.
Wie die New York Times berichtet, wäre Snowden dabei einmal beinahe aufgeflogen, konnte sich aber aufgrund seiner Sicherheitsfreigabe mit der Notwendigkeit eines Backups herausreden. So sammelte der Webcrawler, der auf das Kopieren aller besuchten Seiten programmiert war, Unmengen an brisantem Material automatisiert ein, während Snowden seiner täglichen Arbeit nachging.
Snowden ließ seine Crawler allerdings nicht wahllos alles kopieren, sondern machte eingrenzende Vorgaben bei den Themen und wie tief Links in den Dokumenten verfolgt werden sollten. Er legte besonderen Wert auf die NSA-internen Wikis, die eine Menge Präsentationen und individuelle Erfahrungen von Mitarbeitern enthielten.
Die NSA gibt offiziell keine Stellungnahme ab, hat jedoch einigen mit den Untersuchungen befassten Mitarbeitern erlaubt, anonym über Teilbereiche zu sprechen. Die Mitarbeiter gingen nicht auf Einzelheiten der benutzten Software ein oder ob Snowden sie teilweise oder ganz selbst geschrieben hat. Die Crawler seien jedoch Googlebot sehr ähnlich, der beständig das Internet nach neuen und geänderten Webseiten durchsucht und diese indexiert. Unklar sei immer noch, warum eine solche Fremdsoftware in einem Bereich mit derartig hoher Sicherheit nicht auffiel.
Die Tatsache, das jemand von Innen das bewerkstelligt, was nach Außen der eigentliche Job der NSA ist – nämlich der Schutz der US-amerikanischen Infrastruktur vor Cyber-Angriffen –, macht den Fall nicht weniger peinlich. Die Experten kommen zu dem Urteil, dass Snowdens Coup nur von der Außenstelle der NSA auf Hawaii gelingen konnte, dort sei sein Arbeitsplatz zum Zeitpunkt der Tat gegen Angriffe von Innen nicht ausreichend gesichert gewesen. Im Hauptquartier in Fort Meade wäre er mit seinem Vorhaben nicht weit gekommen, schätzen die Experten. Die Offiziellen fragen sich jetzt natürlich, ob Snowden nach seiner Anstellung erst entdeckte, dass sein Arbeitsplatz auf Hawaii die letzten Sicherheitsupdates noch vermissen ließ oder ob er dies vorher bereits wusste und deshalb gezielt dort arbeiten wollte.
Die Tatsache, dass dies drei Jahre nach Chelsea Mannings Wikileaks-Enthüllungen gelingen konnte, erstaunt die NSA-Offiziellen um so mehr, da Manning sich die von ihr entwendeten Dokumente offenbar mit dem simplen Linux-Download-Tool wget beschafft hat. Das hätte ausreichen müssen, um zu verdeutlichen, mit welchen primitiven Mitteln Datendiebstahl passieren kann.
Durch seinen Anwalt bei der American Civil Liberties Union kommentierte Snowden die Veröffentlichung mit den Worten: „Es ist schon sehr ironisch, dass jetzt Offizielle geheime Informationen an die Presse geben, um mich dafür zu diskreditieren, dass ich geheime Informationen an die Presse gegeben habe. Der Unterschied ist, dass ich die Öffentlichkeit über das Verhalten der Regierung informieren wollte und sie die Öffentlichkeit über mein Verhalten desinformieren möchten.“