News NSA strauchelt bei Telefondaten-Sammlung in den USA

Alles fleißig mit Spam überziehen :D

Und fallsdoch wichtigeres dabei sein sollte: Einen Baum versteckt man am besten im Wald :D
 
da vermutet man doch tatsächlich den größten SuperComputer bei denen und dann sowas. hört sich irgendwie nicht zukunftssicher an. ^^

andererseits wird so auch ne mögliche DDoS Attacke auf deren SuperComputer denkbar. alle Bürger der bisher abgehörten Länder vereinigt Euch, gleichzeitig telefonieren und nebenbei noch SMS, WhatsApp und MMS.

Anschließend laufen zugehörige Atommeiler wahrscheinlich brüllend jenseits der Belastungsgrenze! (kleine Ausleihe aus Dietmar Wischmeyers "Stenkelfeld"). ich hatte da schonmal ne Diskussion angestrebt, als denen die Hardware andauernd durchgefackelt ist.

iwie haben sie es mit Problemen. wobei es sicher nicht all zu einfach sein muß, einen Computer zum laufen zu bringen, der einen etwas erhöhten Verbrauch hat.

winfuture.de schrieb:

sehr umweltverträglich ist das aber auch nicht unbedingt.
 
Piktogramm schrieb:
Also, die Geheimdienste können nur etwa 1/3 der Metadaten verarbeiten (wenige KiloByte je Verbindung), während Firmen wie Apple, Facebook, Google, Twitter, Microsoft & Co. nicht nur die Metadaten von Millionen an Verbindungen die zu ihren Diensten hergestellt werden verarbeiten können sondern auch noch die enorme Menge an "Nutzdaten" in Echtzeit umwälzen.

Man sollte auch bedenken, dass die NSA angeblich zeitgleich versucht die Daten von Facebook, Google, Apple, Twitter, Microsoft & Co. mitzuschneiden und zusätzlich dazu noch die Telefondaten. Also alle Kommunikationsdaten weltweit mitzuschneiden dürfte um einiges mehr Leistung erfordern als nur die Daten die die eigene Plattform zu Verfügung stellt. Versuche schon länger herauszufinden, wie man all diese Daten mitschneiden will und diese dann auch noch nach Wertvollem, Brauchbarem und Unnützem durchkämmen will, ohne dabei alle Supercomputer der Welt anzuzapfen.

http://de.wikipedia.org/wiki/Internet#Datenaufkommen

Das sind ungefähr 14 Millionen 2-TB-Festplatten pro Monat wenn man nur den festverkabelten, öffentlich zugänglichen Internetverkehr von 2012 betrachtet.
 
@TrueAzrael

Nunja, mein Beitrag war bewusst Ergebnisoffen :). Denn entweder ist die Angabe, das die die Metadaten nicht packen eine Falschaussage oder aber es werden eben doch weit mehr als die Metadaten abgeschnorchelt.

Was jedoch die reine Menge angeht. Facebook/Google & Co schnorcheln alle Metadaten aller Nutzer ab, die auf ihre Server zugreifen. Also Überall wo es ein Facebookbutton und Googlewerbung gibt sammeln diese Unternehmen Daten. Also es kommt nicht nur Last von den eigenen Seiten, diese Unternehmen schnorcheln genauso das gesamte Netz ab.



Was das Speichern angeht, wenn man gescheit Daten sammelt sieht man immer zu, dass man dem Speichern eine Bewertung auf Relevanz vorschaltet, die Daten strukturiert und am Schluss komprimiert gespeichert. Daher wenn 1000 Nutzer eine Seite aufrufen speichert man nicht 1000x die übertragenen Daten sondern, dass Nutzer X, y, z, ... die Seite aufgerufen haben und wenn man sich richtig Mühe gibt speichert man den aktuellen Zustand der Seite (vor allem wenn sie relvante Inhalte enthält). Solche Techniken gibts und sind meist weniger aufwendig als alles im Klartext zu speichern.
 
Die Datenwut von Big Data basiert in erster Instanz auf NoSQL Datenbanken die weit besser skalieren als die alt-Bekannten SQL Datenbanken und im wesentlichen dafür Verantwortlich sind das Google und Co bewältigen können was sie können.
Die NSA nutzt die selben Techniken. Das Problem ist aber, dass man nicht einfach Daten in einen Kontainer wirft sondern es essentiell ist diese beim speichern in vernünftige Columns zu streamen. Die Operationen die man dann später auf diesen Daten effizient ausführen kann sind alles andere als beliebig. Im Grunde wird die Berechnung bei Google schon beim anlegen des Index erledigt deshalb kann die Suchanfrage später schnell erledigt werden.
Wenn die NSA aber alles mögliche wissen will, müssen Daten wieder und wieder in neue Form gebracht werden, einfach nur abspeichern reicht nicht und manche Filter sind nicht möglich. Der ist extrem aufwendig. Google ist riesig und hat die mächtigsten Datenzentren aber selbst sie können nur gewisse vorgesehen Operationen auf ihre massive Datenbasis effizient anwenden. Die NSA hat bedeutend weniger Mittel und bedeutend mehr unterschiedliche Interessen. Analyse der Daten kostet die NSA sicher deutlich mehr Zeit als Google und sie profitieren nicht von den gleichen Vorteilen.

Hier ist ein Artikel der beschreibt wie die NSA seit 2006 aufgerüstet hat.
http://arstechnica.com/information-technology/2013/06/what-the-nsa-can-do-with-big-data/

Klar hat die NSA ihre eigene Krypo-abteiltung. Kryptographische Algorithmen werden aber von allen möglichen Wissenschaftlern, Hobby IT Sicherheitsfreaks, Hackern, Profis in diversen Firmen überprüft. Es ist eine Sache Sicherheitsmängel und Bugs in Implementierungen einger Software, Betriebssystem oder Programmiersprache (Kompiler) zu finden. Es ist eine ganz andere ohne weiteres einen generischen Algorithmus wie AES zu knacken egal wieviele Mathematiker man vom MIT beschäftigt. Die Algorithmen werden von vielen begutachtet und einen groben Fehler finden den sonst niemand sieht ist ein Glücksfall. Es sind einige "Knackmethoden" über AES bekannt die es ermöglichen schneller als per Bruteforce an ein Nachricht zu entschlüssln, aber keiner davon bringt einen auch nur in die Nähe der Möglichkeit mit allen Supercomputern der Welt eine 128bit AES Nachricht noch in diesem Leben zu entschlüsseln. Die weitaus aussichtsreicheren Angriffspunkte ist ohnehin der Schlüsselaustausch.
Nur weil man Geld in das Knacken eines Algorithmus investiert bedeutet das noch nichts. Die Schwierigkeit des Entschlüsselns exponentiell zu steigern ist extrem leicht. Ein mathematisches Wunder zu vollbringen und Faktorisierung von Primzahlensummen zu knacken passiert vielleicht einem Genie alle 50 Jahre. ECC knacken ist sicher auch nicht viel leichter.
Je mehr man darüber liest und lernt desto mehr Vertrauen bekommt man in die Verschlüsselungssysteme. Der Grund warum viele sich solche Wunder von NSA und Co erwarten sind IMO Medien (Filme, Serien) und fehlendes Wissen.
Klar kann in jeder Implementierung ein Fehler stecken und die NSA hat sicher versucht manche Firmen zu bestechen fehlerhafte Implementierungen zu verbauen. Es benötigt aber viele Audit-Menschen, Mitarbeiter die man bestechen muss um bei einer Firma so etwas einzuschleusen. Jeder der etwas davon weiß kann es ausplaudern. Dann gibt es Abertausende andere Implementierungen und Firmen die man auch noch bestechen müsste. Jedes Update und jede Revision kann die Arbeit wieder zu nichte machen.
Diese paar Kabelanzapfaktionen die die NSA bewiesenermaßen sich leiset, sind nachvollziehbar aber zeugen auch davon, dass ihnen nichts besseres eingefallen ist. Es ist ja eine extrem ineffizient Technik an die gewollten Infos zu kommen.
 
Zurück
Oben