Datentyp http://www.scilogs.de/datentyp Informatik, Daten und Privatsphäre Wed, 04 May 2016 19:17:01 +0000 de-DE hourly 1 AlgorithmWatch – Brauchen wir eine Kontrolle von Algorithmen?http://www.scilogs.de/datentyp/algorithmwatch/?utm_source=rss&utm_medium=rss&utm_campaign=algorithmwatch http://www.scilogs.de/datentyp/algorithmwatch/#comments Wed, 04 May 2016 19:13:09 +0000 http://www.scilogs.de/datentyp/?p=141 ... weiter]]> Haben die User den Microsoft-Chatbot Tay nur testen wollen als sie aus ihm einen rassistischen Sprücheklopfer machten oder war hier ein fehlerhafter Algorithmus am Wert, der eine TÜV-Prüfung nie bestanden hätte? Das Beispiel des Chatbots Tay, der über Twitter kommunizierte, muss derzeit oft herhalten, um die Unzulänglichkeiten von Algorithmen zu illustrieren.

Aktuell verwendete Bildersuche-Algorithmen erlernen das Erkennen von Objekten anhand einer Vielzahl von Bildern, die das gesuchte Objekt enthalten und die vorher bereits von Menschen klassifiziert wurden. Der Algorithmus ermittelt dann ohne weitere menschliche Interaktion eine Gemeinsamkeit aller Bilder, speichert diese und wendet sie anschließend auf ihm bisher unbekannte Bilder an, um das Objekt auch auf diesen zu erkennen. Der Ansatz ist naheliegend, führt aber in der Praxis zu grotesken (und oft kolportierten) Fehlern: So werde beispielsweise das schöne Wetter auf Werbefotografien als gemeinsames Merkmal von Produktabbildungen ermittelt, die dann bei Regenwetter nicht mehr erkannt würden, oder die Hautfarbe von Menschen spielte plötzlich bei der Klassifizierung von Bildern als „Mensch“ eine Rolle oder ein Fluggast werde als gefährlich eingestuft, weil er Krisenländer nach einem Muster bereist, das typisch für Terrorhelfer sei, jedoch genauso gut auf Kriegsberichterstatter zutreffe. Der Algorithmus führt dann zu erheblichen Schwierigkeiten für diejenigen, die fälschlicherweise in Terrorverdacht geraten. Beim maschinellen Lernen schleichen sich komplexe Fehler ein, doch auch überwachtes maschinelles Lernen ist kaum zu kontrollieren.

Algorithmen können also Fehler aufweisen. Sie können unzureichend sein, um für bestimmte komplexe Anwendungsfälle geeignet zu sein. Oder sie können von Menschen falsch eingesetzt werden, die Eigenschaften eines Algorithmus nicht richtig verstehen. In der Folge kommt es zu fehlerhaften Systemfunktionen, die Menschen benachteiligen, wirtschaftlich schädigen oder stigmatisieren - vielleicht sogar töten, wenn es sich um Algorithmen von Systemen handelt, die im Drohnenkrieg verwendet werden.

Die unangenehme Frage nach der Verantwortung wird gestellt. Sind Entwickler von statistischen Verfahren oder mustererkennenden Techniken verantwortlich für den Einsatz ihrer Erfindungen in ungeeigneten oder menschenfeindlichen Anwendungsszenarien? Die meisten Forscher und Entwickler würden dies wohl verneinen – und sie können dies gut begründen, denn die Entscheidung, einen Algorithmus tatsächlich zu implementieren und ihn für einen Anwendungsfall anzupassen, treffen andere Menschen. Diese Umsetzung geschieht gerade nicht automatisch. Und wer die Implementierung dann produktiv einsetzt, trägt auch die Verantwortung für die Wirkung. Umgekehrt können Anwender von Algorithmen jedoch einwenden, dass sie lediglich den Stand von Wissenschaft und Technik in eine produktive Umgebung bringen und auf die bestmögliche Qualität der von anderen entworfenen Algorithmen oder von Dritten bereitgestellten Softwarebibliotheken vertrauen. Auf dem Weg von einer algorithmischen Idee bis zum produktiven Einsatz in Hard- und Software sind viele Akteure beteiligt. Macht sich Verantwortungslosigkeit breit?

Die heute anlässlich der re:publica 10 gestartete Initiative AlgorithmWatch versucht, der gefürchteten Verantwortungslosigkeit beim Einsatz von Algorithmen zu begegnen. Der Fokus liegt dabei auf der algorithmischen Entscheidungsfindung (engl.: algorithmic decision making, ADM), die nach Auffassung von AlgorithmWatch längst zum täglichen Leben gehöre und an Bedeutung zunehme, wobei ADM-Prozesse dabei der Wahrnehmung der von ihnen Betroffenen entzogen seien. Das publizierte ADM-Manifest führt dabei fünf Thesen bzw. Forderungen auf:

ADM ist niemals neutral.

Die Schöpfer von ADM-Prozessen sind verantwortlich für ihre Resultate. ADM-Prozesse werden nicht nur von ihren Entwicklern erschaffen.

ADM-Prozesse müssen nachvollziehbar sein, damit sie demokratischer Kontrolle unterworfen werden können.

Demokratische Gesellschaften haben die Pflicht, diese Nachvollziehbarkeit herzustellen: durch eine Kombination aus Technologien, Regulierung und geeigneten Aufsichtsinstitutionen.

Wir müssen entscheiden, wie viel unserer Freiheit wir an ADM übertragen wollen.

AlgorithmWatch setzt sich zum Ziel, Auswirkungen algorithmischer Entscheidungsfindungsprozesse aufzuzeigen und ethische Konflikte zu beleuchten. Was AlgorithmWatch nicht als Zielsetzung benennt, ist zu einem "Algorithmen-TÜV" zu werden. Diesen Begriff hatte Bundesjustizminister Heiko Maas im Dezember 2015 in die Debatte eingebracht, als er sich für eine Charta der digitalen Grundrechte einsetzte. Eine solche Institution würde die Lauterkeit der Programmierung gewährleisten und nach Maas sicherstellen, dass die Handlungs- und Entscheidungsfreiheit der Betroffenen nicht manipuliert werde.

Es wäre wohl eine undankbare Aufgabe, eine Unbedenklichkeit von Algorithmen zu bescheinigen. Man stelle sich vor, Facebook würde seinen bisher geheim gehaltenen Algorithmus, der darüber entscheidet, welche Beiträge in unserem Newsfeed auftauchen, offen legen und einer unabhängigen Prüfung unterziehen lassen. Experten könnten dann beispielsweise feststellen, dass statistische Verfahren eingesetzt werden, die diskriminierungsfrei entworfen wurden und das Ziel verfolgen, das Nutzerinteresse an den Beiträgen zu maximieren. Aber könnten sie auch feststellen, dass es kein denkbares Szenario gibt, in dem der Algorithmus in unglücklicher Weise Beiträge filtert, die eine gewisse Sichtweise gemein haben? Oder dass Menschen, die ein gemeinsames Merkmal aufweisen, nicht doch unter besonderen Umständen weniger stark im Feed berücksichtigt werden? Wohl kaum, denn es gäbe nicht ausreichend viele Testdaten, die alle vorstellbaren Szenarien abdecken. Die Plakette für den Algorithmus wäre daher in ihrer Aussagekraft stark beschränkt. Fast unvorstellbar wäre zudem, dass im Kontext von Waffensystemen, die Personen anhand von Bildern identifizieren, eine Plakette seitens unabhängiger Gutachter vergeben würde. Wer möchte schon eine solche Verantwortung tragen?!

Wir dürfen gespannt sein, welche Aktivitäten AlgorithmWatch entfaltet. Verantwortungslosigkeit zu bekämpfen, ist ein Ziel, das mit viel Sympathie aufgenommen wurde. Experten verschiedener Disziplinen zusammenzubringen, die sich mit Algorithmen und algorithmischer Entscheidungsfindung beschäftigen, ist eine lobenswerte Idee. Ob sich die Anwender von Algorithmen von den dabei gewonnenen Erkenntnissen beeinflussen lassen werden, ist noch nicht absehbar.

]]>
http://www.scilogs.de/datentyp/algorithmwatch/feed/ 4 wissenslogs
TLS für alle – Let’s encrypt stellt Millionen Zertifikate aushttp://www.scilogs.de/datentyp/lets-encrypt/?utm_source=rss&utm_medium=rss&utm_campaign=lets-encrypt http://www.scilogs.de/datentyp/lets-encrypt/#comments Thu, 28 Apr 2016 14:43:55 +0000 http://www.scilogs.de/datentyp/?p=137 ... weiter]]> Die Marke von zwei Millionen Zertifikaten wurde bereits überschritten und derzeit sieht es danach aus, dass es Ende Mai bereits drei Millionen sein werden. Mit diesen hohen Wachstumszahlen könnte Let’s encrypt zur größten Zertifizierungsstelle der Welt werden, wenn wir Größe allein nach der Anzahl der Kunden bemessen. Die Besonderheit ist: Die Ausstellung erfolgt kostenfrei, denn Let’s encrypt ist eine Kampagne der gemeinnützigen Electronic Frontier Foundation, die sich in besonder Weise für Datenschutz und Datensicherheit im Internet stark macht.

Die Idee ist: Die Kommunikation zwischen Webserver und Webbrowser soll abgesichert werden. Das heißt, Vertraulichkeit und Integrität der übermittelten Daten soll gewährleistet sein und mithilfe von Krypto-Algorithmen (Verschlüsselung u. a.) durchgesetzt werden. Tatsächlich sieht das Protokoll http, das zur Übertragung von Webseiten spezifiziert wurde, eine ungesicherte Übertragung vor. Dies ermöglicht leider die Überwachung der Kommunikation durch staatliche Stellen und kriminelle Dritte, das Einschleusen schädlicher Software oder auch das Ablauschen von Passwörtern, Suchbegriffen und privaten Nachrichten.

Zwar gibt es bereits seit Jahren eine etablierte Technologie (SSL, heute: TLS), die bei richtiger Konfiguration für eine angemessene Absicherung der Daten sorgt; der Einsatz von TLS verlangt jedoch, dass der Server über ein Zertifikat verfügt, das die Echtheit des öffentlichen Schlüssels elektronisch bescheinigt. Und die Ausstellung der Zertifikate kostete bisher in der Regel Geld; über die Jahre konnten dabei durchaus mittlere dreistellige Summen anfallen, zu hohe Kosten für viele Anbieter, insbesondere die nichtkommerziellen Betreiber von Websites.

Let’s encrypt hat dies nun erfolgreich geändert. Die Zertifikate sind kostenlos und die Ausstellung und Verlängerung der Zertifikate wird durch frei verfügbare und einfach zu bedienende Tools, die den Prozess automatisieren, erleichtert. Überprüft wird dabei lediglich, ob der Antragsteller die technische Kontrolle über den Webauftritt, der über eine Domain erreichbar ist, hat; dazu sendet die Zertifizierungsstelle eine sogenannte Challenge an den Server, die dann von einem Softwaretool positiv beantwortet wird (Response). Das Zertifikat garantiert daher nur, dass die Domain-Zuordnung technisch überprüft wurde, es garantiert nicht, dass beispielsweise eine bestimme, namentlich bekannte juristische Person (z. B. eine Bank oder ein Onlinehändler) der Antragsteller und Besitzer des Schlüssels ist. Für diese Zwecke gibt es aber alternative, kostenpflichtige Zertifizierungsdienste, die eine entsprechende weitergehende Überprüfung durchführen. Über den Webbrowser kann man sich als Nutzer anzeigen lassen, welches Zertifikat und welche Zusicherung vorliegen, dazu muss man – abhängig vom Browser – auf ein Icon in der Nähe der URL oder in einer Statuszeile klicken.

Zum Ziel, weltweit für eine Absicherung der Web-Kommunikation zu sorgen, hat Let’s encrypt mit den Millionen von neuen Zertifikaten einiges beigetragen. Das wird viele Anwender freuen und auch die eine oder andere Regierungsstelle, vermutlich aber nicht alle.

]]>
http://www.scilogs.de/datentyp/lets-encrypt/feed/ 7 wissenslogs
Was man mit offenen Daten machen kann …http://www.scilogs.de/datentyp/offene_daten/?utm_source=rss&utm_medium=rss&utm_campaign=offene_daten http://www.scilogs.de/datentyp/offene_daten/#comments Wed, 20 Apr 2016 10:57:04 +0000 http://www.scilogs.de/datentyp/?p=127 ... weiter]]> „Schon wieder ein Fall am Neumarkt! Der hängt alle ab. Die Kautzstraße ist weit abgeschlagen.“ Was wie eine Live-Reportage zu einem Sportwettbewerb klingt, ist die echte Begeisterung über eine lange Tabelle mit Daten, die auf Laptops betrachtet und von drei Daten-Begeisterten kontrovers diskutiert wird. Solche Szenen spielten sich vor zwei Wochen bei einem „Hackday“ in der Stadt Moers am Niederrhein ab. Die Stadt ist eine Vorreiterin bei der Bereitstellung von offenen Daten.

Ziel des Hackdays ist das gemeinsame Entwickeln von kreativen Lösungen rund um offene Daten. Die zu lösende Problemstellung wird dabei von den Teilnehmenden selbst vorgebracht, dabei kann es um eine gemeinsame App-Entwicklung, die Visualisierung von Datensätzen, transparente Entscheidungsprozesse oder um das Design der Aufbereitung am Bildschirm gehen; die Lösung soll möglichst gemeinsam mit anderen entwickelt werden. Kern einer Problemstellung beim Hackday ist es, einen gesellschaftlichen Nutzen erbringen zu können.

Unter offenen Daten versteht man die Bereitstellung von nicht personenbezogenen Daten des öffentlichen Sektors, die von Bund, Ländern und Kommunen im Interesse der Allgemeinheit zur weiteren freien Nutzung zugänglich gemacht werden. Nutzen können diese Daten Bürgerinnen und Bürger, Institutionen aber auch Unternehmen, die damit neue Geschäftsmodelle entwickeln.

Der eingangs erwähnte Datensatz, bei dem der „Neumarkt“ weit vorne liegt, ist eine Auflistung der Bußgelder für Ordnungswidrigkeiten im ruhenden Verkehr der Stadt Moers des vergangenen Jahres, der freundlicherweise von der Stadt über ihr Datenportal zur Verfügung gestellt wird.  Fast 50.000 verteilte Knöllchen wurden erfasst und mit Datum, Uhrzeit, Tatort und Tatbestand maschinenlesbar aufbereitet. Der Grund, dass diese Daten nun im Rahmen des Hackdays analysiert werden, liegt aber nicht etwa darin, dass es in der Großstadt im Kreis Wesel keine richtige Kriminalität gäbe und man deshalb auf die Betrachtung von Ordnungswidrigkeiten ausweichen müsste. Nein, diese Daten haben es in sich – und man kann sie für Zwecke nutzbar machen, die mit der Erziehung von Parksündern wenig zu tun haben.

Tatsächlich sagt eine Vielzahl von Parkverstößen innerhalb eines geographisch beschränkten Gebietes weniger etwas über den Verfall der Sitten am Niederrhein und die Bereitschaft zu Regelverstößen aus. Eher kann man davon ausgehen, dass die Parkplatzsuche im Gebiet schwierig ist und die Nachfrage nach Parkmöglichkeiten das Angebot übersteigt. Es lassen sich daher Annahmen aus den analysierten Daten ableiten, die für eine weitere Verwendung nützlich erscheinen.

  • Wenn trotz vorhandener Parkflächen eine hohe Anzahl von kurzen Parkzeitüberschreitungen innerhalb der Geschäftszeiten stattfindet, lassen sich positive wirtschaftliche Impulse für Handel und kurzfristig erbringbare Dienstleistungen annehmen: Viele potentielle Kunden frequentieren hier Geschäfte oder andere öffentlich zugängliche Einrichtungen (z. B. Behörden, Postämter, Ärztehäuser) und verlassen den Ort rasch wieder. Die Nachbarschaft ist daher für die Standortwahl von Geschäften mit gleicher Zielgruppe gut geeignet.
  • Verbotswidriges Gehwegparken oder das Parken im Haltverbot deuten auf Parkflächenmangel und längerfristiges Verweilen hin (insbesondere bei Verstößen außerhalb der Geschäftszeiten). Diese Ergebnisse können für stadtplanerische Aktivitäten oder die Suche einer geeigneten Wohnung interessant sein.

Einen guten optischen Eindruck von der Datenlage erhält man, wenn die Tatbestände geographisch als Heatmap visualisiert werden. Man erkennt dank der fleißigen Datensammler des Ordnungsamts auf einen Blick, wo in Moers geschäftiges Treiben herrscht oder wo es eher ruhig zugeht.

Hier ist was los in Moers. (Open Street Map, Lizenz ODbL)

Hier ist was los in Moers. (Open Street Map, Lizenz ODbL)

Natürlich muss man bei nahe liegenden Aussagen auf Grundlage der Daten vorsichtig sein. Wenige Knöllchen können bedeuten, dass es wenige Verstöße gibt oder auch dass wenig kontrolliert wird, die Verteilung auf Tageszeiten mag mehr über die Mittagspausen-Gewohnheiten  der Ordnungsamtbeschäftigten aussagen als über den Mangel an Parkplätzen zur Tagesmitte hin. Eine Verknüpfung mit weiteren verfügbaren Daten ist geboten, bevor voreilige Schlüsse gezogen werden. Aber der kritische Umgang mit Daten und den damit scheinbar belegten Behauptungen sollte ohnehin geübt werden; das gilt für Rohdaten aus dem Datenportal wie auch für aufbereitete Grafiken in der Presse. Medienkompetenz beinhaltet in zunehmender Weise Datenkompetenz.

Knöllchen nach Tageszeiten (Lizenz CC0)

Knöllchen nach Tageszeiten (Lizenz CC0)

Dass aber aus den Parksünderdaten und weiteren ortsbezogenen Datensätzen spannende Anwendungen gebaut werden könnten, liegt auf der Hand: Standortwahl für Geschäftsansiedlung und Wohnungsbau, Planungsgrundlagen für Parkplätze und Parkhäuser, Prognosen für Laufkundschaft in Abhängigkeit von Tageszeit und Wochentag, Beobachtung der langfristigen Entwicklung (Vergleich mehrerer Jahre) zur Schätzung von Gewerbemieten oder auch einfach eine App, die bei der Parkplatzsuche hilft – eine wirtschaftliche Nutzbarmachung der Ordnungswidrigkeiten in Form von Datensätzen ist keineswegs abwegig,

Die kürzlich erschienene Open-Data-Studie der Konrad-Adenauer-Stiftung rechnet vor, dass offene Verwaltungsdaten in Deutschland einen jährlichen volkswirtschaftlichen Mehrwert von 43 Milliarden Euro erzeugen und dabei 20.000 Arbeitsplätze schaffen könnten. Diese großen Zahlen überraschten auch so manchen Open-Data-Enthusiasten, nicht allein der hohen Zahlen wegen sondern auch die Quelle betreffend. Themen wie transparentes Verwaltungshandeln, Open Data und Open Government wurden bisher in der programmatischen Nähe von Grünen oder der Piratenpartei verortet. Eine Google-Suche nach entsprechenden Veranstaltungstiteln bestätigt diesen Eindruck. Diese Verortung wandelt sich nun und die Themenbesetzung scheint sich nun mit der Veröffentlichung der Studie der CDU-nahen Stiftung endgültig verlagert zu haben. Mittlerweile haben auch Industrie- und Handelskammern das Thema „Open Data für Unternehmen“ für sich entdeckt und bieten entsprechende Veranstaltungen an.

Die Studie verweist insbesondere auf den wirtschaftlichen Nutzen von offenen Daten: Start-Ups entwickeln neue Geschäftsmodelle; Finanzinvestoren nutzen verfügbare Daten zur Risikoanalyse und für Entscheidungsfindungen. Entscheidungen in Politik und Unternehmen werden transparenter, was das Vertrauen in der Bevölkerung stärkt. Darüber hinaus wird wissenschaftliche Arbeit ermöglicht oder beschleunigt, was wiederrum neue wirtschaftliche Impulse geben kann.  Es wird aber auch kritisch analysiert, dass Deutschland im internationalen Vergleich abgerutscht ist und das Risiko in Kauf nimmt, den Anschluss an die Entwicklungen im Bereich Open Data zu verlieren.  Vorreiter im europäischen Vergleich sind Großbritannien, Dänemark und Finnland, während Deutschland eher dem unteren Mittelfeld zuzuordnen ist.

Das lokale Potential offener Daten wird von engagierten Open-Knowledge-Labs demonstriert. Diese Labs gehen auf eine Initiative der gemeinnützigen Open Knowledge Foundation Deutschland zurück, die Entwicklungen im Bereich Transparenz, Open Data und Civic Tech in Deutschland fördert und begleitet. Labs sind regionale Zusammenschlüsse von Aktiven, die in ihrer Freizeit Apps entwickeln, über Webauftritte die Öffentlichkeit informieren, die Gesellschaft positiv gestalten und die Arbeit von Verwaltungen und Behörden transparenter machen wollen. Auch die Organisation der Hackdays geht meist auf das Engagement lokaler Labs zurück.

Leider bieten die meisten deutschen Städte bisher kein Portal für offene Daten an. Die Vorstellung, amtliche Daten „einfach so“ herauszugeben, ist vielen Amtsleitungen fremd. Datensätze schlummern daher noch in Aktenschränken oder auf Festplatten der Verwaltung, ohne dass sie für die Stadt und ihre Bevölkerung nutzbar gemacht werden. Der Wandel findet langsam statt. Vorbilder sind dabei beispielsweise die Städte Berlin, Köln und Hamburg, die bereits umfangreiche Datenbestände freigegeben und viele Anwendungen ermöglicht haben, aber auch das niederrheinische Moers, das in Open-Data-Kreisen mittlerweile Kultstatus genießt, gehört dazu, und der gut besuchte Hackday in Moers zeigt, dass das Angebot begeistert angenommen wird. Realisiert wurden dabei sehr unterschiedliche Projekte: Visualisierung der Trinkwasserqualität, Aufbereitung der Geburten- und Sterbezahlen nach Stadtteilen (was nicht mit dem Trinkwasser zusammenhängt), Pünktlichkeitswerte des Personennahverkehrs oder eine App, die hilft, Trendsportarten und entsprechende Sportstätten in der Umgebung zu finden – um nur eine Auswahl zu nennen. Auf die kürzlich befreiten Bußgelddaten stürzten sich gleich mehrere Gruppen, manches Geheimnis könnte hier noch gelüftet werden: Wird in einigen Nachbarschaften weniger vom Ordnungsamt kontrolliert? Kann man mittags unbesorgt falsch parken? Genug Material für investigative Datenenthusiasten ist vorhanden. Der nächste Hackday kommt bestimmt.

 

Der Autor lehrt Informatik an der Hochschule Rhein-Waal und engagiert sich in den OK-Labs Ruhrgebiet und Niederrhein.

]]>
http://www.scilogs.de/datentyp/offene_daten/feed/ 1 wissenslogs
Zwangsdigitalisierung der Stromverbraucher oder sinnvolle Regulierung?http://www.scilogs.de/datentyp/zwangsdigitalisierung-stromverbraucher-regulierung/?utm_source=rss&utm_medium=rss&utm_campaign=zwangsdigitalisierung-stromverbraucher-regulierung http://www.scilogs.de/datentyp/zwangsdigitalisierung-stromverbraucher-regulierung/#comments Sun, 29 Nov 2015 15:32:32 +0000 http://www.scilogs.de/datentyp/?p=105 ... weiter]]> Smart-Metering weiterhin umstritten

 

Mit dem vom Bundeskabinett im November 2015 beschlossenen Gesetzesentwurf zur Digitalisierung der Energiewende ist die Debatte um Sinn oder Unsinn eines flächendeckenden Roll-Outs von Smart-Metern (digitalen Stromzählern) erneut angeheizt worden. Bisher nutzen private Haushalte überwiegend elektromechanische Stromzähler (sogenannte Ferraris-Zähler, die wohl jeder als „verplombte schwarze Kästen“ neben den Sicherungen kennt), die händisch abgelesen werden. Die digitalen Zähler sollen die alten Stromzähler ablösen und damit den Weg für die Digitalisierung des gesamten Stromnetzes ebnen.

Intelligenter_zaehler-_Smart_meter

(Abb. rechts: Smart-Meter, Credit: EVB, CC BY-SA 3.0)

Verbraucherschützer laufen Sturm gegen die „Zwangsdigitalisierung durch die Kellertür“ und werfen der Regierung vor, Verbraucher zur Preisgabe von Daten zu zwingen, während Vertreter das Bundesministeriums für Wirtschaft und Energie (BMWi) auf erneuerbare Energien hinweisen, die über digitale Zähler besser in den Strommarkt integriert werden können, was letztlich auch für private Verbraucher von großem Nutzen sei.

Ein Hintergrund ist hier, dass die verstärkte Nutzung erneuerbarer Energien zu einer stärker fluktuierenden Stromerzeugung führt. Das Angebot soll mit der ebenfalls schwankenden Nachfrage synchronisiert werden, um die Netzinfrastruktur effizient nutzen zu können und Netzinstabilitäten zu vermeiden. Aus granularen Verbrauchsdaten lassen sich grundsätzlich Netzzustandsdaten gewinnen, die zur Stabilisierung des Stromnetzes verwendet werden. Dann kann bei einem Überangebot an Energie durch Nutzung von neuartigen, steuerbaren Geräten ein Ausgleich vorgenommen werden. Ist viel Strom im Angebot, bezahlen die Kunden über variable Tarife weniger: Waschmaschinen, Kühlschränke, Trockner und Spülmaschinen (sogenannte „weiße Ware“) schalten sich innerhalb gewisser Freiheitsgrade (z. B. Temperaturgrenzen bei Kühltruhen, Nachtzeit bei Geschirrspülern) flexibel dazu, zudem können Elektrofahrzeuge dann flexibel geladen werden, wenn die Nachfrage anderer Verbraucher sinkt. Die Steuerung von Nachtspeicherheizungen und Wärmepumpen durch ein intelligentes Stromnetz ergänzt das Konzept.

analoger_zaehler(Abb. links: Zweitarifzähler mit integriertem Rundsteuerempfänger für Tag-Nacht-Tarif, Bildautor: KMJ, CC BY-SA 3.0)

Die Debatte gewinnt dadurch an Schärfe, dass Interessen der Verbraucher in Bezug auf Datenschutz und Datensicherheit ihrer Energieverbrauchsdaten – und damit der Schutz ihrer Privatsphäre – mit energiepolitischen Zielen kollidieren, die eine Modernisierung und Digitalisierung des Stromnetzes im Zuge der Energiewende ebenfalls im Sinne dieser Verbraucher als gesellschaftliches Interesse vorsehen. (Politische Frage: Welches Interesse ist in der Post-Snowden-Ära höher zu bewerten?) Zudem gibt es kommerzielle Interessen seitens der Netzbetreiber und Gerätehersteller: Wenn der Gesetzgeber den Rollout der Geräte erzwingt, winkt ein planungssicheres Milliardengeschäft, ohne dass die Endverbraucher erst mühsam von der Sinnhaftigkeit der digitalen Zähler in ihren Kellern überzeugt werden müssen. Die Bereitschaft, freiwillig mitzumachen, ohne für diese Entscheidung belohnt zu werden, dürfte für den Großteil der Haushalte als gering angenommen werden.

 

Personenbezogenheit und Sensibilität der Daten

Die von Smart Metern erhobenen Daten zum Stromverbrauch stellen wie alle auf einen Haushalt bezogenen Verbrauchsdaten (z. B. Gas, Wasser) grundsätzlich personenbezogene Daten dar. Das Recht auf informationelle Selbstbestimmung wird tangiert, wenn Stromverbrauchsdaten gemessen, übermittelt oder verarbeitet werden. Beim Datenschutzrecht wird von einem Verbot mit Erlaubnisvorbehalt ausgegangen. Die Erlaubnis kann durch Rechtsvorschrift oder Einwilligung des Betroffenen erfolgen. Der Gesetzesentwurf schafft hier also notwendige Rechtsvorschriften, um ohne die Einwilligung Eingriffe vorzunehmen.

Ob die aus dem Gesetz erwachsende Duldungspflicht der Letztverbraucher angemessen ist, ist angesichts des erheblichen Grundrechtseingriffs verfassungsrechtlich umstritten, denn die freie Wahl des Messstellenbetreibers allein mildert diesen Eingriff nur in äußerst schwacher Weise ab.

Während der Personenbezug der erhobenen Daten unstrittig und bei den beteiligten Akteuren bekannt ist, geht die Wahrnehmung der Sensibilität der erhobenen Daten auseinander. Eine Auswertung von Metering-Daten erlaubt viel mehr als nur eine Feststellung, welche Energiemenge eine Person (oder ein Haushalt) verbraucht. Je nach Auflösung der Daten können Rückschlüsse auf Lebensgewohnheiten (z. B. Anwesenheitszeiten) oder identifizierbaren Aktivitäten (z. B. kochen, duschen, schlafen) vorgenommen werden (Molina-Markham, et al., 2010).

So können beispielsweise bei einer Messauflösung von 15 Minuten folgende Lebensgewohnheiten einer im Haushalt lebenden Person ermittelt werden (Müller, 2010):

  • Zu welcher Uhrzeit geht sie zu Bett?
  • Zu welcher Uhrzeit steht sie auf?
  • Gibt es nächtliche Toilettenbesuche?
  • Wie häufig wird gekocht?
  • Wann verlässt sie das Haus, wann kehrt sie zurück?
  • Verändern sich die Lebensgewohnheiten (Nachwuchs, Besuch)?

visualisierung
(Abb. oben: Visualisierung des Stromverbrauchs eines Smart-Meters, Privathaushalt; Bildautor: Greveler, CC BY-SA 3.0)

Bei feingranularen Daten (Aufzeichnung in Sekundenintervallen) steigt die Sensibilität der Daten weiter an. Eine von mir gegründete Arbeitsgruppe an der FH Münster zeigte 2012, dass bei der Verarbeitung dieser hoch aufgelösten Verbrauchsdaten sogar Rückschlüsse auf Bewegungsverhalten im Haushalt bis hin zur Identifizierung von eingeschalteten Fernsehprogrammen oder abgespielten Videofilmen aufgrund der Abhängigkeit des Energieverbrauchs von Bildschirmhelligkeitswerten möglich ist (Greveler, Justus, Löhr, 2012a). Letztlich kann über die Identifizierung aller elektrischen Geräte und ihrer Parameter (Greveler, Justus, Löhr, 2012b) der gesamte persönliche Lebensbereich, soweit er sich im Haushalt abspielt, rekonstruiert werden, und Einblicke bis in die Intimsphäre werden möglich:

  • Welcher Film wurde zu einem bestimmten Zeitpunkt abgespielt? (Helligkeitsprofil)
  • War ein Film zum Konsumzeitpunkt schon als DVD erschienen? (Abgleich des Zeitstempels)
  • Geht nachts jemand an den Kühlschrank? (kurze Brenndauer des identifizierbaren Lämpchens)
  • Wurden Lebensmittel eingekauft? (lange Brenndauer des gleichen Lämpchens)
  • Ist Besuch gekommen? (elektrische Türklingel)
  • Wurde der Besuch hereingelassen? (elektrischer Türöffner)
  • Wird der PC eingeschaltet und genutzt – oder läuft nur der Bildschirmschoner? (Arbeitnehmerüberwachung über Lastprofil der CPU)
  • Hat die Haushaltshilfe gestaubsaugt?
    Ist sie früher gegangen als abgerechnet?
  • Feierten die Kinder eine Party?
    Bis wann?
  • War die Ehefrau abends länger weg, als der Mann auf Dienstreise war? (Überwachung des eigenen Partners anhand der grafischen Übersichten, die den Stromkunden bereitgestellt werden)
  • Ist eine Person erkrankt? (Verhaltensänderung, Erkennung medizinischer Geräte und ihrer Parameter)

Eine zusätzliche Brisanz erfährt der Einblick in private Lebensgewohnheiten, wenn die Daten mit anderen Datensammlungen verknüpft werden. So ließe sich beispielsweise aus den zusammengefassten Metering-Daten der Bewohner einer Stadt eine Liste von verdächtigen Personen generieren, die immer dann in einem definierten Zeitinverall nach Hause gekommen waren, als eine bestimmte Deliktart verübt wurde (z. B. Fahrzeug-Brandstiftung). Eine solche „Metering-Rasterfahndung“ wäre also weder Science-Fiction noch eine rein theoretische Überlegung. Im Gegenteil: sie wäre anders als bisher praktizierten Rasterfahndungen mit äußerst geringem Personalaufwand allein durch geeignete Datenbankabfragen möglich, wenn diese Verbrauchsdaten in einer Datenbank konzentriert wären. Letzteres wird durch den vorliegenden Gesetzesentwurf deutlich erschwert, da im definierten Normalfall keine granularen Daten übermittelt werden.

Über die Analysemöglichkeiten der erfassten Daten hinaus wurden bei der ersten Generation in Deutschland verbauter Smart-Meter (im Jahre 2011) schwerwiegende Mängel bei der Implementierung des Gateway (das die Datenübertragung vornimmt) durch Untersuchungen unserer Arbeitsgruppe festgestellt: So wurden Daten unverschlüsselt und nicht signiert übertragen, womit elementare Grundsätze von Datenschutz und Datensicherheit verletzt wurden. Diese Tatsache wog umso schwerer, da vertraglich vom Anbieter zugesichert wurde, dass die Übertragung verschlüsselt erfolge.

 

Welchen Schutz der Verbraucher und welche Erleichterung bei der Zwangseinführung sieht das neue Gesetz vor?

Der Gesetzesentwurf berücksichtigt Hinweise, die aus Fachdiskussionen und wissenschaftlichen Untersuchungen stammen und die Schwachstellen bei vorhandenen Smart-Meter-Infrastrukturen aufzeigten. Es wird auch deutlich, dass die nachgewiesene Sensibilität von granularen Stromverbrauchsdaten von den Gesetzesautoren berücksichtigt wurde. Zudem wurden im Vorfeld der Formulierung des Gesetzes fachliche Anforderungen gesammelt, die im Auftrage des BMWi vom BSI gemeinsam mit Branchenvertretern, der Bundesdatenschutzbeauftragten und Beauftragten der Länder, der Bundesnetzagentur und der Physikalisch-Technischen-Bundesanstalt erarbeitet wurden. Im Einzelnen lassen sich folgende zentralen Punkte feststellen.

  • Schutzprofile und technische Richtlinien zur Gewährleistung von Datenschutz und Datensicherheit werden nun verbindlich. Damit dürfen unsichere Gateways nicht mehr eingesetzt werden.
  • Zu sendende Daten werden vom Smart-Meter-Gateway verschlüsselt und signiert.
  • Gesetzlich erzwungen wird „nur“, dass standardmäßig 15-Minutenwerte im Messsystem vorhanden sind. Diese werden aber nicht notwendigerweise übertragen. (Sie könnten beispielsweise für die Visualisierung des Stromverbrauchs genutzt werden, um dem Letztverbraucher hausintern Energiekosteneinsparpotentiale aufzuzeigen.)
  • Ob Daten übertragen werden, regeln die Vorschriften des 3. und 4. Teils des Gesetzesentwurfs. Es darf, soweit der Letztverbraucher keinen variablen Tarif vereinbart hat und keine steuerbaren Geräte betrieben werden, standardmäßig nur ein Wert pro Abrechnungsjahr nach außen übertragen werden.
  • Zugeordnete technische Richtlinien des BSI sehen Sicherheitsanforderungen an das Smart-Meter-Gateway, das Sicherheitsmodul und die Administration des Gateways vor. Zudem werden kryptographische Vorgaben (wie werden die Daten verschlüsselt und signiert?) formuliert und eine Schlüsselinfrastruktur (PKI) wird vorgezeichnet. Die Richtlinien und Vorgaben sind dabei umfassend, vergleichsweise streng und gehen insbesondere hinsichtlich der Komplexität über die aus Datenschützersicht formulierten Erwartungen hinaus. Dies ist dadurch zu erklären, dass intelligente Stromnetze als zukünftige, kritische Infrastruktur gesehen werden, deren Schutz besondere Priorität genießt.
  • Eine Preisobergrenze von 100 Euro pro Jahr wird für Haushalte mit einem Verbrauch von bis zu 10 000 Kilowattstunden pro Jahr, festgelegt, diese Grenze sinkt auf 60 EUR bei Letztverbrauchern mit weniger als 6 000 Kilowattstunden pro Jahr (diese Grenze unterschreiten beispielsweise die meisten 4-Personen-Haushalte) und über weitere Zwischenschritte bis auf 23 EUR pro Jahr mit für Haushalte mit einem Jahresstromverbrauch unter 2 000 Kilowattstunden (z. B. energiesparsame Single-Haushalte).
  • Die Einbaupflicht beginnt zwar bereits 2017 (ab 10 000 Kilowattstunden pro Jahr) aber erst 2020 für „normale“ private Haushalte, die in der Regel 10 000 Kilowattstunden deutlich unterschreiten.

Datenschutzrisiken verbleiben hierbei auf Seiten der Stellen, die granulare Verbrauchsdaten speichern (beispielsweise um für Kunden variable Tarife abzurechnen). Sollte es hier zu einem Datenklau oder einer missbräuchlichen Nutzung kommen, wäre der Eingriff in die Privatsphäre der Stromkunden kaum zu unterschätzen.

 

Hohe Kosten und hoher Aufwand für einmal jährlich Stromablesen?

Es ist nicht von der Hand zu weisen: Nach Umsetzung des Rollouts der digitalen Zähler beginnend 2020 werden die meisten Haushalte noch keine steuerbaren Geräte (wie z. B. Elektrofahrzeuge mit kompatiblen Batteriesteuerungen) besitzen und abseits des bereits heute stellenweise praktizierten Tag- und Nachtstromtarifs keine variablen Stromtarife nutzen. Es ist kurzfristig kein solches Angebot erkennbar, das für eine ebenfalls derzeit noch nicht messbare Nachfrage vorhanden wäre. Das Smart-Meter-Gateway wird dann zunächst gemäß gesetzlicher Vorgaben nur jährlich den Verbrauchswert übertragen, der dann immerhin nicht mehr händisch abgelesen werden muss. Jährlichen Kosten von 60 EUR wird nur die theoretische Möglichkeit gegenüberstehen, sich eine Visualisierungskomponente zuzulegen, die den Stromverbrauch viertelstündlich darstellt, um das eigene Verhalten anpassen zu können. Zudem entfällt für einige Letztverbraucher das Selbstablesen und lästige Durchtelefonieren des Jahresverbrauchs per Sprachcomputer. Die Enttäuschung dürfte bei vielen Verbrauchern angesichts der Kosten aber groß sein.

 

statistik

(Abb. oben: Statistische Auswertung über Smart-Meter-Messstellenbetreiber discovergy, Privathaushalt; Bildautor: Greveler, CC BY-SA 3.0)

 

Warum wird die Digitalisierung erzwungen?

Sieht man einmal vom Generalverdacht ab, dass eine erfolgreiche Lobby-Arbeit von Geräteherstellern das Gesetzesvorhaben beschleunigt haben könnte, lässt sich auch ein nachvollziehbares politisches Ziel identifizieren. Mit der Zwangseinführung versucht die Bundesregierung letztlich ein Henne-Ei-Problem zu lösen: Solange es keine attraktiven variablen Stromtarife und keine nützlichen steuerbaren Geräte gibt, werden nur wenige Letztverbraucher einen Smart-Meter auf eigene Kosten einbauen lassen. Umgekehrt fehlen die Anreize für Hersteller, neuartige Geräte zu entwickeln und auf den Markt zu bringen, die vom intelligenten Stromnetz gesteuert werden können und über variable Tarife Kosten senken können, wenn diese Geräte nicht bundesweit mit bereits verbauten Smart-Metern interoperabel kommunizieren können.

Mit der Zwangsdigitalisierung soll sich diese Situation ändern. Es werden nach und nach in jedem Haushalt Messsysteme existieren, die viertelstündig ermittelte Stromverbrauchsdaten vorhalten und die über definierte Schnittstellen verfügen. Dies schafft (so ist es offenbar beabsichtigt) einen Markt für Geräte, Systeme und Verträge, die auf diesen Daten operieren können und Netzauslastung und Kosten optimieren helfen.

Dass der Letztverbraucher diese Weiterentwicklung des Stromnetzes zum großen Teil selbst finanziert, ist eine politische Entscheidung, die naturgemäß hart umstritten ist. Die so genannte EEG-Umlage sorgte bereits in der jüngeren Vergangenheit für zusätzliche Kosten im zweistelligen Milliardenbereich, die über die Stromrechnung weitergegeben wurden. Die Jahresgebühren für Smart-Meter werden hier noch zusätzlich eine weitere Verteuerung bewirken.

 

lastprofil

(Abb. oben: Lastprofil, generiert aus Metering-Daten über Messstellenbetreiber discovergy, Privathaushalt; Bildautor: Greveler, CC BY-SA 3.0)

 

Legt die Energiewende eine Zwangsdigitalisierung des Netzes aus wissenschaftlich-technischer Sicht nahe?

Wer in publizierten Fachbeiträgen Argumente pro Digitalisierung des Stromzählers sucht, wird schnell erkennen: Wir wissen heute noch nicht, ob die zukünftige Metering-Infrastruktur tatsächlich wesentlich zur Stabilisierung und Auslastung der Stromnetze führen wird. Es gibt weitere technologische Ansätze: Es werden wesentliche Effekte von intelligenten Stromspeichern und Hochspannungs-Gleichstrom-Übertragungs-Leitungen erwartet, die Wind- und Solarenergie dort zeitversetzt bereitstellen, wo die Nachfrage am Größten ist. Zudem können regionale Stromerzeuger und vermaschte Netze bereits heute zunehmend flexibler auf Lastspitzen reagieren. Ob die Steuerung der weißen Ware und der Batterien von Elektrofahrzeugen wirklich einmal erhebliche positive Effekte auf die Netzstabilität haben wird, kann heute niemand seriös vorhersagen. Ebenso wenig wissen wir, ob Verbraucher zukünftig allein aufgrund einer verbesserten Visualisierung ihres Verbrauchs die Stromabnahme merklich senken werden. Experten bezweifeln schon heute, dass das Einsparpotenzial die Jahreskosten der Smart-Meter übersteigen wird. Auch das deutsche Elektrohandwerk kritisiert, dass sich die zwangsweise einzuführenden digitalen Stromzähler nicht bei allen Verbrauchern lohnen werden.

Seitens des BMWi werden hohe Erwartungen an das Gesetz geknüpft: „Intelligente Messsysteme können nicht nur den Stromverbrauch messen, steuern und kommunizieren (…) Sie [sind ein] Allround-Talent, um Energiekosten zu senken und Effizienz und Komfort zu steigern.“ Sollte das Gesetz diese hohen Erwartungen nicht erfüllen, werden die Verbraucherschützer mit der Aussage, dass für die meisten Haushalte keine Vorteile aufgrund des Rollouts entstehen, Recht behalten. Die privaten Haushalte werden dann weniger zu ihrem Glück gezwungen als dass sie nur zusätzliche Kosten und unnötige Datenschutzrisiken tragen werden müssen.

 

 

 

Quellen:

Greveler, Justus, Löhr, 2012a. Forensic Content Detection through Power Consumption, IEEE International Workshop on Security and Forensics in Communication Systems, Ottawa, Canada. 2012, p. 6759-6763. IEEE Computer Society Press. ISBN 978-1-4577-2051-2

Greveler, Justus, Löhr, 2012b. Identifikation von Videoinhalten über granulare Stromverbrauchsdaten, in: Sicherheit 2012 - Sicherheit, Schutz und Zuverlässigkeit, Darmstadt. 2012, GI Proceedings 195, ISBN 978-3885792895

Molina et al., 2010. A.Molina-Markham, P. Shenoy, K. Fu, E. Cecchet und D. Irwin. Private Memoirs of a Smart Meter. In 2nd ACM Workshop on Embedded Sensing Systems for Energy- Efficiency in Buildings (BuildSys 2010), Zurich, Switzerland, November 2010

Müller, 2010. Klaus J. Müller, Gewinnung von Verhaltensprofilen am intelligenten Stromzähler. Datenschutz und Datensicherheit, (6) 2010

]]>
http://www.scilogs.de/datentyp/zwangsdigitalisierung-stromverbraucher-regulierung/feed/ 7 wissenslogs
Flüchtlinge können studieren. Bei uns kostenfrei!http://www.scilogs.de/datentyp/fluechtlinge-gasthoerer-kostenfrei/?utm_source=rss&utm_medium=rss&utm_campaign=fluechtlinge-gasthoerer-kostenfrei http://www.scilogs.de/datentyp/fluechtlinge-gasthoerer-kostenfrei/#comments Fri, 11 Sep 2015 08:21:29 +0000 http://www.scilogs.de/datentyp/?p=95 ... weiter]]> Hilfsbereitschaft und Willkommenskultur angesichts der Ankunft hunderttausender Flüchtlinge sind derzeit an den deutschen Hochschulen mit Händen zu greifen. Es dürfte an nahezu jeder Hochschule mindestens eine studentische Gruppe zur Flüchtlingshilfe geben, die sich mit Sachspenden, Mentoring oder Spracherwerb befasst. Auch die Verwaltungen und das wissenschaftliche Personal starten Initiativen, die Angebote der Hochschule für Flüchtlinge ins Leben rufen.

Ein einfacher und unbürokratischer Weg, Flüchtlingen einen Zugang zu Hochschulen zu verschaffen, ist dabei der Gasthörerstatus. Dieser Status ermöglicht den Besuch von vielen Lehrveranstaltungen im Rahmen räumlicher Verhältnisse, ohne dass eine Hochschulzugangsberechtigung (Abitur) nachgewiesen werden muss, zudem entfällt das aufwändige Bewerbungs- und Zulassungsverfahren, das für ausländische Studieninteressierte mit unzureichenden, fehlenden und nicht amtlich übersetzten Unterlagen, eine oft unüberwindliche Hürde darstellt.

Viele Hochschulen ebnen dabei den Weg für Flüchtlinge noch weiter, indem die Gebühren, die für den Gasthörerstatus entrichtet werden müssen, entfallen. Eine solche Regelung hat nun auch in dieser Woche der Senat der Hochschule Rhein-Waal, an der ich tätig bin, getroffen, was mich in besonderer Weise freut, denn die bisherigen Gebühren (100 EUR pro Semester) können abschreckend wirken.

 

Kostenfreier Start als Gasthörer

Um es deutlich zu sagen: Ein Gasthörerstatus erlaubt es nicht, akademische Grade zu erwerben. Es ist aber durchaus möglich, nach einer Phase als Gasthörer die Unterlagen zu vervollständigen und in ein reguläres Hochschulstudium zu wechseln, um Studienleistungen zu erwerben und einen Abschluss anzustreben.  Ein Studienabschluss steht bei der angepeilten Zielgruppe aber zunächst nicht im Vordergrund, denn es sollen niederschwellige Angebote geschaffen werden, um überhaupt eine Teilhabe am Lehrbetrieb einer Hochschule zu ermöglichen. Insbesondere für syrische Flüchtlinge, die aufgrund des Bürgerkrieges ein begonnenes Studium abbrechen mussten oder nach dem Schulabschluss kein Studium aufnehmen konnten, können eine Phase der Neuorientierung und das Hineinfinden in den deutschen Hochschulalltag hilfreich sein, auch wenn der Zugang zu Praktika und Laboren, die kapazitätsbeschränkt betrieben werden, eingeschränkt ist. Das breite Angebot von teilweise recht blumig betitelten Bachelorstudiengängen und der Massenbetrieb an den großen Hochschulen machen es bereits Bildungsinländern schwer, den richtigen Studienort und -gang für sich herauszufinden; dazu kommen noch die Sprachbarriere bei Flüchtlingen und eine meist fehlende Erfahrung mit deutscher Verwaltungskultur. Es wird in vielen Fällen Unterstützung von regulären Studierenden brauchen, bis eine Integration in das studentische Leben gelingt; die anhaltende Welle der Hilfsbereitschaft bei den Hochschulangehörigen und die tatkräftige Unterstützung durch studentische Initiativen könnten aber helfen, diese zu beschleunigen.

 

Studieren auf Englisch!

Es gibt an deutschen Hochschulen mittlerweile ein erhebliches Angebot an englischsprachigen Studiengängen! Zu den Vorreitern gehört die noch recht junge, staatliche Hochschule Rhein-Waal (mit Standorten in Kleve und Kamp-Lintfort in Nordrhein-Westfalen), die 25 Bachelor- und acht Masterstudiengänge in natur-, wirtschafts- und ingenieurwissenschaftlichen Fachgebieten sowie Sozial-, Gesellschafts- und Gesundheitswissenschaften anbietet, von denen die meisten (85%) vollständig in englischer Sprache gelehrt werden.  Flüchtlinge, die über ausreichende Englischkenntnisse verfügen, können somit einen Direkteinstieg vornehmen, sich über den Gasthörerstatus im fast gesamten Studienangebot orientieren und schließlich – Befähigung und Zugangsberechtigung vorausgesetzt – für einen Studiengang entscheiden, um einen Abschluss anzustreben. Mittlerweile gibt es auch ein beachtliches Angebot an Sprachkursen (darunter auch Deutsch) an den Hochschulen, so dass neben dem Studium Sprachkenntnisse vertieft werden können.

 

Ausreichende Kapazität?

Die Hochschulen gehen dabei nicht blauäugig vor. Planende und Lehrende wissen, dass die Aufnahme einer großen Zahl von zusätzlichen Studierenden Kapazitätsplanungen und Erweiterungen unumgänglich machen würde. Tatsächlich wissen wir derzeit nicht, ob das von uns als attraktiv eingeschätzte Angebot (englische Studiengänge, kostenfreier Gasthörerstatus für Flüchtlinge, Sprachkurszugang für Gasthörer) von einer nennenswerten Anzahl von Flüchtlingen angenommen werden wird. Zuwenig wissen wir auch über die Zahl und die Bildungshintergründe der eintreffenden Flüchtlinge im Einzugsbereich der Hochschulen. Mit dem kostenfreien Gasthörerstatus ist aber ein wichtiger Anfang gemacht – denn nun können Erfahrungen gesammelt werden. Spekulationen, wer bei uns welche Fachgebiete nachfragt, werden dann bald durch erste Statistiken abgelöst.

 

Marketing nicht vergessen!

Zur Planungsunsicherheit kommt noch ein banal anmutendes Problem: Die Flüchtlinge und viele, die mit Flüchtlingen zu tun haben, kennen unsere Hochschule und das englischsprachige Studienangebot nicht! Es muss der Zielgruppe aber bekannt sein, damit es nachgefragt werden kann. Daran werden die gegründeten Initiativen arbeiten; es werden aber auch Multiplikatoren außerhalb der Hochschule benötigt.

Das neue Studienjahr hat gerade begonnen; Vorlesungen starten bei uns am 28.09.2015. Der Zeitpunkt ist also sehr günstig: Wer einen Einstieg ins Studium finden möchte, sollte sich jetzt über erreichbare Hochschulen informieren und als Gasthörer einschreiben! Sagen Sie es bitte weiter, wenn Sie mit Flüchtlingen in Kontakt stehen.

iStock / Jacartoon; Spektrum der Wissenschaft

iStock / Jacartoon; Spektrum der Wissenschaft

]]>
http://www.scilogs.de/datentyp/fluechtlinge-gasthoerer-kostenfrei/feed/ 4 wissenslogs
Nordkorea war es. Ganz bestimmt!http://www.scilogs.de/datentyp/nordkorea-war-es-ganz-bestimmt/?utm_source=rss&utm_medium=rss&utm_campaign=nordkorea-war-es-ganz-bestimmt http://www.scilogs.de/datentyp/nordkorea-war-es-ganz-bestimmt/#comments Mon, 22 Dec 2014 15:26:58 +0000 http://www.scilogs.de/datentyp/?p=85 ... weiter]]> Nordkorea war es. Ganz bestimmt!

Die öffentliche Einstufung des Sony-Hacks als Cyberterrorismus aus Nordkorea ist nicht zu rechtfertigen.

„Der Sony-Hack ist das 9/11 der US-Filmbranche“ kommentiert Ulrich Clauß in der Welt am Sonntag und führt weiter aus: „Schließlich kann man Sony Pictures durchaus als Opfer eines cyberterroristischen Angriffs einer feindlichen Nation sehen – und das auf amerikanischem Boden.“

Ein hochdramatischer Vorgang, so scheint es! Und tatsächlich der Beginn eines erneuten Säbelrasselns zwischen den USA und dem Regime in Pjöngjang: Eine Verwicklung in den Hack weist die nordkoreanische Regierung erneut zurück und teilt stattdessen mit, dass die 1,2 Millionen Mann starke Armee Nordkoreas „mutig zu unserem härtesten Gegenschlag gegen das Weiße Haus, das Pentagon und das gesamte amerikanische Festland“ ausholen werde, wenn die Vereinigten Staaten die Eskalation vorantreiben.

Die USA sehen es als erwiesen an, dass Nordkorea die Cyber-Attacken gegen das Filmstudio zu verantworten hat. Es wird aktuell Druck auf China ausgeübt, gemeinsam gegen Nordkorea vorzugehen. Da die Internetanbindung Nordkoreas fast ausschließlich über südchinesische Netzstrukturen erfolgt und die Serversysteme von dort ansässigen Anbietern gehostet werden, kommt China hier eine besondere Rolle zu: Nordkorea könnte mit chinesischer Hilfe wirksam und dauerhaft vom Datennetz getrennt werden.

Einige öffentlich zugängliche Informationen lassen jedoch die Bewertung seitens der US-Regierung zweifelhaft erscheinen. Es lohnt sich, einmal genauer hinzusehen, was passiert ist.

 

Zur IT-Sicherheitslage bei Sony

Die informationstechnische Sicherheit bei Sony ist bereits seit einigen Jahren in Verruf geraten: Das Unternehmen hatte sich das Image erworben, die Dartscheibe krimineller Hacker zu sein. Es fällt schwer, ein weiteres Unternehmen dieser Bekanntheit zu finden, das so oft erfolgreich penetriert wurde. Kostprobe?

  • Zwischen 1999 und 2011 wurden in mehreren Dutzend Fällen Webseiten von Tochterunternehmen der Sony Corporation von Hackern verunstaltet.
  • 2011 wurden Kundendaten von 77 Mio. PlayStation-Network-Nutzerkonten entwendet.
  • Im Februar 2014 wurden Zugangsdaten eines Servers von Sony Pictures Entertainment gestohlen und dazu genutzt Schadsoftware über den Server zu verbreiten.

Insgesamt wurden mehr als 50 Fälle (!) in 15 Jahren öffentlich bekannt, in denen Sony Opfer von Hacks wurde.

Beim aktuellen Sony-Hack fällt zudem auf, dass politische oder cyberterroristische Motive kaum im Vordergrund standen. Zur Chronologie:

  • In einer E-Mail vom 21. November (wenige Tage vor der öffentlichen Wahrnehmung des Hacks) wurde den Sony-Verantwortlichen mitgeteilt: „[M]onetary compensation we want“. Bei Nichterfüllung wurde mit einem Bombardement gedroht. Die Absender zeichneten dabei als „God’sApstls“; eine Zeichenkette, die später in einer beim Hack verwendeten Schadsoftware tatsächlich wiedergefunden wurde.
  • Am 1. Dezember übernahm eine Gruppe „Guardians of Peace“ die Verantwortung für den zwischenzeitlich erfolgten Hack, betonte aber, dass die „Gier von Sony Pictures“ der Grund für den Angriff sei.
  • Erst am 8. Dezember, nachdem es einige Spekulationen in den Medien über einen Zusammenhang zwischen dem angekündigten Film und Hackern aus Nordkorea gab, wurde der Film in einer Verlautbarung von „Guardians of Peace“ erwähnt. Man bestritt aber, im  Auftrag Nordkoreas zu handeln.

Die Chronologie deutet hierbei weniger auf einen mit hohem Ressourceneinsatz vorgenommenen cyberterroristischen Angriff hin. Vielmehr sieht es nach zwei Gruppen krimineller Hacker aus, von denen die eine Geld erpressen wollte und die andere sich in der Aufmerksamkeit sonnt.

Der Begriff Cyberterrorismus ist ohnehin im Kontext Sony eher unpassend, da Filmstudios kaum zu dem Teil der Infrastruktur zählen, deren Versagen eine Gefahr für Leib und Leben der Bevölkerung konstituiert oder einen Zusammenbruch des öffentlichen Lebens bewirkt. Die US-Bürger würden es unbeschadet ihrer Gesundheit überstehen, wenn eine weitere Fortsetzung von „Men in Black“ wegen eines Hacks verschoben würde oder ein James-Bond-Drehbuch zu früh bekannt würde. Zudem sei der geopolitische Hinweis gegeben, dass Sony ein japanisches Unternehmen ist: Eine Auseinandersetzung koreanischer Hacker mit einem japanischen Konzern könnte man trotz Hollywood-Bezug auch als Cyber-Scharmützel im fernen Osten einordnen und das militärische Säbelrasseln einstellen.

 

Welche Beweise gibt es?

Es stellt eine generelle Herausforderung der Ermittler dar, eine Cyberattacke einem Täter zuzuordnen. Zwar hat die digitale Forensik einige Entwicklungen hinter sich; die Natur der Internetkommunikation macht es aber oft unmöglich, gerichtsfeste Beweise bei netzwerkbasierten Angriffen zu sammeln:

  • Die Kommunikation im Internet findet über Router statt. Diese leiten Datenpakete protokollbedingt auch dann weiter, wenn der Absender gefälscht ist. Angriffe, die keinen Rückkanal benötigen (dazu gehören eine Vielzahl von Verfügbarkeitsangriffen), sind daher durchführbar, ohne dass der Täter in Erscheinung treten muss.
  • Wenn eine Identifizierung der IP-Adresse des angreifenden Systems gelingt, ist keineswegs der Täter identifiziert sondern bestenfalls ein beteiligter Rechner. Dieser Rechner kann aber stellvertretend agieren (Proxy) oder seinerseits ein Opfer eines vorherigen vorbereitenden Angriffs sein, was bei gut geplanten Angriffen eher der Regelfall als die Ausnahme ist. Eine netzwerkbasierte Identifizierung des Täters ist dann nicht mehr gegeben.
  • Bei von den Tätern selbst erstellter Schadsoftware sind meist Spuren auswertbar, die eine Zuordnung insoweit ermöglichen, dass festgestellt wird, dass verschiedene Tools von überlappenden Personengruppen entwickelt wurden. Es wird dabei also die „Handschrift“ einzelner Softwareentwickler erkannt, oder die Täter hinterlassen sogar vorsätzlich kleine Botschaften, die die Ermittler provozieren sollen. Die festgestellte Identität stellt hierbei aber lediglich ein Pseudonym dar, das bei weiteren Angriffen wiedererkannt, jedoch nicht zweifelsfrei einer einzelnen natürlichen Person zugeschrieben werden kann. Beim Sony-Hack wurde beispielsweise festgestellt, dass die Software auf einem Rechner kompiliert wurde, bei dem Koreanisch als Systemsprache konfiguriert war, was auf wenige Täterländer hindeutet. Zudem wurde Komponenten wiedergefunden, die bei Angriffen auf Unternehmen in Südkorea und Saudi-Arabien genutzt wurden, was auf Nordkorea weist. Ob hier aber dieselben Entwickler gewirkt haben oder genutzte Komponenten zuvor verbreitet wurden, lässt sich anhand dieser Spuren nicht feststellen.

Der FBI-Report legt nahe, dass eine südchinesische Infrastruktur beim Angriff genutzt wurde, die in der Vergangenheit bei Angriffen, die seinerzeit Nordkorea zugeschrieben wurden, ebenfalls beteiligt war. Diese Ermittlungsergebnisse stellen ein weiteres Indiz dar, dass Nordkorea beim Sony-Hack beteiligt war, von erdrückenden Beweisen kann man aber nicht ausgehen: Es wäre nicht schwierig, einen Angriff von irgendeinem System auf der Welt aus so vorzunehmen, dass es sich auf dem verschlungene Weg zum Zielsystem derselben Infrastruktur bedient. Anders gesagt: Digitale Spuren lassen sich künstlich erzeugen, so dass der Angriff einem vermeintlichen Täter in die Schuhe geschoben wird. Die Selbstsicherheit des FBIs erscheint hier auch unter einem weiteren Aspekt überzogen: Wie kann die Ermittlungsbehörde so feinsäuberlich unterscheiden, ob der Angriff von gewöhnlichen Kriminellen oder Hacktivisten aus dem Süden Chinas erfolgte oder ob die Gruppe im Auftrag nordkoreanischer Dienste oder einfach aus Sympathie zu Nordkorea handelte? Vielleicht trainierten hier chinesische Hacker den Nachwuchs. Sony war dann aufgrund seiner in der Vergangenheit gezeigten Schwächen ein naheliegendes Ziel für ein Gesellenstück, und wer konnte vorher ahnen, dass die Veröffentlichung einiger Mails und das Lästern der Hacker über die neue Filmproduktion internationale Verstimmungen erzeugten?!

Das FBI benennt ein pikantes Detail: „[T]he FBI discovered that several Internet protocol (IP) addresses associated with known North Korean infrastructure communicated with IP addresses that were hardcoded into the data deletion malware used in this attack.“ Es wurde also eine verräterische Rechnerkommunikation beobachtet. Wohlgemerkt: Nicht die in der Schadsoftware gefundenen IP-Adressen gehörten zur Nordkorea zugeschriebenen Infrastruktur, sondern die Kommunikationspartner dieser IP-Adressen. Haben die US-Ermittler also beobachtet, wie Rechner im Süden Chinas miteinander kommunizierten? Ganz trivial ist eine solche Beobachtung nicht, schließlich dürften chinesische Netzwerkbetreiber nicht ganz so kooperativ bei der amerikanischen Überwachung ihrer Netzknoten sein wie europäische. Falls amerikanische Dienste aber in der Lage sind, innerchinesischen Datenverkehr mitzulauschen, wäre das FBI kaum befugt, dies öffentlich einzuräumen. Der Report geht auf diesen Punkt nicht genauer ein; die fraglichen IP-Adressen werden nicht aufgeführt.

 

Cyberkrieger

Es wird möglicherweise nie geklärt werden, wer alles am aktuellen Sony-Hack aktiv oder unterstützend beteiligt war. Aber selbst wenn eine zweifelsfreie Identifizierung der Täter gelingt: Von Cyberterrorismus sollte niemand leichtfertig sprechen. Hollywood ist keine kritische Infrastruktur und die Veröffentlichung eines Drehbuches vor Produktionsbeginn ist kein kriegerischer Akt.

 

 

]]>
http://www.scilogs.de/datentyp/nordkorea-war-es-ganz-bestimmt/feed/ 2 wissenslogs
Ist Festplattenverschlüsselung mit Truecrypt nun unsicher?http://www.scilogs.de/datentyp/ist-festplattenverschluesselung-mit-truecrypt-nun-unsicher/?utm_source=rss&utm_medium=rss&utm_campaign=ist-festplattenverschluesselung-mit-truecrypt-nun-unsicher http://www.scilogs.de/datentyp/ist-festplattenverschluesselung-mit-truecrypt-nun-unsicher/#comments Thu, 29 May 2014 20:17:35 +0000 http://www.scilogs.de/datentyp/?p=74 ... weiter]]> Es war ein Paukenschlag, der am Mittwochabend auf der Webseite des Truecrypt-Projektes verkündet wurde: Truecrypt sei nicht sicher und könnte noch nicht beseitigte Schwachstellen enthalten. Man möge doch bitte umgehend zu Microsoft BitLocker wechseln

Viele reiben sich noch immer verwundert die Augen. Der Vorgang dürfte einmalig sein. Im Folgenden werden einige Fragen beantwortet, die von Anwendern - aber auch von Interessierten, die erst aufgrund des Skandals auf das Werkzeug aufmerksam wurden, gestellt werden.

 

Warum wäre ein Ende von Truecrypt ein großer Verlust?

Truecrypt gehört zu einer Handvoll gelungener, betriebssystemübergreifender und Einsteiger-geeigneter Tools, die eine gute Grundausstattung im Hinblick auf Datenschutz und Datensicherheit bieten. Zum Verschlüsseln und Signieren von E-Mail dient PGP (GnuPG), anonymes Websurfen ermöglich ein TOR-Client, mit OpenVPN kann der geschützte Zugang zu Netzen aufgebaut werden – und die Verschlüsselung von Dateien, Partitionen oder ganzen Systemen ermöglichte bisher eben Truecrypt.

 

Welche Bedrohungen werden durch Truecrypt abgewehrt?

Ein PC, insbesondere ein Notebook, kann

  • gestohlen
  • verloren
  • beschlagnahmt
  • kopiert (gemeint sind die Festplatteninhalte)

werden; kopieren bezieht sich auch auf Daten, die bei einem Clouddienstleister (z. B. Dropbox) gespeichert sind. Derjenige, der nach einem Diebstahl über vertrauliche Daten verfügt, kann diese lesen oder weiterverbreiten und infolge in die Privatsphäre der Betroffenen eindringen (z. B. Bilder und E-Mails betrachten), Firmengeheimnisse in Erfahrung bringen, Diebstahlopfer erpressen oder diesen einfach das ungute Gefühl vermitteln, jederzeit persönliche Informationen über sie anzapfen zu können. Wer bereits einmal sein Notebook an einem Flughafen längere Zeit aus der Hand geben musste, kennt dieses mulmige Gefühl vielleicht; wer schon mal ein ungesichertes Notebook verloren hat, kennt es ganz bestimmt. Der materielle Verlust ist oft vernachlässigbar, wenn wichtige Daten auf dem Rechner gespeichert waren. Man kann dagegen aber etwas tun: Festplattenverschlüsselung.

 

Ist Truecrypt denn bisher sicher gewesen?

Bis zum Paukenschlag am Mittwoch galt Truecrypt insoweit als sicher, dass es kein anderes Produkt vergleichbarer Funktionalität gibt, dem allgemein eine höhere Schutzwirkung attestiert wurde.

Die Frage kann man ohnehin nur ausweichend beantworten, denn niemand kann wissen, ob eine Software hoher Komplexität nicht doch eine bisher unentdeckte schwerwiegende Sicherheitslücke enthält. Bei Truecrypt wurde aber vieles richtig gemacht: Die Software implementierte Krypto-Algorithmen, die nach Stand von Wissenschaft und Technik nicht zu brechen sind, sie war quelloffen und dokumentiert, d. h. jeder konnte sich anschauen, wie sie programmiert wurde, man konnte sie analysieren, ausgiebig testen, nachkompilieren und sogar modifizieren, wenn man den Bedarf verspürte. Die Funktionalität berücksichtigte im Versionsverlauf Hinweise von Anwendern wie auch von Experten und unterstützte schließlich viele wichtige Anwendungsfälle von Festplattenverschlüsselung, z. B. einen portablen Modus oder die vollständige Verschlüsselung des Systems mit Abfrage eines Passwortes zum Bootzeitpunkt.

Erst kürzlich wurde eine kommerzielle Auditierung der Software durchgeführt, die mögliche Schwachstellen aufspüren sollte. Dabei wurden keine schwerwiegenden Fehler identifiziert, jedoch wertvolle Verbesserungsvorschläge formuliert. Die Akzeptanz von Truecrypt ist dadurch weiter gestiegen. Allerdings blieb weiterhin unbekannt, wer hinter Truecrypt „steckt“. Die Entwickler blieben demnach anonym, es wurde nicht bekannt, wer die Entscheidungen zur Herausgabe neuer Releases trifft. Das ist bei quelloffener Software zwar nicht nötig und es kann sogar vorteilhaft sein, um die Entwickler keinem Druck behördlicher Bedarfsträger auszusetzen. Doch bringt es auch Probleme mit sich, wenn das Projekt in Schieflage gerät, wie wir nun aktuell verfolgen können. Es fehlt an Ansprechpartnern, man weiß nicht, wem man Unterstützung anbieten könnte.

 

Ist die Einstellung des Projektes mit dem Hinweis auf Sicherheitsprobleme ungewöhnlich?

Der gesamte Vorgang ist höchst ungewöhnlich, er wirkt geradezu absurd!

Ein Hinweis auf Sicherheitsprobleme allein wäre nicht ungewöhnlich, ganz im Gegenteil: Die ungeschriebenen Gesetze sähen bei einem solchen Werkzeug vor, dass das Sicherheitsproblem vom Projektteam veröffentlicht bzw. bestätigt wird, anschließend im Detail beschrieben und in Bezug auf seine Auswirkungen beurteilt wird. Gleichzeitig (oder etwas später) würde dann eine Lösung (z. B. Workaround oder Softwarepatch) veröffentlicht, die das Problem aus der Welt schafft. Diese Vorgehensweise ist bei Sicherheitstools etabliert und ermöglicht den Anwendern, die Auswirkungen im Einzelfall einzuschätzen, den Schaden zu begrenzen und selbst angemessen zu reagieren.

Der nebulöse, nicht substantiierte Hinweis auf Sicherheitsprobleme und die gleichzeitige Abkündigung des Projektes sind jedoch ein unerwarteter Fauxpas: Fehler in der quelloffenen Software wären lokalisierbar oder mindestens konzeptionell beschreibbar, so dass sie nachvollzogen werden können. Wäre eine fehlerhafte Implementierung eines Algorithmus oder eine Schwachstelle in der Einbindung der Sicherheitsfunktionen in die Gesamtsoftware Ursache des Sicherheitsproblems, wäre davon auszugehen, dass in kurzer Zeit ein Patch (d. h. eine Softwarereparatur) zur Verfügung gestellt werden könnte. Das Werkzeug Truecrypt besteht aus einer Vielzahl von abgrenzbaren Komponenten, so dass ein „Totalschaden“, der das gesamte Projekt unrettbar zerstört und eine Weiterverwendung der Komponenten in einem Nachfolgeprojekt unmöglich macht, schlicht abwegig ist.

Der weitere Hinweis auf der Projektwebseite zum Supportende von Windows XP ist sachfremd, da kaum davon auszugehen ist, dass die Mehrzahl der Truecrypt-Nutzer XP-User sind. Der Marktanteil von XP ist bereits sehr deutlich zurückgegangen, zudem wurde der Support nicht plötzlich seitens Microsoft eingestellt, so dass ein abrupt verkündetes Ende von Truecrypt nun kaum gerechtfertigt ist. Die Empfehlung, stattdessen auf Bitlocker umzusteigen, das weder plattformübergreifend noch quelloffen ist, erscheint äußerst abwegig und unter Berücksichtigung der öffentlich gewordenen, teilweise erzwungenen Kooperation von führenden Softwareunternehmen und amerikanischen Sicherheitsbehörden provokativ, fast so, als ob man dem Projekt über den Umweg der Verunsicherung und Verärgerung der Nutzer nun absichtlich den Todesstoß versetzen möchte. Selbst bei Microsoft dürfte man sich über die unerwartete Produktwerbung kaum freuen: Die Redmonder stehen nun wie Profiteure eines unsportlich geführten Kampfes da, was dem eigenen Image kaum zuträglich sein wird.

Welche Motivation hinter dem Projektende steht, wissen wir derzeit nicht. Die Spekulationen reichen von behördlichem Druck (vergleichbar mit dem Ende von Lavabit nach behördlichem Druck) über einen schlechten Scherz eines Hackers, der an die Keys der Entwickler gekommen ist, bis hin zu einem Streit innerhalb des Projektteams, der eine „Racheaktion“ auslöste. Letzteres wäre deutlich plausibler als eine fatale, nicht zu reparierende und nicht zu beschreibende Sicherheitslücke.

 

Sollten Anwender nun auf Truecrypt verzichten?

Ignorieren sollte man es wohl nicht, wenn die Entwickler das Werkzeug plötzlich als unsicher bezeichnen. Angesichts der absurden Umstände des Projektendes sind jedoch Zweifel angebracht, dass hier tatsächlich ein Sicherheitsproblem besteht. Ein hastiger Umstieg auf BitLocker ist nicht angezeigt, solange keine inhaltliche Beschreibung der Schwachstelle – sollte es denn eine geben – erfolgt.

]]>
http://www.scilogs.de/datentyp/ist-festplattenverschluesselung-mit-truecrypt-nun-unsicher/feed/ 3 wissenslogs
Liebe Bundestagsabgeordnete, wir müssen einmal über anonymes Websurfing sprechen!http://www.scilogs.de/datentyp/bundestag-tor-websurfing/?utm_source=rss&utm_medium=rss&utm_campaign=bundestag-tor-websurfing http://www.scilogs.de/datentyp/bundestag-tor-websurfing/#comments Fri, 16 May 2014 09:22:15 +0000 http://www.scilogs.de/datentyp/?p=65 ... weiter]]> Liebe Bundestagsabgeordnete,

wir müssen einmal über anonymes Websurfing sprechen!

Hatten Sie auch manchmal den Eindruck, jemand wusste, welche Webseiten Sie besucht hatten, was Sie sich dort genau angeschaut hatten und welche Informationen für Ihre politische Arbeit Sie sich dabei heruntergeladen hatten? Dann fühlten Sie sich wahrscheinlich bestätigt als Sie den Bericht auf sp.on lasen: Ihre Verbindungsdaten werden mitgeschnitten und monatelang aufbewahrt. Spätestens nach vier Monaten sollen sie zwar gelöscht werden, allerdings zeigen Ergebnisse der Edathy-Ermittlungen, dass sich auch E-Mails aus dem Jahre 2010 "in den Akten finden".

Viele von Ihnen sind nun zurecht verärgert. Eine Speicherung von Daten auf Vorrat ohne einen konkreten Verdacht ist nicht akzeptabel! Was für ein Staat wäre das, der anlasslos Abgeordnete beobachten lässt?! Es wäre schon eine Zumutung für ganz normale Bürger unseres Landes, wenn dies geschähe (Danke für Ihre Unterstützung in dieser Sache!), aber Abgeordnete genießen zusätzlich Immunität, mithin einen besonderen Schutz vor Nachstellungen seitens der Behörden, und sie bestimmen selbst, wie die Bundestagsverwaltung arbeitet.

Einige von Ihnen erinnern sich nun daran, dass Sie keinen Dienstherren haben und auch selbst den Bundestagspräsidenten wählen, der die Bundestagsverwaltung führt. Diese Verwaltung hat die Datensammelei zu verantworten. Das bringt Sie als Mitglieder des deutschen Bundestags nun in eine etwas absurde Position: Sie können sich nicht bei Ihrem Chef beschweren, weil Sie keinen haben – und Sie können auch nicht nach dem Gesetzgeber rufen, weil Sie der Gesetzgeber sind. Vermutlich hat Sie die Erklärung der Bundestagsverwaltung, dass "die Datenspeicherung ein Service für Abgeordnete [sei], damit diese ihre Kommunikation nicht individuell sichern müssten", eher beunruhigt. Das ist auch kein Wunder; denn das dürfte die mit Abstand abwegigste Erklärung seit langer Zeit sein, die eine Bundesbehörde abgegeben hat. Auch die Ergänzung, dass "ausschließlich einzelne Administratoren Zugriff auf die Datensätze hätten", erhöht nicht gerade das Vertrauen in die Bundestagsverwaltung sowohl im Hinblick auf Datenschutz als auch, was gelungene Public Relations angeht.

"Im Bundestag verweist man darauf, die Datenspeicherung sei ein Service für Abgeordnete, damit diese ihre Kommunikation nicht individuell sichern müssten."

Bevor Sie nun das Thema Vorratsdatenspeicherung neu für sich entdecken und schnell gestrickte Gesetzesvorlagen in die Mühlen der Ausschüsse einwerfen, die ohnehin vor der Sommerpause kein tragfähiges Ergebnis erarbeiten werden, möchte ich Ihnen technische Hinweise geben: Sie müssen sich nicht überwachen lassen! Ich meine damit: Sie müssen das nicht nur nicht über sich ergehen lassen, weil Sie als Gesetzgeber etwas daran ändern könnten (um noch ein bisschen Salz in die Wunde zu streuen). Nein, Sie können das sofort unterbinden, wenn Sie sich technischer Hilfsmittel bedienen. Und wieder nein: Dazu müssen Sie nicht vermummt in das nächste Internetcafé in Reichstagsnähe huschen, um dort heimlich über ein Spezialgerät Suchanfragen in Google abzusetzen. Tatsächlich können Sie im Abgeordnetenbüro das TOR-Netzwerk benutzen, und Sie könnten sogar etwas dafür tun, dass dieses Netzwerk besser und schneller wird, so dass nicht nur Sie sondern auch Normalbürger unbeobachtet und schnell im Netz surfen können.

TOR basiert auf dem Prinzip des Onion-Routings, was – stark vereinfacht – bedeutet, dass Ihre Kommunikation erst mehrfach sicher verpackt und anschließend über eine sich in kurzen Abständen zufällig verändernde Route in das Internet vermittelt und dabei schrittweise wieder ausgepackt wird. Ihre übermittelten Informationen im TOR-Netzwerk werden stets verschlüsselt weitergegeben, so dass auch die Abfrage einer öffentlich verfügbaren Webseite nicht für die Bundestagsverwaltung oder andere Stellen, die Zugriffe auf Ihre Internetkommunikation vornehmen, sichtbar wird. Kurz: Sie könnten sich unbesorgt weltweit aus elektronischen Quellen informieren, ohne sich sorgen zu müssen, dass jemand weiß, an welcher politischen Initiative Sie gerade arbeiten. Das Gefühl, dass Ihnen jemand über die Schulter schaut, wäre dann vielleicht verschwunden. TOR kann auch dazu genutzt werden, Zugriffssperren zu umgehen. Wenn also der Bundestagspräsident oder ein einzelner Administrator Ihnen wohlmeinend den Besuch bestimmter Webserver verwehrt (ein undenkbares Szenario!), wäre dieser Filter ebenfalls umgangen.

Leider stehen weltweit nur einige tausend TOR-Nodes zur Verfügung, was dazu beiträgt, dass die anonyme Kommunikation über das TOR-Netzwerk vergleichsweise langsam vonstattengeht. Diese Nodes, die aufgrund ihrer Hintereinanderschaltung die Anonymität bewirken, werden oft von Privatleuten betrieben, die etwas gegen Internetüberwachung unternehmen wollen. Hier könnten Sie als Abgeordnete Ihrerseits helfen und Ihre Verwaltung oder Mitarbeiter auffordern, TOR-Nodes in Betrieb zu nehmen. Das kann letztlich jeder PC oder Server sein, der in Ihrem Büro steht, es wäre aber auch ein politisches Zeichen, wenn der Bundestag ganz offiziell einige leistungsstarke TOR-Nodes betriebe und damit weltweit etwas gegen Verfolgung und zum Schutz der Privatsphäre beitrüge.

tor
Bildautor: Saman Vosoghi, gemeinfrei.

 
Es gibt zwar auch beim TOR-Netzwerk konzeptionelle Grenzen und potentielle Lücken, was die anonyme Kommunikation angeht, aber schwach ist der Schutz nicht. Dies wurde auch die Berichte im Guardian bestätigt, die aus internen Dokumenten der NSA zitierten und von geringen NSA-Erfolgen beim Versuch, die Anonymität von TOR-Benutzern aufzuheben, zeugen. Näheres könnte Ihnen Edward Snowden erzählen, den Sie übrigens auch einmal nach Berlin einladen könnten, um aus erster Hand etwas über weltweite Internetüberwachung und die Konsequenzen für die Bundesrepublik zu erfahren. Herr Snowden könnten Ihnen dann zeigen, wie man eine TOR-Node aufsetzt oder auch einfach, wie man TOR richtig nutzt – nur für den Fall, dass Sie Ihrer Bundestagsverwaltung nicht mehr uneingeschränkt vertrauen.

Mit freundlichen Grüßen nach Berlin!
Ulrich Greveler

]]>
http://www.scilogs.de/datentyp/bundestag-tor-websurfing/feed/ 3 wissenslogs
Twittert mehr Agentur-Falschmeldungen!http://www.scilogs.de/datentyp/twittert-mehr-falschmeldungen/?utm_source=rss&utm_medium=rss&utm_campaign=twittert-mehr-falschmeldungen http://www.scilogs.de/datentyp/twittert-mehr-falschmeldungen/#comments Tue, 22 Apr 2014 16:19:29 +0000 http://www.scilogs.de/datentyp/?p=58 ... weiter]]> Eine Entschärfung gefährlicher Algorithmen könnte die Folge sein

 

„Zwei Explosionen im Weißen Haus; Obama verletzt.“ war der Inhalt des Tweets der Presseagentur Associated Press (AP), der viele Menschen am 24. April 2013 in Aufregung versetzte. Die Meldung einer Nachrichtenagentur wird naturgemäß ernster genommen als ein an einer Bushaltestelle schnell verfasster Tweet eines kaum bekannten Users. Es handelt sich bei @AP zudem um einen „Verified Account“, was bedeutet, dass Twitter zusichert, dass das Konto tatsächlich der Presseagentur gehört und nicht einfach jemand in ihrem Namen twittert. Tatsächlich aber war die Meldung frei erfunden. Jemand hatte das Passwort für den Account herausgefunden und sich die Doppelexplosion ausgedacht; eine gewisse Kreativität hat der Täter bewiesen: Zwei Explosionen klingen authentischer als eine einzige. Viele sind darauf für einige Minuten reingefallen; ein kleines Beben an der Börse war die Folge.

Ein Jahr ist dieses Ereignis nun her. Welche Lehren wurden gezogen? Im Nachgang zum „AP-Twitter-Hack“ wurde Kritik laut. Die Kritik richtete sich an AP, denn eine Agentur von Weltrang sollte darauf achten, dass ihre Passwörter nicht Dritten in die Hände fallen. Aber auch Twitter geriet unter Druck, denn der Zugang zu den Konten wurde für alle Kunden ohne eine sogenannte Zwei-Faktor-Authentisierung gestaltet. Wenn die Nutzer neben ihrem Twitter-Passwort noch ein zusätzliches Token verwenden (z. B. eine Chipkarte), fiele es Hackern schwerer, Konten zu übernehmen und Falschmeldungen zu verbreiten.

Ungeeignete Sicherheitstipps

Twitter geriet in die Defensive und versuchte zunächst, mit fragwürden Sicherheitshinweisen an seine Nutzer, Boden gut zu machen. Wichtige Accounts sollten von dedizierten Rechnern aus betrieben werden. Wenn AP-Mitarbeiter Zugriff auf das Twitterkonto haben, müssten sie stets einen weiteren Rechner mit sich führen, da der Twitter-Rechner zum Websurfen oder Emailen verboten ist. Niemand erwartete aber, dass praxisferne Sicherheitsmaßnahmen sich durchsetzten. Zu durchschaubar war der Versuch, den schwarzen Peter an den Kunden weiterzugeben.

Mittlerweile ist die Zwei-Faktor-Authentisierung für Twitter implementiert; frei erfundene Agentur-„Meldungen“ werden – wenn die Kunden die Funktion nutzen – seltener werden. Infolge entwickelt sich aber eine noch größere Gefahr, für die man Twitter nicht verantwortlich machen darf: Die nächste Falschmeldung ist noch glaubwürdiger, die Folgen möglicherweise umso gravierender! Wir befinden uns ein Jahr nach der folgenschweren Falschmeldung in einer trügerischen Ruhephase – und es droht ein neuer Sturm.

Denn seien wir fair: Nicht Twitter oder AP hatte Schuld daran, dass die Börsen erbebten. Es sind vielmehr diejenigen, die auf erfundene Meldungen hereinfielen und diese ungeprüft verwendeten! Wenn ein einziger falscher Tweet kurzzeitig 200 Milliarden Dollar an Börsenwert vernichtete, sagt das einiges über die Naivität oder Fahrlässigkeit der Marktteilnehmer aus. Um letztere sollte man sich Sorgen machen, nicht über die Glaubwürdigkeit einzelner Tweets.

Für eine Nachricht braucht es mindestens zwei voneinander unabhängige Quellen.

Den Grundsatz, mehrere Quellen für Nachrichten heranzuziehen, beherrscht jeder Journalist, und auch in der Wissenschaft ist es etablierter Standard, Behauptungen zu belegen. Eine Aussage muss bis hin zur primären Quelle zurückverfolgbar und damit überprüfbar sein. Je „erstaunlicher“ eine Behauptung ist, desto belastbarer sollten die (voneinander unabhängigen) Quellen sein. Ein Tweet einer Presseagentur ist aber keine Nachricht. Und – mit Verlaub – ein entwichenes Passwort ist auch noch kein Hack. Vielleicht hatte der Nachrichtenfälscher einfach einem Journalisten bei der Passworteingabe über die Schulter geschaut.

Wir sollten vielmehr damit rechnen, dass tatsächlich einmal ernstzunehmende Hacks gelingen, z. B. dass ein Angreifer mehr als ein Agenturkonto gleichzeitig kontrolliert oder eine Sicherheitslücke bei Twitter findet, die es ermöglicht, scheinbar unabhängige Quellen für eine Nachricht zu erzeugen. Wir können dann nur hoffen, dass verantwortungsvolle Marktteilnehmer nicht allein diese Tweets als Quelle heranziehen sondern auch darauf achten, andere Wege der Überprüfung in Betracht ziehen.

Wenn es automatische Orders aufgrund einzelner Tweets gibt, sollten sich diejenigen schämen, die solche Mechanismen anwenden

Tatsächlich gibt es aber Hinweise, dass einzelne institutionelle Anleger Algorithmen einsetzen, die aus Tweets automatische Verkaufsorders ableiten. Veröffentlichte Tweets werden dabei kontinuierlich nach Stichworten durchsucht, die auf Ereignisse hindeuten, die Kurse beeinflussen werden. Aufkommende Krisensituationen deuten beispielsweise auf einen kurzfristigen Abschwung auf den Aktienmärkten hin. Dann gewinnt der, der als erstes verkauft; Sekundenbruchteile können entscheiden. Die darauf folgenden Verkäufe werden bereits zu niedrigeren Preisen abgewickelt, daher führten die vermeintlichen Explosionen im Weißen Haus zu deutlichen Kursabschlägen in kürzester Zeit.

Diese Algorithmen sind gefährlich! Sie sind geeignet, die Stabilität der Finanzmärkte zu schwächen und Milliardenwerte zu vernichten. Schuld an der Misere sind aber nicht unvorsichtige Twitterer. Vielmehr sind es Anleger und Händler, die leichtfertig agieren und mehr als das eigene Kapital aufs Spiel setzen. Verantwortungslose Teilnehmer, die die Kontrolle an Rechner übergeben, verstärken erst die Anreize für Hacker, über falsche Tweets gezielte Kursmanipulationen zu betreiben und davon zu profitieren.

Eine Lösung könnte darin bestehen, automatische Orderausführungen ganz zu verbieten. Eine solche Einschränkung wäre angesichts der global aufgestellten Finanzmärkte nicht nur politisch kaum durchsetzbar. Zu groß ist die Versuchung zu mogeln und über beschleunigte, mindestens halbautomatische Prozesse einen Vorteil zu erzielen. Eine umfassende Kontrolle der Marktteilnehmer ist kaum vorstellbar.

Alternative Lösung: Agenturen sollten mehr falsche Tweets verbreiten nicht weniger!

Die Alternative zur starken Regulierung ist einfacher umsetzbar, wenn vielleicht auch schwieriger zu vermitteln. Wir brauchen mehr Falschmeldungen! Wenn es in zunehmendem Maße Fehlinformationen gäbe, wäre die Gefahr geringer, dass es zu überschießenden Reaktionen an den Finanzmärkten kommt. Wir würden uns daran gewöhnen und die übliche Frist abwarten, die bis zum Dementi vergeht. Die anfälligen Algorithmen müssten entschärft werden; Panikreaktionen würden vermieden. Eine Immunisierung gegenüber Falschmeldungen hätte zur Folge, dass die Wirkung gefälschter Nachrichten verpuffte. Diese einfache Idee einmal weitergesponnen: Wenn jede Nachrichtenagentur einen von hundert Tweets an einen talentierten Hoax-Autor verlosen würde, gäbe es nicht nur mehr unterhaltsame Falschmeldungen in den Wirtschaftsnachrichten. Das Bewusstsein, dass eine Meldung noch keine Nachricht ist, würde bei allen Lesern gefördert werden. Institutionelle Anleger, die um diesen Umstände wissen, wären gezwungen, ihre automatischen Plattformen zu entschärfen und verhängnisvolle Entscheidungen zu deautomatisieren. Eine behutsame Einführung falscher Meldungen könnte sich darauf beschränken, nur solche Meldungen zu erfinden, die von Menschen leicht als Unsinn erkannt werden, von Algorithmen aber verarbeitet werden. Das wäre aber keine dauerhafte Lösung, denn Algorithmen werden ständig verbessert, und die Immunisierung gegenüber Fehlinformationen sollte möglichst auch bei leichtsinnigen Händlern einsetzen.

Die Hoffnung, dass angesehene Nachrichtenagenturen nun gelegentlich eine Meldung vom Postillon übernehmen, ist jedoch verfrüht. Überzeugungsarbeit wäre nötig. Aber warten wir auf den nächsten Incident: Wenn die Zwei-Faktor-Authentisierung und weitere Sicherheitsmaßnahmen in den Agenturen eine Ruhephase bewirken und dann die nächste gelungene Falschmeldung eine weltweite Finanzkrise auslöst (das soll jetzt bitte keine Prognose sein!), könnte ein Umdenken einsetzen. Gerecht wäre es, wenn die Zocker, die automatische Handelssysteme mit Tweets füttern, dann die größten Verluste erleiden.

]]>
http://www.scilogs.de/datentyp/twittert-mehr-falschmeldungen/feed/ 2 wissenslogs
NSA benötigt Milliarden-Etat, weil Verschlüsselung sicher ist!http://www.scilogs.de/datentyp/nsa-ben-tigt-milliarden-etat-weil-verschl-sselung-sicher-ist/?utm_source=rss&utm_medium=rss&utm_campaign=nsa-ben-tigt-milliarden-etat-weil-verschl-sselung-sicher-ist http://www.scilogs.de/datentyp/nsa-ben-tigt-milliarden-etat-weil-verschl-sselung-sicher-ist/#comments Sun, 08 Sep 2013 21:20:13 +0000 http://www.scilogs.de/datentyp/nsa-ben-tigt-milliarden-etat-weil-verschl-sselung-sicher-ist/ ... weiter]]> Erleben wir bald einen Software-Antiamerikanismus, den die US-Regierung zu verantworten hat?

 

Aktuelle Meldungen nach den Enthüllungen von Edward Snowden verunsichern die Bevölkerung. Tenor: Wenn die NSA nun auch etablierte Verschlüsselungsstandards wie SSL und VPN-Netzwerke „geknackt“ hat und auf Betriebssysteme von PCs und Telefonen Zugriff hat, verbleibe keine Überwachungslücke mehr und wir seien den Überwachern hilflos ausgeliefert. Daher bringe es nichts, Mails oder Festplatten zu verschlüsseln, irgendwie schaffen sie es ja doch, an unsere Daten zu kommen.

Die NSA kann keine Verschlüsselung brechen. Deswegen werden Umwege gegangen und Betriebssysteme, Hard- und Software kompromittiert.

Tatsächlich ist das Gegenteil der Fall! Die letzten von der NY-Times und dem britischen Guardian veröffentlichten Enthüllungen zeigen, dass starke Verschlüsselungsalgorithmen, die heute jedem zur Verfügung stehen, das wesentliche Problem der NSA schlechthin darstellen. Die Sicherheitsbehörde betreibt enorme Aufwände, um an die Inhalte verschlüsselter Kommunikation zu gelangen. Gängige Algorithmen sind beispielsweise der Verschlüsselungsstandard AES, der einen wichtigen Baustein bei der Etablierung vertraulicher Kommunikation darstellt. Dieser Algorithmus, der durch ein aufwändiges, öffentliches Findungsverfahren ermittelt und bereits vor seiner Standardisierung jahrelang wissenschaftlich untersucht wurde, kann nach heutigem Wissensstand weder durch mathematische Methoden noch durch geballte Rechenpower von Regierungen gebrochen werden. Aus diesem Grunde müssen die Überwachungsspezialisten aufwändige Umwege gehen. Der Ansatz ist dabei der folgende: Verschlüsselung wird durch Software oder Hardware realisiert, die vor dem Versenden oder nach dem Empfang der Nachricht tätig wird, damit die Kommunikationspartner die Nachricht lesen können. Je nach verwendetem Protokoll wird eine Information auch mehrfach während der Übertragung ver- und entschlüsselt, um das Zusammenspiel verschiedener Technologien zu ermöglichen. Gelingt es dem Überwacher, eine Komponente zu kompromittieren, die Zugang zur unverschlüsselten Nachricht hat, kann er die Information lesen, ohne dass der Algorithmus selbst gebrochen werden musste. Den gleichen Erfolg erzielt er, wenn er für eine fehlerhafte Implementierung des Algorithmus sorgt, d. h. die Software die Schutzwirkung selbst wieder aufhebt, oder er Implementierungsfehler entdeckt und diese nicht offen legt.

Welche Befehle die CPU ausführt, können wir über den Blick auf das Display nicht nachprüfen.

Die Anwender haben tatsächlich schlechte Karten, wenn sie sich davon überzeugen möchten, dass die eingesetzte Software eine Kommunikationsüberwachung wirksam verhindert. Installierte Programme nehmen wir zunächst nur als Icons wahr, d. h. wir vertrauen implizit darauf, dass der Doppelklick tatsächlich die Software startet, die wir verwenden wollen. Anschließend sehen wir eine grafische Oberfläche, d. h. Dialogboxen, Fenster und Menüs, die dem gewohnten Look-and-Feel eines Mailprogramms, eines Browsers oder anderen Softwarehelfern entsprechen. Wir haben aber keine Möglichkeit über unsere fünf Sinne festzustellen, ob die Software nicht verändert oder sogar vollständig ausgetauscht wurde. Es ist nicht schwierig, ein Programm zu schreiben, das ein anderes Programm Pixel-genau nachbildet und im entscheidenden Moment etwas völlig anderes tut. Welche Befehle die CPU des PCs ausführt, können wir über den Blick auf das Display aber nicht nachprüfen.

Es existieren Sicherheitsmechanismen, die uns dabei unterstützen, die Authentizität von Software zu überprüfen und Veränderungen zu bemerken. Wenn der Hersteller die Software digital signiert hat und unser Betriebssystem den öffentlichen Signaturschlüssel des Herstellers kennt, können wir sicherstellen, dass wir tatsächlich das korrekte Programm installieren und nicht eine manipulierte oder nachgebildete Version. Derartige Mechanismen sind heute Standard und werden beispielsweise bei der Installation von Gerätetreibern genutzt, die nach der Anschaffung neuer Hardware installiert werden. Die Wirksamkeit setzt aber eine Vertrauensbeziehung voraus: Der Hersteller liefert uns nur Software aus, die keine (ihm bekannten) Sicherheitslücken enthält und das Betriebssystem, die Systemsoftware und darunter liegender Hardware ist vertrauenswürdig und hebt den Schutz nicht durch eigene Hintertüren auf. Und genau hier setzte die NSA an: Hersteller wurden genötigt, Schwachstellen auszuliefern, die eine Kommunikationsüberwachung ermöglichen; Sicherheitslücken in Betriebssystemen wurden ermittelt und geheim gehalten, oder es wurden Hintertüren vorsätzlich eingebracht, um Zugang zu den Endgeräten wie PCs und Smartphones zu erhalten. Der Aufwand für die Überwacher ist hoch, weil für eine Vielzahl von Softwareprodukten und auszuliefernden Versionen die Kompromittierung erfolgen muss; der gesamte Markt an Betriebssystemen, Softwareprodukten und frei verfügbaren Werkzeugen muss ständig beobachtet werden, um einen wesentlichen und andauernden Überwachungserfolg zu erzielen. Eine volle Abdeckung wird dabei nicht erreicht, es verbleiben stets eine Vielzahl von Systemen und Produkten, die sich einer Überwachung entziehen: Snowden selbst lieferte hier ein Beispiel und nutzte das bei Endanwendern leider kaum verbreitete und quelloffene Werkzeug GPG, um Informationen wirksam zu verschlüsseln, die er Journalisten zukommen ließ.

Eine Besonderheit spielt die US-Softwareindustrie, die den Markt in den Bereichen PC-Betriebssystemen, Officesoftware, Smartphonebetriebssystemen, Internetbrowsern und Netzwerkkomponenten  dominiert. Da wesentliche technologische Bausteine der digitalen Kommunikation dem kommerziellen Erfolg von US-Unternehmen zu verdanken sind, ist bis heute die US-Industrie führend bei Produktion und Weiterentwicklung von Kommunikationstechnologien. US-Behörden sitzen daher an der Quelle und können über Unternehmen, die in den Vereinigten Staaten beheimat sind oder Produktionsstätten betreiben, Einfluss auf die Überwachbarkeit der globalen IT-Landschaft nehmen.

Die US-Softwareindustrie steht vor einem Scherbenhaufen.

Für die derzeitige Vorgehensweise der NSA gibt es trotz der recht kurzen Geschichte der Datenfernübertragung bereits ein historisches Vorbild: In den Neunzigern wurde der US-Softwareindustrie auferlegt, nur geschwächte Verschlüsselungsverfahren mit ihren Softwareprodukten international auszuliefern (Krypto-Exportkontrolle), um eine Entschlüsselung von gesicherten Daten mit erträglichem Rechenaufwand zu ermöglichen. Da verbreitete Softwareprodukte wie Webbrowser und Mailprogramme aus den USA exportiert wurden und es oft keine Alternativen gab, erwies sich diese gesetzlich verankerte Vorgabe zunächst als erfolgreich und führte weltweit dazu, dass Internetnutzer ihre Daten nur schwach schützten, obwohl der PC technisch in der Lage war, einen starken Schutz zu bieten. Gleichzeitig erhielt jedoch eine neuer Industriezweig starken Rückenwind, der außerhalb der USA hergestellte Sicherheitsprodukte auf den Markt brachte oder kostenlos zum Download anbot, die die Exportrestriktionen wieder aufhoben. Nachdem der politische Druck seitens Bürgerrechtler und Kongressabgeordneter größer wurde und auch die amerikanische Softwareindustrie befürchtete, wesentliche Marktanteile aufgrund der Exportkontrolle zu verlieren, wurden die Export-Bestimmungen schließlich zur Jahrtausendwende in weiten Teilen aufgehoben [1].

Was die NSA heute tut, ist also eine Fortsetzung dessen, was in den Neunzigern bereits erfolgreich versucht wurde: Software wird in der Implementierungsphase vorsätzlich „beschädigt“, um die Vertraulichkeit der Kommunikation aufzuheben. Der wesentliche Unterschied ist heute die Heimlichtuerei. Während die Anwender in den Neunzigern wussten, welche Schwächung für bestimmte Browserfunktionen implementiert waren und die Auswirkung auf die eigene Kommunikation aufgrund dokumentierter Schwächungen einschätzen konnten, steht die US-Softwareindustrie nun vor einem Scherbenhaufen: Die verunsicherten Anwender wissen nun, dass massiv in die Sicherheitsfunktionalität eingegriffen wurde und dass eine erschreckende Unbekümmertheit staatlicher Stellen bei der Manipulaton von Softwareentwicklungsprozessen in US-Firmen herrschte.

Fragen Sie Ihren Arzt, Rechtsanwalt oder Steuerberater, ob er amerikanische Software einsetzt!

Ob Softwarehäuser zum Einbau von Hintertüren überwiegend gezwungen wurden [2] oder sich aus einer patriotischen Pflicht heraus zum Handeln aufgefordert sahen, wird noch aufzuklären sein. Das Ergebnis ist aber dasselbe: Anwender aus aller Welt können amerikanischer Software nicht mehr trauen; sie müssen davon ausgehen, dass diese in ihrer Sicherheitsfunktionalität vorsätzlich beschnitten ist. Die Konsequenzen werden erst langsam sichtbar werden, wenn erst einmal die Aufregung über die Snowden-Enthüllungen vorüber ist: Besorgte Europäer werden ihren Arzt, Rechtsanwalt oder Steuerberater fragen, ob dieser amerikanische Software zur Verarbeitung vertraulicher Daten einsetzt und um die Hintertüren weiß. Sicherheitslücken stehen nicht nur exklusiv der NSA zur Verfügung sondern können potentiell auch von nicht im staatlichen Auftrag handelnden Kriminellen genutzt werden. Deutsche Gerichte werden entscheiden müssen, ob die fortgesetzte Nutzung von US-Software nicht bereits eine fahrlässige Verletzung der Schweigepflicht impliziert. Die gleiche Frage wird man inländischen Behörden und Unternehmen stellen, die besonders schutzwürdige Daten verarbeiten. Ist es noch zumutbar, Behördenanfragen zu beantworten, wenn der kommunale Sachbearbeiter die sensiblen Informationen über seinen Windows-Arbeitsplatz-PC eintippt? Der Schaden für die US-Softwareindustrie kann derzeit kaum bemessen werden. Die amerikanische Regierung hat einen Software-Antiamerikanismus heraufbeschworen, der sich nicht auf wenige politische Aktivisten beschränken sondern breite Schichten der Gesellschaft und große Bereiche des Wirtschaftslebens erfassen wird. Sollten sich auch deutsche Unternehmen den Wünschen amerikanischer Behörden gebeugt und ohne gesetzliche Grundlage in Deutschland Hintertüren in Software eingebaut haben, werden sie sich unangenehmen Fragen und auch Schadenersatzforderungen stellen müssen.

Quelloffene Software führt in Richtung Technologietransparanz, die Überwachungsspezialisten Kopfschmerzen bereitet.

Eine wichtige Rolle wird zukünftig Open-Source-Software spielen, die jedem Interessierten Einblick in den Quellcode gewährt und die Überprüfung der Software auf Hintertüren sowie die Erweiterung um Sicherheitsfunktionen erheblich erleichtert. Es treten zwar auch im Open-Source-Umfeld Implementierungsfehler auf, die jahrelang unentdeckt bleiben und die Software verwundbar machen, und auch eine Manipulation von Standards, bevor diese in Software gegossen wird, ist denkbar. Trotzdem stellt quelloffene Software einen wichtigen Schritt in Richtung Technologietransparanz dar, der Überwachungsspezialisten Kopfschmerzen bereitet. Zukünftig wird man noch genauer hinsehen, woher der offene Quellcode kommt und wer die Entwicklung vorangetrieben hat. Ein Vorteil von quelloffener Software ist zudem, dass man mit geringem Aufwand verdächtige Komponenten von Grund auf neu erstellen oder gegen Bestandteile aus anderen Projekten austauschen kann. Dies könnte zukünftig einige Bibliotheksfunktionen betreffen, die von US-Softwarehäusern bereitgestellt wurden.

 

Quellen:

[1]: Neue Exportregelung des US-Handelsministeriums ab Januar 2000:  http://epic.org/crypto/export_controls/regs_1_00.html

[2]: “In some cases, companies say they were coerced by the government into handing over their master encryption keys or building in a back door.” (NY Times vom 06.09.2013)
http://www.nytimes.com/2013/09/06/us/nsa-foils-much-internet-encryption.html?hp&_r=1& 

 

]]>
http://www.scilogs.de/datentyp/nsa-ben-tigt-milliarden-etat-weil-verschl-sselung-sicher-ist/feed/ 16 wissenslogs