Zum Band “Internet der Dinge – Über smarte Objekte, intelligente Umgebungen und die technische Durchdringung der Welt” habe ich ein Kapitel beigesteuert. Das Buch ist im Transcript Verlag erschienen und online sowohl als eBook, als auch als gedruckte Fassung unter der ISBN 978-3-8376-3046-6 erhältlich. Das Manuskript meines Beitrags gibt es hier als pdf.
Sensoren der Cloud
Linus Neumann
Programmierbarkeit
Mein erster Computer war ein Commodore 64, den mein Vater mir zu Weihnachten schenkte. Ich sah darin zunächst eine uncoole Streber-Alternative zu den Produkten aus dem Hause Nintendo, aber mein Vater grummelte irgendwas von meiner Zukunft und brachte mir die ersten Kommandozeilen-Befehle bei.
Unter dem Schriftzug »Commodore 64« prangte die Erläuterung, worum es sich bei diesem Gerät handele, nämlich um einen »Personal Computer«, ein vollständiger Rechner, dimensioniert für einen einzelnen Nutzer. Das war nicht immer so üblich gewesen: In der grauen Vorzeit gab es nur raumfüllende, klobige Großrechner, die sich mehrere Nutzer teilen mussten.
Die Entwicklung des Personal Computers (PC) führte weg von diesen Zentralrechnern hin zu persönlichen, individuell konfigurierten Geräten, mit denen auch immer mehr persönliche Dinge erledigt wurden. Da der PC in der Lage war, eine ansprechendere Oberfläche zur Verfügung zu stellen, ebnete er nicht zuletzt auch den Weg für den Siegeszug der Computerspiele. Für ansprechende Grafiken und einen spannenden Spielfluss wurde und wird immer mehr Rechenleistung benötigt. Doch der PC eignete sich nicht nur zum Spielen. Er war programmierbar. Wer einen PC sein Eigen nannte, konnte darauf Programme schreiben, die alle kompatiblen PCs weltweit ausführen konnten. Es war also möglich geworden, individuelle Programme zu entwickeln, auszuführen und zu teilen. Diese recht trivial erscheinende Eigenschaft des PCs führte zu einigen bedeutsamen Entwicklungen, die unsere Gesellschaft heute noch prägen: Die Open Source Community begann, Programme zu schreiben und frei und kostenlos mit der Welt zu teilen und zu verbessern. Die unabhängige Entwickler-Szene setzte auf die Möglichkeit, ein Programm im stillen Kämmerlein auf einem herkömmlichen PC zu entwickeln, und damit einen großen wirtschaftlichen Erfolg zu erlangen. Der PC war ein universell programmierbares Gerät und bot den Usern unendliche Möglichkeiten.
Dezentrale Vernetzung
Während sich die Haushalte nach und nach mit PCs einrichteten (auf meinen C64 folgte ein »richtiger« PC mit CD-ROM-Laufwerk und Pentium-Prozessor), kündigte sich schon die nächste große Veränderung in der Art an, wie Menschen Computer nutzen würden:
Die Computer sollten miteinander telefonieren. Und zwar nicht nur direkt miteinander oder in kleinen Gruppen, wie einige Computer-Freaks (darunter mein Vater) es bereits auf so genannten Mailboxen ausprobierten, sondern alle Computer mit allen anderen Computern. Immer. Viele Sagen und Legenden umwoben das ominöse Internet. Kaum jemand wusste, was es genau war oder wie es funktionierte – aber es gab darin Pornographie- und Erotik-Angebote, der Siegeszug war also vorprogrammiert.
Tage und Nächte verbrachte ich in diesem Netz und entdeckte darin immer neue Facetten und immer neue Techniken des Austauschs mit anderen Menschen überall auf der Welt. Die Faszination, immer neue Inhalte auf den Bildschirm zaubern zu können, die nie zuvor auf diesem Rechner waren, erlebe ich noch heute regelmäßig. Schlagartig veränderten sich meine Nutzungsgewohnheiten dahingehend, dass mir ein Rechner ohne Internetverbindung inzwischen weitgehend nutzlos erscheint.
Die generelle Idee der Vernetzung von Computern war nicht neu – was hatte aber dem Internet zu diesem durchschlagenden Erfolg verholfen? Der Begriff »Internet« hatte nur sekundär mit der späteren Internationalität des Internets zu tun: Das Inter-Net Protokoll wurde als einheitliches Protokoll zwischen den bisherigen, in ihrer Funktionalität oft eingeschränkten, oder an bestimmte Hersteller gebundenen Netzwerksystemen und ‑protokollen entwickelt. So ließen sich auf Basis des Internet-Protokolls alle denkbaren Wege des Austausches realisieren: Websites werden auch heute noch über das Hypertext Transfer Protokoll (HTTP) übertragen, Nutzer kommunizieren in virtuellen Chat-Räumen über das Internet Relay Chat (IRC) Protokoll und Fernzugriffe auf andere Rechner finden über die Secure Shell (SSH) statt. Das Internet stellt also eine Grundlage für die weltweite, dezentrale und direkte Erreichbarkeit von Computern her und macht keine weiteren Vorgaben, wie diese Verbindungen zu nutzen seien.
Zentralisierung
Viele Utopien rankten sich um die Zukunft einer solchen vernetzten Welt. Neue Wege der Zusammenarbeit, neue Arten von menschlichen Beziehungen, neue Freiheiten und die immer wieder gefeierte Resistenz des Netzes gegen Zensur ließen uns von einer goldenen Zukunft der Demokratie träumen, die doch in all ihren Ausgestaltungen immer wieder unter der mangelnden unabhängigen Öffentlichkeit des guten alten griechischen Dorfplatzes gelitten hatte: Als das Internet kam, waren ein paar öffentlich-rechtliche und private Fernsehsender, eine Tageszeitung, und vielleicht ein wöchentliches Nachrichtenmagazin die üblichen und einzigen Informationskanäle für einen Haushalt. Welches revolutionäre Potential wohnte allein der Idee inne, künftig Artikel aus mehreren Quellen auswählen zu können? Zu allem Überfluss kamen dann auch noch »Blogs« auf –– wir alle konnten ohne Expertenkenntnisse Inhalte ins Netz stellen.
Doch schon damals unterhielten nur die wenigsten auch tatsächlich ihre eigene Infrastruktur. Was als dezentrale Struktur gleichberechtigter persönlicher Computer gefeiert wurde, entwickelte sich immer mehr, hin zu einem starken Ungleichgewicht: Im Internet wurde unterschieden zwischen Servern und Clients. Die Server standen als massive, leistungsfähige Computer im Rechenzentrum, die Clients in den Wohnzimmern der Konsumenten. Anfangs waren sie zumindest theoretisch noch »symmetrisch« mit dem Internet verbunden, konnten also ebenso schnell Daten ins Internet senden wie empfangen. Mit dem Aufkommen der DSL-Breitband-Anschlüsse war auch das vorbei: Annähernd 90 Prozent der Leitungskapazität sind heute für den Download reserviert, das Hochladen hingegen läuft sehr viel langsamer. Diese technisch nicht notwendige Ungleichheit spiegelte auch die Gewohnheiten der Nutzer wider. »Ich lade selten Pornographie ins Internet hoch!« scherzte ein guter Freund von mir, als ich mich über meine geringen Upload-Kapazitäten ärgerte.
Während ich also mit meinem leistungsfähigen Personal Computer an einer Internetleitung hing, die hauptsächlich darauf ausgelegt war, mich zu berieseln, und mit großen Serverfarmen interagierte, die hauptsächlich darauf ausgelegt waren, mich von der Nutzung anderer Angebote abzuhalten, dämmerte mir langsam, wohin die Reise wieder gehen würde: Die dezentral vernetzten Personal Computer würden als eine historische Episode enden. Die Utopie von der alternativen, diversen und dezentralen Öffentlichkeit würde den Gesetzen das Marktes nicht standhalten. Die Reise ging zurück zu leistungsschwachen Endgeräten und zentralen Großrechnern, die nun in der Hand einiger weniger großer Konzerne lagen. Diese Entwicklung war aus verschiedenen Sichten unvermeidlich und sowohl ökonomisch und ökologisch geboten.
Einschränkung
Was dann kam, war ebenso wenig überraschend: Die Computer verloren Kabel, Maus und Tastatur. Sie wanderten in die Hosentasche. Von der Öffentlichkeit weitgehend unbeachtet, verloren diese neuartigen Computer, als »Telefone« bezeichnet, allerdings auch die Möglichkeit, vom Nutzer selbst programmiert zu werden. Auf meinem C64, meinen PCs und meinen später folgenden Laptops hatte ich jederzeit meine eigenen Programme schreiben und ausführen können. Ich konnte sie nach Lust und Laune umkonfigurieren und ein Betriebssystem meiner Wahl installieren. Diese Geräte waren meine eigenen und ich konnte damit tun und lassen, was ich wollte. Das war es, was sie überhaupt so unschätzbar wertvoll machte. Die Bewegung um Freie Software speiste sich aus dieser Faszination und brachte als prominentestes Beispiel das Betriebssystem Linux hervor, das heute auf annähernd 80 Prozent der weltweiten (nein, nicht Personal Computer, sondern) Server läuft.
Natürlich steht es auch heute uns allen frei, Programme für unser iPhone zu schreiben. Wir benötigen dazu nur einen Apple-Computer und einen an viele Seiten AGBs gebundenen, mit einer jährlichen Gebühr verbundenen Entwickler-Account. Unsere Programme können wir auch anderen Menschen weltweit zur Verfügung stellen – allerdings nur im Apple App Store, und nur sofern es nicht gegen die vielen Auflagen verstößt, mit denen Apple seine geschäftlichen Interessen und den sittlichen Ruf des Unternehmens schützen möchte.
Was früher ein universeller Personal Computer war, ist heute ein mit umfassenden Einschränkungen und Vorgaben versehenes Produkt. Und so ist es nicht weiter verwunderlich, dass auch diese Produkte den Maximen des Marktes unterliegen, ihre Kunden möglichst an eine Marke zu binden und zum weiteren Kauf zu bewegen.
Die früheren PC-Hersteller hatten es schwer: Die für die User-Experience wichtige Software kam aus anderem Hause oder gar freien Quellen. So bot sich wenig Gelegenheit, eine langfristige Kundenbindung an das Gehäuse des Rechners aufzubauen. Mit der zunehmenden Einschränkung und zentralen Vernetzung wurde das anders.
Kundenbindung
Der Computer-Hersteller Apple hatte als einer der ersten begriffen, dass Computer zwar auch wegen ihres Aussehens, primär jedoch wegen ihrer Software verkauft wurden. Entsprechend wurde die Nutzung der Software auf Geräten von Fremdherstellern technisch erschwert und in den Nutzungsbedingungen ausgeschlossen. Wer die gewohnte Nutzungsumgebung auch beim nächsten Kauf genießen wollte, war an Apple gebunden. An dieser Strategie hielt Apple auch – sehr erfolgreich – bei seinen Smartphones und Tablets fest.
Gleichzeitig verlor die lokale Nutzungsumgebung durch die zunehmende Internetnutzung immer mehr an Bedeutung: Personal Computer und mobile Geräte schienen sich langsam zu Fernseher-ähnlichen Zugangsgeräten zu entwickeln, da der wahre Lebensmittelpunkt sich im Netz abbildete. Wie aber würde Kundenbindung in solch einer zunehmend vernetzten Welt funktionieren?
Eine sehr gute Antwort schienen Google und Facebook gefunden zu haben: Sie sorgten dafür, dass ihre Online-Dienste auf allen Geräten nutzerfreundlich zu bedienen waren und hielten sich mit dem Verkauf von teuer zu produzierenden und vergänglichen physischen Produkten stark zurück. Stattdessen suchten sie ihr ökonomisches Standbein in der Auswertung der Nutzerdaten zur gezielten Anwendung im Marketing.
Auch der Hardware-Hersteller Apple wurde so dazu gedrängt, geräteunabhängige Dienste zu entwickeln. So wanderten Kalender und Adressbücher der Nutzer in Apples Datenzentrum, dann ihre Photos und schließlich ihre Musik.
Die Nutzer waren nicht länger Konsumenten eines Produktes, sondern Teil eines Ökosystems, aus dem auszubrechen mit immer mehr Unannehmlichkeiten verbunden wurde.
Dienstleistung und Daten
Die zentrale Vorhaltung von Daten aller Nutzer erhöht die Qualität vieler Dienstleistungen signifikant: Unsere Suchergebnisse sind zielführend, weil berücksichtigt wird, wo viele Menschen fündig geworden sind, die schon vor uns gesucht haben. Online-Kartendienste haben so viele Nutzer, dass sie in Echtzeit wissen, wo und wie Staus und zähfließender Verkehr umfahren werden können. Nicht zuletzt verhalf die Zentralisierung auch der seit Jahrzehnten mehr schlecht als recht funktionierenden Spracherkennung zum Durchbruch: Ihre Algorithmen unterliegen nun einem ständigen Lern- und Trainingseffekt, sodass sich die Qualität der Spracherkennung für alle stetig verbessert. Entsprechend sinkt die Anzahl der Aufgaben, die ein Computer besser lokal erledigen kann, als sie einem der wenigen großen Rechenzentren zu übergeben, unaufhaltsam.
Wer aber finanziert diese Rechenzentren, in denen viele tausend Computer in höllisch lauten Umgebungen von Klimaanlagen im Industrie-Maßstab gekühlt werden? In der Online-Welt hat es sich etabliert, dass sich nur vermeintlich kostenlose Dienstleistungen oder Angebote, von denen es zumindest eine kostenlose Probe-Variante gibt, langfristig etablieren können. Die Anbieter sind nicht nur gezwungen, ihr Geschäftsmodell auf anderem Wege zu finanzieren. Oftmals eröffnet die Bereitstellung der aus einer fortwährenden Analyse von Nutzerdaten gewonnenen Erkenntnisse einen sehr viel lukrativeren Markt. Gezielte Werbung scheint bisher der einzige verlässliche Motor der Netz-Ökonomie zu sein.
Dabei gilt eine mindestens seit den 70er Jahren kursierende Weisheit: »Wenn du nicht bezahlst, dann bist du nicht der Kunde, sondern das Produkt, das verkauft wird.«
Daten und Macht
Im Einzelfall ist die für das Erbringen der Dienstleitung entrichtete Datenspende ein äußerst geringer, leicht zu verschmerzender Preis für das Individuum. Nur wenige Menschen wären bereit, dieselbe Dienstleistung monetär zu vergüten, um dafür in den Genuss eines höheren Datenschutzes zu kommen. Dabei ist auch der Wert der einzelnen Datenspende infinitesimal gering – Verwertbarkeit ergibt sich erst bei hinreichendem Umfang und entsprechender Aktualität eines Datensatzes. Für Google ist es egal, was ich heute Morgen gesucht habe – wichtig ist, es von allen zu wissen.
Nur große Mengen an Daten erlauben verlässliche Analysen und valide Vorhersagen von Verhalten. Damit geht entsprechend auch die Möglichkeit einher, auf das Verhalten einzelner Personen und Gruppen gezielt einzuwirken. Zielgruppenorientierte Werbung ist dabei noch die am wenigsten invasive – und glücklicherweise bisher auch die mit Abstand am weitesten verbreitete – Ausnutzung der mit den Datensammlungen einhergehenden Macht.
Es ist daher auch keine individuelle, sondern eine gesellschaftliche Frage, ob wir Institutionen erlauben möchten, derart umfangreiche Macht zu entwickeln. Diese Frage geht weit über die oft behandelten Dystopien der Vollüberwachung hinaus, in denen Dissidenten automatisch liquidiert und Straftäter schon vor ihrer Tat verhaftet werden. Vollüberwachung ist nur die eine Seite der Medaille, die sich leider kaum auf einem legalen Markt monetarisieren lässt. Erst die Beeinflussung von Verhalten eröffnet die Möglichkeit der Monetarisierung.
Innovationsdruck
Die heute zu beobachtende Konzentration der gesammelten Daten auf einige wenige Anbieter ist eine logische Folge kapitalistischer Prinzipien, nach denen marktbeherrschende Positionen sich verfestigen und ausbauen: Wer mehr Daten zur Verfügung hat, kann diese besser monetarisieren und auf ihrer Grundlage bessere Dienstleistungen entwickeln. Durch Innovationsdruck und Konkurrenz sind die Anbieter zum Erhalt ihrer Position darauf angewiesen, immer neue Datenquellen zu erschließen und immer neue Dienstleistungen zu entwickeln.
Seit der Erfindung der sogenannten »sozialen Netzwerke«[3], in deren Datenbeständen sich signifikante Teile unseres alltäglichen Lebens in Form von Nachrichten, Bildern, Adressbüchern und Surfverhalten sammeln, scheint unser Online-Leben fast vollständig erschlossen zu sein: Kaum ein Mausklick, kaum eine Nachricht, kaum ein Seitenbesuch, der nicht von einem oder mehreren Anbietern gesammelt, eingeordnet und analysiert wird. Das Wachstum des auf dem Sammeln und der Auswertung dieser Daten basierenden Marktes wäre von einem jähen Ende bedroht, fänden sich nicht neue Datenquellen, die wiederum eine genauere Erfassung, Vorhersage und Manipulation unseres Verhaltens ermöglichen.
So ist es eine logische Folge, nun auch die bisher online nicht erschlossenen Bereiche unseres Lebens zu erfassen.
Erfassung der Offline-Welt
Mit dem Erschließen von vormals nicht online-relevanten Bereichen geht die Herausforderung einher, sie einerseits überhaupt erfassbar zu machen, und andererseits durch diese Erfassung einen Mehrwert bieten zu können. Ohne erkennbaren Mehrwert bleibt als alternative Strategie nur, auf das Ende bestehender Produktgenerationen und deren Neuanschaffung zu setzen. So treibt das nun als Internet of Things bezeichnete Phänomen zwar einige skurrile Blüten, überrascht aber vor allem durch das Umkrempeln von teilweise bereits seit Jahrzenten bestehenden Produktkategorien: Wer Sport treibt, ist seit jeher an Puls, Leistung und Kalorienumsatz interessiert. Entsprechende Messgeräte sind seit Jahren erhältlich, aber bieten nur geringe Möglichkeiten zur longitudinalen Aufzeichnung und Auswertung. Was läge also näher, als diesen Bedarf von jenen Unternehmen decken zu lassen, deren Hauptgeschäft in Aufzeichnung und Auswertung besteht? Folgerichtig werden Fitness-Armbänder und »Smart Watches« mit entsprechenden Sensoren ausgestattet, um die erfassten Daten an zentrale Datenbanken zu übermitteln.
Wer trotz fortschreitender Digitalisierung noch eigens zum Verkauf eingerichtete Örtlichkeiten des Lebensmittel- und Fachhandels aufsucht, entzieht sich dem Zugriff der Werbenetzwerke und begibt sich in die alte Offline-Welt der zielgruppenunabhängigen Plakatwerbung. Was läge also näher, als das Verhalten der Menschen auch an diesen Orten zu erfassen, ihre Bewegungen aufzuzeichnen, ihnen maßgeschneiderte Angebote zu präsentieren und ihnen als Navigationshilfe im Chaos der Regale zur Seite zu stehen?
Wer schon etwas weiter ist und auf den anachronistischen Prozess des manuellen Einkaufs gern verzichtet, freut sich über einen Kühlschrank, der benötigte Lebensmittel nach Möglichkeit direkt selbst ordert – maßgeschneiderte Sonderangebote und kostenlose Probe-Päckchen inklusive. Die selbstverständlich mit Internet-Anschluss versehene Waschmaschine sorgt dafür, dass die Wäsche frisch zum Feierabend fertig wird, und nicht stundenlang in der Trommel vergammelt. Wäre es nicht auch großartig, wenn sie ein drohendes Ende der Waschmittelvorräte erkennen, und frühzeitig Abhilfe schaffen würde? Und könnte sie sich zu diesem Zweck nicht mit dem Kühlschrank austauschen, um den nächsten Einkauf zu koordinieren?
Sensoren der Cloud
Für die Herausforderung, die verschiedenen neuen Produkte miteinander sprechen zu lassen, gibt es eine einfache Lösung: Weder der Kühlschrank, noch das Fitness-Armband, noch die Waschmaschine sind aktive Elemente. Sie übermitteln vielmehr nur die erfassten Daten an zentrale Stellen –– am liebsten natürlich eine einzige. Dort werden die Daten analysiert, kombiniert, und entsprechende Reaktionen in die Wege geleitet: Die Lebensmittel-Bestellung tätigt nicht der Kühlschrank, sondern die Cloud. Die Waschmaschine startet nicht selbstständig, wenn wir die Arbeitsstätte verlassen, sondern wird von der Cloud fernbedient. Selbiges gilt für das »selbstfahrende Auto«, dessen einzige wirklich autonome Fähigkeit das Abbremsen des Fahrzeuges bei Unfallgefahr oder Verlust des Internet-Empfangs ist.
Ein solches »Internet of Things« ist die logische Konsequenz der Tendenzen der vergangenen Jahrzehnte:
Zentralisierung: Das einst dezentrale, vielfältige und universell nutzbare Internet wird zur omnipräsenten Verbindung zu einigen wenigen, zentralen Datenbanken. Wer kann es den Internet Service Providern da noch übelnehmen, dass sie sich vom Grundsatz des freien Netzes am liebsten vollständig verabschieden, und Dienstanbieter entsprechend zur Kasse bitten möchten?
Einschränkung: Unsere ehemals frei programmierbaren Computer können nur noch entsprechend den Vorgaben und kommerziellen Interessen ihrer Hersteller verwendet werden. Nicht selten fehlt ihnen jegliche Möglichkeit zur freien Veränderung oder Erweiterung des Funktionsumfangs.
Mit einem »Internet der Dinge« hat all dies wenig zu tun. Was als »smartes« Produkt mit Internet-Anschluss verkauft wird, verfügt weder über besondere Intelligenz, noch über eine Möglichkeit, die Internetanbindung frei zu nutzen. Selbige dient in der Regel ausschließlich der Kommunikation »nach Hause«. Die ehemals frei programmierbaren Computer entwickeln sich zu in ihrer Funktionalität immer weiter eingeschränkten Produkten, die ihre Daten über das ehemals offene und dezentrale Internet an zentrale Datenbanken übermitteln.
Was wir begeistert als »smart« wahrnehmen, ist nur ein weiterer Sensor der Cloud.
Und doch könnte das Internet of Things so viel mehr sein, wenn es seinem Namen gerecht würde. Unsere Häuser, Wohnungen und Objekte des täglichen Gebrauchs könnten kleine, unabhängige, dezentrale Entitäten sein, so wie viele Hacker, Nerds und Computer-Enthusiasten sie schon seit Jahren betreiben. Aber wie so oft ist es der Avantgarde nicht gelungen, einfach nutzbare Systeme zu entwickeln, die für die Breite geeignet sind. Vielleicht hat sie es auch nie wirklich versucht.
IT-Sicherheit im Internet der Dinge
Wenn neue Produkte oder Produktkategorien vorgestellt werden, in denen sich Computer verbergen, stellen sich Journalisten auf der Suche nach einem Schocker-Thema sofort die Frage, »Kann man das hacken?« Selbstverständlich lautet die Antwort »Ja«. Sie lautete nie anders.
Obwohl »Things« von ihren Herstellern im Funktionsumfang sehr eng definiert sind, so verbirgt sich in ihrem inneren immer noch ein frei programmierbarer Computer. Oft ist es für den geübten Hacker nur eine Fingerübung, manchmal mit ein bisschen Aufwand verbunden, diesen frei programmierbaren Computer auch frei zu programmieren. So spendieren Hacker Ihren Geräten zuvor als fehlend erachtete Funktionen: Die Kamera bekommt eine Zeitraffer-Funktion, der eBook-Reader eine Twitter-Funktion und die Uhr gleich ein komplett neues Betriebssystem.
Der Gedanke, nicht nur dem eigenen Gerät zusätzliche Funktionen zu verpassen, liegt dann nicht mehr besonders fern. Der mit einem Mikrophon ausgestattete smarte Fernseher eignet sich prima als Abhör-Wanze, die Brille mit der eingebauten Kamera verspricht interessante Photos aus dem Privatleben des Opfers und die Smartwatch erlaubt eine weltweite Ortung. Durch die eingeschränkten Möglichkeiten der Nutzer-Interaktion ist es sogar noch unwahrscheinlicher, als ohnehin schon, dass das Opfer die Infektion bemerkt.
Der Trend zum »Internet of Things« drängt auch Branchen zur digitalen Vernetzung, die bisher wenig Anlass und Gelegenheit hatten, Expertise im Bereich der IT-Sicherheit aufzubauen. Die Sicherheitsforscher Charlie Miller und Chris Valasek demonstrierten im Juli 2015 die vollständige Übernahme eines fabrikneuen Geländewagen des Typs “Jeep Cherokee”: Durch eine Schwachstelle im Unterhaltungssystem[4] des Fahrzeugs konnten sie aus der Ferne über das Mobilfunknetz auf selbiges zugreifen. Aufgrund des absolut mangelhaften internen Sicherheitskonzepts des Fahrzeugs konnten sie in der Folge die Kontrolle über Armaturenbrett, Steuerung, Getriebe und Bremsen übernehmen. Als Höhepunkt ihrer Demonstration schalteten sie den Wagen während der Fahrt einfach aus der Ferne ab[5]. Dass die interne Vernetzung der Geräte in einem Fahrzeug einen solchen Angriff überhaupt theoretisch ermöglicht, ist kaum zu entschuldigen.
Nur kurze Zeit zuvor hatte der Sicherheitsforscher Billy Rios auf Sicherheitslücken in einer weit verbreiteten Infusionspumpe des Herstellers Hospira aufmerksam gemacht[6]: Ohne überhaupt Schutzmaßnahmen umgehen zu müssen, konnte er die Pumpe über das Netzwerk frei konfigurieren: So konnte er bestimmen, wie viele Milliliter pro Stunde das Gerät abgeben würde, und welche oberen und unteren Beschränkungen für das verabreichte Medikament gelten würden. Bei bestimmten Medikamenten wäre so die Verabreichung einer letalen Dosis möglich gewesen. Rios entdeckte, dass das Gerät im Netz gleich mehrere ungeschützte Möglichkeiten zum Fernzugriff bot: Für das medizinische Personal gab es eine intuitive Web-Oberfläche, für fortgeschrittene Hacker direkt einen Zugang zur Kommandozeile – von Sicherheitsmaßnahmen weit und breit keine Spur.
Natürlich ist nicht gänzlich auszuschließen, dass in Zukunft „perfekte Morde“ über das Hacking von Autos und Medizingeräten begangen werden – aber es bleibt zu hoffen, dass die Hersteller dieser Geräte ihre Lektionen sehr schnell und eindringlich lernen, während Mörder auch in Zukunft auf simplere und plumpere Methoden zurückgreifen werden.
Wenngleich Hacker also schon einfache Drucker gehackt und zu eindrücklichen Spionage-Werkzeugen ausgebaut[7], Autos über das Mobilfunknetz ferngesteuert und Wahlmaschinen in Schachcomputer[8] verwandelt haben, so scheint das Hacking-Risiko bei den meisten »Things« eher überschaubar zu sein. Mit Sicherheit wird die unermüdliche Community auch weiterhin daran arbeiten, eingeschränkte Geräte per »Jailbreak« zu befreien und alternativen, freien Nutzungsformen zuzuführen. Ein Angriffs- oder gar Schadensrisiko wird dabei nur in selteneren Fällen entstehen, denn mit der zunehmenden Funktionsbeschränkung der »Things« sinkt auch deren Attraktivität als Angriffsziel, sofern sie nicht über spannende Sensoren wie Kameras oder Mikrophone, oder gar Effektoren wie einen 184PS-Motor verfügen. Was hätte ein Angreifer davon, zu wissen, wann Sie Ihre Wäsche waschen, oder welchen Puls Sie beim morgendlichen Dauerlauf haben? Meist sind derartige Daten nur in großen Mengen attraktiv. Entsprechend werden im Regelfall auch nicht die »Things« selbst zum Angriffsziel, sondern die Cloud-Infrastrukturen, an die sie ihre Daten liefern, und von denen sie fernbedient werden.
Frei nach Berthold Brecht: »Was ist ein Einbruch in eine Bank gegen die Gründung einer Bank? «[9] – stellt sich daher die Frage: Was ist ein Einbruch in ein Fitnessarmband gegen die Gründung einer Fitness-Cloud?
[1] Serra, Richard, Weyergraf-Serra, Clara: Richard Serra, Interviews etc., 1970-1980, Hudson River Museum 1980.
[2] »If you are not paying for it, youre not the customer; youre the product being sold.« https://twitter.com/andlewis/status/24380177712, vom 13. September 2010.
[3] Bei den heute als soziale Netzwerke bekannten Online-Angeboten handelt es sich um zentrale Plattformen, für die der Begriff des Netzwerkes irreführend ist.
[4] Ein älterer, heute noch gebräuchlicher Begriff für das Unterhaltungssystem eines Fahrzeugs lautet: „Autoradio“
[5] Andy Greenberg: Hackers Remotely Kill a Jeep on the Highway – With Me in It https://www.wired.com/2015/07/hackers-remotely-kill-jeep-highway/
[6] Kim Zetter: Drug Pump’s Security Flaw Lets Hackers Raise Dose Limits https://www.wired.com/2015/04/drug-pumps-security-flaw-lets-hackers-raise-dose-limits/
[7] Andrei Costin, 2012: Hacking MFPs, Vortrag beim 28. Chaos Communication Congress https://media.ccc.de/browse/congress/2011/28c3-4871-en-hacking_mfps.html#video
[8] Spiegel Online vom 12. Juni 2013: Manipulierter Wahl-Automat: Chaos-Club hackt Demokratie http://www.spiegel.de/netzwelt/tech/manipulierter-wahl-automat-chaos-club-hackt-demokratie-a-487958.html
[9] Brecht, Bertolt: Die Dreigroschenoper: Nach John Gays ”The Beggar’s Opera«, 44. Aufl., Frankfurt a.M.: Suhrkamp Verlag 2001.
Pingback: Game of Things | ctrl+verlust