Ethische Probleme bei Wearables mit Augmented Reality

Auf der International CES, letzte Woche in Las Vegas, gab es auch eine Podiumsdiskussion mit dem Titel „Augmented Reality: Next Big Thing or Info Overload?“ Augmented Reality – das nächste große Ding oder Informationsüberflutung?

International CES LogoCES 2014 Panel Diskussion zu Augmented Reality

Mit dabei waren Brian Mullins, CEO und Gründer des AR Software Unternehmens Daqri. Thomas Alt von Metaio, aus München. Sowie Neil Trevett, Vizepräsident des Mobile Marketing bei Chiphersteller Nvidia. Moderiert wurde das Panel von dem amerikanischen Wissenschaftsautor Seth Fletcher.

Schon sehr bald ging das Gespräch von technischen und Design Fragen zu den mehr philosophischen und ethischen Fragen über. Wir gehen auf eine Welt zu, wo uns über Wearables, wie z.B. Datenbrillen, sei es von Google, Epson oder Vuzix, permanent Informationen ins Sichtfeld eingeblendet werden – das Gegenüber sich aber nicht sicher sein kann, ob das Gerät gerade eingeschaltet ist oder nicht und vor allem welche Informationen ausgegeben werden.

„Die sozialen Aspekte von Augmented Reality, sind genauso wichtig wie die technischen“, sagte Neil Trevett. Nvidia experimentiert seit einigen Jahren mit dem Einsatz von Augmented Reality in Spielen. „Es ist noch schwierig vorherzusehen, wie die Gesellschaft reagieren wird“, fuhr er fort. „Eigentlich gibt es nur die Möglichkeit es zu versuchen und zu sehen, was passiert. Eine Kamera zu haben, bei der die Menschen nicht sehen, ob sie an ist oder nicht, ist ein neuer Schritt. Die Gesellschaft muss herausfinden, ob dies angenommen wird.“

Derzeit ist das Kameraargument der größte Feind von Wearables. In den USA wurden noch vor dem offiziellen Verkaufsstart von Google Glass bestimmte Ort definiert, in denen die Datenbrillen nicht getragen werden dürfen, wie Restaurants oder öffentliche Einrichtungen.

Allerdings ist das einfache Filmen oder Fotografieren von Menschen noch längst nicht das schlimmste Einsatzszenario, das man sich vorstellen könnte. So versuchte Seth Fletcher das Gespräch weiter in diese Richtung zu führen. Bei der Frage des Datenschutzes waren sich die Gesprächsteilnehmer dann auch einig, dass die persönliche Identifizierung, in Echtzeit, mit Hilfe von Augmented Reality die größte Gefahr bergen würde.

„Wir haben bewusst noch keine Technologie zur Gesichtserkennung veröffentlicht,“ sagte Mullins, „aber der Flaschengeist ist bereits frei gelassen worden.“ Dieser Flaschengeist bringt ein weites Spektrum an möglichem Missbrauch mit sich. Mullins führte als Beispiel an, dass man ein LIVE Bild mit Informationen aus sozialen Netzwerken abgleichen könne, nicht nur mit den Angaben um welche Person es sich handelt, sondern auch weiteren Informationen, über Vorlieben, die ein gemeinsames Gespräch ermöglichen würden. Das wäre Facebook auf die Spitze getrieben und in Echtzeit ausgeführt.

Dieser Gedanke lässt sich natürlich noch weiterspinnen, wenn man an personalisierte Werbung denkt, die in unser Sichtfeld eingeblendet wird, während wir mit einer Datenbrille unterwegs sind. Allerdings liegen wohl die meisten Bedenken bei Missbrauch durch Regierungen.

„Persönlich glaube ich, dass diese Entwicklung die Social Media Industrie herausfordert ihren Nutzern noch mehr ‚echten‘ Schütz ihrer Privatsphäre zu bieten“ meinte Trevett. Die einhellige Meinung des Panels war, dass Wearables und Augmented Reality eine kollektive, soziale Verantwortung für die Gesellschaft mit sich bringen.

Quelle: CNET Wearables with AR are an ethical nightmare

Diskussionen um ethische Probleme auch in Deutschland

Diskussionen um die ethischen Probleme gibt es aber auch in Deutschland, wie das nachfolgende Video zeigt. Im Gespräch sehen sie Gunnar Sohn und Gerhard Schröder – einen der führenden Blogger zu Wearable Technology.

Im Text zum Video heißt es:

Wer die Gepflogenheiten in der japanischen U-Bahn kennt: Kein Telefonieren in der Öffentlichkeit! In Deutschland dagegen wird heute noch der Einsatz von Handys im Meeting zur Diskussion gestellt und gleichzeitig ein Telefonjunkie belächelt, der seine Kreditkartendaten in der Öffentlichkeit hinausposaunt.

Daraus entstand bei Gerhard Schröder der Gedanke: Wir können darauf warten, was der Gesetzgeber zu Google Glass sagt. Wäre sicher die „Deutsche Art und Weise“. Doch unser Bild von „Privacy“ und Datenschutz ist kein weltweises Phänomen. Das führt Gerhard im ichsagmal.com-Interview näher aus. Wer bei der Blogparade „Sei kein Glasshole!“ bis Ende Mai mitmachen möchte, findet hier die nötigen Infos: http://www.wewearsmartwear.de/2013/05/glassiquette-vs-glasshole-blog-parade-fur-den-google-glass-knigge/ Siehe auch mein Blogpost: Google Glass und die German Angst: Mit dem dritten Auge sieht man besser #rp13 http://ichsagmal.com/2013/05/12/google-glass-und-die-german-angst-mit-dem-dritten-auge-sieht-man-besser-rp13/

Lesen sie zur Vertiefung auch den Artikel von Gerhard Schröder: Glassiquette versus Glasshole – Blogparade für den Google Glass Knigge (Update 22.08.2016: Der Artikel steht mittlerweile nicht mehr zur Verfügung). Dort wird auch das folgende Video von Mashable erwähnt, wie man mit Google Glass umgehen sollte.

Für Aufsehen sorgte der Auftritt von Stephen Balaban, beim 30 Jahre Chaos Communication Congress, im Dezember 2013. Wie Forbes meldete plant der 24-Jährige über sein Startup Lambda Labs die Entwicklung einer nicht autorisierten Gesichtserkennung für Google Glass. Google selbst hat derartige Softwareanwendungen für seinen offiziellen Play Store verboten. Der amerikanische Technologie Blog TechCrunch schreibt allerdings, dass Lambda Labs eine eigene auf Android basierende Datenbrille „Lambda Hat“ herstellt. Diese und weitere Wearables werden womöglich nicht so strikte Regularien haben, wie dies bei Google Glass der Fall ist.

The app works by storing a record of every face that a user encounters while wearing glass, on a cycle that refreshes to capture new faces every ten seconds. In this early version, it can’t ID faces in real-time, and doesn’t have a reference database from which to draw. Instead, like with iPhoto and other services, you can tag pictures with names so that they’ll be recognized the next time you see them. Users can also roll their own script for mining data from their Facebook network for automatic identification, but it’s not built into the product since it violates Facebook’s rules of usage. (TechCrunch)

Der Deutschlandfunk führte mit Stephen Balaban ein ausführliches Interview nach seiner Keynote.

DLF @ 30C3 – Glass Hacks – Das 30C3-Interview mit … @stephenbalaban from Deutschlandfunk ForschungAktuell on Vimeo.

Interview mit Stephen A. Balaban. Die Fragen stellt Jan Rähm

http://www.stephenbalaban.com/

Die Gefahren, die auf dem CES 2014 Panel besprochen wurden liegen also nicht in ferner Zukunft, sondern sind ganz aktuelle Themen. Die Frage wird sein, ob sie in der Öffentlichkeit, in Behörden und vom Gesetzgeber rechtzeitig erkannt werden oder die Technologie sich schneller entwickelt, als die notwendige öffentliche Debatte über den Umgang mit den neuen Möglichkeiten von Wearable Technology.

Was halten sie von Wearables und wie sehen die ethischen Probleme, die auf uns zukommen?

Letzte Änderung: 06:59:47 – 2016-09-28

0 Kommentare