Sprachassistenten sind überall. Sie sagen das Wetter voraus, spielen unsere Lieblingsmusik und üben sich in Smalltalk. Je besser sie werden, desto mehr werden sie Teil unseres Alltags. Was wir dabei manchmal vergessen: Um unsere Befehle entgegenzunehmen, hören sie mit. Immer. Auch in ganz privaten Situationen, die eigentlich nicht für fremde Ohren bestimmt sind.
Fakt ist: Wir wissen und entscheiden nicht, welche Momente unseres Lebens von Siri, Alexa, Google Home und Co. aufgenommen, gespeichert oder analysiert werden. Ein Datenschutzproblem und technisches Dilemma, das mehr Aufmerksamkeit verdient. Mit dem Experiment „Alexa Cage“ haben wir uns ihm angenommen.
Wir haben uns gefragt: „Wie können wieder wir bestimmen, wann Alexa zuhört und wann nicht?“ Die Idee: Ein schalldichtes Gehäuse, das sich – genau wie Alexa – auf Sprachbefehl öffnet und schließt, aber – anders als Alexa – offline arbeitet und damit unsere Privatsphäre respektiert.
Dabei haben wir völlig unterschätzt, wie gut Alexa hört. Um die acht Mikrofone zeitweise “auszuschalten” haben wir Noise Canceling, Magnetfelder, White Noise und vieles mehr ausprobiert. Nichts hat funktioniert. Nach zahlreichen Versuchen und Prototypen dann die Lösung: Wir verzerren die Tonaufnahmen durch direkte Störgeräusche auf den Mikrofonen und verpacken die motorisierte Einheit in einem Case.
Indem wir Alexa das Gehör nehmen, verschaffen wir es einem Thema, das es dringend benötigt: dem Schutz unserer Daten.