アマゾンエコーが会話内容を保存!? 「家庭用AIスピーカー」に潜む個人情報流出のリスク
https://roboteer-tokyo.com/archives/10154 ROBOTEER2017/08/30
“2016年12月、米アーカンソー州の警察は、殺人事件の捜査のためにアマゾン社にAIスピーカーが記録した情報を提供することを要求した。アマゾン側は当初、拒否。しかし、最終的には情報を渡している。企業の個人情報保護に関する観点はさておき、この事例はAIスピーカーがユーザーの日常生活を記録していることを計らずとも示す結果となった。”
スピーカーは、音を出すものだが、AI家電のスピーカーは、集音マイクでもある。そして会話の中から、利用者の指示を聞き取ったり、提案を行う。家庭でのプライバシーを収集することで学習して行くものだ。当然、会話の内容を保存もするし、IOTのデバイスの仕様だとするとネットに会話の情報を持って行く。
クラウド上に保存された会話や生活音などのプライバシー情報が流出することがパッと浮かぶが、AI学習の為にプライバシー情報を企業に提供してしまうこと自体が危険を帯びている。
盗聴器とAIスピーカーの違いは、盗聴器は自分で設置していないのに対して、AIスピーカーにはわかった上で会話のプライバシー情報を提供する。
問題をわかりやすくするならば、監視カメラが設置されているようなもので、監視カメラの利用目的は防犯なのに対して、スピーカーはコミュニケーションをとってくる。プライバシー問題は防犯目的には寛容となるが、そうではない監視(正しくは監聴?)にはプライバシーの配慮が必要そうだ。
自分の部屋はプライバシーの確保されている空間だから、誰かに愚痴を話しても、独り言で悪口を言っても問題ないが、データが収集されてクラウドに保存されてしまうならば、街中で話して問題ない内容にしておく必要がある。
購入者がプライバシーに関わる会話がクラウドに保存されることも、AIとの会話機能によって、浮気や陰口を叩いていた事実がバレてしまうようなことが起こるかもしれない。それくらいのことを笑い飛ばすようなアーリーアダプターたちが、失敗談を提供してもらいながら製品のアップデートの参考になるのだと思う。
国家によるテロ対策目的で通信の盗聴を実施しているので、AIスピーカーのある場所でジョークで犯罪絡みの会話をすることは相当危険な気がする。クラウドに児童ポルノを保存していたことが発覚して逮捕された人もいる。空港で爆弾を比喩したジョークのつもりが逮捕された人もいる。
空港で爆弾の話をするのは危険なように、自宅でもAIスピーカーのあるところでの会話は国家による監視が付いているとすると監視社会が一歩進む。
プライバシーを配慮した設計をアドバイスを少しだけするとしたならば、音を収集している時には光ってわかるデザインであるべきだ(ライトは音を収集するものだと思うのは製品を開発した人だけだ。)また、ベットルームで恋人たちがムードの為に利用するならば、性行為の音の収集してしまうリスクは利用者にわかってもらうべきだと思う。すでにそういう事例があるとは思うが。
技術は常に、できることから始まって、プライバシーは後回しなので、AIスピーカーを利用する場合は、他人に聞かれては困りそうなことの前には、こまめ電源offをオススメする。