ハッカー
スマートスピーカー普及率は7~8%とまだまだ所有者も少ない印象の日本。一方でヨーロッパやアメリカなどの主要国では4人に1人が所有するほど普及率が高い海外は未だ盛り上がりを見せています。

ですがそんな普及率が高い海外だからこそ、潜んでいる危険性もあります。実際に起こった例として数年前アメリカで放送されたバーガーキングのCM。これが当時物議を醸しました。

CMは以下の動画でも確認できる通り。バーガーキングのスタッフがモニター越しに「OK Google バーガーキングとは?」とまるで画面の向こう側にあるGoogle Homeに指示するような内容。

このCMが放映された当時、各家庭のGoogle HomeといったGoogleアシスタントを搭載したスマートスピーカーはしっかり反応。「オッケーグーグル」というウェイクワードをうまく使った間接的な乗っ取りに初めて成功した事例となりました。



以上の遠隔的な音声操作はあくまでスマートスピーカーでバーガーキングの情報がアナウンスされただけで、プライベートな情報が流出したわけではなかったので利用者の実害はありませんでした。

ですがこの手法を悪用すれば勝手に商品が購入されたり、誰かに通話をかけたり、ボイスメッセージが届いたり、予定が変更されたりなど所有者の意図と反した操作も可能であるといえますよね。

そういった懸念も踏まえて「バンガーキングらしい可愛いイタズラ」と捉える大らかなユーザーもいれば「これは乗っ取り!不正アクセスだ!」と声を荒げるユーザーがいたりと賛否両論。

まだまだ日本国内では、スマートスピーカーの普及率は低いので実際このようなCMが法放映されたところで痛くもかゆくもありませんが、今後さらなる注目で市場が拡大するのであればAIスピーカーを意識したCMが放映される可能性も否めません。

また最近ではYoutubeの発展もあるので、ユーチューバーがウェイクワードを絡めたビジネスやエンターテインメントを行う可能性も捨てきれません。

今回はスマートスピーカーを所有する方にとっては意識しておいた方がいい事案ですので記事として紹介してみましたがいかがでしたでしょうか?これを問題と感じるのか?それとも許せる範囲なのか?是非コメント欄にご意見いただけると幸いです。

対策はあるのか?

音声認識
ちなみにこのようなモニターや電話経由の音声操作を防ぐすべはあるのか気になる所。

実は「Googleアシスタント」「Alexa」「Clova」には所有者の声を認識して、利用できるサービスを制限するといった機能が備わっていますが、似たような声で発せられたり、完璧に操作を無効にするのは無理なようです。

もちろんセキュリティ度を上げる事に繋がるので、各音声AIの音声プロフィールを作成(声を登録)しておくのは損ではないのでオススメ事項。あと利用者側ができることはマイクをOFFにするというAIスピーカーの利便性を大きく下げる事ぐらいでしょうか。

やはり今後の音声認識の精度の向上に期待するしかないようです。