以下のコメントを非表示にします。宜しいですか? 
※一度非表示にした場合、元に戻せません。 
 コメントを非表示にした操作の一切の責任はサイト運営者が負うことはなく、非表示操作をしたユーザの責任となります。

50:(no_name)  ID:#e8c606d8be    2018-05-19 10:08:34

ぶっちゃけ↓のトラブルはあと数回あると思う。 Amazon エコーが大失態…「ニュースの声を注文と勘違い」誤発注殺到 2017.01.12 https://roboteer-tokyo.com/archives/7270  昨今話題になっている音声認識デバイス。一番身近なところでは、iPhoneのSiriやアンドロイドに搭載された会話認識機能が思い浮かぶ。昨年に大ヒットした、話しかけて操作するAmazonの人工知能スピーカー『エコー(Echo)』もその一つだ。エコーに話しかければ、搭載されたAI「アレクサ(Alexa)」が情報を処理。ネット検索はもちろん、天気予報を聞いたり、アラームをセットしたり、音楽を再生させたりできる。その上、「アマゾンの商品を注文する」という機能まであるから驚きだ。しかし最近では、このエコーで思わぬハプニングが起きている。  ことの発端はアメリカのダラスに住む6歳の女の子がアマゾンエコーに「ドールハウスとクッキーを買って」とお願いしたことだ。数日後、約160ドル(約1万8千円)相当のドールハウスと2kgにもなる大量のクッキーが家へ配達されて、女の子の母親はびっくり。結果、届いた高価なドールハウスはチャリティーに寄付されることになったのだとか。  このなんとも微笑ましい事件をアメリカメディアは朝のニュースで取り上げた。このニュースを伝える際、男性アナウンサーは「アレクサ、私にドールハウスを注文して。(Alexa order me a dollhouse)」と話した。するとその結果、なんとTVの音声を主人からの注文と勘違いしたエコーがドールハウスをアマゾンに注文し始めたというのだ。  しかもこのエコーの誤認識によるドールハウスの注文はたった数件だけでなく、大量に殺到したという。後日、アマゾンは公式サイトで今回のトラブルで誤発注されたドールハウスはキャンセル、または払い戻しができると明らかにした。