• このエントリーをはてなブックマークに追加

Alexa 夫婦の会話を勝手に転送

122

2018年05月25日 08:22 ITmedia NEWS

  • GoogleアシスタントでもSiriでも普通に誤作動するんだからアクセントやイントネーションの高低差がある発音圏の会話だと難しいだろうね。
    • 2018年06月02日 06:52
    • イイネ!0
    • コメント0
  • だから嫌いよー!便利良くなり片や考えもしないトラブルやプライベートが無くなる情報ツールにびくびくする。タイムマシンで昭和高度成長時代に戻りたい気分よね(**)
    • 2018年05月30日 00:17
    • イイネ!0
    • コメント0
  • Slexa(それ草)
    • 2018年05月26日 14:56
    • イイネ!0
    • コメント0
  • 元々そういう目的でしょ。不具合な部分は、使っている人にバレたことじゃねーの?GoogleもAmazonもLINEも全く信用性無いのに、情報コントロール渡すなんて正気ですか。
    • 2018年05月26日 14:31
    • イイネ!0
    • コメント0
  • まるで盗聴器のようではないか。いや待てよ、元々盗聴器として設計開発されたのかも知れないぞ。声に反応してどうこうする機能はごまかし目的で後から追加されたのかも、と考えると怖い。機械支配に反対する。
    • 2018年05月26日 14:12
    • イイネ!0
    • コメント0
  • 偶然に起こったこととはいえ、予測はできていたことだよな? https://mixi.at/a8tx2Oo
    • 2018年05月26日 08:54
    • イイネ!0
    • コメント0
  • アレクサンドロスと言っても反応しちゃうんだろうなー。起動ワードは、その国々で最も使わなさそうな言葉に設定できればいいのに。以下、日本で一番使わないであろう文字列を考えるスレw
    • 2018年05月26日 08:53
    • イイネ!1
    • コメント14
  • iphone5sで似た経験有り。浅草寺お参り中「読経」に反応して、勝手に上司にかかり、ガチャ切りしたけど時差を計算したら深夜だった。みんなも気を付けて!--
    • 2018年05月26日 03:05
    • イイネ!1
    • コメント0
  • あんま信用してない。絶対誤作動とか子供のイタズラ対象になる。 https://mixi.at/a8tx2Oo
    • 2018年05月26日 02:48
    • イイネ!0
    • コメント0
  • スタートレックとかで船のコンピューターに色々命令してるのも誤動作しそうだな(笑)
    • 2018年05月26日 00:30
    • イイネ!0
    • コメント0
  • 九州では多発する恐れがあります「あれくさ!」
    • 2018年05月25日 23:58
    • イイネ!0
    • コメント0
  • 「30分の会話で15回謝罪した」…は?誰が誰に?
    • 2018年05月25日 23:56
    • イイネ!0
    • コメント0
  • それがオマエらのヤリ方か〜���ԡ��饤��おかずクラブ
    • 2018年05月25日 23:23
    • イイネ!0
    • コメント0
  • 【ニュース】コレなぁ。恐らく、多少キーワードがあいまいでもAIが自動修正してくれる程“賢くなった”弊害なんだと思う。現状のAI流忖度。
    • 2018年05月25日 21:51
    • イイネ!1
    • コメント2
  • Alexaが夫婦の夜を勝手に録画して視聴者に転送 非常に面白いが対処するとAmazon
    • 2018年05月25日 21:11
    • イイネ!5
    • コメント0

ランキングIT・インターネット

前日のランキングへ

ニュース設定