• このエントリーをはてなブックマークに追加

AI開発者らに「脅威排除を」

35

2016年06月06日 23:01 時事通信社

  • ヤバいexclamation ��2(;゚Д゚)…AIの開発が進めばターミネーターが作られるかもexclamation ��2どーせ作るならドラえもんにしてくれ☆
    • 2016年06月07日 10:19
    • イイネ!11
    • コメント6
  • そして他の惑星から機械生命体が地球のAIに宣戦布告するんですね(^_^;)
    • 2016年06月07日 10:04
    • イイネ!10
    • コメント2
  • 人間が作るなら無理だと思います(・ω・)ノ便利なものほどリスクは大きくなります。ナイフ、銃、車…原子力… モノに責任を押し付けるのではなく、運用のあり方が大事かと思います…と、ふと思った(・ω・)ノ
    • 2016年06月07日 10:28
    • イイネ!8
    • コメント2
  • 人間ってのは便利なものは一度手にすると手放さない。この脅威排除がどれほど機能するのかは極めて疑問。まさにSFの世界だが、どう転ぶのか、非常に楽しみ。
    • 2016年06月07日 08:49
    • イイネ!6
    • コメント0
  • バグるし。
    • 2016年06月07日 12:48
    • イイネ!3
    • コメント0
  • 例の三原則導入。でAIが悩みだしてHAL9000みたいなことに。
    • 2016年06月07日 12:15
    • イイネ!3
    • コメント1
  • できたら誰も苦労しない。
    • 2016年06月07日 13:38
    • イイネ!2
    • コメント0
  • そろそろ、人工知能に「ロボット法」を適用した方がいい。人工知能の犯罪はプログラマーの罪になるようにしないと。
    • 2016年06月07日 12:56
    • イイネ!2
    • コメント0
  • 今ですらウイルスソフトウェアを人間が作って撒くというのに、高度化したAIにそれをしないと思うんだろうか?
    • 2016年06月07日 12:15
    • イイネ!2
    • コメント0
  • やはり〜コントローラーは必要です����� イケexclamation ��2鉄人exclamation ��2ビビビ…
    • 2016年06月07日 11:48
    • イイネ!2
    • コメント0
  • いわゆる、ロボット三原則ですよね アシモフ回路(安全弁)が必要ってことで
    • 2016年06月07日 10:47
    • イイネ!2
    • コメント0
  • ロボット三原則
    • 2016年06月07日 10:27
    • イイネ!2
    • コメント1
  • AIが起こすどの様な事が人類にとって脅威になるかどうかなんて、その脅威が怒らないと判らない。思いつく脅威は研究者がすでに取り除くはずだから。
    • 2016年06月13日 17:07
    • イイネ!1
    • コメント0
  • 『スカイネット法案は可決されました。』ということにならないことを切に願う。((( ;゚Д゚)))ガクガクブルブル
    • 2016年06月07日 13:46
    • イイネ!1
    • コメント0
  • J・P・ホーガン、「未来の二つの顔」を読めば良いと思うよ
    • 2016年06月07日 11:20
    • イイネ!1
    • コメント0

前日のランキングへ

ニュース設定