• このエントリーをはてなブックマークに追加

AI開発 究極の選択と倫理問題

75

2016年04月01日 06:21 Business Journal

  • 映画だと一人を助けるのに多数の犠牲を払うことがある。最後は一人が助かってハッピーエンドとして描かれるが、その影で亡くなった人のことは触れられないことが多い。
    • 2016年04月01日 09:50
    • イイネ!2
    • コメント2
  • 人間だと、どちらを助けるか迷ってる間に「どちらも助けられない、最悪の結果」というのも起こり得るので。それを回避する為、機械に判断を委ねるのはアリだと思うけどね。
    • 2016年04月01日 15:32
    • イイネ!1
    • コメント0
  • このAIに、「誰も殺すな」というプログラムを予め打っておいたらどうなるか?エラーを起こして判断不能となり、最初の5名は当初の予定のままに不幸な目に遭うことだろう。
    • 2016年04月01日 14:03
    • イイネ!1
    • コメント4
  • 仮にブレーキが壊れたら、燃料の供給を止めてエンジンを止めるとか、ガードレールに車体を押し当てるとか基本動作をするところまででよくない?その結果まで予想しなくても
    • 2016年04月01日 12:19
    • イイネ!1
    • コメント0
  • 第三の選択肢を忘れているぞ。まず自分が飛び込んで(犠牲にして)他人が助かる可能性を切り開く、という選択肢。これが特攻隊の精神である。
    • 2016年04月01日 09:57
    • イイネ!1
    • コメント4
  • 事故で発生する損害保障金額によって判断するのが現実的だが、倫理は破壊するね♪命の価格を明示するから。
    • 2016年04月08日 11:58
    • イイネ!0
    • コメント0
  • その判断は人間ではなく『法規』システムが行う。ヒューマンエラーがない分AIの方が的確に合法殺人可能。人間よりAIの方が優れてるんだ、何も迷う必要はない。迷うのは人間のエゴ/
    • 2016年04月08日 11:29
    • イイネ!0
    • コメント0
  • 怖い�㤭��
    • 2016年04月02日 02:59
    • イイネ!0
    • コメント0
  • 【ニュース】センサが前にしかないロボットは、後ろで誰かが殴られても責められない。単純な人工知能はバカでもソレが許される。人間並に高性能な機械なんて面倒臭いだけ。
    • 2016年04月01日 22:11
    • イイネ!0
    • コメント1
  • これは非常に難しい問題。個人的には、もっと確実かつ結果(死亡者数)も数桁の違いが予想される場合にのみ、AIによる操作を容認する(できる)が、それ以外では…
    • 2016年04月01日 22:01
    • イイネ!0
    • コメント2
  • 木星に行ったHAL9000は、木星の秘密を守れという命令が密かにインプットされ、矛盾に悩んだ挙句に反乱を起こした。
    • 2016年04月01日 21:13
    • イイネ!0
    • コメント0
  • ポイントを中間で止めてトロッコを脱線させる。という選択肢は?両立させる方法があるはず
    • 2016年04月01日 20:16
    • イイネ!0
    • コメント0
  • トロッコを見なかった事、気付かなかった事にする…。
    • 2016年04月01日 18:46
    • イイネ!0
    • コメント0
  • そういう時、倫理矛盾でAI機能が崩壊する。AI機械に迷いは毒薬。っとSF小説「導きの星」で小川一水がそんな意味の事を書いてた。その通りなんたろうね。
    • 2016年04月01日 18:20
    • イイネ!0
    • コメント0
  • 切り替えたほうの線路にいるもう1人の作業員Bさんには避けてもらうが、正しい回答
    • 2016年04月01日 15:20
    • イイネ!0
    • コメント0

ランキングIT・インターネット

前日のランキングへ

ニュース設定