• このエントリーをはてなブックマークに追加

AI開発 究極の選択と倫理問題

75

2016年04月01日 06:21 Business Journal

  • 人間はそういう場合に人の好き嫌いや関係性の近さを優先する。つまり感情優先がだ、機械は損得優先。
    • 2016年04月01日 10:04
    • イイネ!3
    • コメント2
  • 第三の選択肢を忘れているぞ。まず自分が飛び込んで(犠牲にして)他人が助かる可能性を切り開く、という選択肢。これが特攻隊の精神である。
    • 2016年04月01日 09:57
    • イイネ!1
    • コメント4
  • コンピュータには最後の手段、「ハングアップ」ってのがあるじゃんよ。
    • 2016年04月01日 09:52
    • イイネ!0
    • コメント0
  • 映画だと一人を助けるのに多数の犠牲を払うことがある。最後は一人が助かってハッピーエンドとして描かれるが、その影で亡くなった人のことは触れられないことが多い。
    • 2016年04月01日 09:50
    • イイネ!2
    • コメント2
  • そもそも「ニンゲン」ですら、正しい判断をしない、出来ないのにシステムや機械はそのままって設定がおかしいんじゃ?トロッコ問題なんか鉄道事業からしたら前提がおかしい
    • 2016年04月01日 09:47
    • イイネ!5
    • コメント5
  • 近代で記録に残る刑事事件とその判決から判決理由、情状斟酌の程度等膨大なデータベースを利用して、このような人工知能に被告人を処断させたらどうだろう。
    • 2016年04月01日 09:22
    • イイネ!3
    • コメント0
  • 義務教育を叩きこまないと、こりゃいけないね〜ぇ(笑、 幼稚園、中学、高校��、ボランティア精神を教える、農業で野菜を作らす、他にも。。。( ^ ± ^ ノÛ
    • 2016年04月01日 09:00
    • イイネ!6
    • コメント0
  • 転轍機を真ん中にして脱線させるじゃないの。
    • 2016年04月01日 08:34
    • イイネ!4
    • コメント2

ランキングIT・インターネット

前日のランキングへ

ニュース設定