• このエントリーをはてなブックマークに追加

AI開発 究極の選択と倫理問題

75

2016年04月01日 06:21 Business Journal

  • 愛着のないものから殺すのが人間という知能である トロッコ問題にしても犠牲になる一人が我が子なら五人を殺すだろうし、逆に五人の中に我が子がいれば一人を殺すのだ
    • 2016年04月01日 12:48
    • イイネ!8
    • コメント0
  • トロッコ理論より、今はアラブの春を題材にした方が倫理観を養うには良いんじゃないだろうか。
    • 2016年04月01日 11:09
    • イイネ!8
    • コメント11
  • とりあえず、他の答えを用意して問題回避するのはなしな。これは現実じゃなく方針の策定だ。冷たい方程式位読もうぜ。>
    • 2016年04月01日 10:18
    • イイネ!6
    • コメント1
  • 義務教育を叩きこまないと、こりゃいけないね〜ぇ(笑、 幼稚園、中学、高校��、ボランティア精神を教える、農業で野菜を作らす、他にも。。。( ^ ± ^ ノÛ
    • 2016年04月01日 09:00
    • イイネ!6
    • コメント0
  • トロッコという機械が壊れた時、暴走するのではなく、止まるように設計しなければならない。 それがフールプルーフ、フェールセーフ。
    • 2016年04月01日 11:05
    • イイネ!5
    • コメント0
  • そもそも「ニンゲン」ですら、正しい判断をしない、出来ないのにシステムや機械はそのままって設定がおかしいんじゃ?トロッコ問題なんか鉄道事業からしたら前提がおかしい
    • 2016年04月01日 09:47
    • イイネ!5
    • コメント5
  • 転轍機を真ん中にして脱線させるじゃないの。
    • 2016年04月01日 08:34
    • イイネ!4
    • コメント2
  • いや、まずアシモフのロボット3原則をプログラミングする事が先決でしょう。
    • 2016年04月01日 16:51
    • イイネ!3
    • コメント0
  • その様な究極の2択にならないようにするのがAIの仕事なんじゃないのか?自動運転の車はオイルまみれの道には進入しない。
    • 2016年04月01日 12:45
    • イイネ!3
    • コメント0
  • 人間はそういう場合に人の好き嫌いや関係性の近さを優先する。つまり感情優先がだ、機械は損得優先。
    • 2016年04月01日 10:04
    • イイネ!3
    • コメント2
  • 近代で記録に残る刑事事件とその判決から判決理由、情状斟酌の程度等膨大なデータベースを利用して、このような人工知能に被告人を処断させたらどうだろう。
    • 2016年04月01日 09:22
    • イイネ!3
    • コメント0
  • 死の定義にもよるね。肉体の死だけが死なのか、それとも社会的な死が真の死なのか。
    • 2016年04月08日 17:58
    • イイネ!2
    • コメント0
  • 公害処理用ロボットBK1「公害の元凶たる人類を殲滅すべし」ゲバニャン「アンドロ軍団支配地域の方が、自然環境が改善されているんだよなあ(ФωФ)」キャシャーン「」
    • 2016年04月01日 21:43
    • イイネ!2
    • コメント0
  • というよりも、まずは倫理より先に、AIやロボットに仕事やってもらって、人間の労働者は雇わないかどうかが問題。ロボットを働かせると少子化は問題じゃなくなる。
    • 2016年04月01日 20:00
    • イイネ!2
    • コメント4
  • 機械にできる選択は、人を殺す前に、安全に止まること。 止まれなかった場合の罪は、設計者と製造者と現場管理者にある。 機械の判断に任せてはならない。
    • 2016年04月01日 11:09
    • イイネ!2
    • コメント0

ランキングIT・インターネット

前日のランキングへ

ニュース設定