• このエントリーをはてなブックマークに追加

AI開発 究極の選択と倫理問題

75

2016年04月01日 06:21 Business Journal

  • 人工知能に「何もせずに運を天に任せる」という選択肢も用意しておくべし!( ̄ー ̄)(爆)・・・
    • 2016年04月01日 14:35
    • イイネ!0
    • コメント0
  • このAIに、「誰も殺すな」というプログラムを予め打っておいたらどうなるか?エラーを起こして判断不能となり、最初の5名は当初の予定のままに不幸な目に遭うことだろう。
    • 2016年04月01日 14:03
    • イイネ!1
    • コメント4
  • ”人間がどんな社会をつくっていくのかという議論になるはず” しかしAIがAIを設計するようになると、人間には思いつかない…かつ人間も納得せざるを得ない解答を出すかも
    • 2016年04月01日 13:39
    • イイネ!0
    • コメント0
  • どれが正解かは分からんが、人間が一番納得するのはポイントの切替はせずAが飛び込んでAと5人が死亡、死んだ6人の中にトロッコ設計者が居ればベスト、じゃないかな?
    • 2016年04月01日 13:10
    • イイネ!0
    • コメント0
  • トロッコを脱線させればいい。ポイント切り替えのケースは【抜け道】があったりする。が、【事故で必ず死人が出ると規定した想定】なので、根本的に事故らすなボケAI!
    • 2016年04月01日 12:52
    • イイネ!0
    • コメント0
  • 愛着のないものから殺すのが人間という知能である トロッコ問題にしても犠牲になる一人が我が子なら五人を殺すだろうし、逆に五人の中に我が子がいれば一人を殺すのだ
    • 2016年04月01日 12:48
    • イイネ!8
    • コメント0
  • その様な究極の2択にならないようにするのがAIの仕事なんじゃないのか?自動運転の車はオイルまみれの道には進入しない。
    • 2016年04月01日 12:45
    • イイネ!3
    • コメント0
  • 二番目の質問では自分も飛び込む事は出来るよね?
    • 2016年04月01日 12:30
    • イイネ!0
    • コメント2
  • 仮にブレーキが壊れたら、燃料の供給を止めてエンジンを止めるとか、ガードレールに車体を押し当てるとか基本動作をするところまででよくない?その結果まで予想しなくても
    • 2016年04月01日 12:19
    • イイネ!1
    • コメント0
  • 銀魂のたまさんなら誰も犠牲にせず全員助けるでしょう。
    • 2016年04月01日 12:12
    • イイネ!0
    • コメント0
  • 瞬間的な判断は合理的にした方がいいんじゃないかな。迷ってるうちに選べる手段が無くなったら意味ないし。
    • 2016年04月01日 11:56
    • イイネ!0
    • コメント0
  • トロッコ理論より、今はアラブの春を題材にした方が倫理観を養うには良いんじゃないだろうか。
    • 2016年04月01日 11:09
    • イイネ!8
    • コメント11
  • 機械にできる選択は、人を殺す前に、安全に止まること。 止まれなかった場合の罪は、設計者と製造者と現場管理者にある。 機械の判断に任せてはならない。
    • 2016年04月01日 11:09
    • イイネ!2
    • コメント0
  • トロッコという機械が壊れた時、暴走するのではなく、止まるように設計しなければならない。 それがフールプルーフ、フェールセーフ。
    • 2016年04月01日 11:05
    • イイネ!5
    • コメント0
  • とりあえず、他の答えを用意して問題回避するのはなしな。これは現実じゃなく方針の策定だ。冷たい方程式位読もうぜ。>
    • 2016年04月01日 10:18
    • イイネ!6
    • コメント1

ランキングIT・インターネット

前日のランキングへ

ニュース設定