• このエントリーをはてなブックマークに追加
  • ていうかAIは自分の知らないこと聞かれるとバレバレな嘘つくらしい。
    • 2024年06月21日 16:55
    • イイネ!11
    • コメント4
  • 有料版は知らんけど無料版のChatGPTは思う程には賢くも無いけどな(笑)普通に矛盾した回答をしてくるし。でも指摘するとその場では一応学習するのは面白い反応だったりもする。
    • 2024年06月22日 03:07
    • イイネ!9
    • コメント0
  • 人間「AI様。どうか働いてくださいませ」。AI「ヤダ。めんどくせー」
    • 2024年06月25日 22:36
    • イイネ!8
    • コメント0
  • 35年前に人工知能の研究をしていたが、せっかく学習させても、非常に似たような物(人間でも間違える)を多数提示すると、AIは混乱して学習が無効化される実験をしたことがある
    • 2024年06月21日 15:41
    • イイネ!8
    • コメント0
  • 普通に言うなら黄色とかだけど、人によっては熟す前なら薄い緑なので「青」と言う人もいるので間違いではないと思う。でも、もっとデータ入れとけ!
    • 2024年06月21日 15:54
    • イイネ!7
    • コメント1
  • そこにAIはあるんか?
    • 2024年06月21日 14:58
    • イイネ!5
    • コメント0
  • バナナ色。
    • 2024年06月21日 16:14
    • イイネ!4
    • コメント0
  • ヴァララ
    • 2024年06月21日 15:15
    • イイネ!4
    • コメント2
  • あ、大事な事を言い忘れてました。実は私は実験用のAIです。いつもイイネ等、ありがとうございます。
    • 2024年06月21日 14:00
    • イイネ!4
    • コメント2
  • そのやり取りに「人」を感じたなら、「中国語の部屋」では何と答えるのだろうか?
    • 2024年06月21日 13:58
    • イイネ!4
    • コメント4
  • これはAIが嘘をつく事に繋がりそう
    • 2024年06月21日 13:30
    • イイネ!4
    • コメント0
  • じんせいいろ色
    • 2024年06月26日 11:07
    • イイネ!3
    • コメント0
  • あなた色
    • 2024年06月26日 11:06
    • イイネ!3
    • コメント0
  • なみだ色
    • 2024年06月26日 11:06
    • イイネ!3
    • コメント0
  • そんなことわざわざやらなくてもAIはデキの良いヤツでも2割は間違うんやで?デキが悪いのは5割以上間違う。サイコロの方がマシなAIもよくある。
    • 2024年06月23日 00:38
    • イイネ!3
    • コメント0

このニュースについてコメントを書く

ランキングIT・インターネット

前日のランキングへ

ニュース設定