• このエントリーをはてなブックマークに追加

2023/05/30 10:05 配信のニュース

44

2023年05月30日 10:05

  • 予想できる結果。そのまま出した弁護士は、損害賠償だけじゃ済まないね。
    • 2023年05月30日 11:02
    • イイネ!13
    • コメント1
  • そんなことをしたら弁護士ドットコムがだまっちゃいませんw
    • 2023年05月30日 10:39
    • イイネ!9
    • コメント2
  • 虚構裁判というサイトができそうだな
    • 2023年05月30日 11:56
    • イイネ!6
    • コメント2
  • そんなもんだろうね、AIは類似のことを引いてきてなんとなく上手く組み合わせるだけ。著作権違反で引用したり、個人情報の不適切な流用もあり得る。
    • 2023年05月30日 11:50
    • イイネ!4
    • コメント0
  • 判例という一次情報を参照しようとして虚偽が発覚したが、これが見逃されれば虚偽の上に積み上げた実在の判例ができあがってしまう。
    • 2023年05月30日 11:44
    • イイネ!4
    • コメント0
  • ってか、判例以前の問題でカートが通るのに通路に足投げ出すなよ CAも無理してないで一声かけろ弁護士がチャットGPTを使ったら 「偽の判例」が裁判資料に 米国 (朝日新聞デジタル - 05月30日 10:05)
    • 2023年05月30日 10:38
    • イイネ!3
    • コメント0
  • そんないい加減なゴミプログラムなんか使い物にならんな弁護士がチャットGPTを使ったら 「偽の判例」が裁判資料に 米国 (朝日新聞デジタル - 05月30日 10:05)
    • 2023年05月30日 10:37
    • イイネ!3
    • コメント0
  • というか、偽情報をネットにバンバン上げる行為が更に加速する展開になるでしょう・・・。
    • 2023年05月30日 10:36
    • イイネ!3
    • コメント0
  • 配膳カートが当たったくらいで裁判、弁護士は自分で調べもせずAI頼みのB級。判決はこいつら2人レバノンに追放で
    • 2023年05月31日 08:42
    • イイネ!2
    • コメント0
  • AIは所詮アルゴリズムに従ってデータベースに蓄積したデータの平均を取るようなもんだから、ある意味必ず間違ってるぐらいの感じでいいかもしれない・・・
    • 2023年05月31日 01:59
    • イイネ!2
    • コメント0
  • 当たり前でしょ、証跡作るツールじゃないんだから。てかどのランクでやったのよ。いい加減な記事だなあ
    • 2023年05月30日 11:42
    • イイネ!2
    • コメント0
  • 車の事故だと、インド人を右にとか生成しそうだ。
    • 2023年05月30日 11:41
    • イイネ!2
    • コメント0
  • 一般化したら、世間の混乱は計り知れない。
    • 2023年05月30日 11:37
    • イイネ!2
    • コメント4
  • 引用された6件の「判例」を見つけることができなかった。それらは実際には存在せず、いずれもチャットGPTが作成したものだという←朝日や朝鮮人みてーだなwwwwwwwww
    • 2023年05月31日 14:19
    • イイネ!1
    • コメント0

前日のランキングへ

ニュース設定