最近、AIとケンカすることが増えた。
例えば、打合せ議事録を作ってもらうのだが、精度がないところまでは許せる。
しかし、一度あったのは、こちらが理解している内容を盛り込んでもらうよう指示を出したら、そのように聞き取ってないので書けません、と言われたこと。「いやいやこう言ってたでしょ、結論はこうなんだからそう書くべし」と指示しても言うこと聞かず。。カチンと来てもういいです頼みません、みたいな。人間様の言うこと聞きなさいよ、と。
あと、大事な論点を見逃しまくったり、事実と異なる内容を推測で入れ込んできたり。専門用語の多い会議ばかりなのでしょうがない一面もあるとはいえ。困る。
なんでそうなるのよ、と会話しながらやり取りしている。
他の例では、法律や規則を読み込ませて、このケースはどの条文に該当するか?そこに何が書いてあってどう解釈すべきか?を聞くのだが、大事なところを見逃しがち。
自分で検索して「ここにも書いてあるじゃん、なんで見逃したの?」と聞くと、AIが「申し訳ありません」と謝る。いや謝ってほしんじゃなくて、AIゆえの正確性を期待しているのだから、意味のないと会話したり。
で、これは指示する方が悪いのだ、と気づく。
推測を入れて欲しくなければ推測を一切排除せよ、とプロンプトを書けばいい。
見逃しがちなら、もう一度全部読み直してチェックしてからアウトプットせよ、と言えばいい。
根拠が不十分なら、根拠を明確にしてロジカルにクリアに説明せよ、と指示すればいい。
指示を変えると劇的にアウトプットが変わる。
AIは自分の鏡なのだ、と改めて気付いた最近。うまく動かせないのは指示する方が良くない可能性があり、まずそこを疑うべし。
結局人の組織をマネジメントするのもAIを活用してアプトプットを最大化するのも根本のところは同じなのかもしれないな、というのが最近の気づき。
AIは日々進化いている。数ヶ月後か1年後かわからないがどんなことをこのブログに書くことになるか、楽しみである。
関連記事
- AIを仕事に使っての感想。2025夏時点。(2025.7.10)
- 『これからのAI、正しい付き合い方と使い方』。AIを学ぶにあたって最初の一冊に。(2025.8.4)

















