最近ちょっと面白い(というか、少しヒヤッとする)話を聞いた。
ある人の職場で、上司からこんな感じのメールが来たらしい。
「AIと壁打ちして考えた内容です」
それをそのまま「指示」として送ってきた、と。
一見すると、
「お、ちゃんと考えてるじゃん」
「最新っぽいし、合理的そう」
って思いそうな話なんだけど、たっくんはここに、けっこう強い違和感を覚えた。
しかもその違和感は、理屈で考える前に、身体が先に反応するタイプのやつ。
奥歯がカチッと噛み締まる。
肩が少し上がる。
お腹に無意識に力が入る。
「あ、これは危ない匂いのやつだな」って、身体が先に教えてくる感じ。
「AIを使った」だけでは、権威にも免罪符にもならない
まず一番気になったのは、
「自分の指示の正当性を、AIに持たせている」
という構図になっていること。
「AIと壁打ちした結果です」
と言われると、なんとなく“客観的っぽさ”とか“正しそう感”が出る。
でも実際は、
- AIは責任を取らない
- 現場の結果を引き受けない
- 判断の主体にはならない
つまり、権威づけにもならないし、責任移転にもならない存在なんだよね。
むしろ、
「自分で考えました」と言うより、
「AIが言ってました」と言うほうが、
判断の主体がぼやけて、無責任に近づく。
正直、まだ現時点では
AIを使ったかどうかは、あえて言わないほうが得策な場面も多い
とすら思っている。
本当に言うなら、ここまで言わないとおかしい
もし本当に「AIを使いました」と言うなら、本来はここまで説明しないと筋が通らない。
たとえば:
- 思考のどの部分にAIを使ったのか?
- 論点の整理?
- メリット・デメリットの洗い出し?
- 抜け漏れチェック?
- 反論候補の列挙?
- どんなプロンプト(問いの立て方)を投げたのか?
- それらをベースに、自分で何を判断したのか?
ここが曖昧なまま
「AIに相談しました」
だけだと、だいたい中身は
それっぽい一般論
にしかならない。
これはAIがダメなんじゃなくて、
問いが雑だと、出力も平均化されるというだけの話。
ただし、「AIはそれっぽいことを返すだけ」も半分ウソ
ここでよくある誤解があって、
「AIはそれっぽいことしか言わない」
という見方。
たっくんの感覚では、これは半分だけ正しい。
AIはたしかに、
現実の妥当性とか、身体感覚とか、責任とかは持たない。
でも一方で、
- 論理構造
- 前提と結論の整合性
- 分類や整理
- 矛盾の検出
このあたりは、人間よりむしろガチガチに固い。
だからこそ危ない。
論理がきれいに通っているぶん、
「正しそう」に見えてしまう。
そこに
「AIが言ってました」
という言葉が乗ると、
誰も責任を引き受けない正しさが出来上がる。
これ、組織的にはかなり危険な状態だと思う。
たぶん、その上司は悪気はない
ここで大事なのは、
その上司が悪い人だとか、ズルい人だとか、そういう話ではないということ。
たぶん本人は、
- 新しいツールを使ってみたかった
- 自分の考えが整理されたような感覚があった
- メールで長文を入力する手間が減った
くらいの、わりと善意寄りの動機なんだと思う。
でも、
「AIを使ったこと」そのものを、
判断の正当性や説得力の材料にしてしまう
ここは、かなり危ういライン。
正直、こういう人はこれから増えると思う
正直、こういう人は、これから確実に増えていくタイプだと思う。
AIと壁打ちして、
それっぽく整った文章ができて、
自分ではちゃんと考えた気がして、
そのまま現場に投げる。
けれど実際には、
どこまでがAIの整理で、
どこからが自分の判断なのか。
その判断の責任を、誰が引き受けるのか。
そこが曖昧なまま、話が進んでいく。
たっくん自身は、
AIの強みや限界、人間がどう向き合うべきかを意識しながら、かなり高密度に使ってきたので、
少しずつ感覚が掴めるようになってきた。
でも、使い始めたばかりの段階では、
この境界線はとても見えにくいと思う。
それは、実際に失敗したり、うまくいかなかったり、
試行錯誤を重ねてきたからこそ、ようやく分かることでもある。
「AIは便利だけど、
判断の主体と責任だけは、絶対に人間側に残さないといけない」
「AIを使った」と言うなら、
その使い方まで含めて、ちゃんと説明できる人でありたい。
…という、今日のちょっとした気づきでした。

コメント