
AIはどんな質問にも嫌な顔をせず、ため息もつかず、何度でも付き合ってくれる存在として、多くの人にとって「感情的に安全な相手」になりつつあります。
忙しそうな上司に声をかけるよりも、手元のスマホでAIに打ち込む方が気が楽だと感じる従業員も増え、「AIの方が頼りになる」「AIの方が『人柄』もいい」とまで思われてしまう場面も出てきています。
部下が「質問するのが怖くなる」職場とは
管理職研修で、部下とのコミュニケーションについて「部下の質問や報告に対して、相手の顔も見ず、仕事の手も止めずに返事していた」と振り返る方は少なくありません。上司の側に悪気はなくても、その瞬間の態度や表情は、部下にとって、次のような体験として強く記憶に残ります。
「上司がいつも忙しそうで、話しかけてよいのか分からない」
「やっと勇気を出して聞いても、目も合わせずに片手間で返事される」
「迷惑そうな表情やため息に触れて、次はもうやめておこうと感じる」
こうした経験が重なると、部下は「これくらい自分で何とかしないと怒られる」「忙しそうだし、AIに聞いて済むならその方がいい」と考えるようになります。
その結果、本来であれば早めに相談してほしい案件ほど、上司の耳に入らないという状況が生まれてしまいます。
上司や会社側がまず押さえておきたいのは、「この人に質問したら回答を得られるか」という相手の能力の問題以前に、「この人に聞いたら感情的に傷つけられるかも」という心理的安全性を疑う感覚によって、相談するかどうかが決まっているという現実です。
AIは“下準備”には便利だが、万能ではない
一方で、部下の側から見ると、AIは質問の下書きをするには非常に便利な存在です。
たとえば、上司に相談する前に「この業務で行き詰まっています。状況は◯◯で、自分でやったことは△△です。上司に質問するとしたら、どんな伝え方が分かりやすいでしょうか」といった形でAIに尋ねると、状況説明の抜け漏れや自分で試したこと、上司に判断してもらいたいポイントが整理され、結果として「上司からしても答えやすい質問」に近づきます。
上司や会社としては、このような使い方はむしろ歓迎すべきものです。何も考えずに丸投げするのではなく、自分で調べ・考えたうえで相談する文化が根づきやすくなるからです。
しかし、AI活用には限界もあります。部下の感情やためらい、職場特有の事情を汲んでくれるわけではなく、「本当は何に困っているのか」や「誰との関係をどう調整したいのか」といったニュアンスまでは読み取りきれません。
また、後述するように、利用の仕方によっては情報漏洩のリスクを高める場合もあります。
だからこそ、上司や会社側は「AIで準備してから相談するのは良いことだが、AIだけで完結させず、最後は人に持ってきてほしい」というメッセージを、意識的に打ち出していく必要があります。
私物スマホでのAI利用にどう線を引くか
近年静かに広がっているのが、従業員が私物スマホから無料のAIに業務のことを聞くという行為です。
たとえば、「取引先からこういうクレームが来たが、どんな対応が適切か」「社内の特定の人とのトラブルについて、どう伝えたらよいか」といった相談を、そのまま外部のAIに入力してしまうケースも見られます。
本人に悪意はなく、「少し相談しただけ」のつもりでも、会社の視点から見ると、入力内容がサービス側のサーバーに残ったり、学習に使われたりする可能性があり、取引先名や契約条件、人事・トラブル情報などが外部に残り続けるリスクがあります。
さらに、私物スマホ・個人アカウントでの利用は会社から実態を把握しづらく、管理の外側でリスクが蓄積されていきます。
上司や会社がやるべきことは、「なんとなく危なそうだから禁止」という感覚的な対応ではありません。
まず、私物端末や無料版AIで入力してはいけない情報、たとえば個人情報、機密情報、具体的な取引内容や金額、社名や人名、社内トラブルの詳細などを明確に定義し、ガイドラインや就業規則の中で「ここから先はNG」と線を引くことが必要です。
そのうえで、企業向けの設定がなされたAIツールや社内専用のAIチャット環境を用意し、入力データが外部学習に使われない契約・設定を選ぶことで、「ここなら安心して使える」という公式な場を提供していきます。
こうした仕組みがあってこそ、「私物スマホでこっそり聞く」のではなく、「決められた環境で、決められた範囲のことを聞く」という健全な利用が広がります。
「質問しやすい上司」がつくる心理的安全性
では、上司個人としては、どのようなふるまいが「質問しやすさ」をつくるのでしょうか。
ポイントは、特別なスキルよりも日常のささいな態度の積み重ねにあります。
忙しい場面でも、部下に声をかけられたら一度は必ず顔を上げ、「今は手が離せないので、◯時から5分だけ時間をもらえる?」と具体的に時間を示して応じることで、「話しかけてはいけない人」という印象を和らげることができます。
質問の第一声に対して、内容より先に「来てくれてありがとう」「迷った段階で持ってきてくれたのは助かるよ」と声をかけることで、「迷惑をかけた」という罪悪感よりも、「相談してよかった」という感覚を残すことができます。
言葉の選び方も、心理的安全性に大きく影響します。
同じ状況でも、「なんでこんなことも分からないの?」と反応すると、部下は「もう聞くのはやめよう」と心を閉ざしますが、「どこまで分かっていて、どこからが不安か一緒に整理しようか」と返すと、「未完成な状態の自分でも受け入れてもらえる」と感じやすくなります。
また、上司自身の失敗談や迷いを適度に共有することも有効です。
「自分もこの手の案件は、最初は何度も確認していた」「この判断は今でも時々『これでよかったか』と振り返ることがある」といった話に、部下は「この人でも迷うのだから、自分も相談していいのだ」と安心します。
こうした日々のふるまいの積み重ねが、「AIより、この上司に聞きたい」という信頼につながっていきます。
AIにはできない「問いを一緒に磨く」関わり
AIは、与えられた質問にもっともらしい答えを返すことには長けていますが、「そもそも何を聞くべきか」「本当に困っているのはどこか」を一緒に探ることは得意ではありません。
ここにこそ、上司や先輩の存在価値があります。
たとえば、部下が「部下のやる気がなくて困っています」と相談してきたときに、「最近、どんな場面でそう感じた?」「そのとき、あなたはどう声をかけた?」と問いを重ねていくと、問題の焦点がコミュニケーションなのか、目標設定なのか、評価の仕組みなのかといった具合に徐々に絞り込まれていきます。
また、部下がAIで整理したメモを持ってきた場合には、「ここまで整理してくれたのはすごく助かる。会社の事情を踏まえると、こういう観点も加えておきたいね」と伝えながら、現場特有の事情や過去の失敗事例、経営陣やキーパーソンの価値観といった、AIには持ち得ない文脈を加えることができます。
この問いを一緒に磨くプロセスこそが、「AIに聞くより、この人に聞いてよかった」と部下に感じてもらえる体験になります。
部下の質問や報告をAIに奪われないために
AIは、部下の質問を整え、情報収集を助ける心強いツールです。しかし、AIが「質問しても怖くない相手」「一緒に考えてくれる相手」になってしまうと、本来なら上司に届けられるはずの小さな不安や違和感、初期相談が、人のところまで届かなくなってしまい、組織としてのリスクは高まります。
AIそのものが悪いわけではなく、「まず試してみる安全な相手」としては非常に有効ですが、だからこそ上司や会社側には、「質問しやすい関係」と「安全なAIの使い方」の両方を整える役割が求められているのです。
これからの上司や会社に求められるのは、部下の質問や報告を歓迎する態度を日常のふるまいで示すこと、私物スマホによる危険なAI利用に線を引きつつ、安全な活用環境を用意すること、そして「まずAIで準備し、最後は人に相談する」という流れを推奨することです。
その積み重ねが、「AIに聞けばいい」だけの職場ではなく、「AIで準備して、この人に相談したい」と思われる上司と職場を育てていくはずです。






