ChatGPTへの指示が「うまい人」と「へたな人」の差はどこにある?現役SIerエンジニアが分析してみた

「同じChatGPTを使っているのに、なんであの人はあんなにうまく使えるんだろう」

そう感じたことはありませんか?

実は、AIへの指示力(プロンプト力)には明確な差があります。そして3年間SIerでエンジニアをやってきた私が気づいたのは、その差の正体が「テクニック」ではなく、もっと根本的なところにあるということです。

この記事では、AIへの指示がうまい人とへたな人の違いを、現場目線で具体的に分解していきます。

↓noteでも記事を書いてます。こちらもぜひチェックしてみてください!


目次

同じAIを使っているのに、なぜ差が出るのか

チームで生成AIを使い始めたとき、面白いことが起きました。同じツールを使っているのに、メンバーによってアウトプットの質がまったく違ったんです。

AさんはAIに「資料作って」と入力して「なんか使えない」とぼやく。Bさんは同じAIに少し違う入力をして、すぐに実務で使えるアウトプットを出してくる。

この差は「AIの使い方に慣れているかどうか」だと思っていました。でも、よく観察すると、もっと根本的な違いがありました。

BさんはAIに話しかける前に、すでに自分の中で「何を作りたいか」が整理されていたんです。


「へたな指示」には3つのパターンがある

現場で見てきた「うまくいかない指示」には、共通するパターンがあります。

パターン1:丸投げ型

「ログイン機能を作って」 「売上レポートを作って」 「このバグを直して」

情報が少なすぎて、AIは「それっぽい何か」しか返せません。AIは読心術が使えないので、「ログイン機能」と言われても、どんな認証方式で、どんな要件で、どんな技術スタックかがわからなければ、汎用的なサンプルを出すことしかできません。

パターン2:感覚語頼み型

「いい感じにして」 「もっとわかりやすく」 「なんかおかしいから直して」

「いい感じ」はAIには伝わりません。人間同士なら文脈や関係性で補完できますが、AIには「いい感じ」の定義を言語化して渡す必要があります。

パターン3:エラーコピペ丸投げ型

「エラーが出ました。[エラーをそのままペースト]」

これでも解決できることはありますが、単純なケースだけです。「なぜそのエラーが出ているのか」「どういう文脈で起きているのか」の情報がなければ、AIは的外れな回答をすることがあります。


「うまい指示」も、実はパターンがある

では、AIをうまく使っている人はどんな指示を出しているのか。共通しているのは**「条件・背景・制約」の3点セット**です。

ビフォー(へたな指示)

「ログイン機能を作って」

アフター(うまい指示)

「PythonとFastAPIを使って、JWTベースのログイン認証を実装したい。アクセストークンの有効期限は1時間で、リフレッシュトークンも必要。ユーザー情報はPostgreSQLに保存している。セキュリティ上の注意点も合わせて教えてほしい。」

この2つの指示に対するAIの返答は、まったく別物になります。

うまい指示には必ず、①何を作るか(目的)、②どんな条件・制約があるか、③何を考慮してほしいかが含まれています。


うまい人が自然にやっている「分解する習慣」

ここが核心です。

AIへの指示がうまい人を観察すると、ある共通の習慣があります。指示を出す前に、頭の中でやりたいことを分解しているんです。

「ログイン機能を作りたい」を例にすると、分解するとこうなります。

  • どんな認証方式を使うのか(JWT? セッション?)
  • トークンの有効期限はどうするか
  • リフレッシュトークンは必要か
  • どのフレームワークで実装するか
  • セキュリティ上の考慮事項は何か

この分解ができている人は、自然と情報量の多い指示が出せます。逆に分解できていない人は、「ログイン機能を作って」で止まってしまう。

プロンプト力の正体は、「問題を構造化する力」だと私は思っています。


その力はどこから来るか──答えはプログラミングの基礎知識

では、「問題を構造化する力」はどうすれば身につくのか。

ここが、多くのプロンプト解説記事では語られない部分です。

実は、AIへの指示がうまい人の多くは、プログラミングの基礎知識を持っています。コードをすらすら書けるレベルである必要はありません。ただ、プログラムがどういう仕組みで動くかを知っているかどうかで、指示の質が大きく変わります。

例えば「認証機能を作りたい」という場面。

プログラミングの知識がない人は「ログインできるようにして」で止まります。でも基礎知識がある人は「JWTとセッション認証はどっちがいいか」「トークンはどこに保存するか」「有効期限はどう設定するか」という論点が頭に浮かびます。この論点を整理したものが、そのまま良いプロンプトになるんです。

プログラミングを学ぶことは、コードを書く練習であると同時に、**「問題を構造に分解する訓練」**でもあります。その訓練が、AIへの指示力に直結しています。


今日からできる、指示力を上げる練習法

「じゃあプログラミングを1から勉強しないといけないの?」と思った方、そこまでしなくて大丈夫です。まず今すぐできることをお伝えします。

① AIに出す前に、5W1Hで整理する

指示を出す前に、こう自問してみてください。

  • What:何を作りたいのか
  • Why:なぜ作るのか(目的)
  • How:どんな方法・技術を使うのか
  • Who:誰が使うのか
  • When / Where:どんな環境で動くのか

この5W1Hを埋めてから指示すると、アウトプットの質が大きく変わります。

② 「なぜ?」を1回多く考える

「ログイン機能を作りたい」と思ったら、一度「なぜそのログイン機能が必要か」を考えてみます。すると「不特定多数のユーザーが使うから、セキュリティが重要」「モバイルアプリからも使うから、トークン認証が向いている」という条件が出てきます。これをそのまま指示に加えるだけで精度が上がります。

③ AIの返答を「なぜ?」で深掘りする

AIが答えを出してくれたとき、「なぜその方法を選んだのか?」と追加で聞く習慣をつけます。代替案や注意点も一緒に出てくるので、理解が深まると同時に、次回の指示品質も上がります。


まとめ

AIへの指示がうまい人とへたな人の差は、テクニックではありません。**やりたいことを構造化して言語化できるかどうか、**その一点です。

そしてその力は、プロンプトの書き方を覚えることよりも、問題を分解する習慣を身につけることで育ちます。

プログラミングの基礎知識は、その習慣を最も効率よく鍛える手段のひとつです。「AIがあるからコードは不要」ではなく、「AIを使いこなすためにこそ、コードの基礎が役に立つ」──そういう時代になっていると、現場で日々実感しています。

この考え方について、もう少し詳しく書いた記事もあります。よければ合わせて読んでみてください。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

コメント

コメント一覧 (1件)

コメントする

目次