生成AIを仕事で使うのはもはや日常になってきた。みんなが横並びで使うからこそ、「どうすればAIをもっと上手に使えるのか?」と考え、悪戦苦闘する人も多いだろう。

「AIを上手に使う人とそうでない人を見比べると、そこには“ある差”があります」と話すのは、シアトル在住で米GAFAMで働く日本人、福原たまねぎ氏だ。福原氏の所属先では経営陣が率先して「AIをたくさん使おう」と大号令を発し、社内では徹底的に活用するムードが漂っているという。

では、そんな環境下でも「上手に使う人/使えない人」にはどのような差があるのか?解説してもらった。(以下は福原氏による一人語り)

AIを使いこなす人になる「たった一つの条件」とは?米テック企...の画像はこちら >>

6時間かけてAIを徹底トレーニング

先日、僕の所属先の同僚が「6時間かけてAIを徹底的にトレーニングした」と話していました。その結果、「すごく優秀な文章執筆マシンになって、“もう一人の自分”ができた」と。では、どんなトレーニングをしたのかというと、過去の自分が作った文章や優秀な同僚が書いた文章など、大量のデータをAIに“食わせた”そうです。

このようにAIを上手に使うこなす人は独自のカスタマイズをしたりして、AIを「真に使えるツール」にしています。文章の癖や思考のパターンまで学習させ、「もう一人の自分」とでも言うべきAIアシスタントを完成させています。

ただ、これはある程度の経験値を積んだ人だからできることです。なぜなら、データを大量に学習した末にAIが生み出すアウトプットを「優秀か否か」と判断できる人じゃないとダメだから。反対に新卒の人などは、良いか悪いかという“ボーダーライン”がないので、結局はAIのアウトプットに対して自分で判断ができません。

「AIが書いた小説」の出来栄えを判断できるか?

AIを使ううえで重要なのは、「何が良いアウトプットなのか」という基準、つまり品質のボーダーラインを自分の中に持っておくことです。書く作業はAIに任せても、少なくとも優れたアウトプットを読んで、「これなら上司に褒められるレベルだ」「これならプレゼンに耐えられる文章だ」という基準を知っておく必要があります。

2024年に芥川賞を受賞した作家・九段理江さんは受賞作品の一部をAIに書かせたことで話題を呼びました。
九段さんは今年には「95%生成AIで書いた」という短編小説も発表していますが、これは単に「AIが優秀な小説的文章を書ける」という話ではないと思います。

むしろ作家自身が非常に高い“判断基準”を持っていたからこそ、AIのアウトプットを的確に判断し、活用できたのだと思います。もし基準値が低い人が同じことをすれば、凡庸なインプットから凡庸なアウトプットが生まれ、それに満足して終わってしまうでしょう。

AIを使いこなす人になる「たった一つの条件」とは?米テック企業で働く日本人マネージャーが解説
AIによる成果物の良し悪しを判断するのは、結局は人間だ。写真/PIXTA

翻訳家の仕事はAIに奪われない

アメリカでは、AIを使うスキルが直接的に評価を左右する時代になっています。先日、ワシントン大学のキャリアアドバイザーイベントで、Microsoftでエンジニア採用を担当している方と話す機会がありました。彼は若手エンジニアを採用する際の面接で「AIをちゃんと勉強していて、ある程度使えるか?」を必ず聞くと話していました。

少なくともエンジニアの世界では、AIを使えるかどうかという点がどんどん採用基準にも盛り込まれていくでしょう。彼らが求めているのは新しい技術を自身のプログラミングに活かせる人材で、それはもはや標準スキルなのです。

ただ、だからといって非エンジニア職でも同様にAI活用が条件になるかと言えば、そうはならないと思います。これはテック業界の前線で働く身としての実感なのですが、AIによる仕事の代替には、まだまだハードルがあると思うからです。

たとえば翻訳の仕事です。洋書を日本語に翻訳するような仕事は、「真っ先にAIに奪われる」などと言われてきました。確かに、英語を日本語に変換すること自体は簡単です。
しかし、小説のような作品の場合、単に言葉を置き換えただけでは、誰もお金を払って読みたいとは思わないでしょう。

翻訳家は、言葉の裏にある時代背景や、文章全体の文脈、作家の癖といった「文字として書かれていない多くの情報」を理解したうえで言葉を選んでいます。この「行間を読む」作業は、現在のAIにはまだ難しい。英語だろうが日本語だろうが、この「文字通りではないこと」を理解する能力は、依然として人間の強みです。

AIのアウトプットは「正しすぎてウザい」

また、仕事における“正解”は、AIが考える正解とは必ずしも一致しません。AIにとっての正解が「1+1=2」だとしても、職場における正解は「上司は2という答えが好きじゃないから、1.5と報告しておこう」とか、「本人に直接伝える前に、別の人に根回ししておいた方がスムーズに進むな」といった、人間関係や組織の力学を考慮したものであることが多いです。

AIのアウトプットは、時として「正しすぎて逆にウザい」と感じられる結果を生みかねないのです。このような、職場特有の複雑なコンテキストを理解してアウトプットを調整する能力は、まだまだ人間に分があります。

サム・アルトマンのようなAIを推進する人々は、「AIが未来をどう変えるか?」「どんな仕事がなくなるか?」を語ります。しかし、そのビジョンと、現場で働く社員の感覚には、まだ大きな温度差がある。これはAIが役に立たないということではありません。単に期待値が先行しすぎているということだと思います。


とはいえ、これはあくまで過渡期の話です。今はまだ「人間が作った優れたアウトプットにAIを近づける」というアプローチを取っていますが、将来的にAIが人間では思いもつかないような優れたアウトプットを生み出せるようになれば、話は変わってきます。その時には「人間が手出ししないほうが良い結果が生まれる」という状況になるかもしれません。

そんなブレイクスルーが起きた時、私たちの仕事や価値観は、再び大きく変化することになるのかもしれませんね。

<構成/秋山純一郎 写真/PIXTA>

【福原たまねぎ】
米GAFAMでプロダクト・マネージャーとして勤務。ワシントン大学MBAメンター(キャリア・アドバイザー)。大学卒業後にベンチャー企業を経て2016年に外資系IT企業の日本支社に入社。2022年にアメリカ本社に転籍し現職。noteでは仕事術やキャリア論など記事を多数発表。X:@fukutamanegi
編集部おすすめ