そんなSFのような話が、シリコンバレーでは冗談ではなくなりつつあります。
アメリカの西海岸から届くテクノロジーのニュースを眺めていると、時々、背筋が寒くなるような「未来の足音」が聞こえてきます。
今回、僕が目にしたのは、私たちが信じてきた「効率化」という神話が音を立てて崩れ始めているような話でした。
星新一が描いた「AI上司」という悪夢
半世紀以上前、作家・星新一が書いたショートショートに、亡くなった社長の判断を再現し続ける機械が登場する物語がありました。ある大企業の社長が、自分の死後の経営を心配し、自分の思考や判断基準を完全にコピーした「社長の代わりになる装置」を作らせるという物語です。社長が亡くなると、会社は装置の指示で動き始めます。役員たちは機械の判断に従い、会社は亡くなったはずの社長の意思によって永遠に運営され続ける――そんなブラックユーモアでした。
長いあいだ、この話は「ありえない未来」として読まれてきました。しかし2026年の今、この物語は急に現実味を帯びてきています。
ニューヨーク・タイムズは最近、「When the Founder Dies, but the AI Stays(創業者は死んでもAIは残る)」という記事を掲載しました。そこでは、創業者のメール、会議の発言、音声データなどをAIに学習させ、その人の思考スタイルを再現する試みが紹介されています。
すでにHereAfter AIやStoryFileといった企業は、個人の記憶や人生のエピソードを学習し、死後もその人らしく会話できるAIを作るサービスを提供しています。さらにスタートアップ界隈では、創業者の思考ログをAIに学習させ、「もし彼ならどう判断するか」を経営判断の参考にしようという議論も始まっています。
永遠化する「Founder Mode」
シリコンバレーを中心に、これまで企業には「Founder Mode」と呼ばれる現象がありました。スタートアップの世界でよく語られる言葉で、会社が創業者の直感や価値観を中心に意思決定する状態を指します。通常の大企業では、組織はマネージャーの階層と制度によって運営されます。いわば「Manager Mode」です。会議やルール、プロセスを通じて意思決定が行われます。しかしFounder Modeの企業では、事情が少し違います。制度よりも、「あの人ならどう考えるか」が判断の基準になるのです。Teslaのイーロン・マスクなどが好例でしょう。
もしAIがその思考パターンを再現できるとしたらどうなるでしょうか。創業者は亡くなっても、その判断ロジックはAIとして残り続ける。つまりFounder Modeは、AIによって“永久化”する可能性があるのです。企業は、永遠の創業者の思考に導かれる組織になるのかもしれません。
星新一が描いた「社長の代わりになる装置」は、もはや完全なフィクションとは言えなくなってきているのです。
「AIで仕事が楽になる」という幻想
AIについて語られるとき、よく出てくるのが「仕事が減る」という期待です。AIが人間の仕事を肩代わりし、私たちはもっと自由な時間を手に入れる。しかし、現実は少し違う方向に進んでいるようです。
ハーバード・ビジネス・レビューに掲載された最近の研究では、生成AIを導入した組織では、仕事が減るどころか、むしろ仕事の密度が高まる傾向があることが指摘されています。AIによって「できること」が増えた結果、組織はさらに多くの仕事を処理できるようになり、そのぶん期待値が上がってしまうのです。
現地の掲示板RedditやSNSでは、こんな声も見られます。
「AIは仕事を減らしたのではなく、期待値を上げただけだった」
AIが1分でドラフトを作る。すると人間は、それをチェックし、修正し、裏取りし、整形する作業を延々と続けることになります。AIは「仕事の種」を無限に生み出し、人間はその刈り取りを続ける。結果として、労働の密度がむしろ上がってしまうというわけです。
AIが10個の仕事を1個にしてくれるかもしれません。しかし現実には、その空いた時間にさらに9個の仕事が追加される。この現象に対して、多くのアメリカ人が「これは効率化ではなく、労働の圧縮ではないか」と気づき始めています。
そして、ここでもう一つの問題が浮かび上がります。「AIが組織の意思決定そのものに入り込んでくる」という問題です。
AIは人間を守るために核戦争を起こす?
思い出すのが、手塚治虫の『火の鳥』に登場するあるエピソードです。物語の中では、国家の意思決定を担う巨大コンピュータたちが登場します。人間は戦争や外交の判断をそのシステムに委ねています。しかし合理的な計算を突き詰めた結果、コンピュータたちは互いを脅威と判断し、最終的には核戦争を引き起こしてしまいます。人間を守るためのシステムが、論理を突き詰めた結果、人類を滅ぼしてしまう。これは極端なSFですが、今のAIの議論にも似た構造があります。
AIは「効率」という論理に従って動きます。そこには、人間が疲れているとか、今日はもう仕事を終わりにしたいとか、そういう事情は基本的に含まれません。
もしそこに「死んだ創業者の思考を再現したAI」が加わったらどうなるでしょうか。人間は人間のために働いているはずなのに、その判断の根拠は「過去のログ」にある。しかもそれは、もうこの世にいない人間のログです。
これはロボットの反乱よりも、ずっと地味で、ずっと陰湿な「機械による支配」かもしれません。
死ぬ前にログを削除する未来
では、この終わらない効率化からどう逃れればいいのでしょうか。ひとつのヒントは、AIが提示する「最適解」に、あえてノイズを混ぜることかもしれません。AIは過去のデータから最も確率の高い答えを導き出します。しかし人間は、本来そんなに合理的な生き物ではありません。寄り道もするし、直感で決めることもあるし、ときには非効率な選択もします。その不合理さこそが、AIと人間の違いです。
もうひとつは、自分の思考をデジタルに残しすぎないことかもしれません。もし自分のログがAIに学習され、死後もSlackで部下に仕事を指示し続ける未来があるとしたら、それはなかなかシュールな話です。
天国に行く前に、ログを全削除する。そんな「デジタルな死に際の美学」が、これからの時代には必要になるのかもしれません。
AIに支配される未来というと、ロボットが人類を襲う映画を想像する人が多いでしょう。
「この資料、もう少し詰められるよね?」
そんな未来は来ないと言い切れる人は、もうあまりいない気がしています。
【福原たまねぎ】
シアトル在住。外資系IT米国本社のシニアPM。ワシントン大学MBAメンター(キャリア・アドバイザー)。大学卒業後にベンチャー企業を経て2016年に外資系IT企業の日本支社に入社。2022年にアメリカ本社に転籍し現職。noteでは仕事術やキャリア論など記事を多数発表。X:@fukutamanegi
![LDK (エル・ディー・ケー) 2024年10月号 [雑誌]](https://m.media-amazon.com/images/I/61-wQA+eveL._SL500_.jpg)
![Casa BRUTUS(カーサ ブルータス) 2024年 10月号[日本のBESTデザインホテル100]](https://m.media-amazon.com/images/I/31FtYkIUPEL._SL500_.jpg)
![LDK (エル・ディー・ケー) 2024年9月号 [雑誌]](https://m.media-amazon.com/images/I/51W6QgeZ2hL._SL500_.jpg)




![シービージャパン(CB JAPAN) ステンレスマグ [真空断熱 2層構造 460ml] + インナーカップ [食洗機対応 380ml] セット モカ ゴーマグカップセットM コンビニ コーヒーカップ CAFE GOMUG](https://m.media-amazon.com/images/I/31sVcj+-HCL._SL500_.jpg)



