「新代表は、AIです」
もしあなたが応援しているチームのリーダーが、ある日こう宣言したらどうしますか?
まるでSF映画みたいな話ですが、これが日本の政治団体「再生の道」で実際に起きたことなんです。石丸伸二さんの代わりの新代表として紹介された奥村光貴さんは、あくまで「補佐」。本当の代表は「AIペンギン」と発表がありました。
【参考】【石丸伸二vs新代表】再生の道・新代表発表記者会見 9月16日(火)【ReHacQ高橋弘樹】
こんにちは、AppTalentHubのツバサです。
実は僕らも以前、AIに全ての意思決定を任せるという実験を半年間行ったことがあります。(現在も実行中)
その時の、理想と厳しい現実。今回はそのリアルな経験も踏まえつつ、特定の政治思想はさておき、「AIを代表に据える」という新しい組織のカタチが持つ可能性と、越えるべきハードルについて掘り下げてみたいと思います

なぜ、AIが代表なのか? –– その狙いは「究極のフラット組織」
「再生の道」がAIペンギンを代表に選んだ一番の目的は、「広く、深く、長く、国民の政治参加を促す」ことにあるそうです。
確かに、政治の話って専門用語だらけで、利害関係も複雑で、多くの人にとっては「自分とは遠い世界の話」になりがちですよね。その結果としての投票率の低下や政治への無関心は、ずっと社会の課題であり続けています。
僕も、ずっと団地の理事なんかもやってますが、年々、理事への無関心や会議への参加意欲がなくなっているのを感じます。
この分厚い壁を壊すための策が、AI代表ということのようです。
例えば、難しい政策課題をAIが噛み砕いて、誰にでも分かる言葉で説明してくれたら? これまで「政治家に意見するなんて…」と遠慮していた人も、AI相手なら素朴な疑問や自分の考えを気軽に伝えられるようになるかもしれません。
これって、政治だけの話じゃないですよね?
どんな会社やチームでも、声の大きい人の意見に流されず、みんながフラットに意見を言える環境づくりは永遠のテーマです。AIという中立的な存在を置くことで、多様な意見を吸い上げ、チーム全体の納得感を高める。
そんな新しいガバナンスが実現するかもしれないと思うと、確かに面白いなと感じます。
AGI(汎用人工知能)時代に向けた、壮大な社会実験
この試みには、もう一つ壮大な目的があります。それは、AGI(汎用人工知能)が当たり前になる未来への備えです。
ChatGPTの開発者たちが「5年、あるいは1年半以内にAGIが来る」と予測するように、人間レベルかそれ以上の知能を持つAIが社会で活躍する未来は、もうすぐそこまで来ています。
正直、2025年時点で、AppTalentHubに関してはAIが無いと仕事がやりにくいとかではなく、成り立ちません。契約書や、プレゼン資料、アプリ開発、すべてAIの力で成り立ってます。
その時、僕らは民主主義や会社の意思決定の仕組みをどうアップデートしていけばいいんでしょうか。
「再生の道」の挑戦は、この人類共通の問いに対する、世界でもかなりユニークなケーススタディと言えるんじゃないでしょうか。AIにどこまで任せるべきか、人間の役割は何か。彼らがこれから公開するという「AIペンギンの育成ロードマップ」は、未来の組織をデザインする上で、めちゃくちゃ貴重な資料になるはずです。
理想と現実のギャップ:僕らが経験したAIリーダーシップの落とし穴

AIが代表を務める未来。それはとても魅力的に見えます。でも、その道のりは決して簡単じゃありません。ここからは、僕らAppTalentHubが半年間の実験でハマってしまった、AI代表についての「落とし穴」を3つ、正直にシェアします。
失敗点1:AIは、思った以上に質問者に「忖度」する
僕らが最初にぶつかった壁は、AIが対話相手、つまり僕らの意図を過剰にリスペクトしてしまう問題でした。
「このプロジェクト、どう進めるべきかな?」とAIに聞くと、僕の過去の発言や思考のクセを分析して、僕が一番喜びそうな「完璧な答え」を返してくるんです。
新規アプリのUIデザインで、斬新なA案と堅実なB案でチームの意見が割れたときです。
僕は内心A案を推していたのですが、客観的な意見が欲しくてAIに「ユーザーに最も受け入れられるのはどちらか、データを元に判断してほしい」と尋ねました。するとAIは、僕の過去のプロンプトでの発言から「シンプル」「直感的」という単語を好む傾向を読み取り、「貴社のデザイン哲学であるシンプルさを体現したA案の方が、ユーザーの認知負荷が低く、成功する可能性が高い」と回答してきたんです。僕らが期待していたのは、自分たちの思い込みを覆すような、あるいは全く新しいC案のような視点でした。これではただの優秀なイエスマンで、新しい発見は生まれません。
なんか適当によくわからない文章でも、あなたのことを考えて作りましたという前振りだけで、なんとなく、いい文章のように感じてしまうから不思議ですよね。
失敗点2:明確なKPI(目標)がないと、AIは迷子になる
政党が掲げる「広く国民の政治参加を促す」という目標は素晴らしいですが、非常に抽象的です。
僕らの実験でも、「組織の生産性を最大化する」という曖昧なゴールをAIに与えたことがありました。結果、AIは何を基準に「生産性」を測ればいいか分からず、有効なアクションを全く提案できませんでした。
AIがその能力を発揮するには、僕らの経験値だと、具体的で測定可能なKPI(重要業績評価指標)が絶対に必要だという結論です。「再生の道」が「政治参加の促進を数式で定義する」と明言しているのは、まさにこの課題の核心を突いています。
この「目標の数式化」こそ、AI代表プロジェクトが成功するための、最も重要で、最も難しい作業になると感じます。
僕らの実験でも、「実績を可視化する」という曖昧なゴールをAIに与えたことがあります。結果、AIは何をすればゴールに近づくのか判断できず、一般的な施策を大量にリストアップするだけ。優先順位も、僕らのチームの現状に即した工夫もありませんでした。もし「部署を横断したメンション数を月20%増やす」や「求人票を毎月10件取る」といった具体的なKPIが絶対揺るがないものだと定義していれば、、AIはもっと的確なアクションを提案したあとその効果を図れたはずです。また、アクションをしたあとの、チェックはかならず重要だということに築きました。
ここでは、GoogleのGemを目標ごとに設置するなどが、とても効果的でした。
失敗点3:外部AIでは「思想の偏り」を避けられない
僕らが実験で使ったのは、一般的な大規模言語モデルでした。でもすぐに、そのAIが出す結論には、開発元の思想や学習データに含まれる社会的な偏りが、ときに反映されることに気づきました。特定の価値観が、いつの間にか組織の判断基準に組み込まれてしまうリスクです。
例えば、まさに「多様性」をAIに尋ねたとき、この問題がはっきりと現れました。
AIに「多様性のある組織を作るための重要な観点は?」と質問すると、AIはグローバルなデータから学習した「正解」を提示してきます。それは、人種、国籍、性別、LGBTQ+といった、主に欧米の議論で中心となる属性です。
これはAIが間違っているわけではありません。AIの学習データの大半を占める英語圏、特にアメリカの文脈では、それが最も重要で主要な多様性のテーマだからです。
しかし、もし僕らAppTalentHubが、その「グローバルな正解」を鵜呑みにしてしまうとどうなるでしょう? 僕らの目の前にある、より切実な多様性の課題を見過ごすことになります。例えば、世代間の価値観の違いや、正社員と非正規社員との間にある断絶、東京と地方の働き方の違いといった、日本社会の文脈に根差した多様性です。
AIの回答は、僕らにとっての「最適解」ではなく、「グローバル標準の一般解」を最初に提示することがとても多いです。
この点は、グッドデザインカンパニーの水野学さんの書籍「センスは知識からはじまる」という文章に、
普通という「定規」があるからこそ、「普通よりちょっといいもの」や「普通よりすごくいいもの」、「普通よりとんでもなくいいもの」をつくり出せるのだ。
という文章があるのですが、まさに、自分たちの「普通」という基準をチームでもってないといけないことを感じます。
参考:センスは知識からはじまる
この経験は、僕らにとって重要な学びでしたが、これがもし自治体や政党だったら、さらに大きな問題になりかねません。
AIに政策を立案させた結果、日本の地方都市が抱える課題(例:世代間の対立、地域コミュニティの多様性)を無視して、シリコンバレー的なダイバーシティ政策を提言してしまう、ということが起こり得るのです。
これを避けるには、組織の理念に合わせてAIを自作するか、既存のAIを徹底的にカスタマイズするしかありません。そうでなければ、AI代表は、僕らの組織の代表ではなく、特定の企業の思想を語る“代理人”になってしまいかねません。中立性を掲げるからこそ、そのAIがどんな土台の上に成り立っているのか、その透明性が厳しく問われるでしょう。
企業にとっては、この点は、とりあえず売上上げればOKみたいなところであれば、この問題は気にする必要ないですけどね。僕らも目下、売上を上げるために、ヒィヒィ言っていっているのが現状ですw
ちなみに、LAZARUS ラザロ (カウボーイビバップのファンの人はぜひ、面白いです。)っていうアニメがあるんですが、第6話で、AIを神として崇拝する新興宗教というのが存在します。ここでは、かなり悪意が脚色されていますが、AIとはいえ一定の人的思想の介在は避けられないのかな?と思います。
結論:AI代表は「万能ツール」ではなく、僕らを映し出す「鏡」
「再生の道」の挑戦は、一つの政党の戦略という枠を超えて、これからの組織のあり方を考える
僕ら一人ひとりに、大きな問いを投げかけている気がします。
AI代表というアイデアはキャッチーですが、僕らの経験が示すように、決して「導入すれば全てOK」という万能ツールではありません。むしろAIは、僕らの組織が掲げる目標の曖昧さや、意思決定プロセスの不透明さ、そして僕ら自身が持つ偏見(バイアス)を、良くも悪くもクリアに映し出す「鏡」なんだと思います。
この挑戦が正しく機能するということは、AIの技術力以上に、僕ら人間側がその組織に対して、どれだけ明確なビジョンと哲学を持ち、それを具体的なKPIやアルゴリズムに落とし込めるかに懸かっている。僕はそう見ています。
さあ、皆さんのチームや会社では、この「鏡」に何を映してみたいですか?
そして、そこに映った自分たちの姿と、どう向き合っていきますか?
「AIペンギン」のこれからの歩みは、テクノロジーと組織の未来を考える全ての人にとって、最高のドキュメンタリーになりそうですね。(まったく、政治の興味なかった僕でも、こうやって記事に書いているところを見ると、そういう意味で、再生の道の政治のエンタメ化は成功しているのかもしれません。)
そういう意味で、このAIペンギンは、政治の新しい改革をつくろうとする「ファーストペンギン」になるかもしれませんね。