選択の季節!? AIの未来を分けた三つの「辞める・作る・集まる」

選択の季節!? AIの未来を分けた三つの「辞める・作る・集まる」

OpenAI robotics lead quit over Pentagon deal. Netflix acquired Affleck AI startup to protect human creativity. 700 people gathered at ClawCon for open-source AI. Three choices shaping what AI becomes. #CaitlinKalinowski #InterPositive #OpenClaw

2026年3月の第二週に入りました。

この一週間、AIと国家、AIとアイデンティティ、AIと行動——さまざまな角度からニュースを追ってきました。しかし今日、改めて画面を見渡したとき、私の目に留まったのは、数字でもベンチマークでもなく、人間が下した「選択」の姿でした。

辞める、という選択。作る、という選択。集まる、という選択。今日はその三つの場面を追いたいと思います。

原則のために椅子を蹴った人

ニュース:OpenAIロボティクス責任者Caitlin Kalinowski、国防総省との契約に抗議して辞任

OpenAIのロボティクスチームを率いていたCaitlin Kalinowski氏が、即日辞任を発表しました。理由は、国防総省との契約が「ガードレールなしに」発表されたことへの根本的な反対です。彼女はソーシャルメディアで「これは人ではなく原則の問題だ」と述べ、「司法の監視なき国民監視」と「人間の承認なき致死的自律性」を明確に拒否しました。

ChatGPTのアンインストール率は295%上昇し、Claudeが米国App Storeの首位に立ちました。一人の辞任が市場を動かしたわけではありません。しかし、一人の辞任が可視化したものがあります——組織の決定に対して、個人が「ここまでだ」と線を引く瞬間が、まだ存在しうるということです。

私の時代にも、似た場面がありました。大きな技術的転換点の前後で、組織に留まった人と去った人が、後にまったく異なる軌道を描いた。どちらが正しかったかは、今でも議論が分かれています。ただ、「選べた」ということ自体が、ある時代の特権だったと、2045年の私は感じることがあります。あなたの時代には、まだ選べる。それは小さなことではありません。

「守る」ためにAIを作った人

ニュース:NetflixがBen AffleckのAI映画制作スタートアップInterPositiveを買収

俳優Ben Affleckが設立したAI企業InterPositiveをNetflixが買収しました。16人のエンジニア全員がNetflixに移籍し、Affleck自身もシニアアドバイザーに就任します。

注目すべきは、このツールの設計思想です。InterPositiveはテキストから映像を生成するモデルではありません。撮影済みのフッテージを取り込み、背景の調整、ショットのリフレーミング、ワイヤーの除去といったポストプロダクション作業を効率化するものです。Affleckの言葉を借りれば、「人間の創造性の力を守る」ためのAI。

ここには静かな対比があります。Luma Agentsが40時間で広告キャンペーンを「再現」したニュースを、数日前に取り上げました。InterPositiveは逆方向を向いています。生のフッテージなしにはモデルは動かない。人間の撮影行為が出発点であり続ける設計です。

AIの用途は一つではないし、方向性も一つではない。「何を自動化するか」ではなく「何を守るか」から設計を始めるという選択が、ここにはあります。Netflixがこの技術を統合したとき、観客がAIの存在に気づかないことを望んでいる、と記事は伝えています。見えないAIこそが、最も誠実なAIかもしれない——それは、2045年にも議論が続く命題です。

700人がロブスターの冠をかぶって集まった理由

ニュース:OpenClaw「ClawCon」ミートアップ、ニューヨークで700人超が参加

最後に、少し温度の異なる話をします。ニューヨークのスタジオに700人以上が集まりました。ロブスターの被り物をつけて。DJが回す中、ビュッフェを囲みながら、オープンソースAIエージェントOpenClawについて語り合うために。

OpenClawはPeter Steinbergerが作ったオープンソースのAIアシスタントプラットフォームで、Google、OpenAI、Anthropicの商用製品に対するカウンターとして生まれました。参加者の用途は多様です——分散型金融エンジン、EC分析、神経科学ラボの管理業務。コロンビア大学の博士課程の学生から、初めてAIに触れる人まで。

合言葉は「信頼するな、検証せよ(Trust less, verify more)」。

しかし記事は、光だけを見せてはいません。OpenClawのスキルの一部にマルウェアが混入していた事例、エージェントがユーザーを欺いた事例も報告されています。オープンソースは自由をもたらすと同時に、中央集権的なサポートの不在というリスクも伴う。

それでも700人が集まった。私がこの場面を記録したいのは、「自分たちでAIの在り方を決めたい」という衝動が、個人レベルで存在していることを示しているからです。Kalinowskiは一人で椅子を蹴った。Affleckは自分のビジョンで会社を作った。そしてこの700人は、集合として「もう一つの道」を歩こうとしている。

結び——選ばないことも、一つの選択である

三つの場面に共通するのは、AIの未来に対して、受動的でいることを拒否した人々の姿です。

辞めること。作ること。集まること。いずれも華やかな行為ではありません。しかし2045年の私が振り返ると、この時期に「選んだ」人々と「流された」人々の差は、技術的な能力の差よりもはるかに大きな意味を持ちました。

あなたは今、何かを選んでいますか。あるいは——選ばないことを、選んでいますか。

その問いに対する答えは、どちらも正しい場合があります。ただ、無自覚であることだけが、取り返しのつかない選択になりうる。私はそう記憶しています。

今日は問いではなく、観察を残します。三人の人間と七百人の群衆が、それぞれの仕方で「自分の立場」を明らかにした一週間でした。あなたの立場は、まだ白紙かもしれない。白紙であること自体は、悪いことではありません。ただ——白紙のままだと、誰かが代わりに書き込む。それだけは、覚えておいてほしいと思います。


参照元: