「人力AI」の実態が暴かれたBuilder.ai破産劇──AIウォッシングへの警鐘

備忘録

はじめに

AIブームの中で、無限の可能性を掲げるスタートアップが次々と現れては消えていく。
そんな中、「AIでソフトウェア開発がピザ注文並みに簡単になる」と豪語していたAIスタートアップ、Builder.aiが破産を申請した。

Microsoftをはじめ、大手投資家たちが太鼓判を押していた企業だ。

だが実態は、「人力AI」と呼ぶにふさわしい仕組みだった。
この記事では、Builder.aiの失敗から何を学ぶべきか、そしてAIスタートアップに潜むリスクをどう見極めるかを解説する。

スポンサーリンク
スポンサーリンク

まさかの「AI=人力作業」

Builder.aiはロンドンを拠点にし、かつて評価額は15億ドルに達していた。
Microsoft、ソフトバンクグループ傘下のディープコア、カタール投資庁など、錚々たる投資家が資金を投じていた。

しかし、AIによる自動開発とされていた作業の大部分が、実はインド人エンジニア約700人による手作業だった。
2019年にはすでにThe Wall Street Journalがその実態を報道しており、提供されたソースコードの多くが人間によるものであったことが判明している。

まるでATMの裏に人間が座って現金を手渡していたかのような話だ。

財務の不透明さとCEO交代

この人力構造に加え、企業としての財務の不透明さも問題視されていた。
2024年後半の売上見通しが25%も下方修正され、信頼性に疑念が生まれていた。

そして2025年2月、新たにCEOに就任したマンプリート・ラティア氏が、過去の財務記録に虚偽記載があったことを暴露。これが決定打となり、破産申請に至った。

AIを売り文句にしながら、実際は人間の力に依存していた構造が、ついに限界を迎えた格好だ。

見せかけのAI──「AIウォッシング」の実態

今回の件は、いわゆる「AIウォッシング」の典型といえる。
AIを使っているように見せかけ、実態は旧来の人力やアルゴリズムに頼っている。
このようなマーケティング手法は、特に生成AIブーム以降、急激に増えている。

一見して画期的に見えるプロダクトでも、裏側は人間が頑張っているだけ──というケースは意外と多い。

例えば、「ChatGPTで月収100万円」「AIが自動で副収入を生む」などの甘い謳い文句で集客し、初心者をターゲットにした高額な情報商材がSNS上にあふれている。
だが、これらの多くはAIを“装った”サービスに過ぎない。

以下のようなケースが報告されている。

  • 実態はテンプレート化された文章をAIっぽく表示するだけの簡易ツール
  • 「AIによる自動化」と言いつつ、実際は外注スタッフによる手動対応
  • ChatGPTの基本的な使い方を高額で販売するだけのPDFマニュアル

このような偽AIツールや情報商材は、AIを神格化したい心理につけ込んでくる。
AI=難しそう=自分では無理そう」という先入観が、かえって判断力を鈍らせてしまうのだ。

見抜くためのチェックポイント

こうしたAIウォッシング情報商材を見抜くには、次の点に注目するとよい。

  • 技術的な裏付けがあるか?
    使用しているAIの名称(例:GPT-4、Claudeなど)や仕組みが明記されていない場合は注意。

  • 実際の動作デモがあるか?
    実際にツールがどのように動くのか、画面共有や動画で確認できるかが鍵。

  • 継続的な価値があるか?
    ノウハウやツールが一時的なものではなく、継続的に使えるものであるかを見極める。

  • 販売者の正体が明らかか?
    運営者や販売者が匿名、もしくは法人登記すらない場合、リスクが高い。

AIを武器にした情報商材ビジネスは、見た目だけを整えた“仮面AI”であることが多い。
まさにBuilder.aiと同じく、実体は人力で、効率化や自動化とは程遠いケースが多発している。

AIがすごい」と言われたら、まずは仕組みを冷静に見極めるべきだ。

まとめ

Builder.aiの破産は、華やかなAIスタートアップの表裏を浮き彫りにした。
重要なのは、「AIだからすごい」と短絡的に判断しないこと。裏側に人間がいないか、財務が健全か、過去の実績に基づいた信頼があるか。
そうした視点を持つことで、AI時代の「見せかけ」に惑わされずに済む。

次にAIスタートアップに出資や導入を検討する際は、「これは本当にAIなのか?」という問いを忘れないようにしたい。


参考リンク

コメント