Builder.aiは、Microsoftの支援を受けた革新的なAIスタートアップとして注目されていましたが、実際にはAIではなく、700人のインド人エンジニアによる人力サービスであったことが判明し、破産に追い込まれました。
同社は「Natasha」というAIアシスタントがソフトウェアアプリケーションを組み立てると宣伝していましたが、実際には顧客のリクエストはインドのオフィスに送られ、エンジニアが手作業でコードを書いていたとのことです。
この詐欺により、Builder.aiは8年間で4億4500万ドル(約640億円)の投資をMicrosoftを含む大手IT企業から集めましたが、アプリケーションは頻繁に不具合を起こし、コードは判読不能で、機能は動作しないなどの問題が発生しました。
破綻の始まりは、2023年にBuilder.aiに5000万ドル(約70億円)を融資したViola Creditという資産管理会社が、Builder.aiの債務不履行を受けて差し押さえを行ったことでした。この措置により、Builder.aiは事業運営能力と従業員への給料支払い能力を喪失し、破産手続きに入りました。
また、Builder.aiとインドのコンテンツ発信プラットフォーム・VerSe Innovationとの間で、架空の取引をして売上高を水増しする「循環取引」の疑いも報じられています。VerSeはこれを否定しています。
現在、Builder.aiはイギリスで正式な破産手続きを開始しており、裁判所が任命した管財人が資産の回収または事業の一部の救済方法を検討しています。同社は「初期の失敗により回復不可能な状況」になったことを認めています。
この事件は、AI技術の実態と企業の透明性に対する警鐘となっています。
コントのような話しだが
自動販売機の中で人が飲み物を提供している、といったシチュエーションはコントで時折見かけますが、現実にあったサービスでした。しかも(悪い意味で)AIが作ったようなできばえだったようです。
現在ではとても需要があるとは思えませんが、AIサービスは日々どんどん出てくる一方で、玉石混交といった状況も否めません。性能面でのパワーバランスが変わるという点もそうですが、見てくれやデモ、サービス内容は非常に優れているように見えていても、実際にはハリボテのように中身はボロボロといったものもある可能性を考慮に入れて検討や検証することが重要になります。