Le nouveau partenaire d'IA de Meta a exposé les données des clients de Google, xAI et autres dans des documents Google publics.

Un rapport explosif deBusiness Insidera révélé que le nouveau partenaire IA de Meta, évalué à 14 milliards de dollars, Scale AI, exposait régulièrement les données sensibles et confidentielles de ses clients de premier plan, notamment Meta lui-même, Google et xAI d'Elon Musk, via des documents Google Docs non sécurisés et accessibles au public. L’enquête a révélé que des milliers de fichiers internes, certains explicitement étiquetés « confidentiels », étaient accessibles à toute personne disposant d’un lien. Cela a créé une faille de sécurité massive qui ajoute une nouvelle couche de crise à la stratégie d’IA déjà controversée de Meta.

La révélation d’une faille de sécurité aussi fondamentale soulève de sérieuses questions sur la diligence raisonnable effectuée avant que Meta ne finalise son investissement colossal dans la société d’étiquetage de données. L’accord était déjà critiqué pour avoir déstabilisé l’écosystème de l’IA en brisant la neutralité perçue de Scale AI, ce qui avait provoqué un exode de ses autres clients Big Tech. Pour Meta, une entreprise aux prises avec ses propres troubles internes et désespérée de rattraper son retard dans la course à l’IA, s’associer à une entreprise dont la sécurité des données est laxiste ajoute une responsabilité importante et imprévue à son pari aux enjeux élevés.

En réponse au rapport, un porte-parole de Scale AI a confirmé que la société menait une « enquête approfondie » et avait désactivé la possibilité pour les utilisateurs de partager publiquement des documents à partir de ses systèmes. Cependant, le mal est peut-être déjà fait, car cette pratique serait répandue. Un entrepreneur a décrit le système comme « l’ensemble du système Google Docs a toujours semblé incroyablement bancal », et un expert en cybersécurité a averti que de telles pratiques constituent une porte d’entrée pour les attaques d’ingénierie sociale.

Un manuel « Acheter ou braconner » né du rejet

Le chemin de Meta vers l’accord Scale AI a été pavé de rejets, révélant un manuel clair et agressif « d’achat ou de braconnage » qui n’a été exécuté qu’après que ses principales cibles d’acquisition ont dit non. La société a mené des discussions informelles pour acquérir la startup de vidéo générative Runway, mais les discussions n'ont jamais abouti à une offre formelle. Cette avancée inédite faisait partie d’une série d’échecs de discussions de rachat avec d’autres acteurs clés, notamment le moteur de recherche natif d’IA Perplexity, qui a lui-même renoncé à un accord potentiel.

EN RAPPORT:Comment partager votre mot de passe Wi-Fi avec d'autres personnes depuis un iPhone vers un téléphone Android

Incapable d'acheter les entreprises qu'elle souhaitait, Meta s'est contentée d'embaucher leurs dirigeants. Après avoir été refusé par la startup Safe Superintelligence (SSI) d'Ilya Sutskever, d'une valeur de 32 milliards de dollars, Meta a décidé d'embaucher son co-fondateur et PDG, Daniel Gross, et son partenaire, l'ancien PDG de GitHub, Nat Friedman.

L'accord impliquerait également que Meta prenne une participation dans leur société de capital-risque. C’était la même approche utilisée avec Scale AI, où l’investissement massif était finalement un moyen d’installer son fondateur, Alexandr Wang, à la tête du nouveau laboratoire de superintelligence de Meta.

Le prix élevé de la neutralité perdue

Avant même que les failles de sécurité ne soient révélées, l’investissement de Meta avait immédiatement compromis la neutralité même qui faisait de Scale AI un partenaire essentiel pour les plus grands rivaux de Meta. Les conséquences furent rapides et graves. Google, le plus gros client de Scale, a commencé à envisager de résilier un contrat d'une valeur pouvant atteindre 200 millions de dollars. L’exode des clients a sérieusement compromis les objectifs ambitieux de revenus de Scale AI, qui devaient passer de 870 millions de dollars en 2024 à 2 milliards de dollars en 2025.

Les dégâts ne se sont pas arrêtés là. L’accord a suscité une réévaluation discrète mais significative de la part d’autres clients majeurs, notamment Microsoft et xAI. Alors que le timing semblait lié, OpenAIconfirmé à CNBCqu'elle mettait déjà fin à son travail avec Scale depuis des mois, une décision basée sur ses propres besoins en données évolutifs pour des modèles plus sophistiqués plutôt que sur l'accord Meta lui-même.

Néanmoins, la réaction du marché a créé une aubaine pour les sociétés de données concurrentes et a forcé le nouveau PDG par intérim de Scale AI, Jason Droege, à émettre unlettre aux clientsinsistant sur le fait que l’entreprise reste indépendante. L’épisode a souligné une nouvelle réalité de l’industrie, le PDG de Turing, Jonathan Siddharth, déclarant que pour les principaux laboratoires d’IA, « la neutralité n’est plus facultative, elle est essentielle ».

Une maison en feu : les pressions internes forçant la main de Meta

Les dépenses audacieuses de Meta sont une réponse directe à une tempête de défis internes qui ont laissé sa division IA dans une position précaire. L’entreprise a perdu le talent derrière son travail fondamental en matière d’IA, après avoir perdu 11 des 14 auteurs originaux de son document de recherche sur Llama. Cette fuite des talents se reflète dans les données concrètes ; Le taux d’attrition de l’IA de Meta était de 4,3 % en 2024, avec un taux de rétention sur deux ans de seulement 64 %, soit un retard considérable par rapport à des concurrents comme Anthropic (80 %), selonRapport 2025 sur l’état des talents technologiques de SignalFire.

Ces problèmes de personnel ont été aggravés par d’importants revers techniques. Le développement du modèle le plus ambitieux de l’entreprise, le Llama 4 « Behemoth » doté de 2 000 milliards de paramètres, a été reporté après avoir sous-performé par rapport aux principaux benchmarks. Ce retard fait suite à des allégations, que Meta a niées, selon lesquelles il aurait tenté d'améliorer les performances en mélangeant de manière inappropriée des données de test dans les ensembles d'entraînement pour atteindre les objectifs de performance. Cette pression a alimenté une intense guerre des talents, le PDG d'OpenAI, Sam Altman, accusant Meta d'offrir des primes de signature pouvant atteindre 100 millions de dollars pour débaucher ses chercheurs.

Cette stratégie à haut risque, née du besoin de résoudre des problèmes profondément enracinés, a conduit Meta à échanger une série de crises contre une autre, la laissant dans un partenariat lourd de ses propres problèmes critiques de sécurité et de réputation. Les mois à venir révéleront si ce pari coûteux et chaotique peut réellement répondre aux ambitions de Meta en matière d’IA ou si elle a simplement acheté une nouvelle série de défis qui compliqueront encore davantage son cheminement.

Related Posts