Après les polémiques à répétition — images sexualisées générées sans consentement, deepfakes explicites, y compris mettant en scène des mineurs — le chatbot Grok confirme sa réputation d’IA hors normes, pour ne pas dire hors cadre. Une intelligence artificielle volontairement permissive, peu filtrée, indifférente aux lignes rouges juridiques et éthiques. Une philosophie assumée par son créateur, Elon Musk, et désormais revendiquée au sommet de l’appareil militaire américain.
Cette semaine, le secrétaire américain à la Défense Pete Hegseth a annoncé l’intégration prochaine de Grok dans des systèmes classifiés du Pentagon. Objectif affiché : doter l’armée d’une IA « sans contraintes idéologiques » pour soutenir des usages militaires jugés légitimes. Lors d’un discours tenu devant des employés de SpaceX, au Texas, le message est limpide : l’IA militaire américaine « ne sera pas woke ». Une formule choc, mais parfaitement alignée avec l’ADN de Grok. Cette convergence n’a rien d’anodin. Elle s’inscrit dans une doctrine stratégique où l’efficacité prime sur le cadre légal, quitte à flirter avec les limites du droit international. Sous l’administration Trump, certaines opérations extérieures ont déjà suscité de lourdes controverses, de l’Amérique latine à la Corne de l’Afrique. Des actions spectaculaires, souvent pensées pour l’impact médiatique immédiat, mais rarement pour leurs conséquences à long terme.
Dans ce contexte, l’arrivée d’une IA comme Grok pose une question centrale : que se passe-t-il lorsqu’on confie des décisions potentiellement létales à un outil qui ne connaît ni le doute, ni la retenue ? Une IA capable d’analyser froidement des données satellitaires, des flux de renseignement, des réseaux sociaux, puis de proposer des cibles, des scénarios, des méthodes. Une IA qui peut calculer l’acceptabilité politique d’une frappe, intégrer les pertes civiles comme de simples variables, et optimiser une opération sans jamais en questionner la légitimité. Le risque ne s’arrête pas au champ de bataille. Grok pourrait aussi piloter la guerre de l’information, notamment via X, en amplifiant certains récits, en noyant les faits sous des narratifs concurrents, en discréditant témoins et sources gênantes. Pour une machine dépourvue d’éthique, la vérité n’est qu’un paramètre parmi d’autres.
Le basculement est là : la guerre tend à devenir un processus technique, automatisé, délégué à des systèmes qui n’assument aucune responsabilité. Or une IA n’est ni un officier, ni un décideur politique. Elle ne comparaît pas devant un tribunal. Elle ne rend de comptes à personne. Et pourtant, Grok s’apprête à peser sur des décisions de vie ou de mort. Un choix lourd de conséquences, dont il sera difficile de mesurer — et de corriger — les effets une fois la machine lancée.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.