logo
episode-header-image
Yesterday
2m 21s

IA : une maladie imaginaire citée par de...

Choses à Savoir
About this episode

L’intelligence artificielle impressionne par ses capacités, mais elle reste faillible. Et parfois, ses erreurs ne s’arrêtent pas à la machine. Une expérience menée en 2024 par des chercheurs de l’Université de Göteborg en apporte une illustration troublante.


Les scientifiques ont inventé de toutes pièces une maladie fictive : la « bixonimania ». Selon leur description, il s’agirait d’un trouble cutané lié à une exposition prolongée aux écrans et à un frottement excessif des yeux. Un scénario volontairement absurde, conçu pour tester la capacité des intelligences artificielles à distinguer le vrai du faux. Pour cela, deux fausses études ont été publiées sur une plateforme de prépublication, un type de site où les chercheurs partagent leurs travaux avant validation par des pairs. L’objectif : observer si les grands modèles d’IA reprendraient cette information. Et la réponse a été rapide. En quelques semaines, des outils comme ChatGPT ou Gemini ont commencé à citer la bixonimania comme une pathologie réelle.


Jusque-là, rien de totalement surprenant. Ces systèmes fonctionnent en analysant d’immenses volumes de données et peuvent relayer des contenus erronés s’ils ne sont pas correctement filtrés. Mais l’expérience ne s’est pas arrêtée là. Le véritable problème est apparu ensuite : des chercheurs humains ont à leur tour repris cette fausse information dans des publications scientifiques, pourtant soumises à évaluation par des pairs. Autrement dit, une erreur volontairement introduite pour tester l’IA a fini par contaminer la production scientifique elle-même.


Plus étonnant encore, le document d’origine comportait des indices évidents de supercherie. Il faisait référence à des éléments de culture populaire comme Les Simpsons, Le Seigneur des Anneaux ou Star Trek. Un ton humoristique, visible même pour un lecteur non spécialiste. Cette expérience met en lumière un phénomène préoccupant : la circulation d’informations erronées entre intelligence artificielle et humains peut créer une boucle de validation trompeuse. L’IA ne fait pas qu’inventer, elle amplifie. Et lorsque ces erreurs sont reprises sans vérification, elles peuvent s’ancrer dans des sources considérées comme fiables.


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Up next
May 13
Des pixels espions vous traquent dans les e-mails ?
C’est une pratique invisible, mais omniprésente dans nos boîtes mail. Le pixel de suivi — une minuscule image d’un seul pixel — permet aux expéditeurs de savoir si vous avez ouvert un message. Discret, silencieux, et jusqu’ici peu encadré. Mais les règles changent.Le 14 avril 202 ... Show More
2m 30s
May 12
Des startups en faillite vendent leurs data pour entraîner l’IA ?
C’est un marché inattendu, né dans les coulisses de l’économie des startups. Depuis avril 2026, la société SimpleClosure propose une nouvelle activité : revendre les archives numériques d’entreprises en liquidation. Code source, échanges Slack, e-mails internes… tout peut être cé ... Show More
2m 13s
May 11
Fini la diffusion 4K chez France TV ?
Après l’exploit technologique des Jeux olympiques de Jeux olympiques de Paris 2024, diffusés en 4K HDR avec son immersif, on aurait pu penser que la télévision publique française poursuivrait sur cette lancée. Et pourtant, le signal envoyé aujourd’hui par France Télévisions est t ... Show More
2m 26s
Recommended Episodes
Apr 2025
Pourquoi l'iPhone n'est-il pas le premier téléphone tactile ?
Excellente remarque ! En effet, le premier smartphone à écran tactile est apparu bien avant l’iPhone, et il s’agissait de l’IBM Simon, sorti en 1994 — soit 13 ans avant l’iPhone d’Apple. Alors pourquoi n’a-t-il pas marqué les esprits comme l’iPhone l’a fait ? Voici l’explication. ... Show More
1m 52s
Nov 2025
Pourquoi l’IA pleure pour vous attendrir ?
Le scénario est souvent celui-ci : Il pleure. Sa voix tremble. On devine les sanglots étouffés d’un jeune homme en détresse. Il dit s’appeler Lucas, il dit avoir eu un accident. Il a besoin d’aide. Et vous, à l’autre bout du fil, vous n’avez aucun doute : c’est bien la voix de vo ... Show More
3m 20s