L’intelligence artificielle générative repose aujourd’hui sur l’apprentissage profond, une technique qui imite, de loin, le fonctionnement du cerveau humain à l’aide de réseaux neuronaux artificiels. Mais là où notre cerveau se montre d’une sobriété remarquable, ces réseaux numériques se révèlent particulièrement gourmands en énergie, surtout lors de la phase d’entraînement, quand les modèles apprennent à reconnaître des images, du texte ou des sons. Un talon d’Achille bien connu, à l’heure où l’empreinte énergétique de l’IA inquiète de plus en plus.
C’est précisément sur ce point que se sont penchés des chercheurs de l’Université de Bonn. Leur travail, publié dans la revue scientifique Physical Review Letters, explore une piste alternative : les réseaux de neurones à impulsions artificiels, appelés SNN pour Spiking Neural Networks. Une approche inspirée beaucoup plus directement du vivant. Dans le cerveau biologique, les neurones ne transmettent pas de signaux continus. Ils communiquent par de brèves impulsions électriques, envoyées uniquement lorsque cela est nécessaire. À l’inverse, les réseaux neuronaux classiques utilisés en IA fonctionnent en flux permanent, ce qui explique en grande partie leur appétit énergétique. Les SNN, eux, ne déclenchent une activité que lorsqu’un seuil est franchi. Résultat : une consommation potentiellement bien plus faible.
Jusqu’à présent, un obstacle majeur freinait leur adoption. Dans les réseaux classiques, l’apprentissage repose sur l’ajustement progressif de l’intensité des connexions entre neurones : on passe par exemple de 0,9 à 0,8. Or, dans un réseau à impulsions, pas de demi-mesure : soit le neurone émet une impulsion, soit il reste silencieux. Impossible, pensait-on, d’y appliquer les méthodes d’entraînement traditionnelles. C’est là que l’équipe de Bonn a fait une découverte clé. Si l’intensité d’une impulsion ne peut pas varier, son timing, lui, le peut. Plus la connexion entre deux neurones est forte, plus l’impulsion est émise rapidement. En jouant sur cette temporisation, les chercheurs ont montré qu’il est possible d’ajuster l’influence d’un neurone sur un autre, et donc d’entraîner le réseau. « Nous pouvons utiliser les mêmes méthodes d’apprentissage conventionnelles, très efficaces, sur les réseaux à impulsions que nous avons étudiés », explique Christian Klos, l’un des auteurs.
Les premiers résultats sont prometteurs : le réseau a déjà appris à reconnaître des chiffres manuscrits. Prochaine étape annoncée : la reconnaissance vocale. Si ces travaux se confirment à grande échelle, ils pourraient ouvrir la voie à des intelligences artificielles bien plus sobres, capables d’apprendre en consommant nettement moins d’énergie. Un changement discret, mais potentiellement décisif.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.