Première démonstration de l'intelligence artificielle quantique
Des chercheurs chinois implémentent un algorithme de reconnaissance de caractères sur un ordinateur quantique
Des chercheurs chinois ont réussi à implémenter un algorithme de reconnaissance des caractères sur un ordinateur quantique. Selon eux, cela serait la première démonstration pratique de l'utilisation d'intelligence artificielle sur ce type d'ordinateurs. Les recherches précédentes s'arrêtaient toutes à la partie théorique.
La reconnaissance des caractères manuscrits, aussi connue sous le nom d’OCR pour « Optical Characters Recognition », est l'une des problématiques les plus importantes de l'intelligence artificielle. Elle vise à apprendre à l'ordinateur à reconnaitre les chiffres manuscrits à partir de nombres écrits à la main.
L'algorithme prend en entrée des images numérisées de chiffres, puis extrait les caractéristiques communes en utilisant des filtres, ces caractéristiques seront ensuite stockées et utilisées pour identifier un nouveau chiffre. Le processus est donc similaire à la méthode d'apprentissage humain, d'où le nom « d'apprentissage machine » pour décrire ce type d'algorithmes.
Bien que ces algorithmes d'apprentissage machine peuvent sembler simples décrit comme cela, sauf que leur fonctionnement interne reste assez complexe, et lorsque les données augmentent, la complexité explose et peut s’élever à la puissance du nombre d'images et de dimensions. En d'autres termes, les capacités de traitement des ordinateurs se trouvent souvent limitées pour traiter de grandes masses de données, d'où l'intérêt d'utiliser des ordinateurs quantiques.
La caractéristique de ce type d'ordinateurs est qu'il utilise des bits quantiques qu'on appelle « qubits». Théoriquement, la puissance de calcul de l'ordinateur doublerait à chaque fois qu’on lui adjoint un qubit. C’est pourquoi même un ordinateur quantique relativement modeste pourrait considérablement surpasser les supercalculateurs les plus avancés d'aujourd'hui.
Cependant, la technologie actuelle ne permet de contrôler qu'un nombre limité de qubits. Alors qu'un problème d'OCR réaliste peut nécessiter plusieurs dizaines de qubits. Les chercheurs chinois ont donc limité leur algorithme de reconnaissance à deux chiffres seulement (le 6 et le 9) pour simplifier l'expérience. Les résultats ont démontré la capacité de l'ordinateur quantique à résoudre des problèmes d'intelligence artificielle.
Ce travail ouvre la voie à un avenir radieux où le Big Data est traité de manière efficace par des machines quantiques. Rappelons que Google et la NASA ont déjà commencé des recherches d'intelligence artificielle sur ce type de machines, et selon le Washinton Post, la NSA travaille aussi sur ce type de machines pour briser toute sorte de chiffrement plus rapidement qu’avec les ordinateurs classiques.
Source: Publication de Li et co. octobre 2014
Et vous?
Que pensez-vous de l'utilisation des ordinateurs quantiques sur des problèmes d'intelligence artificielle ?
Partager