techboard.io

Ordinateur quantique : promesses et défis de l’informatique du futur

5 months ago, Written by , Posted in Futur, Geek, Sciences, Technology
Quantum circuit

Ordinateur quantique :

promesses et défis de l’informatique du futur

Alors que la loi de Moore semble vaciller, mise à mal par les difficultés techniques de gravure des transistors sous les 10 nm (nanomètres – à titre de comparaison, un atome mesure environ 0,1 nm) et presque enterrée par un rapport de l’IEEE, les espoirs se tournent de plus en plus vers l’ordinateur quantique et ses promesses de performances défiant l’imagination.

Qu’en est-il exactement des recherches dans ce domaine ? L’ordinateur quantique est-il déjà là ? Est-il prévu pour demain ou n’est-il qu’une chimère ?

Qu’est-ce que l’informatique quantique ?

Depuis les débuts de l’informatique, les ordinateurs sont organisés sur la base de portes logiques binaires (qui peuvent toutes être construites par un assemblage de transistors). Les opérations qui en découlent sont donc soumises à une contrainte simple : les données, qu’elles soient en entrée ou en sortie, ne peuvent avoir que deux états. Il s’agit d’un fonctionnement électrique basique : un courant passe ou ne passe pas.

processeur (vue d'artiste)

L’ordinateur quantique

 

La solution pour rendre les processeurs plus performants passe donc par une multiplication du nombre de transistors, permettant des opérations de plus en plus complexes, sur des données de plus grande taille et surtout, avec plus de parallélisme dans les opérations.

Cette solution a permis les importants progrès des ordinateurs de ces dernières décennies, mais les concepteurs des puces rencontrent aujourd’hui une limite physique : pour des raisons d’efficacité, on doit placer ces millions de transistors sur une surface dont la taille est très petite. Il faut donc graver des composants (en particulier les transistors) de plus en plus petits. La taille diminuant, les problèmes électromagnétiques d’échelle deviennent de plus en plus difficiles à éviter. Par ailleurs, le mécanisme de gravure est un système optique et la finesse de gravure des processeurs est donc contrainte par au moins deux éléments :  les matériaux utilisés pour la réalisation et le type de rayons lumineux utilisés pour la gravure.

Or les limites physiques sont aujourd’hui presque atteintes. En pariant sur l’abandon du silicium, IBM est parvenu, en laboratoire, à atteindre une finesse incroyable de 7 nanomètres mais malgré quelques effets d’annonce, aucune entreprise n’est encore parvenue à utiliser cette technologie en production de masse et le géant des processeurs, Intel, a même eu de grandes difficultés à passer à une production en 14 nm.

Les chercheurs se tournent donc, depuis quelques temps déjà, vers un changement de paradigme : puisqu’on doit aller vers plus de finesse et qu’on s’approche des frontières de la physique quantique, pourquoi ne pas franchir le pas et utiliser les propriétés de celle-ci pour aller plus loin ?

Les avantages promis sont incroyables : l’utilisation des phénomènes quantiques (et notamment l’intrication quantique et la superposition quantique) permettrait d’utiliser des opérations qui ne travailleraient plus sur des bits (information unitaire des processeurs classiques, présentant deux états possibles : 0 ou 1), mais sur des qubits. Ces derniers permettent un nombre d’état virtuellement infini puisqu’un qubit peut être dans un état superposé, (α 0 + β 1).

Moyennant l’utilisation d’une algorithmique adaptée, un ordinateur quantique serait donc à même d’effectuer des opérations étonnantes, pouvant traiter un très grand nombre de cas différents à chaque cycle. La cryptographie quantique, par exemple, est l’un des domaines les plus en vue. Un ordinateur quantique dédié permettrait en effet de casser très rapidement la plupart des clés utilisées aujourd’hui dans le monde.

Circuit d'un ordinateur quantique

Circuit d’un ordinateur quantique

L’ordinateur quantique : un défi pour la cryptographie

 

Des solutions existent… mais

Certaines entreprises sont déjà très avancées sur le sujet. D-Wave, par exemple, avec le 2000Q, un calculateur à 2000 qubits, entend commercialiser l’accès à son serveur et certains chercheurs ont déjà obtenu des résultats intéressants en partenariat avec D-Wave, par exemple dans le domaine de la reconnaissance visuelle d’objets complexes.

On est loin des milliards de transistors auxquels les processeurs classiques nous ont habitués, mais en matière quantique, la puissance ne se cachera pas uniquement derrière le nombre de qubits. La précision est une clé bien plus puissante. Il faut ainsi parvenir à diminuer, autant que faire se peut, le nombre d’erreurs ou d’anomalies dans l’interprétation des résultats des opérations. C’est sur cet aspect qu’a beaucoup travaillé IBM, qui propose depuis le 18 mai 2017 un ordinateur quantique travaillant sur 16 qubits ! C’est peu, mais les progrès réalisés sur la précision des résultats permettent à ce calculateur d’être, d’après IBM, le meilleur actuel.

Ces informations laissent penser que l’ordinateur quantique existe déjà. Mieux : il serait même commercialisé par certaines firmes. En réalité, on est loin de savoir vraiment le maîtriser. Les machines actuelles sont en fait des calculateurs quantique d’apprentissage et pas des ordinateurs. Ils sont conçus spécifiquement pour la résolution de certains types de problèmes spécifiques et pas fondés sur des portes logiques.

Ces calculateurs sont utilisés pour apprendre à domestiquer les utilisations sur lesquelles de tels systèmes seront efficaces. Il n’est donc pas possible de développer pour eux des algorithmes quantiques répondant à n’importe quelle demande d’utilisateurs, comme on peut le faire avec des algorithmes binaires dans les ordinateurs actuels. N’imaginez pas y voir un traitement de texte, par exemple, mais plutôt des algorithmes de calculs complexes faisant entrer en jeu un très grand nombre de paramètres ou d’interactions : chimie, pharmacie, reconnaissance visuelle, intelligence artificielle, … sont autant d’applications probables.

En réalité, certains concepts et techniques n’en sont qu’à leurs balbutiements. On parle d’études dans des laboratoires de recherches, de pistes intéressantes, de collaborations prometteuses entre instituts privés et universités. Des publications scientifiques commencent à se faire précises, mais on est encore loin de pouvoir commercialiser un ordinateur quantique en production de masse.

Et maintenant ? Que nous réservent les prochaines années ?

L’avenir est pourtant clairement du côté du quantique. A un niveau de précision suffisant, on peut établir une correspondance entre les hyper-serveurs actuels et les ordinateurs quantiques tels qu’on les imagine prochainement. La comparaison se fait évidemment en nombre de qubits et certains spécialistes estiment qu’aucun serveur actuel ne peut dépasser un ordinateur quantique abouti de 20 qubits.

Fin 2016 et début 2017, tous les grands se sont lancés officiellement dans la course : Google, Microsoft, Intel. Plus inattendu, la Chine a annoncé qu’elle allait booster ses recherches dans le domaine, promettant des progrès rapides de tous les acteurs concurrents par effet domino. Microsoft a été jusqu’à déclarer que l’avenir serait plus dans l’ordinateur quantique que dans les PCs, pourtant fer de lance de la marque depuis toujours.

Google building

Google building

Google vise la “suprématie quantique” pour la fin d’année 2017

D’après Harmut Neven, responsable du département de recherche de Google sur le sujet, la limite physique des ordinateurs à transistors se situe au niveau de 50 qubits. D’après lui, il est donc physiquement impossible qu’un ordinateur classique puisse rivaliser un jour avec un ordinateur quantique de plus de 50 qubits. Il se trouve que Google vient d’annoncer être en mesure de produire un ordinateur à 49 qubits avant fin 2017. Voilà une communication qui tombe à point nommé.

Conclusion

Après avoir cherché à imaginer des logiciels nouveaux pour des systèmes quantiques, les chercheurs se tournent maintenant plus volontiers vers des améliorations de l’existant. Une base de donnée relationnelle classique, telle qu’on peut en trouver dans la plupart des entreprises, peut bénéficier avantageusement d’index adaptés et d’une recherche quantique, bien plus rapide qu’un algorithme exhaustif classique. L’analyse et les combinaisons de données dans le domaine du big data sont un autre exemple dans lequel l’ordinateur quantique ne se substituera pas à un serveur déjà existant, mais viendra le compléter très avantageusement.

Au-delà des performances extraordinaires et des prouesses technologiques, les ordinateurs quantiques devront en effet trouver leur place dans l’écosystème bien rodé d’une économie fortement fondée sur une informatique à transistors. Bien plus qu’un grand remplacement, espéré par les uns et craint par les autres, l’avenir est donc probablement à une combinaison efficace entre les deux systèmes : chacun restant performant sur son domaine, un peu comme les trains et les avions qui n’ont jamais remplacé les automobiles.

[image illustrant l’aricle crée par dano : http://www.everystockphoto.com/photographer.php?photographer_id=10132 ]

 
Frederic Veynachter

Frederic Veynachter

Competence Developer at CTG Luxembourg P.S.F.
I have been a Java Developer
I have been a Project Manager
I am Competence Developer
... and I like it all !
Frederic Veynachter

Leave a Reply

Your email address will not be published. Required fields are marked *