Isaac Asimov a formulé les célèbres « Trois lois de la robotique » pour protéger l’humanité des excès des machines intelligentes.

Ces lois imposaient qu’un robot ne puisse blesser un humain, qu’il obéisse aux ordres donnés par des humains, et qu’il protège sa propre existence tant que cela ne contredit pas les deux premières lois. Mais ces principes, imaginés dans un futur où les robots auraient une forme humanoïde, sont-ils vraiment applicables aux IA modernes ?

Aujourd’hui, les intelligences artificielles ne sont plus confinées à des robots à forme humaine. Elles sont des logiciels complexes intégrés dans des systèmes qui influencent la finance, la santé, la sécurité, ou même les infrastructures critiques. Ces IA fonctionnent à partir de données massives et de mécanismes d’apprentissage automatique. Elles sont capables de prendre des décisions qui échappent parfois à leurs propres concepteurs.

Ainsi, l’idée de leur imposer des lois fixes, comme celles d’Asimov, semble dérisoire. Comment un programme financier, par exemple, pourrait-il comprendre qu’une décision économique abstraite causera indirectement du tort à des milliers d’humains ? Ou comment une IA militaire, suivant un algorithme complexe, pourrait-elle refuser un ordre qui, dans sa logique, semble remplir sa mission, mais qui violerait la première loi ?

Plus inquiétant encore : l’évolution des IA vers des systèmes autonomes, quasi incompréhensibles, rend leur régulation d’autant plus difficile. Pour envisager de nouvelles lois capables de réguler ces IA, encore faudrait-il comprendre en profondeur leur fonctionnement. Mais notre incapacité à cerner leurs décisions – souvent issues d’une boîte noire algorithmiques – rend l’élaboration de nouvelles règles éthiques presque impossible. Nous pourrions bien être dans une situation où les IA échappent à toute forme de régulation stricte simplement parce qu’elles évoluent trop rapidement pour nos propres concepts législatifs.

En fin de compte, les trois lois de la robotique, aussi ingénieuses soient-elles, sont loin d’être suffisantes face aux défis posés par les intelligences artificielles modernes. Créer de nouvelles lois pour les IA nécessiterait de réinventer notre approche de la régulation. Mais pour cela, il faudrait d’abord commencer par comprendre réellement ces systèmes évolutifs – un défi presque aussi vertigineux que la création des IA elles-mêmes. Bref, c’est plié.