Très intéressant article dans le Guardian : une campagne internationale est lancée pour que les « robots tueurs » ne soient pas autorisés.
La fabrication de robots (drones, par exemple) autonomes, capables de tuer sans intervention humaine est plausible dans quelques années. Cela pose de des questions évidentes : Qui serait responsable en cas de bavure ? Un humain peut prendre la décision de ne pas tuer, il peut faire la différence entre un combattant et un non-combattant, qu’en sera-t-il d’un robot… et notamment s’il vole à plusieurs centaines de mètres d’altitude ?
Les « robots tueurs » sont les nouvelles mines anti-personnelles. Mais on a de la chance : il est encore temps de ne pas les construire, d’exclure dès à présent ces robots des champs de bataille, conventionnellement.
Dans le développement de la robotique il me semblerait utile de se souvenir des trois lois qu’Asimov avait instauré dans ses nouvelles :
1. Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger.
2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.
3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi.
C’est bien sûr à adapter à la technologie actuelle mais la philosophie est là.
L’industrie militaire finance en grande partie la recherche en matière de robotique et, franchement, qu’un robot puisse désamorcer des bombes, secourir et protéger des militaires ou civils sur le théâtre d’opérations militaires, cela me semble positif. Mais si c’est la même technologie, avec la même programmation, qui, un jour, tue sur les champs de bataille et assure la sécurité dans un stade foot, je pense qu’on ne peut arriver qu’à des catastrophes et, au final, au rejet de cette techno.
Comment