Les robots émotionnels : santé, surveillance, sexualité… : et l’éthique dans tout ça ?

« La liste est longue des situations où les téléphones, les robots et autres machines connectées risquent de s’immiscer dans nos vies pour nous inciter à faire le « bon choix », pour décider à notre place, être témoins de notre intimité et remédier à notre solitude. En 2020, chaque être humain possède en moyenne six objets connectés « intelligents » : une voiture, un téléphone, une montre, une enceinte vocale, un ordinateur, une tablette, un robot ou pourquoi pas un vêtement connecté comme une combinaison pour le fitness ou encore une veste permettant de sentir la musique, accessoire fort utile pour les malentendants. Ces objets qui ont une interface de communication collectent énormément de données personnelles sur chacun de nous. Ils vont de plus en plus nous parler et capter notre attention au quotidien ». Pour Laurence Devillers, professeur en Intelligence Artificielle au LIMSI-CNRS, l’objet intelligent n’est pas un mythe ou une projection futuriste lointaine et utopique :  il n’est pas doté d’une conscience, il est simplement capable de percevoir les variations de son environnement et de réagir en conséquence. Et de façon progressive, c’est nous qui allons nous adapter aux machines, tant elles s’immiscent dans notre quotidien avec tact et discrétion, à l’instar de nos téléphones portables et de nos enceintes vocales. Le champ des possibles investi par ces nouvelles applications s’est considérablement renforcé grâce au rapprochement des l’IA et des neurosciences, « (…) bouleversant nos vies et notre connaissance de notre propre nature et de nos biais cognitifs ». De nouveaux usages qui questionnent des enjeux aussi divers que l’attention, la communication, l’information de la connaissance, mais aussi nos valeurs, notre rapport à la culture, à l’humain et à la démocratie.

 

Une IA faible mais fascinante.

 

« Nous ne disposons pas du minimum de connaissances nécessaires pour nous prémunir aussi bien de l’engouement béat face à des performances souvent survendues, notamment par les équipes de marketing, que des appréhensions injustifiées face au déploiement rapide de l’IA et de la robotique. Nous devons comprendre notre rapport aux machines et le temps qu’elles nous prennent. Sans y prendre garde, nous pouvons nous enfermer dans des relations fausses, superficielles, qui captureront toute notre attention ». Laurence Devillers appelle à la prise de recul: la menace d’une « servitude numérique » est réelle, de même qu’un rapport de force inégal entre GAFAM et BATX. C’est la question du libre arbitre que soulève Bruno Patino dans son ouvrage « La civilisation du poisson rouge », décrivant une baisse de notre attention sous l’influence d’une accélération de nos usages. Et si l’IA et la robotique questionnent la place de l’homme, l’impact des systèmes techniques et la prise de décision, Laurence Devillers appelle à une coopération entre sciences et humanités, afin de nous aider « à ne pas devenir complètement dépendants des objets et des services numériques, car nous y perdrions notre agentivité ». Enfin, le modèle économique numérique fait également débat : la monétisation de nos données, les traces numériques que l’on laisse derrière soi sur Internet, sont les carburant d’une industrie particulièrement lucrative. 

 

Faut-il beaucoup de données pour faire progresser l’IA?

 

« Les systèmes actuels n’ont aucun sens commun, pas d’imagination, pas d’émotions et ne comprennent pas les données qu’ils ingurgitent. Ils n’ont pour l’instant que très peu d’autonomie, de créativité et d’adaptation, les trois piliers de l’intelligence humaine. (…) Pour nombre d’applications, les algorithmes existants suffisent car ils créent des illusions de compréhension, par exemple pour les chatbots lorsqu’ils ne cherchent pas à converser, plutôt à renseigner. Pour d’autres applications qui nécessitent en revanche une grande cohérence et une bonne compréhension du sens commun et du contexte, même dans un domaine de connaissances limité, les algorithmes actuels ont encore des progrès à faire ». L’expertise humaine s’avère indispensable afin d’enrichir le socle de l’apprentissage profond. Cet apprentissage s’enracine dans un ensemble de données synthétisées, permettant d’améliorer considérablement ses performances. Qui détient ces données ? Les géants du numérique américains et chinois, les applications diverses : des sites de rencontre, aux montres ou enceintes connectées : l’Internet des objets. Les GAFAM peuvent en outre acquérir de grands corpus de données émotionnelles grâce au déploiement des assistants vocaux. « Étant donné la valeur des enregistrements, on peut comprendre que les entreprises ont intérêt à étendre le temps d’interaction au maximum ». Ces données demandent moins de traitement qu’une data « brute », induisant un travail de nettoyage préalable.

 

Vers une prise de conscience pour une IA éthique. 

 

« Notre démocratie est en danger si nous ne créons pas des alliances fortes. La gouvernance de l’IA était d’ailleurs un des sujets du G7 qui s’est tenu en août 2019 en France. Conscients de la nécessité d’une coopération et d’une coordination à l’échelle internationale pour exploiter le plein potentiel de l’intelligence artificielle et en faire bénéficier l’ensemble des citoyens, le Canada et la France travaillent aux côtés de la communauté internationale à la création d’un groupe d’experts sur l’intelligence artificielle qui encouragera et guidera le développement responsable d’une IA fondée sur les droits de l’Homme, l’inclusion, la diversité, l’innovation et la croissance économique ». Les deux enjeux au cœur des discussions sur le numérique et l’IA pendant ce G7 étaient le renforcement de la coopération internationale en faveur d’une IA au service de l’humain, et son usage dans la lutte contre les inégalités. Plus que jamais, garder son libre-arbitre dans un monde digital relève de la gageure, tant nos choix sont influencés et confortés par notre consommation et nos usages numériques. S’affranchir d’une information orientée et construite s’avère toujours plus complexe : fake news, réseaux d’influence, discriminations de genre, sont des menaces réelles. « Les concepteurs des réseaux sociaux sont les premiers à qui on demande d’y contrôler les discours haineux. La coopération public-privé doit permettre de « pacifier » le cyberespace », rappelle Laurence Devillers, qui souligne par ailleurs l’intérêt d’un travail pluridisciplinaire alliant industriels, chercheurs et politiques, afin d’anticiper les conséquences des machines émotionnelles sur notre quotidien. « La régulation positive de l’IA et de la robotique représente un défi majeur pour permettre une diffusion de l’innovation numérique dans la société en restant fidèle nos valeurs éthiques ». 

 

Farid Gueham

 

Pour aller plus loin :

 

-       « L’urgence des alliances : culture-sciences », telerama.fr

-       « Laurence Devillers, l’éthique des robots », lemonde.fr

-       « De quelles façons l’intelligence artificielle se sert-elle des neurosciences ? », lemonde.fr

Photo by Andy Kelly on Unsplash

Il y a un commentaire

  1. zelectron

    Ne serait-il pas plus juste de parler de pseudo-émotionels à propos de ces robots, sauf à croire qu’il faille sacrifier à la mode journalistique des approximations, raccourcis ou autres contre-sens ?

Qu'en pensez-vous?