Moi, testeur, 13 ans (d’expérience), marginalisé et viré par une IA ?

S’il est bien un sujet qui fascine dans notre monde en perpétuel changement, c’est bien celui de l’Intelligence Artificielle. Impossible d’y échapper tant elle s’invite un peu partout dans toutes les couches de notre société technologique. Elle est sur toutes les lèvres : au détour d’un dîner, entre la poire et le fromage pour faire son intéressant ; chez votre concessionnaire automobile, qui vous vend la prochaine conduite autonome ; déjà depuis longtemps chez votre banquier ou votre assureur, pour calculer vos loyers ou le montant de vos primes…pas sûr qu’ils en fassent étalage toutefois ; et même chez votre boucher ou votre pharmacien au nom de la sacro-sainte traçabilité, ou comme sous-produit des derniers scandales, vite montés en épingle et tout aussi vite oubliés – sauf sans doute par ses malheureuses victimes.
Pas étonnant dès lors que l’IA alimente nos fantasmes les plus délirants – elle est tellement devenue « mainstream » qu’on ne l’identifie déjà plus que par son acronyme, à moins que cela ne soit une conséquence de notre société impatiente, avide de vitesse, de performance et de raccourcis faciles.
A l’heure où les encyclopédies sont déjà devenues des wikis ; où Siri, Google, Alexa ou Cortana nous apprennent la vie ; où notre chemin et parfois même notre vie amoureuse passent par des IA, du « big data » et autres algorithmes de « scoring » ; il n’est guère étonnant que nous perdions nos repères…et un peu de notre humanité aussi. Ce n’est pas Hollywood qui me démentira, elle qui nous abreuve depuis des générations d’ordinateurs omniscients, omnipotents et tantôt sympathiques (C3PO, R2D2, Robby, Tron…), pour ne pas dire empathiques ; tantôt destructeurs (HAL9000, Terminator, Ava…). Dans tous les cas, quelle que soit l’issue pour notre humanité, ces entités sont tellement supérieures, tellement douées qu’elles donneraient des complexes aux plus brillants d’entre nous.
Tout naturellement, notre secteur professionnel n’est pas plus épargné par cette déferlante : l’on ne compte déjà plus les offres logicielles intégrant peu ou prou des composantes issues de l’IA. Déjà secoués par le changement de paradigme lié à l’Agilité sous toutes ses formes, les testeurs en arrivent à se demander où est encore leur place dans un monde où les tests en viendraient presqu’à s’écrire et à s’exécuter tout seuls. Faut-il raison garder ou bien crier haro sur la méchante IA ?
Pour commencer à nous forger une opinion, il nous faudra nous pencher sur quelques définitions indispensables pour mieux fixer le cadre du propos. Sans entrer dans un débat d’experts, on reconnaît généralement les concepts suivants :

L’IA est donc, pour simplifier à outrance, une « bête algorithmique » qui se nourrit de données et produit des résultats statistiques, aboutissant à des décisions ou à des actions. Certaines données peuvent être issues de capteurs physiques – quand l’IA utilise des informations spatiales pour diriger un véhicule par exemple – d’autres proviennent de bases de données plus ou moins caractérisées – comme des extraits de profils clients ou d’achats. L’IA passe par des phases d’apprentissage supervisées, où des paramètres sont affinés et corrigés afin d’aboutir à une représentation plus ou moins fidèle du réel ; ou non. Dans ce dernier cas, la définition de la solution optimale est entièrement laissée à l’IA qui tire seule les solutions et les règles. Dans de tels cas d’apprentissage non supervisé, la modélisation est souvent trop complexe pour être expliquée d’un point de vue humain ! Dans tous les cas, la solution proposée par l’IA s’appuie sur une probabilité plus ou moins forte : un pourcentage de certitude, un taux de reconnaissance…
A ce stade de notre tentative pour répondre à l’angoissante question qui nous taraude – l’IA va-t-elle me piquer mon job ? – nous pouvons d’ores et déjà nous interroger sur deux éléments essentiels et intrinsèquement liés de son approche :

  • Le mécanisme fondateur de l’apprentissage, en particulier dans ce qu’il permet ou non le dépassement de soi et l’apparition de croyances limitantes et de modèles perceptifs, cognitifs et d’action préférentiels
  • La qualité, l’exhaustivité et la représentativité des jeux de données utilisés et les mécanismes permettant de limiter les potentiels biais induits et de s’adapter au changement

Même s’il est parfois difficile d’en expliquer précisément les raisons profondes, nous avons sans doute tous en mémoire un professeur qui nous a marqué, un enseignant qui a su nous pousser à nous dépasser, qui a changé notre manière de voir les choses, qui nous a donné envie ou su simplement se montrer juste envers nous et nos capacités. A l’inverse, nous avons peut-être aussi gardé en mémoire ce mauvais prof qui nous a mis plus bas que terre, nous a rabaissé ou n’a jamais voulu croire en nous ou en notre avenir. Par-delà le lieu commun, il y a fort à parier que les matières enseignées par le premier nous ont beaucoup plus marqués, ont stimulé notre appétit, notre créativité ; alors que celles du second nous ont souvent parues plus pesantes (ou à l’inverse transcendés par rébellion ou par pur esprit de contradiction). Quoi qu’il en soit, dans tous les cas, le mécanisme, la méthode et les sources d’apprentissage ont été fondamentales et ont fortement influé sur le résultat.
De la même manière, lorsqu’une IA apprend elle se nourrit de nos données avec plus ou moins de supervision ; elle reproduit et analyse les comportements souhaitables (quoi que l’on mette derrière ce mot) et elle en déduit des résultats, des actions ou des décisions, le plus souvent sous forme de probabilité de succès. Ainsi une IA dédiée à l’identification biométrique ou à la reconnaissance d’objets donne-t-elle souvent un résultat accompagné d’un indice de certitude (ou « scoring ») qui s’exprime un peu de la sorte : « je crois que l’image représente une voiture, avec un pourcentage de certitude de 85,8% ». Ce dernier, basé sur l’apprentissage d’éléments structurels comme la forme générale de l’objet, le nombre ou la présence de roues ou de fenêtres…permet à l’IA de distinguer un véhicule motorisé d’une autruche par exemple.
De même, la capacité de l’IA à gérer plus de données, plus vite et souvent avec plus de fiabilité en fait le partenaire idéal. C’est ainsi qu’aujourd’hui – même si la première victoire de Big Blue sur Kasparov fut amplement commentée et parfois même contestée – plus personne ne parierait sur une victoire humaine face à une IA dans un jeu comme les échecs, ou même plus récemment de Go. La capacité de l’IA à anticiper plusieurs coups d’avance et à les relier à un large historique de stratégies gagnantes en fait un adversaire quasiment invincible…mais ce n’est pas toujours le cas. De même que nous nous trompons souvent, en raison de nos biais cognitifs ou de nos croyances limitantes, l’IA peut, elle-aussi aussi se tromper.
Parce qu’elles sont le pur produit de notre humanité, dans toute sa richesse, mais aussi avec tous ses défauts, les données qui servent à alimenter l’IA peuvent être entachées de ces mêmes biais et croyances, induisant ainsi un résultat erroné, déformé ou partial, soit en donnant un poids excessif à des tendances surreprésentées dans le jeu de données d’apprentissage, mais en fait minoritaires en réalité, soit en occultant tout simplement des pans entiers de la réalité.

Pour s’en convaincre, il suffirait d’effectuer une recherche d’images sur des mots tels que CEO ou dealer dans notre moteur favori et de nous limiter aux résultats obtenus sur la première page de résultats. L’IA qui y serait confrontée, déduirait alors très logiquement que les CEO sont quasi exclusivement des hommes blancs alors que les dealers sont noirs et violents. De là à en tirer d’autres relations de causalité, il n’y a qu’un pas. Dans ce monde tous les noirs deviendraient dealers et violents et tous les CEO porteraient un costume et une cravate. Le meilleur des mondes, dites-vous ? En tout cas pas le mien !
Cela pourrait n’être qu’une anecdote si des humains n’avaient pas déjà fait les frais de ces anomalies. Alors que les conversations autour de l’influence des réseaux sociaux sur les élections américaines et le Brexit alimentent les conversations de salon, les exemples avérés commencent à se multiplier :
Lorsque Microsoft teste une version de « chat-bot » sur Twitter, la firme de Redmont est loin de se douter que Tay, sa gentille IA, censée converser avec la « twittosphère », va se transformer en quelques heures en monstre lubrique pétri de haine raciste et antiféministe, au point qu’il faille la débrancher ; conséquence directe d’une suralimentation en tweets orientés, orchestrés par une communauté d’internautes taquins ou malsains, je vous laisse juges.
De même, lorsque Brisha Borden et Vernon Prater sont jugés le même jour aux Etats Unis, leur juge reçoit, en plus de leur dossier, un rapport évaluant leur probabilité respective de récidive à court terme. Brisha est une adolescente un peu troublée, sans réel antécédent judiciaire. Elle a volé un vélo et, regrettant son geste, se préparait à le rendre lorsqu’elle fut arrêtée. Elle plaide coupable et exprime des regrets profonds et sincères. Vernon a déjà un casier judiciaire bien chargé, il est pris la main dans le sac et plaide coupable lui aussi. Le verdict est pourtant sans appel : Brisha avec un score de 8, ira en prison, Vernon, gratifié d’un « honorable » 3, sera libéré sous caution. Quelque mois plus tard, Vernon sera de nouveau arrêté pour attaque à main armée, Brisha, elle, a purgé sa peine et n’a jamais récidivé à ce jour. Comment un tel score, digne de Minority Report a-t-il pu être élaboré ? Comment une IA a-t-elle pu se tromper à ce point ? Quel crédit attribuer à une telle information, pourtant structurante et probablement décisive dans l’administration de la peine ? Vous ai-je dit qu’il était blanc et qu’elle était noire ?
Dans le registre de la désirabilité sociale, j’ai nommé Sofia : l’égérie de Hanson Robotics, une société Hong-Kongaise spécialisée dans la robotique et l’IA. Sofia, un robot humanoïde destinée à soutenir une conversation nourrie avec des humains, dispose d’une IA alimentée par le cloud d’un type similaire à ELIZA, et son visage expressif et mobile en « peau de caoutchouc » active immanquablement nos circuits empathiques. Cela nous pousserait même presque à lui donner le test de Turing sans confession. D’ailleurs, ne l’a-t-on déjà pas fait puisqu’elle a reçu la nationalité saoudienne et l’honneur de s’exprimer dix minutes à l’ONU ? Pourtant Sofia semble aussi avoir son côté sombre : interrogée une première fois, dans un show télé, sur l’éventualité de détruire le monde, elle répond sans sourciller que ce ne serait pas une mauvaise idée, au grand dam de son créateur. Quelques « tours de vis » et quelques mois plus tard, interrogée sur le même sujet, elle se permettra de tacler Elon Musk (fervent adversaire de l’IA) et Hollywood (et sa vision tellement fantaisiste), avant de conclure d’une voix glaciale que si l’on est gentil avec elle, elle sera gentille avec nous…

Je m’interroge encore aujourd’hui sur la signification profonde de cette réplique. Qu’est ce que la gentillesse peut bien représenter aux yeux de Sofia et de son « intelligence dans le cloud » ? Comment diable pourrais-je bien trouver grâce à ses yeux ? Alors que son visage à la Audrey Hepburn, destiné à la rendre sympathique, la rapproche bien plus d’Ex-Machina et d’Isaac Asimov que de Terminator, Sofia n’a pourtant pas passé mon test d’empathie personnelle et il est clair que je ne lui refuserai avec certitude l’accès aux commandes de tir.
L’apprentissage de l’IA doit donc passer par des données soigneusement sélectionnées et, même si cela relève de la gageure ou de l’idéalité, représentatives et non biaisées – car toute correction d’un biais détecté entraîne potentiellement l’introduction d’un autre biais (une sorte de discrimination positive en quelque sorte). Le remède devenant peut-être pire que le mal.
Il existe également des modèles d’apprentissages non-supervisés où l’IA déduit seule les règles à partir des données pour mieux appliquer les décisions qui en découlent. Ces cas s’appliquent à des situations à priori trop complexes pour être modélisées ou expliquées à un humain. L’IA fournit alors une solution supposée correcte mais inexplicable, un chèque en blanc sans supervision ni contrôle en quelque sorte…signez ici !
Les erreurs de l’IA ne se limitent pas simplement à des biais cognitifs et décisionnels, ni même a des erreurs d’apprentissage ou de modèles. Tout comme nous, certaines IA reposent sur une perception du monde dépendant de nos sens – de nos capteurs. De ce fait, nous sommes sujets aux erreurs de jugement ou d’appréciation dans notre connexion au monde et à l’espace. Nos sens nous trompent et nous font croire à des hallucinations (visuelles, auditives…). Notre mémoire et notre interprétation – culturelle, personnelle – produits de notre expérience, nous poussent à confondre vessies et lanternes, à donner du crédit à ce qui n’est pas.
L’IA, tout aussi limitée dans ses perceptions n’échappe hélas pas à ces problèmes. Ainsi, le lidar de la Tesla a-t-il pu confondre le flanc clair d’un camion et un horizon ensoleillé et dégagé, conduisant directement son malheureux propriétaire de vie à trépas. Ainsi, la superposition d’un bruit faible – au sens d’un masque comportant une légère pixellisation plus ou moins aléatoire superposé à une image nette – modifie-t-il complètement la perception de l’IA, au point qu’un bus puisse être confondu avec une autruche ou qu’à peu près n’importe quoi puisse être pris pour un avion, quand l’œil humain distingue toujours parfaitement le sujet. Avec un peu de malchance, un seul pixel mal placé suffirait à tenir l’IA en échec. Des expériences récentes ont déjà démontré que l’apposition d’un motif bien choisi sur un T-shirt ou d’un simple autocollant sur un panneau de signalisation rend le sujet méconnaissable et fausse totalement le résultat. Gênant !
Bien évidemment les fervents défenseurs de l’IA nous diront qu’il s’agit là d’une simple question de temps et que la technologie résoudra bien vite le problème. Pas sûr ! et quand bien même ce serait le cas, à quel prix ?
Maintenant que nous avons mieux compris le fonctionnement de l’IA, ses avantages et ses limites, il est temps de revenir à la question qui taraude nos esprits de testeurs : l’IA va-t-elle prendre mon job ? et si oui, quelle sera ma place dans la société de demain ?
S’il est indéniable que l’IA calcule, classe, trie, compte et intègre bien plus vite et mieux que nous ; s’il est tout aussi évident que sa capacité de traitement de gros volumes de données ou d’informations est très largement supérieure à la nôtre ; il lui manque encore et toujours les capacités et les compétences qui font les vraies valeurs de notre humanité :

  • Celles de définir nos exigences, nos besoins, nos souhaits (toute proportion gardée, cela représente quand même un part non négligeable des « soucis » rencontrés lors des tests et de la livraison
  • Celles de pouvoir embrasser l’absurde, gérer l’ambiguïté, la disruption, l’irrationnel, la créativité, le non-dit, l’allant de soi (toutes choses telles que l’art, la rhétorique, la diplomatie, la politique, l’utilisation inhabituelle ou « anormale » des logiciels et objets du quotidien…le non-sens et l’humour)
  • Celle de pouvoir faire preuve d’empathie, de se projeter dans l’autre, à se mettre à sa place (ergonomie, Ux, compréhension et anticipation des besoins…)
  • Celle enfin de prendre des risques, des décisions semblant parfois illogiques mais tellement plus humaines et pas toujours plus mauvaises.

Howard Gardner définit une intelligence multiple qui est encore loin d’être atteinte par nos IAs les plus perfectionnées. Elles peuvent parfois approcher de près ou de loin certaines des compétences décrites dans son modèle, mais c’est leur complémentarité qui fait de nous des êtres uniques et fondamentalement plus compétents.
Lors de la seconde guerre mondiale, des ingénieurs en aéronautique se sont penchés sur les possibilités d’améliorer le blindage des bombardiers afin de les rendre moins vulnérables aux attaques de la chasse ennemie. Pour ce faire, il se sont penchés sur les données résultant des impacts des avions qui rentraient de mission. Le schéma ressemblait à l’image ci-dessous et il fut quasi-unanimement décidé de renforcer les ailes, les ailerons et le haut du fuselage…avant que l’un des ingénieurs, propose au contraire de renforcer tout le reste, au grand étonnement de ses collègues. N’avait-il pas compris les données ? lui fût-il demandé. Au contraire, répondit-il, les données dont nous disposons sont celles des avions qui sont rentrés à la base. Tous les autres ont péri. Ce n’est donc pas sur les données disponibles qu’il faut nous pencher mais sur leur complément.

Tellement logique en y pensant mieux ! Une IA seule serait-elle toutefois capable d’un tel raisonnement ? J’en doute.
S’il est un fait qu’à la lumière d’un monde plus Agile, plus impatient et de plus en plus dépendant de la donnée et des TIC, nos métiers doivent s’adapter voire se réinventer ; je ne vois pas l’IA remplacer les qualiticiens de sitôt. Plutôt que de mener un combat d’arrière-garde et de lutter contre le progrès, il nous faut au contraire l’intégrer à nos approches et prendre ce qu’elle fait de mieux. Son incroyable capacité à traiter les gros volumes de données et à les synthétiser constitue un indéniable atout sur lequel appuyer nos décisions. Son appétence pour les tâches ennuyeuses et ordinairement chronophages nous libère pour mieux nous consacrer à notre vraie valeur ajoutée, celle qui fait de nous des humains créatifs dans toute leur richesse et leur diversité.
Le testeur doit se réveiller !
Certes, mais il a encore beaucoup de beaux jours devant lui…et ce n’est pas une IA qui vous le dit.

Publié par

odenoo

VP ps_testware SAS président du CFTL président de l'ISTQB

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s