Pourquoi l’IA a toujours besoin d’une expertise humaine ?

Erreur de la base de données WordPress : [Duplicate entry '0' for key 'wp_postmeta.PRIMARY']
INSERT INTO `wp_postmeta` (`post_id`, `meta_key`, `meta_value`) VALUES (778, '_oembed_c4b4ee0ba64e829d45f17e5e4a8b4d10', '{{unknown}}')

Beaucoup de réponses sont générées par l’intelligence artificielle pour faire gagner du temps. Mais cette technologie s’avère encore trop souvent incomplète ou pas assez digne de confiance.

Il est compliqué pour les individus de blâmer l’IA pour les résultats qui découlent de son usage. (Crédit : Gerd Altmann, Pixabay)
De GitHub Copilot à la recherche Bing infusée de ChatGPT, l’IA imprègne de plus en plus notre vie quotidienne. Même si c’est une bonne chose en soi – les machines travaillent plus pour que nous puissions consacrer notre temps à autre chose – il faut une bonne dose d’expertise dans un domaine donné pour faire confiance aux résultats fournis par l’IA. Ben Kehoe, ancien chercheur en robotique cloud chez iRobot, affirme que les gens doivent toujours assumer la responsabilité ultime de ce que propose l’IA. Autrement dit, il faut pouvoir apprécier l’exactitude des suggestions faites par l’IA.
Nous n’en sommes encore qu’aux prémices de l’IA, dans une période où la technologie apparaît extrêmement prometteuse, sans très bien savoir encore comment elle évoluera. J’ai déjà déclaré qu’à ce jour, les plus grands succès de l’IA ne se sont pas produits au détriment des personnes, mais plutôt en complément des personnes. C’est le cas par exemple de machines exécutant des requêtes à forte intensité de calcul à grande échelle, qui répondent à des questions que les humains pourraient traiter, mais beaucoup plus lentement. Aujourd’hui, il existe des choses comme des « véhicules entièrement autonomes », qui sont tout sauf cela. Non seulement l’intelligence artificielle et les logiciels sont encore loin d’être assez performants, mais les lois ne permettent toujours pas à un conducteur d’accuser l’intelligence artificielle d’être responsable d’un accident (et ils sont légion : au moins 400 l’année dernière). Pour ne citer qu’un autre exemple, ChatGPT est étonnant, jusqu’à ce qu’il commence à inventer des informations pour le lancement public du nouveau Bing alimenté par l’IA.
Surveiller les surveillants
Et ainsi de suite. Il ne s’agit pas de déprécier ces usages ou d’autres usages de l’IA. Mais plutôt de rappeler que, comme l’affirme Ben Kehoe, les gens ne peuvent pas blâmer l’IA pour les résultats qui découlent de son usage. Il souligne que « dans beaucoup de prises de position sur l’IA, j’entends dire que l’IA sera capable d’assumer l’entière responsabilité d’une tâche donnée pour une personne, en supposant implicitement que la responsabilité de la personne pour cette tâche va juste en quelque sorte… s’évaporer… ». Les gens sont responsables si leur Tesla percute une autre voiture. Ils sont également responsables de ce qu’ils choisissent de faire avec ChatGPT ou de la violation des droits d’auteur si DALL-E utilise du matériel protégé, etc. En ce qui me concerne, cette responsabilité est particulièrement importante si j’utilise des outils d’IA comme GitHub Copilot dans mon travail.
Il n’est pas difficile de trouver des développeurs qui profitent de Copilot. C’est le cas d’un développeur qui a apprécié les suggestions rapides d’API, mais qui l’a trouvé « bancal » et « lent ». Et les autres avis mitigés ne manquent pas. Les développeurs apprécient la manière dont Copilot étoffe le code standard, trouve et suggère des API pertinentes, etc. Le développeur Edwin Miller a déclaré que les suggestions de Copilot étaient « généralement précises », ce qui est à la fois bien et mal. C’est une bonne chose que l’on puisse faire confiance à Copilot la plupart du temps, mais c’est aussi le problème : on ne peut lui faire confiance que la plupart du temps. Pour savoir quand ses suggestions ne sont pas fiables, il est nécessaire d’être un développeur expérimenté.
Assurer la responsabilité des résultats
Là encore, ce n’est pas un gros problème. Si Copilot aide les développeurs à gagner du temps, c’est une bonne chose, n’est-ce pas ? C’est vrai, mais cela signifie aussi que les développeurs doivent assumer la responsabilité des résultats de l’utilisation de Copilot, ce qui n’est pas toujours la meilleure option pour les jeunes développeurs. Ce qui pourrait être un raccourci pour un développeur expérimenté pourrait conduire à de mauvais résultats pour un développeur moins expérimenté. De toute façon, il est probablement peu judicieux pour un débutant de prendre ces raccourcis, car il pourrait manquer quelques étapes dans son apprentissage de la programmation. Alors, utilisons l’IA pour améliorer notre conduite, nos recherches et notre programmation. Mais n’oublions pas que tant que nous n’avons pas une confiance absolue dans ses résultats, les personnes expérimentées doivent toujours garder les mains sur le volant et rester aux commandes.
Article rédigé par
Matt Asay, IDG NS (adapté par Jean Elyan)
https://www.lemondeinformatique.fr/actualites/lire-pourquoi-l-ia-a-toujours-besoin-d-une-expertise-humaine-89599.html

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *