Close

Peut-on expliquer l’Intelligence artificielle ?

Le 8 février 2023, Google perdait, en vingt-quatre heures, 7 % de sa valeur boursière, soit près de 100 milliards de dollars, à la suite de la révélation d’une réponse erronée de son agent conversationnel Bard dans une publicité le mettant en scène. Un an plus tard, le 2 février 2024, l’AI Act, la réglementation européenne sur l’intelligence artificielle (IA), est adopté, imposant notamment (article 13) des contraintes de transparence et d’interprétabilité aux IA jugées à haut risque car touchant à la santé, à la sûreté ou aux droits des personnes, à l’accès à la formation ou à l’emploi, etc.

Ces deux événements soulèvent deux questions importantes : les prédictions de l’IA sont-elles certifiables, autrement dit un tiers de confiance prendra-t-il le risque de les garantir conformes aux attentes, et sont-elles explicables ? Les logiciels « classiques » utilisés dans l’aéronautique, par exemple, sont soumis à des processus de certification rigoureux, mais il est impossible de garantir l’absence de risque dans le cas général. Par ailleurs, le besoin d’expliquer est naturel chez l‘être humain, que ce soit pour des raisons économiques, comme dans le cas de l’échec du vol inaugural d’Ariane-5, en 1996, ou émotionnelles, comme pour une thérapie qui a échoué. Ce besoin d’explicabilité est mis en avant pour l’IA, technologie dont les développements et les nouveaux usages potentiels inquiètent, alors même que nous vivons dans un monde où des technologies d’intérêt vital ne sont pas toujours explicables, comme certains traitements médicaux.

Pourquoi la confiance est-elle si difficile à établir ? D’abord parce qu’il faut prouver que certaines propriétés formelles de systèmes extrêmement complexes sont toujours vraies malgré une infinité de circonstances possibles. Dans le cas de logiciels « classiques », ce processus peut être guidé par une analyse mathématique du code et de la manière dont la tâche correspondante est spécifiée.

Des milliards de paramètres

Le processus de décision de certaines IA admet, quant à lui, une interprétation naturelle, « par design » : c’est le cas des arbres de décision où un choix entre plusieurs options est fait à chaque étape selon les valeurs des données d’entrée. Les systèmes d’apprentissage profond les plus puissants aujourd’hui ne tombent malheureusement pas dans cette catégorie. Leurs prédictions dépendent en effet de milliards de paramètres qui ont été ajustés conjointement pour maximiser leur performance, sans faire l’objet de choix « lisibles » par un être humain : le processus de décision reste opaque, et est souvent qualifié de « boîte noire ». Les prédictions doivent dans ce cas être expliquées a posteriori dans le cadre de l’IA explicable, ou XAI pour « explainable AI ».

Il vous reste 27.57% de cet article à lire. La suite est réservée aux abonnés.

source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

0 Comments
scroll to top