Thursday, November 14, 2019

Conférence sur l'Intelligence artificielle et le langage


Société de Linguistique de Paris
École Pratique des Hautes Études, IVe section

Séance du 16 novembre 2019 (17h-19h)

L’Intelligence Artificielle nous aide-t-elle à comprendre l’activité de langage?
Jean-Pierre Desclés
 
Depuis que des ordinateurs programmés (avec Deep blue et AlphaGo) ont réussi à battre des grands maîtres des jeux d’échec et de go, l’Intelligence Artificielle (IA) envahit une société médiatique qui multiplie les envolées lyriques sur « une humanité augmentée » réalisée par « robots intelligents » ; or l’intelligence de ces robots doit avoir acquis, selon nous, une activité de langage comparable à celle des humains.  Dans cet exposé, nous ferons un bref rappel des différentes périodes (des printemps glorieux suivis d’hivers) de l’IA, depuis le « test de Turing » en 1950 et « la conférence de Dartmouth » en 1956, puis des systèmes experts avec la cinquième génération d’ordinateurs, jusqu’à la période actuelle qui procède, non plus par des « représentations des connaissances » introduites dans des formalismes logiques de règles,  mais surtout par des « apprentissages » (qualifiés parfois de neuronaux et profonds) qui nécessitent des dépôts importants de données, quelquefois annotées par des humains (Big data). En linguistique, l’IA a abouti à des résultats intéressants dans la reconnaissance et la synthèse de la parole, la recherche d’information dans des textes avec la reconnaissance d’entités nommées (des lexies), la traduction automatique. Une question épistémologique s’impose néanmoins : les algorithmes de l’IA qui aboutissent à des résultats (relativement satisfaisants qu’il convient cependant d’évaluer correctement) dans le traitement automatique des langues, nous font-ils vraiment comprendre la nature et la complexité de l’activité de langage que les systèmes des langues expriment et manifestent ? En tant que discipline scientifique, la linguistique a pour but d’identifier, puis de décrire, l’interaction des opérations langagières invariantes (comme la prédication et la thématisation, la détermination et la quantification, la prise en charge énonciative de contenus…) avec des représentations des significations sous forme de schèmes, afin d’expliciter le fonctionnement de l’activité de langage propre à l’espèce humaine. Les apprentissages de l’IA s’appuient sur des méthodes statistiques et probabilistes qui opèrent sur de vastes corpus d’exemples et sur un très grand nombre de données enregistrées, pour ensuite élaborer automatiquement des « algorithmes intelligents » de décision. Les processus de l’IA actuelle ne semblent pas apporter une véritable aide à l’analyse des divers systèmes sémiotiques que sont les langues et ne favorisent pas l’étude des différences sémantiques, par exemple, dans les variations paraphrastiques d’énoncés d’une seule langue. En effet, les algorithmes intelligents les plus performants se présentent assez souvent sous forme de « boîtes noires » qui mettent souvent les utilisateurs (y compris les informaticiens) dans l’incapacité d’en extraire les informations nécessaires au contrôle des traitements effectués. Simuler la production de réponses (plus ou moins acceptables) à des problèmes déterminés relève plus d’une approche technologique et moins d’une approche scientifique qui vise à comprendre comment se construisent et se confrontent les diverses solutions théorisées apportées à ces problèmes. La linguistique est une science (si possible post-galiléenne  et pas seulement pré-galiléenne) ; aussi doit-elle veiller à ne pas se laisser réduire à n’être qu’un ensemble de simulations « qui donnent des résultats » mais qui sont loin de faire comprendre comment « ces résultats » ont été obtenus, ce qui entraîne aussi à ne plus rechercher des résultats pertinents, peut-être meilleurs et beaucoup plus généralisables car ayant pris appui sur des fondements théoriques explicatifs avec des hypothèses de travail clairement formulées. 
Nous évoquerons, au cours de l’exposé, quelques-unes des fonctions fondamentales des langues (par exemple, chaque langue permet de construire des dialogues en articulant différents référentiels), ainsi que des opérations générales liées essentiellement à l’activité de langage, que la linguistique contemporaine se doit d’étudier en cherchant à mieux préciser ses concepts théoriques et descriptifs (en particulier en sémantique) et à mieux expliciter (éventuellement par des calculs) les articulations entre les représentations métalinguistiques (iconiques, cognitives et formelles) et les expressions linguistiques manifestées par des familles d’énoncés apparentés et par les organisations discursives des textes.
———————————————————————————————————

Séances ultérieures de la SLP (EPHE, Sorbonne, 17 rue de la Sorbonne, escalier E, salle Gaston Paris)  14 décembre 2019 : Frédéric ISEL « Étude des processus d’acquisition d'une langue seconde : Les apports de l’imagerie cérébrale ».  

La séance aura lieu à l’ECOLE PRATIQUE DES HAUTES ETUDES en Sorbonne, 45-47, rue des Ecoles, 75005 PARIS Escalier E, 1er étage, Salle Gaston Paris

No comments:

Post a Comment