Société de Linguistique de Paris
École
Pratique des Hautes Études, IVe section
Séance du
16 novembre 2019 (17h-19h)
L’Intelligence
Artificielle nous aide-t-elle à comprendre l’activité de langage?
Jean-Pierre
Desclés
Depuis que des ordinateurs programmés (avec Deep blue et AlphaGo) ont réussi à battre des grands maîtres des jeux d’échec et
de go, l’Intelligence Artificielle (IA) envahit une société médiatique qui
multiplie les envolées lyriques sur « une humanité augmentée » réalisée par «
robots intelligents » ; or l’intelligence de ces robots doit avoir acquis,
selon nous, une activité de langage comparable à celle des humains. Dans cet exposé, nous ferons un bref rappel
des différentes périodes (des printemps glorieux suivis d’hivers) de l’IA,
depuis le « test de Turing » en 1950 et « la conférence de Dartmouth » en 1956,
puis des systèmes experts avec la cinquième génération d’ordinateurs, jusqu’à
la période actuelle qui procède, non plus par des « représentations des
connaissances » introduites dans des formalismes logiques de règles, mais surtout par des « apprentissages »
(qualifiés parfois de neuronaux et profonds) qui nécessitent des dépôts
importants de données, quelquefois annotées par des humains (Big data). En linguistique, l’IA a
abouti à des résultats intéressants dans la reconnaissance et la synthèse de la
parole, la recherche d’information dans des textes avec la reconnaissance
d’entités nommées (des lexies), la traduction automatique. Une question
épistémologique s’impose néanmoins : les algorithmes de l’IA qui aboutissent à
des résultats (relativement satisfaisants qu’il convient cependant d’évaluer
correctement) dans le traitement automatique des langues, nous font-ils
vraiment comprendre la nature et la complexité de l’activité de langage que les
systèmes des langues expriment et manifestent ? En tant que discipline
scientifique, la linguistique a pour but d’identifier, puis de décrire,
l’interaction des opérations langagières invariantes (comme la prédication et
la thématisation, la détermination et la quantification, la prise en charge
énonciative de contenus…) avec des représentations des significations sous
forme de schèmes, afin d’expliciter le fonctionnement de l’activité de langage
propre à l’espèce humaine. Les apprentissages de l’IA s’appuient sur des méthodes
statistiques et probabilistes qui opèrent sur de vastes corpus d’exemples et
sur un très grand nombre de données enregistrées, pour ensuite élaborer
automatiquement des « algorithmes intelligents » de décision. Les processus de
l’IA actuelle ne semblent pas apporter une véritable aide à l’analyse des
divers systèmes sémiotiques que sont les langues et ne favorisent pas l’étude
des différences sémantiques, par exemple, dans les variations paraphrastiques
d’énoncés d’une seule langue. En effet, les algorithmes intelligents les plus
performants se présentent assez souvent sous forme de « boîtes noires » qui
mettent souvent les utilisateurs (y compris les informaticiens) dans
l’incapacité d’en extraire les informations nécessaires au contrôle des
traitements effectués. Simuler la production de réponses (plus ou moins
acceptables) à des problèmes déterminés relève plus d’une approche
technologique et moins d’une approche scientifique qui vise à comprendre
comment se construisent et se confrontent les diverses solutions théorisées
apportées à ces problèmes. La linguistique est une science (si possible
post-galiléenne et pas seulement
pré-galiléenne) ; aussi doit-elle veiller à ne pas se laisser réduire à n’être
qu’un ensemble de simulations « qui donnent des résultats » mais qui sont loin
de faire comprendre comment « ces résultats » ont été obtenus, ce qui entraîne
aussi à ne plus rechercher des résultats pertinents, peut-être meilleurs et
beaucoup plus généralisables car ayant pris appui sur des fondements théoriques
explicatifs avec des hypothèses de travail clairement formulées.
Nous évoquerons, au cours de
l’exposé, quelques-unes des fonctions fondamentales des langues (par exemple,
chaque langue permet de construire des dialogues en articulant différents référentiels),
ainsi que des opérations générales liées essentiellement à l’activité de
langage, que la linguistique contemporaine se doit d’étudier en cherchant à
mieux préciser ses concepts théoriques et descriptifs (en particulier en
sémantique) et à mieux expliciter (éventuellement par des calculs) les
articulations entre les représentations métalinguistiques (iconiques,
cognitives et formelles) et les expressions linguistiques manifestées par des
familles d’énoncés apparentés et par les organisations discursives des textes.
———————————————————————————————————
Séances ultérieures de la SLP (EPHE,
Sorbonne, 17 rue de la Sorbonne, escalier E, salle Gaston Paris) 14 décembre 2019 : Frédéric ISEL « Étude des processus d’acquisition d'une langue seconde :
Les apports de l’imagerie cérébrale ».
La séance aura lieu à l’ECOLE PRATIQUE DES HAUTES ETUDES en Sorbonne, 45-47, rue des Ecoles, 75005 PARIS Escalier E, 1er étage, Salle Gaston Paris
No comments:
Post a Comment