Wednesday, November 27, 2019

Appel à article

Revue Pagaille n°2
« Bibliothèque numérique et intelligence collective :  la révolution numérique est-elle le sacre des “humanités”  ? »

Présentation de la revue :
Pagaille est une revue numérique biannuelle indépendante de littératures et médias comparés, fondée par des chercheuses et chercheurs en littératures comparées. Elle a pour objectif de promouvoir l’approche comparatiste dans le champ des sciences humaines et sociales. Comme son nom l’indique, la revue entend explorer des champs particulièrement riches de la recherche actuelle, des espaces intellectuels en pagailleau sein desquels le comparatisme entend se frayer un chemin et apporter un éclairage spécifique. À ce titre, les démarches inter-, intra-, et transmédiales ont toute leur place dans la revue.
Corps de l’appel :
Pour les études littéraires, le numérique constitue un nouveau continent que la critique doit à présent explorer voire conquérir. Incarnation postmoderne de la bibliothèque de Babel, le monde numérique mêle la diversité des langues humaines à la multiplicité des formats informatiques (langages de programmation, interopérabilité des logiciels, formats de fichiers, etc.). Ce bouleversement technologique provoque une évolution du statut du texte, ainsi que de la fonction auteur. Une redéfinition des principes d'auctorialité hérités du marché du livre occidental s'impose. Dans quelle mesure cela transforme-t-il les modalités selon lesquelles s'interprètent les œuvres ? N’est-il pas temps de constituer un comparatisme transmédiatique afin de renouveler les cadres théoriques de l’interprétation des textes ? 
L’enjeu de ce numéro est de porter un regard critique sur les principes scientifiques aux fondements des outils numériques susceptibles d'être employés dans le cadre de la recherche en lettres et sciences humaines. Cette publication fait suite à la journée d’études sur le même sujet qui a eu lieu en juin 2019 à l’Université Paris Nanterre.
Les propositions d’articles pourront s'inscrire dans un ou plusieurs des trois axes suivants, sans nécessairement s'y limiter :
I. Le numérique est-il le rêve des humanités ?
Le concept d'humanités, de la Renaissance au romantisme
Dans un souci de diachronie, il paraît profitable de revenir sur l'histoire des notions d'humanitéset d’humanismeà travers les grands mouvements artistiques et philosophiques. Cela permettra notamment d’esquisser une archéologie des usages de ce terme d’humanitésqui connaît un véritable regain théorique à travers la diffusion de l’expression  d’« humanités numériques » .
La conceptualisation problématique d'un « humanisme numérique » 
Le retour en force de la notion d'humanitésau moment du passage à l'ère numérique charrie avec lui les impensés de l'idéologie humaniste, déjà prégnante au sein de la culture du Livre. Les cultural studies, au premier rang desquelles la théorie postcoloniale, n'ont eu de cesse d'interroger les caractéristiques de cet « humain »  tant vanté par les humanités. En cela, les humanités numériques représentent-elles réellement un nouvel idéal du savoir ? Sont-elles en mesure d'« humaniser » le numérique ? Ne constituent-elles pas au contraire la réincarnation 2.0 d’un vieil humanisme ?
II. Comment le texte numérique s'interprète-t-il ?
Fragmentation du texte et distant reading: Contrairement au texte numérisé (qui conserve les propriétés d'organisation du médium papier), le texte numérique se caractérise par sa dimension fragmentaire, supposant de nouveaux modes interprétatifs. Les bibliothèques numériques n’obéissent pas aux mêmes principes que leurs illustres prédécesseures, ne serait-ce qu’en raison de la transformation des manières de lire, de rechercher et de consulter des ouvrages. Dans la lignée des travaux récents autour de la matérialité du support, il s'agira de s'interroger sur les enjeux théoriques de cette mutation des pratiques de lecture.
III. Les humanités ne servent-elles qu'à transmettre et à conserver ?
La folksonomie, ou l'indexation horizontale au service de l’intelligence collective
Associé à l'avènement du Web 2.0, qui se veut plus participatif que ne l'était le Web 1.0, le principe de la folksonomie s'est propagé sur l'ensemble d’Internet. De Facebook à Twitter en passant par Youtube, les hashtags et autres étiquettes se sont imposés pour le référencement des données. Dès lors, comment la recherche scientifique peut-elle, à son tour, faire de cette forme d’intelligence collective un nouveau langage de production de savoir ?
Subversives ou « disruptives» ? Les humanités numériques à l'épreuve de la start-up nation 
Les facilités de partage permises par le numérique pourraient laisser espérer une démocratisation de l'activité interprétative, elle-même liée à un accès facilité aux textes et aux ressources. Le fonctionnement de cette bibliothèque numérique qu’est Internet serait censé permettre la réalisation de l’idéal d’une intelligence collective au service du bien commun, et de l’avancée des savoirs. En effet, la structuration des communautés interprétatives en fandoms, espaces d’érudition et de créativité mêlés, ne dessine-t-elle pas une nouvelle médiapolitique des savoirs ? Des forums de discussion aux blogs personnels, il semblerait que l’on assiste à un détournement des hiérarchies usuelles associées à une vision élitiste du savoir. Mais, dans le même temps, quel humanisme voir dans les politiques commerciales des géants du Web, de ces fameux GAFA dont les choix influent sur la visibilité des corpus ?
Modalités de soumission :
  • Les propositions d’articles entre 3000 et5000 signes, accompagnées d’une bio-bibliographieet de 5 mots-clés, sont à envoyer avant le 15 janvier 2020à l’adresse mail suivante : contact@revue-pagaille.fr 
  • Les notifications aux auteurs seront envoyées à partir de fin janvier 2020.
  • L’article (de 35 000 à 45 000 signes espaces compris) sera à envoyer début juin 2020 pour évaluation en double aveugle par le comité scientifique. 
  • La publication du numéro est prévue en juin 2021 sur le site de la revue : http://revue-pagaille.fr 
*
Comité scientifique :
  • Michel Bernard (Université Sorbonne-Nouvelle)
  • Baptiste Bohet (Université Sorbonne-Nouvelle)
  • Yvan Daniel (Université Clermont Auvergne)
  • Milad Doueihi (Université Paris Sorbonne)
  • Gaëlle Debeaux (Université Rennes 2)
  • Alexandre Gefen (CNRS)
  • Anaïs Guilet (Université Savoie Mont Blanc)
  • Mathieu de la Gorce (Université Paris Nanterre)
  • Serge Linkès (Université de La Rochelle)
  • Alain Sandrier (Université de Caen)
  • Julien Schuh (Université Paris Nanterre)
Comité de rédaction : 
  • Manon Amandio (Université Paris Nanterre)
  • Julie Brugier (Université Paris Nanterre)
  • Hélène Dubail (Université Paris Nanterre)
  • Amandine Lebarbier (Université Paris Nanterre)
  • Sébastien Wit (Université de Picardie Jules Verne) 
*
`Bibliographie indicative :
BARTSCHERER, Thomas et COOVER, Roderick (dir.), Switching Codes: Thinking Through Digital Technology in the Humanities and the Arts, Chicago, University of Chicago Press, 2011
BERNARD, Michel et BOHET, Baptiste, Littérométrie. Outils numériques pour l’analyse des textes littéraires, Paris, Presses de la Sorbonne Nouvelle, 2017
BERRY, David M. (dir.), Understanding Digital Humanities, Houndmills/New York, Palgrave Macmillan, 2012
CITTON, Yves, « Humanités numériques. Une médiapolitique des savoirs encore à inventer »  dans Multitudes, vol. 59, n° 2, 2015, p. 169-180 <https://www.cairn.info/revue-multitudes-2015-2-page-169.html>
CITTON, Yves, Médiarchie, Paris, Seuil, 2017
CITTON, Yves et JULIEN-SAAVEDRA,  Quentin (trad.), « Manifeste pour des humanités numériques 2.0 »  dans Multitudes, vol. 59, n° 2, 2015, p. 181-195 <https://www.cairn.info/revue-multitudes-2015-2-page-181.htm>
DOUEIHI, Milad, « Quelles humanités numériques ? »  dans Critique, n° 819-820, 2015, p. 704-711 <https://www.cairn.info/revue-critique-2015-8-page-704.htm>
DOUEIHI, Milad, Pour un humanisme numérique, Paris, Seuil, 2011
GEFEN, Alexandre, « Les enjeux épistémologiques des humanités numériques »  dans Socio, n° 4, 2015 <http://journals.openedition.org/socio/1296>
GEFEN, Alexandre, « Des humanités numériques en 2017 » dans Mélanges de la Casa de Velázquez, vol. 47, n° 2, 2017, p. 315-318 <https://journals.openedition.org/mcv/7957>
GOODWIN, Jonathan et HOLBO, John, Reading Graphs, Maps, Trees: Responses to Franco Moretti,  Anderson, Parlor Press, 2011
HAYLES, N. Katherine,  Lire et penser en milieux numériques : attention, récits, technogenèse, trad. Christophe Degoutin, Grenoble, ELLUG, 2016
HAYLES, N. Katherine et PRESSMAN, Jessica (dir.), Comparative Textual Media: Transforming the Humanities in the Postprint Era, Minneapolis/London, University of Minnesota Press, 2013
MORETTI, Franco, Graphs, Maps, Trees: Abstract Models for a Literary History, London, Verso, 2005
MORETTI, Franco, Distant Reading, London, Verso, 2013
MOUNIER, Pierre, Les Humanités numériques : une histoire critique, Paris, Éditions de la Maison des sciences de l'homme, 2018
SAÏD, Edward W., Humanisme et démocratie, trad. Christian Calliyannis, Paris, Fayard, 2005
SPIVAK, Gayatri Chakravorty, Death of a Discipline, New York, Columbia University Press, 2003
STIEGLER, Bernard (dir.), Digital studies : organologie des savoirs et technologies de la connaissance, Limoges/Paris, FYP/IRI, 2014 

Monday, November 25, 2019

Séminaire du Labex OBVIL

Pour la huitième semaine du séminaire du labex OBVIL, Palmyre de La Touanne et Côme Saignol exposeront l'état d'avancement de leur travaux de recherche et leurs thèses en cours.

Palmyre de La Touanne:
Les humanités numériques pour l’observation du style. L’exemple de Marguerite Yourcenar.
À partir de la présentation de mon travail de thèse en cours sur la question du « style classique » chez Marguerite Yourcenar, je montrerai dans quelle mesure les ressources numériques permettent de répondre à des problématiques linguistiques ou stylistiques. Je prendrai plus particulièrement l’exemple de l’extraction de patrons lexico-grammaticaux menée sur mon corpus pour montrer comment cette méthode peut permettre d’apporter un regard nouveau sur l’imaginaire de la langue littéraire au XXe siècle."

Côme Saignol:
De Cyrano à Cyranum. Genèse et réception d'une légende littéraire à l'heure des humanités numériques (1655-1898).
Cette intervention prendra la forme d'une présentation du site en construction Cyranum.fr, une édition hypertextuelle de la pièce éponyme d'Edmond Rostand. En combinant les approches des humanités numériques, de l’histoire littéraire et de la critique génétique afin de saisir la circulation de motifs associée à Cyrano de Bergerac, on s'intéressera plus particulièrement aux réécritures du Pédant joué, comédie en prose de l'auteur, au XIXe siècle.

Date et horaire: 27 novembre 2019, de 13h à 15h.
Lieu: salle D323, maison de la recherche, 28 rue serpente, 75006.

Tuesday, November 19, 2019

Atelier Corpus à la BNF

Dans le prolongement d'une journée d'étude qui se déroulera le 12 décembre 2019 autour des archives du cinéaste d'Amos Gitaï, la BNF organise un atelier Corpus qui se déroulera le vendredi 13 décembre, de 14h à 17h30.

Initié en 2016, le programme de recherche Corpus vise à adapter l'offre de services de la Bibliothèque aux nouveaux besoins de la recherche en construisant un laboratoire d’étude et d’analyse de corpus numériques, qui permettra l'exploration, l'analyse et le traitement de corpus numériques issus des collections numérisées ou nativement numériques conservées à la BnF. Dans ce cadre, les ateliers Corpus sont des événements trimestriels organisés à la BnF depuis 2 ans, qui réunissent un public de chercheurs et de bibliothécaires pour un échange autour d'une thématique.

Les archives du cinéaste Amos Gitaï, qui sont entrées dans les collections en 2018, sont un espace d'expérimentation inédit en raison de la nature très hétérogène des documents et des formats divers qui le constituent. Leur arrivée est donc l’occasion d’aborder des points clés concernant la collecte, le traitement et l'exploration des corpus massifs de vidéos, et nous souhaitons réfléchir plus largement à ces problématiques à travers cet atelier.

La politique d’archivage des plateformes de vidéos contributives, la mise à disposition des fichiers de montage audiovisuel, la question des nouvelles méthodes d’analyse pour les médias audiovisuels ou encore la méthodologie des chercheurs qui étudient ces corpus massifs, sont autant de thèmes qui seront au cœur de ce temps d'échange.

L'entrée est libre sur inscription.

Thursday, November 14, 2019

Conférence sur l'Intelligence artificielle et le langage


Société de Linguistique de Paris
École Pratique des Hautes Études, IVe section

Séance du 16 novembre 2019 (17h-19h)

L’Intelligence Artificielle nous aide-t-elle à comprendre l’activité de langage?
Jean-Pierre Desclés
 
Depuis que des ordinateurs programmés (avec Deep blue et AlphaGo) ont réussi à battre des grands maîtres des jeux d’échec et de go, l’Intelligence Artificielle (IA) envahit une société médiatique qui multiplie les envolées lyriques sur « une humanité augmentée » réalisée par « robots intelligents » ; or l’intelligence de ces robots doit avoir acquis, selon nous, une activité de langage comparable à celle des humains.  Dans cet exposé, nous ferons un bref rappel des différentes périodes (des printemps glorieux suivis d’hivers) de l’IA, depuis le « test de Turing » en 1950 et « la conférence de Dartmouth » en 1956, puis des systèmes experts avec la cinquième génération d’ordinateurs, jusqu’à la période actuelle qui procède, non plus par des « représentations des connaissances » introduites dans des formalismes logiques de règles,  mais surtout par des « apprentissages » (qualifiés parfois de neuronaux et profonds) qui nécessitent des dépôts importants de données, quelquefois annotées par des humains (Big data). En linguistique, l’IA a abouti à des résultats intéressants dans la reconnaissance et la synthèse de la parole, la recherche d’information dans des textes avec la reconnaissance d’entités nommées (des lexies), la traduction automatique. Une question épistémologique s’impose néanmoins : les algorithmes de l’IA qui aboutissent à des résultats (relativement satisfaisants qu’il convient cependant d’évaluer correctement) dans le traitement automatique des langues, nous font-ils vraiment comprendre la nature et la complexité de l’activité de langage que les systèmes des langues expriment et manifestent ? En tant que discipline scientifique, la linguistique a pour but d’identifier, puis de décrire, l’interaction des opérations langagières invariantes (comme la prédication et la thématisation, la détermination et la quantification, la prise en charge énonciative de contenus…) avec des représentations des significations sous forme de schèmes, afin d’expliciter le fonctionnement de l’activité de langage propre à l’espèce humaine. Les apprentissages de l’IA s’appuient sur des méthodes statistiques et probabilistes qui opèrent sur de vastes corpus d’exemples et sur un très grand nombre de données enregistrées, pour ensuite élaborer automatiquement des « algorithmes intelligents » de décision. Les processus de l’IA actuelle ne semblent pas apporter une véritable aide à l’analyse des divers systèmes sémiotiques que sont les langues et ne favorisent pas l’étude des différences sémantiques, par exemple, dans les variations paraphrastiques d’énoncés d’une seule langue. En effet, les algorithmes intelligents les plus performants se présentent assez souvent sous forme de « boîtes noires » qui mettent souvent les utilisateurs (y compris les informaticiens) dans l’incapacité d’en extraire les informations nécessaires au contrôle des traitements effectués. Simuler la production de réponses (plus ou moins acceptables) à des problèmes déterminés relève plus d’une approche technologique et moins d’une approche scientifique qui vise à comprendre comment se construisent et se confrontent les diverses solutions théorisées apportées à ces problèmes. La linguistique est une science (si possible post-galiléenne  et pas seulement pré-galiléenne) ; aussi doit-elle veiller à ne pas se laisser réduire à n’être qu’un ensemble de simulations « qui donnent des résultats » mais qui sont loin de faire comprendre comment « ces résultats » ont été obtenus, ce qui entraîne aussi à ne plus rechercher des résultats pertinents, peut-être meilleurs et beaucoup plus généralisables car ayant pris appui sur des fondements théoriques explicatifs avec des hypothèses de travail clairement formulées. 
Nous évoquerons, au cours de l’exposé, quelques-unes des fonctions fondamentales des langues (par exemple, chaque langue permet de construire des dialogues en articulant différents référentiels), ainsi que des opérations générales liées essentiellement à l’activité de langage, que la linguistique contemporaine se doit d’étudier en cherchant à mieux préciser ses concepts théoriques et descriptifs (en particulier en sémantique) et à mieux expliciter (éventuellement par des calculs) les articulations entre les représentations métalinguistiques (iconiques, cognitives et formelles) et les expressions linguistiques manifestées par des familles d’énoncés apparentés et par les organisations discursives des textes.
———————————————————————————————————

Séances ultérieures de la SLP (EPHE, Sorbonne, 17 rue de la Sorbonne, escalier E, salle Gaston Paris)  14 décembre 2019 : Frédéric ISEL « Étude des processus d’acquisition d'une langue seconde : Les apports de l’imagerie cérébrale ».  

La séance aura lieu à l’ECOLE PRATIQUE DES HAUTES ETUDES en Sorbonne, 45-47, rue des Ecoles, 75005 PARIS Escalier E, 1er étage, Salle Gaston Paris

Thursday, November 7, 2019

Offres de stages

La chaire des Humanités numériques de l’université de Genève porte en partenariat avec le Centre d’excellence Jean Monnet IMAGO basé à l’Ecole normale supérieure de Paris et financé par l’European Research Council Executive Agency, un projet d’étude de la mondialisation par l’image à l’époque contemporaine (des années 1890 à 1990 – images fixes, avant Internet). Le projet, intitulé Visual Contagions, implique une recherche innovante sur un corpus d’images illustrées tirées de catalogues d’expositions et de périodiques, images qu’il s’agit de récupérer, décrire, dater et géoréférencer, avant d’en faire l’analyse à l’aide d’algorithmes de vision artificielle, pour repérer les images les plus reproduites et les motifs qui ont le plus circulé à l’échelle mondiale des années 1890 à l’avant-Internet. L’équipe pourra ainsi décrire les canaux et la chronologie de ces circulations, et mieux comprendre la mondialisation par l’image. Un deuxième temps sera consacré à une étude plus traditionnelle de ces circulations, étude historique, esthétique, sociale, économique, politique et cognitive, partant d’études de cas pertinentes choisies lors de la première étape « distante » du projet.

Les 2 stages proposés ici concernent la chaîne de traitement du texte contenu dans les catalogues d’expositions.
D’autres stages sont proposés en vision artificielle (pour la récupération et l’analyse des images, contenu et motifs). Me contacter par retour de mail si vous êtes intéressé.e.s pour vous-mêmes ou vos étudiant.e.s.  

1. Stage proposé au 2e semestre 2019-2020, ENS Paris / Université de Genève.
OCRisation et postcorrection de documents numériques

Ce stage vise à mettre au point un système de numérisation et de description semi-automatique de documents semi-structurés, en partant de pdf de catalogues d’expositions (puis de catalogues de vente). Il s’agira de produire des données d’entraînement de qualité, de comparer les solutions disponibles pour sélectionner les plus adaptées, et enfin d’articuler ces dernières les unes aux autres pour former une chaîne de traitement efficace. Le résultat final devra être aussi user friendly que possible, et permettre à des contributeurs éparpillés dans le monde de traiter en ligne leurs propres documents en toute indépendance et avec un haut niveau de qualité en sortie. Le document doit être prêt pour une description sémantique semi-automatique (voir stage n°2).

Les outils retenus devront être open sourcelanguage-agnostic, et à terme capables de gérer des scripts non romain (arabe/japonais). Trois tâches essentielles ont été identifiées : la segmentation du pdf, OCRisation, postcorrection, pour lesquels de nombreux outils sont disponibles (Dhsegment, Kraken, Tesseract, OCR4all, PoCoTo…).

Livrable scientifique : évaluation d’outils en terme d’efficacité mais aussi d’intégration dans un pipeline.
Compétences : Lignes de commandes, entraînement d’outil nécessitant du machine learning, format de pdf (XML-ALTO/PageXML).

Proposé comme stage rémunéré de 5 mois, rémunération légale.


2. Stage proposé au 2e semestre 2019-2020, ENS Paris / Université de Genève.
Description sémantique semi-automatisée de catalogues

Ce stage propose d’adapter un précédent travail (Rondeau, Gabay, Khemakhem, Romary, TEI2019, Graz) pour répondre aux besoins spécifiques d’une collection de catalogue d’exposition, mais aussi de prolonger les recherches sur la rétro-conversion à large échelle de données de type encyclopédiques. Il s’agira donc de transformer des document pdf en documents au format XML-TEI afin d’en faciliter l’analyse et d’alimenter une base de données déjà existante.

Le travail se fera en deux temps :
-        produire et évaluer des données d’entraînement pour plusieurs types de catalogues d’exposition afin d’évaluer le comportement de GROBID dictionaries avec de tels documents
-        augmenter la granularité de l’encodage en sortie de GROBID de deux manières :
o   d’une part en utilisant des systèmes de reconnaissance d’entités nommées (pour les noms de personnes ou de lieux), notamment GROBID NERD ;
o   d’autre part avec des systèmes d’extraction de termes (format d’œuvre, précisions techniques), comme par exemple TermSuite.

Ce stage permettra aussi de faire avancer les recherches sur la constitution de modèles généraux pour la structuration de données de type catalogue (vente/exposition).
Références :                               
-        Khemakhem, Mohamed, Romary, Laurent et al. (2018) “Automatically Encoding Encyclopedic-like Resources in TEI”. The annual TEI Conference and Members Meeting, Tokyo, Japan. url: https://tei2018.dhii.asiahal-01819505.
-        Rondeau du Noyer, Lucie, Encoder automatiquement des catalogues en XML-TEI. Principes, évaluation et application à la Revue des autographes de la librairie Charavay, mémoire de master « Technologies numériques appliquées à l’histoire », dir, Thibault Clérice et Simon Gabay, École nationale des chartes, 2019.

Livrable technique : la chaîne de traitement mentionnée supra.
Livrable scientifique : évaluation d’outils en terme d’efficacité mais aussi d’intégration dans un pipeline.
Compétences : Lignes de commandes, entraînement d’outil nécessitant du machine learning, XML-TEI (et notamment ODD), XSLT.

Proposé comme stage rémunéré de 5 mois, rémunération légale
     
Contact :

Pr. Béatrice Joyeux-Prunel, université de Genève, Suisse (Chaire des Humanités numériques). Beatrice.joyeux-prunel@unige.ch ,
Dr. Léa Saint-Raymond, Ecole normale supérieure (Dpt de Mathématiques appliquées), lea.saint-raymond@ens.fr, et
Dr. Simon Gabay, université de Neuchâtel, Suisse (simon.gabay@unine.ch).

Modalités matérielles des stages : chaque stage peut se faire à distance, avec l’organisation de réunions par visioconférence. Si une réunion est organisée à Paris ou à Genève, les frais de déplacement des stagiaires seront pris en charge.
Gratification légale en France : 612 euros mensuels.

Journées Huma-Num

Huma-Num vous invite à participer, les 9 et 10 décembre prochains, à la MSH Paris Nord, à deux demi-journées d’information sur le thème de la préservation des données numériques de la recherche.

La TGIR Huma-Num organise des journées d’information sur le thème de la préservation des données numériques de la recherche à destination de tous les acteurs d’un projet de recherche (enseignant.e.s chercheur.e.s, ingénieur.e.s, bibliothécaires, documentalistes, archivistes etc).
Au cours de ces deux demi-journées, Huma-Num et des acteurs de la préservation s’attacheront à présenter cette problématique au cours des différentes étapes d’un projet de recherche : de la création du plan de gestion de données (DMP) à la pérennisation sur le long terme.

Ces journées donneront également la parole aux communautés qui évoqueront leurs retours d'expérience de projets de préservation.
Ces deux demi-journées se tiendront à la MSH Paris-Nord les lundi 9 décembre 2019 après-midi et mardi 10 décembre 2019 matin.

Cet événement est ouvert à tous sur inscription dans la limite des places disponibles. Clôture des inscriptions le 22 novembre prochain.

Informations pratiquesLundi 9 décembre 13h - 18h suivi d’un apéritif
Mardi 10 décembre 9h30 - 12h30
MSH Paris Nord 
Dans l'amphithéâtre
20, avenue George Sand  93210 Saint-Denis

=> Inscription obligatoire et programme en ligne <=

Séance d’information sur les programmes de doctorat

Séance d’information sur les programmes de doctorat en lettres françaises, cinéma et média, et langues et civilisations proche-orientales (NELC)

Mardi 12 novembre à 17:00


Centre de l’Université de Chicago à Paris
6 rue Thomas Mann
75013

Cette réunion aura pour objectif de présenter les programmes de doctorat dans les
domaines des humanités en général et en particulier dans ceux des lettres françaises, de cinéma et média, ainsi que des langues et civilisations proche-orientales (NELC). La séance est ouverte aussi aux personnes s’intéressant à la littérature comparée, le théâtre, les langues et civilisations sud-asiatiques, etc.
En outre la réunion présentera le programme de cotutelle à l’Université de Chicago.

1) Programmes de doctorat en lettres modernes, en cinéma et en média et en
langues et civilisations proche-orientales.


L’Université de Chicago, qui figure dans les classements internationaux parmi les dix meilleures universités dans le monde, offre des programmes reconnus de doctorat en lettres françaises, en cinéma et média et en langues et civilisations proche-orientales . Ces trois programmes reposent sur une forte composante interdisciplinaire et ouvrent des perspectives de carrières internationales.
Les critères d’admission au doctorat sont rigoureux, mais les candidats admis reçoivent des bourses de cinq ans couvrant tous les frais de scolarité et fournissant un salaire qui permet de vivre confortablement.
Lors de la réunion du mardi 12 novembre à 17h00, nous serons heureux de répondre à vos questions concernant les sujets suivants:

  • Comment préparer un dossier de candidature ?
  • Quels sont les critères d’admission ?
  • Quelles sont les conditions de financement ?
  • Quelles sont les conditions de recherche ?
  • Comment s’organise la vie des étudiants ?

Cette séance est ouverte à tous les étudiants inscrits en Master 1 et 2.
Si vous souhaitez participer, merci de vous inscrire auprès d’Arnaud Coulombel à l’adresse suivante : acoulomb@uchicago.edu

Pour plus d’informations sur le programme de doctorat en lettres françaises, voici le lien vers le site du Département de Langues et de Littératures Romanes :
http://rll.uchicago.edu/about
Pour plus d’informations sur le programme de doctorat en cinéma et média, voici le lien vers le site du Département de cinéma et de média :
https://cms.uchicago.edu/
Pour plus d’informations sur le programme de doctorat en langues et civilisations orientales, voici le lien vers le site du Département de langues et civilisations orientales :
https://nelc.uchicago.edu/

2) Le programme de cotutelle à l’Université de Chicago :


Nous discuterons du programme de cotutelle permet, selon les exigence spécifiques à chacune des institutions concernées, à un doctorant d’obtenir un PhD de l’Université de Chicago conjointement à un doctorat français en soutenant une seule et unique thèse sous la supervision de deux directeurs de recherche respectivement affilié à l’Université de Chicago et à un établissement d’enseignement supérieur français.
Concernant le programme de cotutelle, cliquez sur ce lien :
https://fcc.uchicago.edu/page/international-dual-phd-degree-initiative
Concernant le Centre de l’Université de Chicago à Paris, cliquez sur ce lien :
https://centerinparis.uchicago.edu/

Wednesday, November 6, 2019

Séminaire du Labex OBVIL

Le 20 novembre 2019, Damien Nouvel interviendra dans le cadre du séminaire du Labex OBVIL, sur le sujet suivant:

Les entités nommées, du prétraitement à la sémantique, théorie et pratique

Résumé: Ces dernières décennies, le Traitement Automatique des Langues a bénéficié de nombreuses avancées sur le plan théorique et applicatif. Certains traitements ont aujourd'hui une robustesse suffisante pour être considérés matures dans certains contextes. Par exemple, l'étiquetage en parties du discours (POS tagging) est couramment utilisé en amont d'autres tâches, comme prétraitement.
À cet égard, il reste difficile d'établir un état des lieux fiable pour les entités nommées. Certaines applications les utilisent comme prétraitement syntaxico-sémantique, sur lequel elles s'appuient, présumant parfois de leur fiabilité. De nombreux travaux recherche sont menés pour mieux cerner ces unités linguistiques et les traiter automatiquement. Dans ce séminaire, nous présenterons diverses facettes des entités nommées, au travers des langues et des domaines, les tâches qui y sont associées (dont en particulier leur désambiguisation), ainsi que les résultats obtenus par les campagnes d'évaluation historiques et plus récentes. Nous évoquerons les approches et architectures utilisées et évoquerons l'apport des plongements de mots (embeddings). Enfin, nous discuterons des ambitions et limites de la désambiguisation des langues dans une perspective de compréhension.


Date et horaire: 20 novembre 2019, de 13h à 15h
Lieu: salle D323, maison de la recherche, 28 rue serpente, 75006.