vision blog
,




lastvisits
visitor like
Search Engine


Dear visitor of the vision blog , this topic Traitement automatique des langues has been prepared and chosen. Information last updated on today 14/05/2022

Traitement automatique des langues

last update since 5 Day , 14 hour
12004 view

Topic Elements

explicación simple


Un article de Wikipédia l'encyclopédie libre


Histoire



Années 1950-1960

Les premiers travaux en traitement automatique du langage naturel commencent dans les années 1950 principalement aux États-Unis où le contexte politique lié à la guerre froide est propice au développement de la thématique de la traduction automatique.

Les premières applications informatiques sont liées au traitement automatique des conversations. En 1950 dans son article fondateur de l'intelligence artificielle « Computing machinery and intelligence » Alan Turing expose une méthode d'évaluation qui sera appelée par la suite « test de Turing » ou « critère de Turing ». Ce test mesure le degré d'intelligence d'une machine à partir de la capacité d'un programme conversationnel à se faire passer pour un être humain : dans un échange de messages écrits un sujet humain doit déterminer si son interlocuteur est une machine ou non . La base employée est cependant fragile pour évaluer l'intelligence artificielle car l'impression d'un unique utilisateur dépend de trop de facteurs liés au milieu ambiant pour être érigée en règle .

En 1954 l'expérience Georgetown-IBM réalisée conjointement par l'université de Georgetown et par la société IBM comporte la traduction complètement automatique en anglais de plus de soixante phrases russes romanisées relatives aux domaines de la politique du droit des mathématiques et de la science. Les auteurs prétendent que dans un délai de trois à cinq ans la traduction automatique ne sera plus un problème . Il apparaît cependant que les énoncés en russe ont été choisis avec soin et que nombre des opérations effectuées pour la démonstration ont été adaptées à des mots et des phrases particuliers. De plus il n'y a pas d'analyse relationnelle ou syntaxique permettant d'identifier la structure des phrases. La méthode employée est une méthode essentiellement lexicographique reposant sur un dictionnaire où un mot donné est relié à des règles et des démarches spécifiques .

Les notions introduites par Turing permirent à Joseph Weizenbaum de mettre au point de 1964 à 1966 le premier automate conversationnel à tromper un être humain quant à sa nature . Simulant un psychothérapeute rogérien l'automate du nom d'ELIZA bien que n'employant presque aucune information sur la pensée ou l'émotion humaine parvient parfois à établir une interaction étonnamment similaire à l'interaction humaine. Ainsi quand le « patient » dépasse les faibles capacités de la base de connaissances ELIZA peut fournir une réponse générique comme « Pourquoi dites-vous avoir mal à la tête ? » en réponse à « J'ai mal à la tête ».

À la fin des années 1960 Terry Winograd un chercheur du MIT met au point un programme en langage naturel du nom de SHRDLU (prononcer « chreudeul ») qui permet à son utilisateur de converser avec un ordinateur pour gérer un « monde de cubes de construction » (a blocks world) s'affichant sur un des premiers écrans. C’est le premier programme qui sache comprendre et exécuter des ordres complexes en langage naturel. Mais les seules opérations qu'il peut faire c’est de prendre des cubes les déplacer les rassembler ou les disperser. Il ne pourra jamais comprendre tout ce que les humains peuvent faire avec des objets physiques .

Les progrès réels sont donc décevants. Le rapport ALPAC (en) de 1966 constate qu'en dix ans de recherches les buts n'ont pas été atteints. Cette prise de conscience de l'extrême complexité des langues a considérablement réduit l'ambition des travaux de recherche.


Années 1970-1980

Pendant les années 1970 beaucoup de programmeurs ont commencé à écrire des « ontologies conceptuelles » dont le but était de structurer l'information en données compréhensibles par l'ordinateur. C'est le cas de MARGIE (Schank 1975) SAM (Cullingford 1978) PAM (Wilensky 1978) TaleSpin (Meehan 1976) SCRUPULE (Lehnert 1977) Politics (Carbonell 1979) Plot Units (Lehnert 1981).


Années 1990-2000


Depuis 2000

En janvier 2018 des modèles d'intelligence artificielle développés par Microsoft et Alibaba réussissent chacun de leur côté à battre les humains dans un test de lecture et de compréhension de l’université Stanford. Le traitement automatique du langage naturel imite la compréhension humaine des mots et des phrases et permet maintenant aux modèles d'apprentissage automatique de traiter de grandes quantités d'informations avant de fournir des réponses précises aux questions qui leur sont posées .

En novembre 2018 Google lance BERT un modèle de langage .

En mai 2020 OpenAI une société fondée par Elon Musk et Sam Altman annonce le lancement de GPT-3 un modèle de langage à 175 milliards de paramètres diffusé comme fork d'une API commerciale .


TALN statistique


Les utilisations statistiques du traitement automatique du langage naturel reposent sur des méthodes stochastiques probabilistes ou simplement statistiques pour résoudre certaines difficultés discutées ci-dessus particulièrement celles qui surviennent du fait que les phrases très longues sont fortement ambiguës une fois traitées avec des grammaires réalistes autorisant des milliers ou des millions d'analyses possibles. Les méthodes de désambiguïsation comportent souvent l'utilisation de corpus et d'outils de formalisation comme les modèles de Markov. Le TALN statistique comporte toutes les approches quantitatives du traitement linguistique automatisé y compris la modélisation la théorie de l'information et l'algèbre linéaire . La technologie pour le TALN statistique vient principalement de l'apprentissage automatique et de l'exploration de données lesquels impliquent l'apprentissage à partir des données venant de l'intelligence artificielle.


explicación simple


Le traitement automatique du langage naturel (abr. TALN) ou traitement automatique de la langue naturelle ou encore traitement automatique des langues (abr. TAL) est un domaine multidisciplinaire impliquant la linguistique l'informatique et l'intelligence artificielle qui vise à créer des outils de traitement de la langue naturelle pour diverses applications. Il ne doit pas être confondu avec la linguistique informatique qui vise à comprendre les langues au moyen d'outils informatiques.

Le TALN est sorti des laboratoires de recherche pour être progressivement mis en œuvre dans des applications informatiques nécessitant l'intégration du langage humain à la machine . Aussi le TALN est-il parfois appelé ingénierie linguistique . En France le traitement automatique de la langue naturelle a sa revue Traitement automatique des langues publiée par l’Association pour le traitement automatique des langues (ATALA).

 


The sections of the vision blog are various fr , worked to serve the visitor to make it easier for him to browse the site smoothly and take information. ... last modified today 14/05/2022