Quantcast
Channel: Humanoïdes
Viewing all articles
Browse latest Browse all 1675

DeepText : la nouvelle intelligence artificielle de Facebook pour décrypter le langage

$
0
0

Gare à vous, professionnels du SEO et du SMO. Vous qui vous creusez les méninges nuit et jour pour dégoter les meilleurs tactiques de publication, qui déployez des trésors d’inventivité stratégiques et linguistiques pour atteindre le plus de public possible,  préparez-vous à affronter un bouleversement majeur. Car le nouvel algorithme DeepText développé par le réseau social Facebook devrait chambouler toutes vos petites habitudes de spécialiste des réseaux sociaux.

Facebook est le premier réseau social au monde. Il compte désormais plus d’un milliard six-cent millions d’utilisateurs mensuels et plus d’un milliard quotidiens qui passent en moyenne une vingtaine de minutes par jour à défiler le fil d’actualité de Facebook. Mais Facebook, c’est aussi presque 5 milliards de likes par jour (d’où le passage à plusieurs émoticônes de réaction qui peuvent apporter des données précieuses) et plus de 4000 statuts partagés par seconde à travers le monde. Et autant de texte qu’il revient au réseau social de comprendre s’il souhaite souhaite le convertir en précieuses données.

Si la sémantique et le langage obéissent à des règles strictes et établies, il en va autrement du langage commun qui est d’usage sur internet. Car sur Facebook, rares sont ceux qui écrivent des phrases complètes à l’orthographe et à la syntaxe irréprochables. Quand il ne s’agit pas de langage SMS ou d’abréviations, il s’agit d’expression idiomatiques difficiles à cerner pour une machine. C’est ce défi que cherchent à relever les scientifiques et surtout les géants du web comme Google et Facebook, qui ambitionnent de percer tous les secrets du langage naturel.

Or, comme nous l’avons dit, les humains communiquent non pas dans un langage mais bien des langages. Des langages qui varient selon le média avec lequel ils échangent, selon la personne avec qui ils échangent, et même selon leur humeur du moment. Pour les comprendre il faut donc développer non pas de simples algorithmes, qui fonctionnent remarquablement bien avec des données brutes et stables comme les nombres mais très difficilement avec les mots qui peuvent changer de sens selon une infinité de contextes, mais une véritable intelligence artificielle, capable d’interpréter nos comportements.

DeepText c’est le tout dernier algorithme de Facebook qui lui permettra de mieux catégoriser et de hiérarchiser les milliards d’informations qui transitent sur son site. Ce moteur utilise une interprétation textuelle nourrie de deep-learning qui permettrait de comprendre le contenu de milliers de postes par secondes, et ce dans plus de vingt langues ! DeepText repose en réalité sur plusieurs réseaux de neurones, dont des réseaux récurrents et convolutionnels (ConvNets). C’est à dire qu’il peut apprendre et comprendre à partir de mots, de syllabes mais aussi de lettres individualisées. Pour entraîner le système, Facebook a utilisé FbLearner Flow et Torch, FbLEarner étant la plate-forme de développement ouverte de Facebook et Torch le langage de programmation. Le recours au deep learning permet d’inculquer à la machine un semblant de compréhension de la sensibilité humaine. Grâce à son schéma de catégorisation, DeepText est capable de déterminer quelle partie de la phrase est le sujet, le nom, l’action etc… Mais il est également capable, du moins selon Facebook, de comprendre l’argot et l’homonymie de certains termes. Par exemple si je dis “I like blackberry“, cela veut-il dire que j’aime le fruit ou le fabricant de téléphone ? L’intelligence artificielle développée par Facebook est censée dépasser les limites actuelles du NLP (Natural Language Processing) qui l’empêchent d’assimiler tous les langages en activité sur un réseau aussi gigantesque et diversifié que Facebook.

Ces avancées majeures dans la compréhension du langage naturel reviennent au chercheur français Yann LeCun, promu chef de la division Intelligence Artificielle de Facebook en 2013, ainsi qu’au chinois Xiang Zhang. Dans un article publié en 2015, les deux spécialistes des sciences informatiques ont démontré qu’il était possible d’appliquer des réseaux convolutionnels au texte écrit et d’en interpréter le sens à partir des caractères mêmes des mots. Dans ce papier, les deux pionniers de la recherche en NLP ont appliqué leur méthode pour interpréter de grandes bases de données, comprenant la classification ontologique, l’analyse des sentiments et la catégorisation du texte. Une méthode efficace qui, à la différence des méthodes habituelles, ne nécessite aucune connaissance préalable des mots et des phrases ou de toute autre structure sémantique et syntaxique. Mais elle permet à l’ordinateur de comprendre la proximité morphologique de certains mots et donc d’établir des connexions entre les mots proches, dans une même langue mais aussi d’une langue à l’autre. De telle manière qu’en apprenant le français, DeepText comprendra beaucoup mieux l’italien dont les racines sont proches et vice-versa. En plus de mieux interpréter le langage, cette technique permet au système intelligent d’interpréter le sens des phrases de manière remarquablement rapide et ce sans pré-programmation.

facebook-ai-deeptext-2016-1

Le but ? Mieux comprendre ce que veulent ses utilisateurs pour leur proposer des services toujours plus ciblés et adaptés, et ce en temps réel. Par exemple, si l’I.A comprend que vous cherchez un covoiturage pour aller au travail, il vous suggérera automatiquement un service adapté, comme Uber ou BlaBlaCar. A part cela, rien de bien précis concernant les intentions du géant américain, si ce n’est qu’une telle technologie pourrait tout bonnement améliorer la grande majorité de ses services et algorithmes de personnalisation.

Utilisant cette méthode qui donne une chance non négligeable à la science d’interpréter efficacement l’extrême variété des langages écrits sur le réseau social, DeepText est donc, à ce jour, le meilleur outil que Facebook ait jamais conçu pour analyser au mieux les 400 000 histoires et 125 000 commentaires postés sur le réseau social chaque jour.

En attendant, les spécialistes de SMO devront revoir leurs classiques et s’adapter à la nouvelle précision de Facebook, qui hiérarchisera probablement ses informations différemment.

Cet article DeepText : la nouvelle intelligence artificielle de Facebook pour décrypter le langage est apparu en premier sur Humanoides.fr.


Viewing all articles
Browse latest Browse all 1675

Trending Articles