Quantcast
Channel: Humanoïdes
Viewing all articles
Browse latest Browse all 1675

Premiers pas vers un robot psychiatre ?

$
0
0

humanoides_fr_robots_stress_post_traumatique

L’intelligence artificielle est une technologie qui peut être conçue pour accomplir des tâches intelligentes spécialisées, comme la reconnaissance de la voix ou du visage, ou pour émuler des comportements intelligents complexes imitant ceux des humains, tels que le raisonnement et le traitement automatique du langage naturel. Les systèmes d’intelligence artificielle qui sont capables d’interagir et de réaliser des actions autonomes au sein de leur environnement sont connus sous le nom de systèmes multi-agents. Dans le domaine de la santé mentale, ce genre de technologie est de plus en plus utilisé, en réponse à une demande croissante de systèmes multi-agents offrant des services de formation, de consultation et de traitement. Les progrès continus des technologies d’intelligence artificielle et leur application dans les soins de santé mentale ont conduit à un concept de « psychiatre virtuel », un système multi-agents qui pourrait exister soit sous la forme d’une simulation de réalité virtuelle ou d’un robot humanoïde. La conception du système supposerait l’intégration de plusieurs technologies et fonctionnalités avancées, y compris le traitement automatique du langage naturel, la vision par ordinateur, la reconnaissance faciale, des capteurs olfactifs et même des capteurs de température pour détecter les changements de température chez les patients (par exemple, les changements dans les états psychophysiologiques d’éveil comme la colère ou de l’anxiété). Le système aurait également accès aux dossiers médicaux des patients et à toutes les connaissances médicales numérisées disponibles. Bien sûr, le psychiatre virtuel n’existe pas encore. Mais l’idée n’est pas en dehors du domaine du possible : le concept est déjà en phase de recherche et d’expérimentation aux Etats-Unis et les « patients virtuels » sont déjà utilisés. Par exemple, des chercheurs à l’Institute for Creative Technologies de l’Université de Caroline du Sud sont en train de créer des patients d’unité psychiatrique virtuels qui dialoguent avec des stagiaires humains. Une des applications courantes est la conception de « vétérans virtuels » qui souffrent de dépression et ont des pensées suicidaires. Ceux-ci peuvent être utilisés pour aider à former les cliniciens et autres membres du personnel au sein de l’armée et leur montrer certaines façons de détecter le risque d’une tentative de suicide. D’ailleurs, la Defense Advanced Research Projects Agency (DARPA), l'agence aux projets tous plus passionnants les uns que les autres, est en train de développer un système qui pourra détecter les états psychologiques. Ce programme aidera à détecter les changements subtils associés à un trouble de stress post-traumatique, à la dépression et aux idées suicidaires. En particulier, le programme espère faire des progrès dans l’extraction et l’analyse de signaux à partir d'un large éventail de données sensorielles inhérentes aux interactions sociales quotidiennes. Le programme ne vise pas à fournir un diagnostic exact, mais une mesure générale de la santé psychologique. Bien sûr, de nombreux problèmes éthiques peuvent survenir lorsqu’on pense à la mise en place d’un tel robot. Il peut notamment y avoir des problèmes de confiance concernant les objectifs sous-jacents de systèmes d’intelligence artificielle de pointe. Dans le contexte des soins de santé mentale, il y a également d’importantes questions qui viennent à l’esprit concernant la capacité d’empathie et d’interaction émotionnelle possibles entre les humains et les fournisseurs de soins artificiels. Photo en une : Dr Carmen Russoniello de l'East Carolina University en plein travail sur un programme de formation en biofeedback qui pourrait prévenir ou réduire les symptômes de stress post-traumatique. Photo par Dr. Carmen Russoniello et Army Medicine.

Viewing all articles
Browse latest Browse all 1675

Trending Articles