Skip to main content
Non trouvé
Séminaire numérique

Innovation responsable IA et santé mentale


Orateur :
Henry Xiao, docteur
Durée de l'enquête :
2 heures
Langue :
Présenté en EN, sous-titré en EN, ES, DE, FR et IT, documents en EN, ES, DE, FR et IT.
Droit d'auteur :
12 novembre 2025
Code produit :
POS150425
Type de support :
Séminaire numérique

Choisis un article

Tags : APA


Description

Il s'agit d'une présentation de 2 heures, éligible à la formation continue, donnée par Henry Xiao, PhD, psychologue clinicien agréé et directeur adjoint des opérations des services de conseil et de psychologie de l'université Penn State.

L'IA générative évolue sans arrêt et reste un sujet super intéressant dans plein de secteurs. En même temps, il y a toujours des incertitudes et des inquiétudes justifiées sur son utilisation éthique. Pour beaucoup, l'idée d'utiliser l'IA générative reste inconfortable et déroutante, que ce soit pour un usage personnel ou professionnel. Dans cette optique, cette présentation se concentrera sur la compréhension de l'IA générative, en particulier des « chatbots » (grands modèles linguistiques tels que ChatGPT, Gemini, Claude, etc.), et sur les raisons de leur popularité auprès du grand public (en présentant des cas d'utilisation), ainsi que sur les innombrables façons dont l'IA peut avoir un impact sur nous tous.

On va explorer le fonctionnement de GenAI, discuter des principales questions éthiques et présenter des cas que vous pourrez tester immédiatement de manière indépendante. Cette conférence sera particulièrement utile pour toute personne intéressée par l'exploration de l'utilisation personnelle ou professionnelle de ces outils, tout en restant mieux informée sur leurs limites. Même si vous n'avez jamais utilisé l'IA ou si vous restez très sceptique à son égard, cette conférence vous aidera à mieux comprendre et à prendre conscience de l'impact que l'IA a déjà sur le monde qui nous entoure.

Cette présentation comprendra des démonstrations d'exemples non sponsorisés utilisant des versions gratuites de plusieurs outils GenAI afin de mettre en évidence les utilisations actives de cette technologie dans la vie personnelle et professionnelle.

Crédit


Crédit pour l'auto-apprentissage

Ce programme d'auto-apprentissage consiste en 2 heures de formation continue. Les exigences en matière de crédits et les approbations varient selon les pays et les organismes de réglementation locaux. Veuillez conserver le plan du cours, le certificat d'achèvement que vous recevez de l'activité et contacter votre organisme de réglementation local pour déterminer l'éligibilité et les exigences spécifiques. 



Documents à distribuer

Intervenants

Profil de Henry Xiao, PhD

Henry Xiao, docteur Séminaires et produits associés


Henry Xiao, qui a un doctorat, est directeur adjoint des opérations au service de conseil et de psychologie (CAPS) de l'université Penn State, où il combine son expertise clinique et l'innovation technologique pour améliorer les soins de santé mentale pour les étudiants. Henry est psychologue clinicien agréé et a mené des recherches approfondies sur le processus et les résultats de la psychothérapie. Depuis plus de dix ans, il intègre la prise de décision basée sur les données dans les systèmes de conseil universitaire grâce à sa formation supérieure à l'université Penn State et à son travail avec le Center for Collegiate Mental Health (CCMH). Dans son rôle actuel au CAPS, il supervise la mise en œuvre de la technologie et de la sécurité des données, bosse en étroite collaboration avec l'équipe informatique de l'université pour planifier et mettre en œuvre les changements technologiques, et maintient un lien fort avec le CCMH, où il est maintenant conseiller en recherche, pour s'assurer que les services de santé mentale du CAPS restent efficaces et à jour. Sa passion pour la technologie combine un intérêt professionnel et personnel.

 

Informations sur les intervenants :
Financier : Henry Xiao bosse pour l'université d'État de Pennsylvanie. Il touche des honoraires de PESI, Inc. pour ses interventions. Il n'a pas de liens financiers avec des organisations inéligibles.
Non financier : Henry Xiao est évaluateur ponctuel pour Cogent Mental Health and Psychotherapy Research.

 


Objectifs

  1. Identifie les questions éthiques importantes et les trucs à prendre en compte quand on utilise l'IA dans la vie perso et pro.
  2. Explique comment l'IA marche et comment elle est utilisée en ce moment dans le domaine de la santé mentale.
     

Aperçu

Pourquoi cette discussion et à quoi s'attendre

  • Avertissement : le conférencier n'est pas un ingénieur ou un programmeur en IA, et il n'est pas payé/sponsorisé par une boîte d'IA.
  • Toutes les démos de la présentation ont été faites avec la version gratuite des sites web mentionnés.
  • Qui sont les intervenants qui vont parler ? (Pope s'intéresse aussi à l'IA, ce qui montre l'importance internationale/mondiale du sujet.)
  • Questions sur Zoom pour voir si les gens connaissent bien l'IA ; environ 1 à 2 minutes chacune, les résultats seront partagés en direct.
  • Discussion sur certaines croyances éclairées de l'utilisateur concernant l'IA, basées sur des recherches et des explorations professionnelles/personnelles (pour planter le décor de la discussion).
  • Objectifs d'apprentissage 

Statistiques d'utilisation : qui utilise l'IA et pourquoi c'est important ?
Petite note sur les sources : chaque fois qu'un outil est utilisé, on dit quand et où, et la bibliographie en général mélange des recherches empiriques et des articles/sources plus récents.

  La plupart des gens dans le monde qui répondent aux sondages utilisent maintenant des sondages hebdomadaires.

  • L'utilisation réelle peut être différente à cause des changements rapides.
  • Les jeunes l'utilisent plus souvent.
  • Exemple d'utilisation de ChatGPT et vitesse d'adoption
  • Qui utilise l'IA ? Géopolitique internationale et importance de l'IA

Introduction à l'IA - C'est quoi l'IA et comment ça marche ?

  • Présente et parle de l'IA -> IA générative -> Grands modèles linguistiques
  • Les grands modèles linguistiques sont devenus un sujet super important et un truc qui fait parler de lui partout.
  • Comment les LLM fonctionnent-ils ? L'accent est mis sur la prédiction de modèles sans véritable « compréhension » de la vérité par rapport à la fiction.
  • Analogie entre les bébés et l'IA générative : en gros, ni les uns ni les autres ne « comprennent » vraiment pourquoi ils font ce qu'ils font, mais ils réagissent quand même avec précision. 
  • Exemples de LLM couramment utilisés : ChatGPT, Claude, Gemini, DeepSeek et Perplexity. 

Éthique et réflexions : quelles sont les préoccupations actuelles concernant l'IA dans tous les secteurs ?

  • Sortie de DeepSeek en janvier 2025 : montrer la « chaîne de pensée » et dévoiler la « boîte noire » de manière simple.
  • Deepseek Censure sur la place Tian'anmen et pouvoir des entreprises de décider si ça colle avec leurs valeurs/la sécurité
  • La sortie de DeepSeek est un bon exemple de plein de considérations éthiques, comme la géopolitique et l'économie, la censure et les garde-fous, et l'utilisation massive par le public.
  • Ordre du jour pour les catégories de considérations éthiques - il y a beaucoup à dire à ce sujet, l'espoir est de susciter une réflexion autour de ces domaines, mais le temps manque pour explorer chacun d'entre eux de manière approfondie.
    • GIGO et biais
      • Les résultats du LLM/GenAI dépendent complètement des données sur lesquelles il a été formé.
      • Exemple de l'impact sur les gens qui ne parlent pas anglais, et aussi exemple d'horloges bloquées à 10 h 10.
  • Confidentialité, responsabilité et sécurité des données
    • Au-delà de l'enjeu géopolitique, l'usurpation d'identité est une super bonne raison de ne pas mettre de données sensibles dans un LLM public.
    • Les dossiers médicaux (données de niveau HIPAA) sont toujours super importants.
    • Les comités d'éthique se développent pour encadrer l'utilisation responsable de l'IA, avec l'American Psychological Association comme exemple
    • Organisations internationales (Conférence des Nations Unies)
    • L'hypothèse de la reine rouge : la technologie avance super vite, donc « rester immobile » n'est pas vraiment une option.
  • Coûts écologiques et énergétiques
    • Entretien électrique, formation poussée et coûts d'inférence élevés
    • Une partie des progrès consiste aussi à réduire les coûts en améliorant l'efficacité, mais la répartition des coûts reste inégale.
    • Droits de l'homme et éthique - RLHF au Kenya
  • Humanité : pensée critique
    • Enseignement supérieur et éducation en général - Impacts du LLM
    • Exemple de la complexité avec laquelle un LLM peut répondre à une question
    • Les LLM rendent les « connaissances » plus accessibles sans forcément avoir besoin de « sagesse ».
    • Étude de Microsoft sur l'utilisation des LLM et la pensée critique
    • Petit exemple de l'impact au quotidien : aperçu de l'IA de Google
  • Humanité : lien social
    • Exemple de conversation vocale avec l'IA
    • On a regardé les forums publics (genre Reddit/Quora) et comment les gens utilisent les modèles de langage large (LLM) pour se tenir compagnie.
    • Plus d'infos dans la section Santé mentale
  • Humanité : Créativité/Art
    • Exemple musical (si on a le temps)
    • Exemple de vidéo
    • Haïku ; écrit par moi ; mais maintenant impossible à prouver
    • Discussion sur ce qu'est « l'art » vu comme une qualité humaine.
    • Résumé des résultats de recherche sur les préférences humaines    
  • Santé mentale
    • Utilisations actuelles : aucun modèle d'apprentissage automatique (LLM) gratuit n'offre la sécurité HIPAA ; il faut payer pour avoir une sécurité adéquate.
    • Les chatbots pour la thérapie : pour et contre, avec des études et des commentaires Reddit
    • Utilisation parasociale, y compris procès contre Character.AI et Google
    • Données du CCMH : augmentation de l'anxiété sociale, de l'anxiété et le rôle de l'évitement
    • On parle de l'étude Monkey de Harlowe et de comment l'IA pourrait être le « singe en peluche » pour les gens qui sont dans des situations compliquées.
    • Comment on continue à parler de la tolérance à la détresse ?

Exemples :

  • Grandes catégories d'utilisation, comme défini par l'étude Microsoft
  • Exemple d'utilisation perso, des messages « quotidiens »
  • Exemple d'utilisation perso/pro : comment utiliser un LLM ?
  • Exemple d'utilisation pro, création d'une fiche client
  • Exemple : comparaison linguistique entre ChatGPT et Claude ; l'importance de l'exploration personnelle et de l'alignement des modèles
  • Autres idées pour explorer l'IA

C'est l'heure des questions
 

Public cible

  • Conseillers en toxicomanie
  • Gestionnaires de cas certifiés
  • Conseillers, éducateurs 
  • Thérapeutes conjugaux et familiaux
  • Infirmières
  • Médecins
  • Psychologues
  • Travailleurs sociaux
  • Art-thérapeutes

Commentaires

Garantie de satisfaction
Votre satisfaction est notre objectif et notre garantie. Les questions doivent être adressées à info@pesi.eu.

Veuillez patienter ...

Retour en haut de la page