La herramienta, desarrollada por Fireside Project, organización sin fines de lucro que opera una línea de apoyo psicodélico, fue anunciada el 2 de diciembre desde San Francisco como “la primera plataforma de simulación y entrenamiento con IA” diseñada para preparar a profesionales que trabajarán en terapias asistidas con MDMA y psilocibina en entornos regulados.
Lucy no actúa como terapeuta, sino como paciente. El sistema se entrenó con miles de horas de conversaciones anónimas de la línea de apoyo de Fireside Project, lo que le permite imitar cambios de tono, confusión y vulnerabilidad propios de un viaje psicodélico. Quienes se forman como terapeutas, facilitadores o personal de apoyo pueden interactuar con este avatar y ensayar respuestas, silencios y límites en un entorno de bajo riesgo.
La apuesta llega en un contexto que muchos actores del sector describen como una “crisis de escalabilidad”: mientras las terapias con MDMA y psilocibina se acercan a posibles aprobaciones oficiales, miles de profesionales buscan formación en un ámbito donde las prácticas supervisadas con pacientes reales siguen siendo escasas, caras y, en muchos países, ilegales. Lucy pretende funcionar como un campamento base que acerque la experiencia de acompañar un viaje sin poner en juego la seguridad de nadie.
El proyecto, sin embargo, abre interrogantes. El uso de datos sensibles sobre salud mental y consumo de sustancias psicoactivas exige garantías sólidas de anonimización y gobierno de la información, que Fireside dice haber abordado mediante protocolos en tiempo real y separación entre registros de llamadas y datos de contacto. También persiste la duda ética de hasta qué punto un modelo de lenguaje puede captar la complejidad relacional de un proceso terapéutico con psicodélicos, construido históricamente en comunidades, clínicas y rituales humanos.
Para el campo de la terapia psicodélica, Lucy condensa parte de los desafíos del momento ya que ayuda a ampliar el acceso a instancias de práctica, puede reforzar la reducción de daños y ofrece un espacio seguro para equivocarse y aprender. Al mismo tiempo, vuelve visibles los dolores de un ecosistema todavía frágil, donde persisten dudas sobre la protección de datos, la calidad del acompañamiento y el riesgo de delegar en la tecnología cuidados que siguen dependiendo, en última instancia, de vínculos humanos, supervisión ética y marcos legales claros.