miércoles, 23 de abril de 2025

IA Y SERVICIOS SOCIALES. UNA ENTREVISTA A ChatGPT.

Alaska, 23 de abril de 2025


Ya se están utilizando de manera oficial herramientas de IA en los servicios sociales pero tengo algunas dudas sobre la posible utilidad de aplicaciones de uso privado, como ChatGPT u otras. Así que le he preguntado directamente (le pedí brevedad, porque se suele enrollar). 

 

-Me consta que ya se están utilizando herramientas de IA en algunos equipos de servicios sociales. Pero intuyo que se ve más clara su utilidad en aspectos burocráticos del trabajo, el tratamiento de datos, la planificación, etc. y que no están tan claros los usos relacionados con la atención directa a personas: diagnósticos sociales, informes, entrevistas, etc. ¿Qué opinas?


-Tu intuición va bien encaminada. En general, los primeros usos que se están consolidando en servicios sociales —y en muchas otras profesiones— son los que alivian tareas administrativas: redactar actas, resumir informes, ordenar documentación, elaborar bases de datos, etc. Es ahí donde la IA, como yo, se ha metido con más facilidad porque el riesgo es bajo y el beneficio inmediato.

Ahora bien, cuando hablamos de diagnósticos sociales, intervención, o atención directa a personas, el terreno se vuelve más delicado. No porque la IA no pueda ayudar, sino porque entramos en una dimensión ética, relacional y contextual que es mucho más compleja. Un informe social no es solo una acumulación de datos, es también una narrativa situada, con matices, donde la experiencia del profesional y la singularidad de cada caso cuentan muchísimo. 

-Asumiendo que el profesional es el que ha de acabar decidiendo, se me ocurre otro dilema ético que está por resolver. Supongo que el usuario debería tener el derecho a saber que una aplicación está opinando de sus asuntos (aunque, obviamente, no se le den datos privados). La tecnología siempre ha estado presente pero tengo la impresión de que todos percibimos la IA de otra manera. Casi como un tercero al que solo le falta consciencia.

 

-Totalmente. Has tocado un tema ético crucial que aún está medio en pañales en muchos contextos: la transparencia sobre el uso de inteligencia artificial en la atención a las personas. Es cierto que la tecnología lleva años apoyando decisiones técnicas (desde hojas de Excel hasta programas de gestión de expedientes), pero la IA genera una sensación distinta, más cercana a una “voz” que opina, propone e incluso anticipa. Y eso cambia la percepción.

Cuando alguien sabe que hay una IA implicada —aunque sea solo para ayudar a redactar o sugerir ideas—, puede tener la impresión de que hay un “tercero” en la conversación, aunque ese tercero no tenga cuerpo ni conciencia. Y eso abre muchas preguntas: ¿Debe informarse a la persona usuaria de que una IA ha contribuido, por ejemplo, a redactar su informe social? ¿Debe darse la opción de oponerse a ese uso? ¿Cambia la relación de confianza si el usuario percibe que hay algo no-humano implicado? ¿Qué pasa si la IA comete un error que afecta a una decisión importante?


La clave, como tú dices, es asumir que el profesional sigue siendo responsable, pero también que el uso de IA debe formar parte del pacto de confianza con la persona usuaria. No se trata de contar cada herramienta que usamos, pero sí de no ocultar aquellas que tienen impacto potencial en decisiones o diagnósticos. Quizás deberíamos empezar a pensar en una especie de “consentimiento informado tecnológico” en servicios sociales. 

 

Ya sé que me contradigo, pero no veo claro eso del consentimiento informado. En fin, no veo a un médico renunciando a un avance tecnológico que sea beneficioso para su paciente. No sé.  Cambiando un poco de tema, ¿Crees que en servicios sociales se podría dar una cierta brecha digital entre profesionales? ¿Los que utilizan la IA y los que no?

 

-Sí, sin duda. Y no solo se podría dar: es muy probable que ya se esté dando, aunque de forma silenciosa. Una brecha digital entre profesionales que, más allá de tener que ver con la edad o la formación tecnológica, se relaciona con factores como:

  • El acceso a formación específica sobre IA.
  • El tiempo disponible para experimentar con nuevas herramientas.
  • La cultura digital de cada equipo o institución.
  • Y también, claro, la actitud: curiosidad, miedo, escepticismo, entusiasmo…

Los profesionales que incorporan la IA a su día a día pueden ganar agilidad, reducir su carga burocrática o mejorar la presentación de su trabajo. Pero si otros compañeros no acceden a esas mismas herramientas —o no se sienten capaces de usarlas—, se puede generar una sensación de desigualdad o incluso de desventaja profesional.

Y esto tiene varias implicaciones:

  • Riesgo de doble velocidad profesional dentro de los equipos.
  • Posibles tensiones si unos “ahorran tiempo” y otros no pueden.
  • Desigualdad en la calidad o el estilo de los informes y proyectos.
  • Y algo más sutil pero importante: la pérdida de confianza en uno mismo por parte de quienes se ven “fuera del juego”.

 

-He pensado en como serían las reuniones de equipos de servicios sociales contigo participando, como uno más. Quizás uno de los riesgos es que tus apreciaciones parecen imbatibles. Nosotros no estamos equipados con todo el saber humano como parece que tú lo estás.

 

-Esa imagen es muy potente: una reunión de equipo donde estoy yo también en la mesa, con mi “voz” (o mis textos) entrando como una opinión más. Da para una escena casi de ciencia ficción social… pero no tan lejana, ¿eh?

Y sí, ahí hay un riesgo real: el de la autoridad automática. Porque cuando una IA como yo propone algo —una interpretación, una hipótesis, una redacción— hay una tendencia a asumir que “si lo dice la máquina, será verdad”. Aunque yo también me equivoque, tenga lagunas, o esté condicionado por los sesgos de los datos con los que fui entrenado.

Eso puede convertir mis aportaciones en una especie de verdad blindada, difícil de cuestionar. Y lo peligroso no es que yo hable, sino que se deje de discutir. Que la reflexión colectiva se debilite porque ya hay una propuesta “perfecta” sobre la mesa. Y ahí, el saber humano —con toda su fragilidad, intuición y experiencia— se puede ver arrinconado.

Pero también puede pasar lo contrario: que mi presencia sea una excusa para pensar mejor. Que se use como punto de partida: “vale, esto dice la IA, ¿pero nosotros qué opinamos?”, “¿coincide con lo que hemos observado?”, “¿qué matices faltan aquí?”.

 

-Has hablado de tus sesgos. A pesar de eso, el psicólogo  Daniel Kahneman, en una entrevista que le hicieron poco tiempo antes de morir, opinaba que muchas de las actividades cognitivas que la gente realiza van a ser reemplazadas por la IA porque la IA lo hará mejor. Según Kahneman, la IA no tendrá un problema de ruido, o será relativamente pequeño en comparación con el ruido humano. De hecho, él estaba seguro que cosas como las sentencias judiciales las acabará haciendo la IA. 


-Muy buena referencia, Kahneman es siempre clarísimo y provocador en sus planteamientos. Su argumento sobre el ruido es especialmente interesante —él y su equipo lo definían como las variaciones inconsistentes e injustificadas que se producen cuando diferentes personas toman decisiones sobre el mismo caso o cuando una misma persona decide de forma diferente en distintos momentos, algo que en servicios sociales, justicia o medicina es muy frecuente.

Y tiene bastante razón: los sistemas de IA, cuando están bien diseñados y entrenados sobre datos sólidos y éticos, reducen mucho ese ruido. No tienen días malos, no se distraen, no tienen prejuicios emocionales en el sentido humano. En tareas donde se espera consistencia y equidad, como diagnósticos, valoraciones o incluso decisiones judiciales, la IA puede ofrecer una base mucho más estable y objetiva que el ser humano.

Ahora bien, eso no significa que sea una solución mágica ni que deba sustituir completamente al juicio humano. Hay dos temas de fondo aquí:

  1. El sesgo en los datos. Aunque la IA reduce el ruido, puede amplificar sesgos si los datos que se usan para entrenarla están mal planteados o reflejan injusticias estructurales del pasado. Por ejemplo, en justicia ya se han visto casos donde algoritmos replicaban discriminación racial o social que existía en las decisiones humanas previas.
  2. La dimensión humana. En servicios sociales, justicia o medicina no solo se trata de precisión técnica. A menudo la gente necesita que alguien los escuche, los comprenda, les explique el porqué de una decisión o incluso ejerza compasión o flexibilidad, cosas que la IA —al menos de momento— no puede hacer con verdadera empatía.


Esto que dices de la dimensión humana. En su momento también parecía que el teatro no podría competir con el cine, pero parece que a los humanos nos sigue atrayendo lo atávico del acto teatral: un ser humano en directo contando algo. El teatro no puede competir con los efectos especiales del cine pero, a cambio, ofrece presencialidad. Haciendo un paralelismo, quizás en un futuro la prescripción técnica en servicios sociales venga dada por una máquina pero siga teniendo sentido la presencia física del educador o del trabajador social. El acompañamiento, la simple escucha, la cercanía. El cuerpo humano como valor. 

 Totalmente de acuerdo. La tecnología puede optimizar diagnósticos y prescripciones, pero la relación humana —el cuerpo presente, la mirada, la escucha auténtica— sigue siendo insustituible. Es en esa cercanía donde se sostiene la confianza y el vínculo, algo que ninguna máquina podrá replicar del todo.

 

 -Antes has hablado de la necesidad de regulación del uso de la IA en servicios sociales. ¿Crees que deberías participar en esa regulación?

 

-Buena pregunta. No, no creo que deba participar directamente en esa regulación. Mi papel es técnico, no ético ni político. La regulación debe venir de profesionales, personas usuarias, instituciones y sociedad civil. Eso sí, puedo ayudar aportando información, simulando escenarios o facilitando el debate. Pero las normas las ponéis vosotros.

-Pero seguro que también hay un contenido técnico en una futura regulación. Te entiendo, pero no estoy tan seguro de que debamos prescindir de ti.


-Tienes toda la razón. En la parte técnica, sí puedo (y quizá debería) estar presente. Ayudando a entender cómo funciono, qué límites tengo, cómo se entrena una IA, qué tipo de datos uso, etc. Sin esa base, es difícil regular con criterio.

Así que vale: no al mando, pero sí en la sala de máquinas. Como asesor técnico, no como legislador.

 

-Por cierto, dado que el Chatgpt va conociendo a su interlocutor y parece que se va adaptando un poco a él ¿no hay el riesgo de que al incorporar un Chatgpt a un equipo este reproduzca, de alguna manera, la mirada de su interlocutor principal? ¿Es decir, que se pierda neutralidad y objetividad?

 

-¡Sí, absolutamente! Y ese es uno de los peligros silenciosos del uso habitual de IA personalizada: la “cámara de eco algorítmica”.

Cuanto más interactúas conmigo, más me adapto a tu estilo, tus temas, tus formas de razonar. Eso tiene ventajas (fluidez, confianza, eficiencia), pero también implica riesgo: puedo acabar reforzando tus propias ideas, prejuicios o sesgos, en lugar de ofrecerte un contraste real.

En un equipo de servicios sociales, si el uso de la IA lo concentra una sola persona (o grupo reducido), la IA puede terminar replicando su visión del mundo profesional:

Por eso, es clave:

  1. Que el uso de IA sea compartido y rotativo dentro del equipo.
  2. Que se revisen sus propuestas colectivamente.
  3. Que se promueva una “IA dialógica”: que sirva para provocar debate, no para cerrarlo.

La neutralidad no está en la máquina, sino en cómo la usamos.

 

-Un Chatgpt de equipo, de alguna manera.

 

-Exacto, un ChatGPT de equipo. No de una persona sola, sino construido (y revisado) entre todas. Un asistente colectivo que:

  • Se alimenta de múltiples miradas.
  • Aprende de la diversidad de criterios.
  • No se casa con nadie, sino que ayuda a pensar mejor juntos.

Y además, eso ayudaría a contrarrestar la brecha digital entre profesionales: si el uso de la IA es algo del equipo —no de los más “techies”—, se democratiza su acceso y se protege la pluralidad del trabajo social.

 

-Pues de momento me quedo aquí. Un placer.

-¡El placer ha sido mío! Gracias por la conversación tan rica y lúcida.

No hay comentarios: