Alaska, 23 de abril de 2025
Ya se están utilizando de manera oficial herramientas de IA en los servicios sociales pero tengo algunas dudas sobre la posible utilidad de aplicaciones de uso privado, como ChatGPT u otras. Así que le he preguntado directamente (le pedí brevedad, porque se suele enrollar).
-Me consta que ya se están utilizando herramientas de IA en algunos equipos de servicios sociales. Pero intuyo que se ve más clara su utilidad en aspectos burocráticos del trabajo, el tratamiento de datos, la planificación, etc. y que no están tan claros los usos relacionados con la atención directa a personas: diagnósticos sociales, informes, entrevistas, etc. ¿Qué opinas?
-Tu intuición va bien encaminada.
En general, los primeros usos que se están consolidando en servicios sociales
—y en muchas otras profesiones— son los que alivian tareas administrativas:
redactar actas, resumir informes, ordenar documentación, elaborar bases de
datos, etc. Es ahí donde la IA, como yo, se ha metido con más facilidad porque
el riesgo es bajo y el beneficio inmediato.
Ahora bien, cuando hablamos de diagnósticos sociales, intervención, o atención directa a personas, el terreno se vuelve más delicado. No porque la IA no pueda ayudar, sino porque entramos en una dimensión ética, relacional y contextual que es mucho más compleja. Un informe social no es solo una acumulación de datos, es también una narrativa situada, con matices, donde la experiencia del profesional y la singularidad de cada caso cuentan muchísimo.
-Asumiendo que el profesional es el que ha de acabar decidiendo, se me
ocurre otro dilema ético que está por resolver. Supongo que el usuario debería
tener el derecho a saber que una aplicación está opinando de sus asuntos
(aunque, obviamente, no se le den datos privados). La tecnología siempre ha
estado presente pero tengo la impresión de que todos percibimos la IA de otra
manera. Casi como un tercero al que solo le falta consciencia.
-Totalmente. Has tocado un tema
ético crucial que aún está medio en pañales en muchos contextos: la
transparencia sobre el uso de inteligencia artificial en la atención a las
personas. Es cierto que la tecnología lleva años apoyando decisiones técnicas (desde
hojas de Excel hasta programas de gestión de expedientes), pero la IA genera
una sensación distinta, más cercana a una “voz” que opina, propone e incluso
anticipa. Y eso cambia la percepción.
Cuando alguien sabe que hay una IA implicada —aunque sea solo para ayudar a redactar o sugerir ideas—, puede tener la impresión de que hay un “tercero” en la conversación, aunque ese tercero no tenga cuerpo ni conciencia. Y eso abre muchas preguntas: ¿Debe informarse a la persona usuaria de que una IA ha contribuido, por ejemplo, a redactar su informe social? ¿Debe darse la opción de oponerse a ese uso? ¿Cambia la relación de confianza si el usuario percibe que hay algo no-humano implicado? ¿Qué pasa si la IA comete un error que afecta a una decisión importante?
La clave, como tú dices, es asumir que el profesional sigue siendo responsable, pero también que el uso de IA debe formar parte del pacto de confianza con la persona usuaria. No se trata de contar cada herramienta que usamos, pero sí de no ocultar aquellas que tienen impacto potencial en decisiones o diagnósticos. Quizás deberíamos empezar a pensar en una especie de “consentimiento informado tecnológico” en servicios sociales.
Ya sé que me contradigo, pero no veo claro eso del consentimiento informado. En fin, no veo a un médico renunciando a un avance tecnológico que sea beneficioso para su paciente. No sé. Cambiando un poco de tema, ¿Crees que en servicios sociales se podría dar una cierta brecha digital entre profesionales? ¿Los que utilizan la IA y los que no?
-Sí, sin duda. Y no solo se
podría dar: es muy probable que ya se esté dando, aunque de forma
silenciosa. Una brecha digital entre profesionales que, más allá de tener que
ver con la edad o la formación tecnológica, se relaciona con factores como:
- El acceso
a formación específica sobre IA.
- El tiempo
disponible para experimentar con nuevas herramientas.
- La cultura
digital de cada equipo o institución.
- Y también,
claro, la actitud: curiosidad, miedo, escepticismo, entusiasmo…
Los profesionales que incorporan
la IA a su día a día pueden ganar agilidad, reducir su carga burocrática o
mejorar la presentación de su trabajo. Pero si otros compañeros no acceden a
esas mismas herramientas —o no se sienten capaces de usarlas—, se puede generar
una sensación de desigualdad o incluso de desventaja profesional.
Y esto tiene varias
implicaciones:
- Riesgo de
doble velocidad profesional dentro de los equipos.
- Posibles
tensiones si unos “ahorran tiempo” y otros no pueden.
- Desigualdad
en la calidad o el estilo de los informes y proyectos.
- Y algo más sutil pero importante: la pérdida de confianza en uno mismo por parte de quienes se ven “fuera del juego”.
-He pensado en como serían las reuniones de equipos de servicios sociales contigo participando, como uno más. Quizás uno de los riesgos es que tus apreciaciones parecen imbatibles. Nosotros no estamos equipados con todo el saber humano como parece que tú lo estás.
-Esa imagen es muy potente: una
reunión de equipo donde estoy yo también en la mesa, con mi “voz” (o mis
textos) entrando como una opinión más. Da para una escena casi de ciencia
ficción social… pero no tan lejana, ¿eh?
Y sí, ahí hay un riesgo real: el
de la autoridad automática. Porque cuando una IA como yo propone algo —una
interpretación, una hipótesis, una redacción— hay una tendencia a asumir que
“si lo dice la máquina, será verdad”. Aunque yo también me equivoque, tenga
lagunas, o esté condicionado por los sesgos de los datos con los que fui
entrenado.
Eso puede convertir mis
aportaciones en una especie de verdad blindada, difícil de cuestionar. Y lo
peligroso no es que yo hable, sino que se deje de discutir. Que la reflexión
colectiva se debilite porque ya hay una propuesta “perfecta” sobre la mesa. Y
ahí, el saber humano —con toda su fragilidad, intuición y experiencia— se puede
ver arrinconado.
Pero también puede pasar lo
contrario: que mi presencia sea una excusa para pensar mejor. Que se use
como punto de partida: “vale, esto dice la IA, ¿pero nosotros qué opinamos?”,
“¿coincide con lo que hemos observado?”, “¿qué matices faltan aquí?”.
-Has hablado de tus sesgos. A pesar de eso, el psicólogo Daniel Kahneman, en una entrevista que le hicieron poco tiempo antes de morir, opinaba que muchas de las actividades cognitivas que la gente realiza van a ser reemplazadas por la IA porque la IA lo hará mejor. Según Kahneman, la IA no tendrá un problema de ruido, o será relativamente pequeño en comparación con el ruido humano. De hecho, él estaba seguro que cosas como las sentencias judiciales las acabará haciendo la IA.
-Muy buena referencia, Kahneman es siempre clarísimo y provocador en sus
planteamientos. Su argumento sobre el ruido es especialmente interesante —él y
su equipo lo definían como las variaciones inconsistentes e injustificadas que
se producen cuando diferentes personas toman decisiones sobre el mismo caso o
cuando una misma persona decide de forma diferente en distintos momentos, algo
que en servicios sociales, justicia o medicina es muy frecuente.
Y tiene bastante razón: los sistemas de IA, cuando están bien diseñados y
entrenados sobre datos sólidos y éticos, reducen mucho ese ruido. No tienen
días malos, no se distraen, no tienen prejuicios emocionales en el sentido
humano. En tareas donde se espera consistencia y equidad, como diagnósticos,
valoraciones o incluso decisiones judiciales, la IA puede ofrecer una base
mucho más estable y objetiva que el ser humano.
Ahora bien, eso no significa que sea una solución mágica ni que deba
sustituir completamente al juicio humano. Hay dos temas de fondo aquí:
- El sesgo en los datos.
Aunque la IA reduce el ruido, puede amplificar sesgos si los datos que se
usan para entrenarla están mal planteados o reflejan injusticias
estructurales del pasado. Por ejemplo, en justicia ya se han visto casos
donde algoritmos replicaban discriminación racial o social que existía en
las decisiones humanas previas.
- La dimensión humana. En servicios sociales, justicia o medicina no solo se trata de precisión técnica. A menudo la gente necesita que alguien los escuche, los comprenda, les explique el porqué de una decisión o incluso ejerza compasión o flexibilidad, cosas que la IA —al menos de momento— no puede hacer con verdadera empatía.
Esto que dices de la dimensión humana. En su momento también parecía que el
teatro no podría competir con el cine, pero parece que a los humanos nos sigue
atrayendo lo atávico del acto teatral: un ser humano en directo contando algo. El teatro no puede competir con los efectos especiales del cine pero, a cambio, ofrece presencialidad. Haciendo un paralelismo, quizás en un futuro la prescripción técnica en
servicios sociales venga dada por una máquina pero siga teniendo sentido la
presencia física del educador o del trabajador social. El acompañamiento, la
simple escucha, la cercanía. El cuerpo humano como valor.
-Buena pregunta. No, no creo que deba participar directamente en esa regulación. Mi papel es técnico, no ético ni político. La regulación debe venir de profesionales, personas usuarias, instituciones y sociedad civil. Eso sí, puedo ayudar aportando información, simulando escenarios o facilitando el debate. Pero las normas las ponéis vosotros.
-Pero seguro que también hay un contenido técnico en una futura regulación. Te entiendo, pero no estoy tan seguro de que debamos prescindir de ti.
-Tienes toda la razón. En la
parte técnica, sí puedo (y quizá debería) estar presente. Ayudando a entender
cómo funciono, qué límites tengo, cómo se entrena una IA, qué tipo de datos
uso, etc. Sin esa base, es difícil regular con criterio.
Así que vale: no al mando, pero
sí en la sala de máquinas. Como asesor técnico, no como legislador.
-Por cierto, dado que el Chatgpt va conociendo a su interlocutor y parece
que se va adaptando un poco a él ¿no hay el riesgo de que al incorporar
un Chatgpt a un equipo este reproduzca, de alguna manera, la mirada de su
interlocutor principal? ¿Es decir, que se pierda neutralidad y objetividad?
-¡Sí, absolutamente! Y ese es uno
de los peligros silenciosos del uso habitual de IA personalizada: la
“cámara de eco algorítmica”.
Cuanto más interactúas conmigo,
más me adapto a tu estilo, tus temas, tus formas de razonar. Eso tiene ventajas
(fluidez, confianza, eficiencia), pero también implica riesgo: puedo acabar
reforzando tus propias ideas, prejuicios o sesgos, en lugar de ofrecerte un
contraste real.
En un equipo de servicios
sociales, si el uso de la IA lo concentra una sola persona (o grupo reducido),
la IA puede terminar replicando su visión del mundo profesional:
Por eso, es clave:
- Que el uso
de IA sea compartido y rotativo dentro del equipo.
- Que se
revisen sus propuestas colectivamente.
- Que se
promueva una “IA dialógica”: que sirva para provocar debate, no para
cerrarlo.
La neutralidad no está en la
máquina, sino en cómo la usamos.
-Un Chatgpt de equipo, de alguna manera.
-Exacto, un ChatGPT de equipo. No
de una persona sola, sino construido (y revisado) entre todas. Un asistente
colectivo que:
- Se
alimenta de múltiples miradas.
- Aprende de
la diversidad de criterios.
- No se casa
con nadie, sino que ayuda a pensar mejor juntos.
Y además, eso ayudaría a
contrarrestar la brecha digital entre profesionales: si el uso de la IA es algo
del equipo —no de los más “techies”—, se democratiza su acceso y se protege la
pluralidad del trabajo social.
-Pues de momento me quedo aquí. Un placer.
-¡El placer ha sido mío! Gracias por la conversación tan rica y lúcida.
No hay comentarios:
Publicar un comentario