Los desafíos y oportunidades de utilizar inteligencia artificial en las intervenciones sociales
Tema fue abordado por el ingeniero e investigador Rodrigo Salas, director del Centro de Excelencia Meding, quien compartió su experiencia en el desarrollo de esta tecnología con docentes y estudiantes de la Escuela de Trabajo Social de la UV, al inaugurar el año académico de ese plantel.
“Inteligencia artificial y decisiones sociales: oportunidades y desafíos para la intervención profesional” se tituló la conferencia con la que el doctor en Ingeniería Informática Rodrigo Salas, especialista en esta tecnología, inauguró el año académico 2026 de la Escuela de Trabajo Social de la Universidad de Valparaíso.
La actividad tuvo lugar en el auditorio de ese plantel y fue encabezada por el decano de la Facultad de Ciencias Sociales, Gonzalo Lira, quien en la ocasión estuvo acompañado por la vicedecana Cecilia Concha; el director de la Escuela, Mauricio Ureta, y el jefe de la carrera, Héctor Díaz, entre otras autoridades. Al encuentro asistió un centenar de docentes y estudiantes.
Salas, quien es profesor e investigador de la Escuela de Ingeniería Civil Biomédica y además dirige el Centro de Excelencia Interdisciplinario para la Investigación en Ciencia y Salud (Meding) de la UV, inició su intervención planteando que no existe una manera única de abordar y utilizar la IA, por lo que cada persona —como simple usuaria o profesional— debiera emplear esta tecnología sabiendo primero qué es, qué es lo que puede hacer o no y qué subyace en ella. Es decir, cuáles son los riesgos y las potencialidades que encierra.
Al respecto, comentó que esto significa entender cómo opera la inteligencia artificial a nivel funcional, no tanto en lo teórico —en el detalle de sus algoritmos—, ámbito que asoció más al dominio de desarrolladores e ingenieros.
“La IA aprende de los datos. Por lo tanto, como los datos que procesa son generados por seres humanos, estos tienen sesgos que hay que saber identificar y frente a los cuales hay que tener cuidado. ¿Qué significa esto? Que la inteligencia artificial puede generar contenidos discriminadores, sexistas o racistas, porque fueron aportados —de manera consciente o inconsciente— bajo esa visión o con la intención de manipular a la audiencia”.
Por lo anterior, el especialista postuló la necesidad de avanzar hacia una IA más social, una que no se limite solo a cumplir instrucciones del tipo “haz esto o aquello” sino que sea capaz de crear roles que integren mecanismos basados en la empatía, en aplicaciones que asuman que su fin último es el de servir y ser útil a las personas en general, a los profesionales, no a determinados intereses o a sistemas propiamente tal.
En todo caso, el director del Centro Meding argumentó que este desafío no es fácil de superar, ya que conlleva al mismo tiempo una gran responsabilidad: adquirir los conocimientos adecuados para saber cómo emplear bien esta herramienta, sin afectar a otros.
“En este punto hay un trabajo enorme que hacer. El desafío mayor entonces es ético: cómo manejar o utilizar bien los datos disponibles y, al mismo tiempo, cómo cuidar los datos personales. Esto implica abandonar el estado de flojera mental o de pasividad en el que muchas veces nos hallamos como usuarios frente a este tipo de aplicaciones”, sentenció el ingeniero.
Contra el engaño
Para el doctor Rodrigo Salas, los imperativos de ser responsable y actuar de manera ética en el manejo de los datos develan una interrogante aún más compleja e interesante: ¿cómo deberían prepararse entonces las y los académicos y estudiantes universitarios para hacer un buen uso de la IA, sacarle un adecuado provecho, evitar engañar y ser engañados?
Frente a estas disyuntivas, el profesor e investigador de la Escuela de Ingeniería Civil Biomédica de la UV comentó que el mayor problema con el que hay que lidiar en la actualidad es que las personas que generalmente enseñan, que son de más edad, apenas tienen conocimiento de esta tecnología, porque es reciente, y por eso la están aprendiendo al mismo tiempo que sus pupilos, la juventud.
“Entonces estamos hablando que la IA es una herramienta que apenas sabemos realmente cómo y hasta dónde la podemos utilizar. El ser humano siempre va a tener la capacidad de discernir y de aplicar patrones para la toma de decisiones, con el impacto que esto puede generar. La máquina va a emular esto y, también, el aprendizaje, la compresión, la resolución de problemas e incluso la creatividad y la autonomía. Por lo tanto, uno tiene que estar atento a la hora de utilizar o generar aplicaciones de IA, porque al ser una tecnología nueva y de alcances inimaginables, su mal uso, su uso poco ético, derivará en errores o resultados negativos. Así ha pasado siempre”, sentenció.
En ese entendido, Salas añadió que, a su parecer, el próximo gran salto cualitativo de la IA, en cuanto integración de sistemas predictivos, será la gestión del bienestar y el trabajo social dentro de la educación superior.
“La tecnología detecta el riesgo a gran escala, pero son la humanidad y la empatía las que cambian el destino del estudiante. Aquí podría estar el futuro de la intervención universitaria”, concluyó.




Nota: Gonzalo Battocchio / Fotos: Matías Salazar