La tecnología ya no es algo que las organizaciones “adoptan”. Es algo que absorben: de manera constante, desigual y, a menudo, sin comprender plenamente sus consecuencias. La inteligencia artificial, la automatización, las herramientas de vigilancia y la toma de decisiones algorítmica están transformando la forma en que se trabaja a una velocidad mayor que la de los marcos éticos diseñados para gobernarlas. En este contexto, el camino más responsable no es el optimismo tecnológico ni la resistencia generalizada, sino una ética del riesgo: una práctica deliberada y continua de identificar, distribuir y gobernar el riesgo tecnológico con los valores humanos en el centro.
Durante demasiado tiempo, la tecnología en el trabajo se ha presentado a través de una falsa dicotomía. De un lado están la innovación, la velocidad y la competitividad; del otro, la cautela, la regulación y el miedo al daño. Este encuadre es profundamente erróneo. El riesgo no es el enemigo del progreso, es una condición inevitable del mismo. El fracaso ético no ocurre cuando existe el riesgo, sino cuando este se oculta, se ignora o se traslada a quienes tienen menos poder para cuestionarlo. El filósofo Sueco Sven Ove Hansson (2013) advierte que la ética tradicional ha fallado al tratar el mundo como si fuera determinista, cuando en realidad “en los dilemas morales reales rara vez estamos seguros de los efectos de nuestras acciones”. Esta desconexión explica por qué tantas implementaciones tecnológicas parecen moralmente aceptables en el papel, pero dañinas en la práctica.
El concepto de riesgo es a la vez fáctico y cargado de valores. Las tecnologías que se introducen en los espacios de trabajo suelen describirse como “herramientas”, lo que sugiere objetividad e inevitabilidad. En realidad, todo sistema incorpora supuestos sobre la productividad, la confianza, la eficiencia y el valor. El software de monitoreo asume que las personas trabajadoras tienden a malgastar el tiempo. Las herramientas algorítmicas de contratación asumen que el éxito pasado predice el desempeño futuro. Los sistemas de automatización asumen que el desplazamiento laboral es un costo aceptable de la optimización. Tratar estos supuestos como hechos neutrales y no como elecciones éticas es, en sí mismo, una falla ética.
Es importante señalar que la ética del riesgo no busca eliminar la incertidumbre. Ese objetivo no es ni realista ni deseable. La innovación requiere experimentación, y la experimentación implica fracaso. La pregunta ética es si el fracaso se anticipa, se limita y se comparte de manera responsable. Pilotos en entornos controlados, sistemas con humanos en el circuito y mecanismos claramente definidos de reversión no son solo buenas prácticas técnicas; son compromisos morales. Indican que la dignidad humana importa más que una implementación ininterrumpida.
El futuro del trabajo no estará definido por cuán avanzadas se vuelvan nuestras herramientas, sino por cuán cuidadosamente gobernemos sus riesgos. La ética del riesgo reconoce una verdad simple: la tecnología se gana su lugar en el trabajo no por ser poderosa, sino por ser responsable ante las personas cuyas vidas transforma. Siguiendo a Hansson, lo que necesitamos son métodos de análisis ético que puedan lidiar no solo con probabilidades, sino con las múltiples formas de incertidumbre que encontramos en la vida real”. Así, la ética del riesgo no frena la innovación; la hace responsable.
