Cada algoritmo no solo automatiza acciones, sino también valores. El diseño y entrenamiento de los sistemas de IA son, hasta ahora, consecuencia de elecciones humanas. Esto incluye, por ejemplo, qué datos se consideran relevantes, qué patrones se reconocen, qué escenarios se anticipan y cómo se jerarquizan los resultados.
Priorizaría una reflexión y un trabajo interdisciplinario para establecer estándares técnicos y consensos normativos vinculantes para los siguientes dilemas éticos:
a) Seguridad;El gran, y digo GRAN con mayúsculas, desafío es cómo, en un contexto de aceleración exponencial, no subestimamos los impactos —positivos, negativos, directos, indirectos e involuntarios— junto a los trade-offs que esta innovación tecnológica sin precedentes nos plantea.
Una pregunta central es cómo podemos cautelar de manera eficaz —y no solo en el papel— la protección de los derechos individuales y humanos ante los impactos del desarrollo de los sistemas de IA.
¿Qué rol deberían jugar los marcos regulatorios y la legislación frente al avance acelerado de la IA?
Desde dos roles: la de la regulación de la IA, y cómo la IA mejora la regulación.
En el primer ámbito, el cofundador de DeepMind, Mustafá Suleyman, en su libro “La ola que viene”, señala que la regulación no es suficiente para hacer frente a los desafíos de esta revolución tecnológica e introduce el concepto de “contención”. En su visión, que comparto, la contención abarca “la regulación, mayor seguridad técnica, nuevos modelos de gobernanza y propiedad, responsabilidad y transparencia, como precursores para una tecnología más segura”.
Lo anterior supone, por tanto, una mirada comprensiva que no se limite a la regulación, sino que integre la ingeniería avanzada y valores éticos como la base sobre la cual acordemos construir el futuro.
En el segundo ámbito, la regulación debe abrirse para aprender de la IA. Los sistemas de IA pueden contribuir a dotar de certeza y coherencia a sistemas regulatorios confusos y burocratizados, reduciendo la incertidumbre jurídica y operativa.
Un ejemplo concreto es el drama de la “permisología”, que impacta, entre otros, a la industria de la construcción, al crecimiento del país y a la confianza en las instituciones.
La IA representa una oportunidad para, como mínimo, reorganizar información legal, transparentar criterios y devolver agilidad a procesos que se encuentran ralentizados por la complejidad y fragmentación del sistema jurídico.
¿Qué recomendaciones darías a quienes diseñan políticas públicas para garantizar un desarrollo ético y responsable de la IA?
Es fundamental comprender en profundidad esta hiperrevolución. Como señaló el físico y premio Nobel Richard Feynman: “Lo que no puedo crear, no lo entiendo”.
Esto no se trata solo del desarrollo de una nueva tecnología, sino de decisiones tecnológicas que impactan la organización de la vida colectiva y la esencia misma de lo que hasta hoy entendemos como inteligencia y vida.
En este contexto, es indispensable para el diseño de políticas públicas involucrar a actores diversos, que trabajen simultáneamente en tres niveles: institucional, técnico y cultural.
A nivel institucional, necesitamos invertir para dotar al Estado de las capacidades que le permitan planificar, implementar y supervisar sistemas de IA. Es crucial fortalecer los marcos de gobernanza para el desarrollo tecnológico, establecer criterios éticos vinculantes y asegurar mecanismos de auditorías permanentes.
Desde el punto de vista técnico, resulta esencial la inversión en la seguridad de los sistemas de IA y en una infraestructura interoperable con estándares que faciliten la integración de diferentes sistemas.
Sin embargo, ninguna estrategia será sostenible si no consideramos la dimensión cultural. Es fundamental contar con una ciudadanía informada y con capacidad crítica, así como la creación de espacios para debatir abiertamente sobre los usos legítimos de la IA.
La tensión y el desafío radican en cómo la política pública contribuye al desarrollo de una inteligencia artificial que genere bienestar para la humanidad y no lo contrario