Uno de los hallazgos más inquietantes es la facilidad con que un modelo puede ser inducido a error. Una mínima alteración en los datos de entrada —imperceptible para los usuarios— basta para que un sistema produzca resultados completamente equivocados. En contextos donde la precisión es vital, como la salud o la conducción autónoma, esta vulnerabilidad puede tener consecuencias graves. Así, un algoritmo que parece confiable puede ser manipulado con relativa facilidad, exponiendo debilidades que ponen en riesgo su integridad operativa.
Otro fenómeno que preocupa es el llamado envenenamiento de datos, una técnica mediante la cual se introducen registros falsos o alterados en el conjunto de entrenamiento de un modelo. Aunque representen una pequeña fracción del total, pueden modificar el comportamiento del sistema y alterar sus predicciones sin que nadie lo note. Lo peligroso de este tipo de ataque es su carácter silencioso y persistente: corrompe el aprendizaje desde la raíz, generando un efecto acumulativo que deteriora la confianza en los resultados.
Aún más compleja es la amenaza que afecta directamente a la estructura interna de los modelos. Hoy es posible incorporar alteraciones imperceptibles en su arquitectura, creando “puertas traseras” que permiten manipular decisiones o acceder a información sensible. Este tipo de intervención configura un escenario más sofisticado y difícil de detectar, que demanda nuevas estrategias de defensa y una visión ética sobre cómo y quién controla la inteligencia artificial.
Proteger la IA ya no es una opción, sino una necesidad urgente. No se trata solo de mejorar su rendimiento o precisión, sino de fortalecer su resiliencia frente a ataques y sesgos cada vez más elaborados. A medida que la inteligencia artificial continúe expandiendo su influencia en la economía, la educación y la gestión pública, garantizar su seguridad será tan importante como asegurar su utilidad.
En definitiva, la confianza tecnológica —y social— en la IA dependerá de nuestra capacidad para hacerla no solo más inteligente, sino también más transparente, ética y segura.
Omar Salinas Director de Ingeniería Civil Informática Advance UNAB
El pasado sábado se realizaron las elecciones de la directiva de la Unión Comunal de…
• La actividad reunió a destacadas académicas nacionales para reflexionar sobre trayectorias, desafíos y oportunidades…
ChaiténTV y ViveChaitén presentan el lanzamiento de “Cuando la Memoria Vuela”, un cuento breve escrito…
Conversatorio y showcases de Primeras Naciones tendrán lugar el domingo 14, cerrando la 9° versión…
El trabajo fue financiado por el Fondo de Investigación Pesquera y Acuícola, FIPA, y la…
• El segundo capítulo del programa multiplataforma “Transfórmate en un Líder PUCV” ya está publicado…