Se dice que la inteligencia artificial tiene un potencial enorme. Alimenta esperanzas, pero también despierta temores, por ejemplo, cuando se utiliza en medicina o en sistemas de armas autónomas letales. ¿Dónde nos encontramos hoy y qué nos deparará el futuro?
Suena revolucionario: desde algoritmos que detectan el cáncer hasta modelos que predicen el próximo desastre natural y vehículos autónomos. Al mismo tiempo, muchas personas temen que los algoritmos y los sistemas de inteligencia artificial puedan volverse demasiado poderosos. Existe una preocupación generalizada por la posibilidad de que la IA pueda incitar a la discriminación y cometer errores fatales que nunca le ocurrirían a un ser humano.
El Laboratorio de Responsabilidad Algorítmica, dirigido por la profesora Katharina Zweig en la Universidad Técnica de Kaiserslautern, investiga la calidad y la imparcialidad de los sistemas de toma de decisiones algorítmicas. Zweig tiene una opinión clara sobre cuándo se debe utilizar la inteligencia artificial y cuándo es mejor no hacerlo.
Para usted, la IA es tan revolucionaria como la invención de la imprenta. ¿Dónde sentiremos sus efectos con más fuerza?
Es difícil decirlo. A diferencia de antes, ahora los ordenadores no solo pueden comprender datos estructurados, sino que también pueden decodificar palabras e imágenes. Ese es el verdadero cambio de paradigma. En lo que respecta a la cuestión de qué podemos hacer con ellos, estamos en el comienzo. La IA podría ser la tecnología que permita la conducción autónoma de vehículos o una terapia más individualizada con medicamentos eficaces y bien tolerados. En otros ámbitos, como el desarrollo de recursos humanos, soy un poco más crítica: la IA no es más que una herramienta. Los sistemas de toma de decisiones algorítmica actuales suelen tomar decisiones que nadie cuestiona basándose en datos históricos. Pero es absolutamente crucial que un ser humano observe los resultados de la IA y compruebe que las conclusiones causales que la IA afirma haber extraído realmente existen. Una cosa está bastante clara: en áreas críticas como la evaluación o incluso la predicción del comportamiento humano, la IA no funciona hoy en día.
¿Cómo pueden entonces las personas asegurarse de que la IA realmente funcione para su beneficio?
Existen criterios claros. En primer lugar, es necesario un proceso de evaluación en el que los expertos comprueben la calidad de las decisiones algorítmicas y realicen cambios en caso necesario. En segundo lugar, deben tenerse en cuenta cuestiones filosóficas fundamentales. Los sistemas de armas autónomas letales, los llamados robots asesinos, violan la presunción de inocencia. Si se violan estos principios fundamentales del derecho, no se debería utilizar la IA, incluso si las decisiones fueran correctas en un 99,99 por ciento, lo que no es así.
Mucha gente teme que los algoritmos puedan incitar a la discriminación. ¿Hasta qué punto cree que está justificada esta preocupación?
Está justificado, sin duda. El comportamiento humano es demasiado complejo como para dejarlo sin cuestionarlo en manos de modelos matemáticos. En algunos juzgados de Estados Unidos, por ejemplo, se utiliza ahora un software para predecir si los delincuentes volverán a delinquir. La tasa de éxito en la predicción de delitos violentos es baja, pero creo que el uso de la inteligencia artificial en este ámbito también es muy problemático por razones fundamentales. Predecir con éxito el comportamiento de las personas está más allá del estado actual de la investigación.
Sin embargo, algunas empresas esperan obtener grandes beneficios de ello. En la actualidad, se habla mucho sobre el uso de la IA para categorizar, evaluar y predecir el comportamiento humano. Eso cuesta mucho dinero y las máquinas no son necesariamente buenas para ello. Creo que tendría mucho más sentido si las empresas utilizaran más la tecnología en la producción. Todavía hay mucho margen de mejora en ese aspecto.
Artículos relacionados
Los mercados de divisas, pendientes de los bancos centrales
Relación entre ciberresiliencia y ciberseguridad
Después del revuelo, ¿qué sigue para el metaverso?
¡Feliz Dia del Libro!
Conceptos de Ciberseguridad
El super martes acerca una repetición de la contienda Trump-Biden en noviembre
Esté siempre al día con nuestros expertos
En este espacio de encuentro, grandes expertos en economía nos ayudan a construir un punto de vista sólido, basado en información real y rigurosa. Vea sus programas o escuche el podcast.