Domingo de Ramos
Horarios e itinerarios

Comprender la inteligencia artificial, un reto clave para la sociedad

"Inteligencia artificial y ética: Construyendo un futuro responsable"

El avance acelerado de las nuevas tecnologías digitales expone profundas dudas éticas en torno a sus regulaciones y la atribución de sus competencias

De izquierda a derecha: Francisco Javier González, director general de Fomento del Emprendimiento y de la Formación Continua de la Consejería de Universidad, Investigación e Innovación de la Junta de Andalucía; Alberto Grimaldi, subdirector de Diario de Sevilla; Estrella Utrera, fundadora de la empresa StarBótica; David Pinto, cofundador y director de la startup EONSEA; Fernando Llano, catedrático de Filosofía del Derecho y decano de la Facultad de Derecho de la US, y Alicia Troncoso, catedrática de Lenguajes y Sistemas Informáticos en la UPO de Sevilla.
De izquierda a derecha: Francisco Javier González, director general de Fomento del Emprendimiento y de la Formación Continua de la Consejería de Universidad, Investigación e Innovación de la Junta de Andalucía; Alberto Grimaldi, subdirector de Diario de Sevilla; Estrella Utrera, fundadora de la empresa StarBótica; David Pinto, cofundador y director de la startup EONSEA; Fernando Llano, catedrático de Filosofía del Derecho y decano de la Facultad de Derecho de la US, y Alicia Troncoso, catedrática de Lenguajes y Sistemas Informáticos en la UPO de Sevilla. / José Ángel García

Sevilla/El vertiginoso florecimiento de la inteligencia artificial ha generado múltiples beneficios, desde la automatización de procesos y la optimización de la producción hasta la mejora en la toma de decisiones. Sin embargo, también plantea desafíos como el riesgo de sesgos, el impacto en la privacidad y su influencia en la desigualdad social.

Para que la sociedad pueda interactuar con esta tecnología con confianza, es fundamental que la inteligencia artificial sea transparente, justa y esté adecuadamente regulada. Esto requiere garantías tecnológicas, sociales y de divulgación que deben abordarse teniendo en cuenta la opinión ciudadana.

Con el objetivo de analizar cómo aprovechar el potencial de la inteligencia artificial sin comprometer los derechos fundamentales y la equidad social, la sede de Diario de Sevilla acogió la mesa redonda Inteligencia Artificial y Ética: Construyendo un Futuro Responsable. El encuentro contó con la participación de Francisco Javier González Navarro, director general de Fomento del Emprendimiento y de la Formación Continua de la Consejería de Universidad, Investigación e Innovación de la Junta de Andalucía; Alicia Troncoso Lora, catedrática de Lenguajes y Sistemas Informáticos en la Universidad Pablo de Olavide de Sevilla; Fernando Llano Alonso, catedrático de Filosofía del Derecho y decano de la Facultad de Derecho de la Universidad de Sevilla; Estrella Utrera Montes, fundadora de la empresa StarBótica; y David Pinto Fernández, cofundador y director de la startup EONSEA. La moderación estuvo a cargo de Alberto Grimaldi, subdirector de Diario de Sevilla.

Un momento del desayuno de redacción Inteligencia Artificial y Ética: Construyendo un Futuro Responsable.
Un momento del desayuno de redacción Inteligencia Artificial y Ética: Construyendo un Futuro Responsable. / José Ángel García

IA y empleo

Francisco Javier González abrió el debate matizando que el avance tecnológico “no significa que haya que sacar del mercado laboral a los trabajadores, sino adaptarlos”. A su juicio, la clave está en acompañar a las personas en ese tránsito hacia nuevos roles profesionales. En este sentido, defendió que la inteligencia artificial “puede suponer un salto de calidad en materia creativa, al optimizar procesos tediosos y liberar tiempo para tareas de mayor valor”.

Desde una perspectiva empresarial, Estrella Utrera reconoció que existen sectores especialmente sensibles a esta transformación. “Hay trabajos que sí pueden desaparecer, como el de los actores de doblaje, que una máquina puede sustituir de forma rápida y eficaz”, señaló. No obstante, se mostró “optimista respecto a esa transición”, confiando en la capacidad de reinvención del mercado.

Hay un cambio de paradigma donde las empresas tecnológicas están asumiendo poder

En el ámbito jurídico y humanístico, Fernando Llano puso el foco en las nuevas profesiones emergentes. “El derecho de imagen, por ejemplo, cobrará una relevancia creciente”, apuntó, al tiempo que evocó el superado movimiento ludita del siglo XIX como precedente histórico de las tensiones que genera la introducción de nuevas tecnologías. En su intervención, subrayó que “en las profesiones más creativas siempre se valorará la aportación humana”, y reivindicó un equilibrio entre el desarrollo tecnológico y los valores humanistas: “Hay que cuidar a la sociedad sin dejar de lado las tecnologías”.

La catedrática Alicia Troncoso quiso despejar confusiones habituales al afirmar que “automatización e inteligencia artificial son conceptos distintos”. Su opinión es que los sistemas de IA “van a requerir siempre la intervención humana”, y por tanto deben verse como herramientas complementarias, no sustitutivas.

Por su parte, David Pinto hizo un llamamiento a que las empresas “hagan accesible y limpio el uso de las nuevas tecnologías” para profesionales con conocimientos básicos. “Se puede trabajar con tecnologías más sencillas sin necesidad de ser experto”, defendió, abogando por una democratización del acceso a la inteligencia artificial.

Francisco Javier González, director general de Fomento del Emprendimiento y de la Formación Continua de la Consejería de Universidad, Investigación e Innovación de la Junta de Andalucía
Francisco Javier González, director general de Fomento del Emprendimiento y de la Formación Continua de la Consejería de Universidad, Investigación e Innovación de la Junta de Andalucía / José Ángel García
“Buscamos compensar los tiempos entre el aprendizaje ciudadano y la requerida regulación”

Los algoritmos

En torno a la ética y la transparencia, desde una perspectiva jurídica, Llano recordó que ya existe una regulación en marcha sobre IA a nivel europeo, y subrayó que “el punto 14 habla precisamente de ese control sobre los algoritmos”. En su intervención, defendió una aproximación basada en la ética del utilitarismo, es decir, que las decisiones de la IA “no perjudiquen a los destinatarios”.

A nivel institucional, Francisco Javier González puso el acento en la importancia de la transparencia y la rendición de cuentas cuando una decisión automatizada puede tener consecuencias en la vida de las personas. “Es fundamental que todo sea entendible y explicable para el ciudadano”, advirtió. Según explicó, la falta de claridad en los procesos de decisión puede acabar erosionando la confianza social en estas tecnologías.

Se trabaja en métodos para detectar y mitigar los sesgos de los algoritmos de la IA

Alicia Troncoso, experta en sistemas informáticos, profundizó en el concepto de la llamada “caja negra” de la inteligencia artificial, un término que alude a la dificultad de interpretar cómo toman decisiones ciertos modelos algorítmicos. “Se está estudiando esta opacidad, y habrá distintos niveles de transparencia”, señaló. Considera que la ética debe empezar desde el diseño mismo de los sistemas: “Tiene que estar enfocada en la propia empresa que saca ese sistema de IA al mercado”.

Alicia Troncoso, catedrática de Lenguajes y Sistemas Informáticos en la Universidad Pablo de Olavide (UPO) de Sevilla
Alicia Troncoso, catedrática de Lenguajes y Sistemas Informáticos en la Universidad Pablo de Olavide (UPO) de Sevilla / José Ángel García
“Llevar a cabo una labor coordinada en materia de investigación y docencia resulta esencial”

Privacidad y seguridad

Desde su experiencia como emprendedora, Estrella Utrera alertó que “las empresas van a actuar en su propio beneficio”, por lo que es imprescindible que la ciudadanía actúe con criterio. “Debemos ser precavidos y estar atentos a los datos que regalamos a cambio de un servicio”, advirtió. Según explicó, es fundamental que los usuarios comprendan qué información están cediendo y para qué fines.

Fernando Llano introdujo la perspectiva europea como modelo de referencia frente a otros sistemas menos restrictivos. “En la Unión Europea se prioriza la protección de los datos y la intimidad del ciudadano”, señaló, en contraposición con el modelo estadounidense -donde predomina la autorregulación empresarial- o el chino, más orientado al control estatal. En este sentido, reivindicó que el ciudadano sea tratado como soberano de sus datos. No obstante, reconoció que aún falta “pedagogía y alfabetización digital”, especialmente porque incluso los sistemas automatizados deben contar con el consentimiento humano. Puede que eso conlleve una pérdida de competitividad, pero a cambio se gana seguridad”, añadió.

Diversos sectores pueden beneficiarse de un uso responsable de la inteligencia artificial

Desde la Consejería de Universidad, Investigación e Innovación, Francisco Javier González defendió el modelo regulatorio intermedio de la Unión Europea como “una postura acertada” que permite asumir ciertos riesgos sin dejar de proteger a la ciudadanía. Sin embargo, reconoció que en ocasiones “se echa en falta una mayor transparencia cuando ocurre una brecha de seguridad”, especialmente en el ámbito público. “El ciudadano debe saber qué ha pasado y cómo actuar ante estas situaciones”, subrayó.

El enfoque de las startups tecnológicas fue subrayar la necesidad de asumir responsabilidades cuando se trata de datos sensibles. “Es clave que las empresas respondan por los datos que se pierden”, defendió. A su juicio, todavía hay una gran incertidumbre en torno a cómo actuar desde el punto de vista legal ante este tipo de situaciones. “En áreas críticas, lo más importante es localizar con claridad quién es el responsable de esa IA”, concluyó.

Fernando Llano, catedrático de Filosofía del Derecho y decano de la Facultad Derecho de la Universidad de Sevilla
Fernando Llano, catedrático de Filosofía del Derecho y decano de la Facultad Derecho de la Universidad de Sevilla / José Ángel García
“Hay que apostar por un desarrollo tecnológico cuyo eje central sean los derechos del ser humano”

Toma de decisiones

La Junta de Andalucía pone el foco en la responsabilidad institucional: “La administración debe tener especial cuidado con sus procesos, ya que manejamos muchos datos sensibles”, advirtió, y puso como ejemplo un nuevo portal web de emprendimiento que están desarrollando, para el que están prestando especial atención a garantizar la seguridad de los datos y la integridad del sistema.

Por otro lado, Alicia Troncoso, representando a la Universidad Pablo de Olavide, señaló que el factor clave en decisiones de alto impacto sigue siendo la confianza, y que esta aún se deposita más fácilmente en una persona que en un sistema automatizado. “Cuando se pide consentimiento al ciudadano, muchas veces no hay un conocimiento real de lo que se está aceptando”, explicó, lo que puede comprometer la validez de las decisiones basadas en algoritmos.

El talento requiere formación para trabajar con las nuevas herramientas digitales

El riesgo de sesgos en estos sistemas fue abordado por Fernando Llano, quien ilustró el problema con el caso de Sarah Meredith, una paciente británica a la que se le negó el acceso a una donación de hígado debido a una decisión basada en IA. “El algoritmo partía de una premisa errónea: igualar la tasa de mortalidad de todos los pacientes en lista de espera, sin tener en cuenta el estado de desarrollo de la enfermedad”, relató. Este tipo de errores muestra la urgencia de revisar el diseño de los modelos.

Estrella Utrera, fundadora de la empresa StarBótica
Estrella Utrera, fundadora de la empresa StarBótica / José Ángel García
“Falta formación y divulgación sobre lo que es y lo que puede aportar la inteligencia artificial”

Regulación

Por otro lado, David Pinto destacó que las diferencias en las normativas entre la UE y otros países pueden poner en desventaja a las empresas europeas. “El mundo evoluciona muy rápido, y las empresas de la UE tendrán dificultades para competir fuera de Europa por las diferencias en la regulación”.

Estrella Utrera añadió otra dificultad que enfrentan las empresas y los reguladores: “Las regulaciones cambian constantemente, lo que implica una pérdida de tiempo y dinero”.

En este sentido, Alicia Troncoso recordó que “en España llevamos treinta años de retraso respecto a Estados Unidos en materia de inteligencia artificial”. Eso explica, en parte, por qué los avances son más lentos.

David Pinto, cofundador y director de la startup EONSEA
David Pinto, cofundador y director de la startup EONSEA / José Ángel García
“Necesitamos una regulación ágil y eficaz para tratar los datos sin perder competitividad”

Formar y emprender

En el último bloque de la mesa, Francisco Javier González destacó la importancia de la colaboración entre el sector público y privado, insistiendo en que no debe haber “imposiciones”, sino que todo debe desarrollarse en torno a un debate abierto”. En este sentido, subrayó la necesidad de una estrategia bien definida para la inteligencia artificial, algo que se trabaja desde la Agencia Digital de Andalucía. Además, instó a planificar la inversión para que contemple las infraestructuras, la capacitación de talento y la formación. Reconoció que los técnicos deben tener los conocimientos más avanzados, pero también destacó lo cambiante que es el ámbito de la IA.

Para Fernando Llano, además de la colaboración público-privada, es esencial fomentar la libre iniciativa. En este contexto, la creación de un entorno favorable para el emprendimiento es clave para el avance tecnológico.

A nivel de talento humano, Alicia Troncoso señaló un reto significativo como la fuga de talento al extranjero. Ante esta preocupación, Francisco Javier González destacó que, aunque es positivo que el talento se forme fuera, “no puede ser que no tengamos capacidad de retención”. Abogó por crear las condiciones necesarias para que los profesionales formados en inteligencia artificial decidan regresar a España y aportar su conocimiento al país.

stats