News-FRONT-ESNews-URGENT

EL PAIS ūüĒĶ Mark Coeckelbergh: ‚ÄúDemocracias d√©biles, capitalismo e inteligencia artificial son una combinaci√≥n peligrosa‚ÄĚ

Antes de esta entrevista, Mark Coeckelbergh (Lovaina, 48 a√Īos) ha centrado la atenci√≥n de un p√ļblico poco acostumbrado a debates filos√≥ficos: alumnos de ingenier√≠a han llenado una sala para escuchar a este experto en √©tica de la tecnolog√≠a, invitado por el Instituto de Rob√≥tica e Inform√°tica Industrial de la Universitat Polit√®cnica de Catalunya. Coeckelberg, autor prol√≠fico ‚ÄĒdos de sus libros est√°n editados en espa√Īol por C√°tedra, √Čtica de la inteligencia artificial (2021) y Filosof√≠a pol√≠tica de la inteligencia artificial (2023)‚ÄĒ sabe lo importante que es construir puentes entre los que desarrollan tecnolog√≠as y los que tienen que pensar c√≥mo usarlas.

Pregunta. ¬ŅCree que estudiantes, ingenieros y las grandes tecnol√≥gicas tienen en cuenta los aspectos √©ticos de la inteligencia artificial (IA)?

Respuesta. La gente sí es consciente de que esta tecnología afectará a nuestras vidas, porque ya está en todas partes, pero a la vez estamos confundidos porque los cambios son muy rápidos y complejos. Por eso creo que es importante que desde la educación y la investigación se haga lo posible para buscar un camino interdisciplinar, entre la filosofía, la programación y la robótica, para tratar de resolver estos problemas éticos.

P. ¬ŅY con la pol√≠tica?

R. S√≠, tenemos que crear m√°s v√≠nculos entre los expertos y los pol√≠ticos, pero que no solo cuente la opini√≥n t√©cnica. Hay que ver c√≥mo podemos organizar nuestra democracia para tener la visi√≥n de los expertos y, aun as√≠, decidir nosotros. Las empresas tecnol√≥gicas tienen cada vez m√°s poder, y esto es un problema, porque la soberan√≠a de las naciones y ciudades va menguando. ¬ŅCu√°nto de nuestro futuro tecnol√≥gico hay que dejarlo en manos de iniciativas privadas, y cu√°nto tiene que ser p√ļblico y controlado por las democracias?

otros como una amenaza a sus trabajos.

R. Creo que la IA ahora mismo empodera a quien ya tiene una posici√≥n privilegiada o una buena educaci√≥n: por ejemplo, pueden usarla para empezar una compa√Ī√≠a. Pero habr√° cambios en el empleo, habr√° cierta transformaci√≥n de la econom√≠a, y hay que prepararse. Por otro lado, el argumento de que la tecnolog√≠a hace las cosas m√°s f√°ciles… Hasta ahora, ha dado lugar a trabajos precarios, como los conductores de Uber, y a trabajos que pueden ser buenos, pero son estresantes. Por ejemplo, todos somos esclavos del correo electr√≥nico, y lleg√≥ como una soluci√≥n.

P. Así que el problema no es tanto la tecnología como el sistema.

R. Es la combinación de las dos cosas, pero efectivamente, estas nuevas posibilidades tecnológicas nos fuerzan a preguntarnos más que nunca sobre el sistema. Hoy en día es en el ámbito de la tecnología donde se juega el conflicto político.

Mark Coeckelbergh fotografiado en Barcelona, este miércoles.
Mark Coeckelbergh fotografiado en Barcelona, este miércoles. Gianluca Battista

P. ¬ŅQu√© impacto tiene en los medios de comunicaci√≥n?

R. En este entorno, el problema no es que la gente se crea una mentira, sino que no sepa qué es mentira y qué es verdad. El periodismo de calidad es muy importante para dar contexto y para intentar entender el mundo. Creo que puede ayudar a que la gente tenga más conocimiento, incluso si se usa la IA para algunas tareas del oficio. Filósofos, periodistas, educadores, tenemos que dar las herramientas para interpretar el mundo, porque cuando falta el conocimiento y reina la confusión, es más fácil que venga un líder con una solución simple y populista, como ya ha ocurrido en algunos países de Europa.

P. ¬ŅLa tecnolog√≠a puede hacer que los gobiernos se vuelvan m√°s tecn√≥cratas?

R. Los pol√≠ticos est√°n confundidos, sienten la presi√≥n de los lobbies y crean marcos regulatorios, pero el ciudadano en ning√ļn momento ha tenido nada que decir. Los Estados se vuelven cada vez m√°s burocr√°ticos, porque dan el poder a quien controla la inteligencia artificial. Entonces, ¬Ņqui√©n es el responsable? Este tipo de sistemas, como dijo Hannah Arendt, lleva a los horrores. Debemos luchar contra ello, con regulaciones que permitan ver por qu√© los algoritmos toman las decisiones que toman, y que permitan saber qui√©n es el responsable.

Puedes seguir a EL PA√ćS Tecnolog√≠a en Facebook y Twitter o apuntarte aqu√≠ para recibir nuestra newsletter semanal.

75% de descuento

Suscríbete para seguir leyendo

Lee sin límites

Botón volver arriba
Cerrar