-Vladmir Putin dijo una vez que quien controlase el campo de la inteligencia artificial gobernaría el mundo. ¿Está de acuerdo con esta apreciación?
Está claro que estos organismos afectan a nuestras vidas de muchas maneras y lo harán aún más en el futuro. Si combinas la falta de transparencia de estas tecnologías con las intenciones ocultas de algunos actores políticos que desean manipular, te enfrentas a problemas muy serios, sobre todo si se despliegan de manera global. Estos sistemas pueden usarse para controlar a la población. Es necesario que tanto gobiernos como ciudadanos en sociedades democráticas se preocupen de este asunto para que sus resultados se alineen con sus valores.
-¿Considera imprescindible la presencia de un supervisor humano por encima de los algoritmos de aprendizaje automático o inteligencia artificial?
Es muy importante. Uno de los problemas de la inteligencia artificial, ya que el proceso no es simplemente seguir las indicaciones del código escrito por las personas, es que el sistema llega a sus propias conclusiones y marca sus propias reglas, que no podemos deconstruir. Si no hay un supervisor humano, nunca podrás saber cómo llegó a ese resultado, que además puede contener sesgos, lo que dificulta saber dónde se origina el problema e impide confiar en el sistema.
-Eso también tiene consideraciones políticas. Departamentos de policía de Estados Unidos que probaron algoritmos de este tipo para tratar de prevenir delitos, pero acabaron comprobando que las máquinas actuaban de forma racista a causa de los datos que las habían alimentado.
La limpieza de los datos y la presencia de esos sesgos son una preocupación fundamental. Es un problema que se suma al hecho de que a veces no podemos seguir la lógica del ordenador. En el aprendizaje automático se puede hacer, con las inteligencias artificiales muchas veces no. En mi experiencia, sin el elemento humano el resultado puede no ser igual de bueno. Actualmente me dedico al negocio de los deportes, y ahí la inteligencia artificial puede, por ejemplo, seguir un partido de baloncesto y sus estadísticas; lo hace muy bien. Pero a veces se equivoca, y es un observador humano el que de verdad entiende y corrige una jugada que el algoritmo ha clasificado muy rápido, pero mal. La combinación de ambos elementos me parece clave, no solo desde la perspectiva empresarial sino también desde la ética y filosófica.
Durante la pandemia, los expertos dijeron que podían prever el desarrollo de la pandemia, pero necesitaban muchos datos de calidad, pero la ley no les permitía tener acceso a datos sanitarios. Y no pudimos usar esa herramienta. Creo que en el futuro veremos más situaciones de este tipo. Los algoritmos categorizan a las personas, y puede que a muchas no les guste el resultado.
-Como consejero delegado de una empresa de deportes, ¿qué variables de estos sistemas considera fundamentales para su negocio?
Una de las cosas que me preocupa es la gran cantidad de datos que existen sobre muchos de nosotros. Como empresario, quiero tener acceso a la mayor cantidad de información posible. Si veo un partido en televisión, como mucho tendré una distribución de la audiencia y una separación por sexos, pero no sabré nada del individuo. Sin embargo, si sé que eres socio de un equipo también tengo acceso a mucha más información, como si has comprado ‘merchandising’ o te gusta jugar en internet. La gente debe saber de dónde viene esa información y deben poder decidir el uso que se hace de ella, cuánto de su privacidad quieren entregar. Nadie quiere sentirse manipulado en sus decisiones.
-Lo que describe sobre los datos personales en el mundo del deporte no parece muy distinto de lo que ya se hace, por ejemplo, durante las campañas electorales. ¿Se están equiparando en este sentido las maneras de llevar las empresas y la política, en pos de una suerte de hiperindividualismo, gracias a estas tecnologías?
Absolutamente. Ese hiperindividualismo es un problema, porque abre la puerta a la manipulación de la comunicación política, y lo hemos visto en muchos países recientemente, y es muy inquietante. En muchos casos, porque el individuo ni siquiera sabe que está siendo manipulado, y en otros porque caen en la trampa con demasiada facilidad. A mí mismo me ha pasado, y estoy en este negocio. En las elecciones de 2016 que ganó Trump, yo veía la manipulación que hacían del otro lado, pero también de parte de mis amigos. Existe un conflicto entre el flujo libre de información y su mal uso por parte de algunos actores.
-Algoritmos como GPT-3 o Stable Diffusion permiten crear contenido falso cada vez más difícil de diferenciar de la realidad. Estamos muy cerca de crear ‘humanos’ que funcionen de manera realista en internet. Y a eso se une una creciente desconfianza hacia, por ejemplo, políticos o medios de comunicación, que solían actuar como árbitros.
Un amigo me preguntó hace unos días: ¿Cómo sabes lo que es real en el mundo posverdad? Estados Unidos es un claro ejemplo, una sociedad que ha hecho del individualismo un fetiche. Eso es especialmente peligroso en este contexto, porque piensan que su propio interés es lo único que merece la pena perseguir y no creen de verdad en la idea de comunidad. En el otro extremo encuentras sociedades como la china, con tendencia a homogeneizarse en ideas comunes. Ambos son problemáticos. Cuando uno empieza a fiarse más de sus amigos que de los expertos hay un problema. Es una de las actitudes más ofensivas de Trump.
-Buena parte de la información personal está en manos de unas pocas empresas, llamadas ‘data brokers’. La persona media no sabe con claridad cuánta información sobre ella hay disponible en internet, y en muchos casos ni siquiera existe en formatos legibles para la mayoría. ¿Cree que habrá avances en este sentido mientras no se regule?
Avances habrá con o sin regulación. La diferencia estará en la escala de tiempo y en cómo de transparente sea ese proceso, y eso definirá si la ciudadanía se queda satisfecha con el resultado. Las ‘cookies’ que nos persiguen desde hace años ahora se controlan más, por ejemplo, en la Unión Europea. Pero si el modelo de negocio sigue estando basado en la publicidad, los anunciantes encontrarán la manera de ponerlos en contexto. La tecnología permite ya, por ejemplo en el deporte, mostrar anuncios personalizados en vídeo. Eso no hace daño, pero en otras situaciones puede ser problemático. Lo que las empresas no quieren es perder la confianza de sus clientes, pero eso debe ser supervisado por instituciones políticas.
-¿La concentración de información en unas pocas manos puede redundar en más desigualdad?
Las grandes empresas tecnológicas se van a enfrentar a un creciente escrutinio por parte de las instituciones. El problema es que a veces los políticos ni siquiera entienden la tecnología, y eso afecta a sus decisiones. Las empresas tienen muy claro lo que quieren, pero si los representantes no lo tienen igual de claro, eso va a afectar a la regulación.
-¿Cómo se consigue que estos algoritmos sean más transparentes, en especial en los de inteligencia artificial, donde los humanos dejan de intervenir?
Es más fácil en el ámbito empresarial, porque es el cliente el que compra o no. Pero es necesario incluir a la persona, y ser claro con qué información se le pide y para qué, y qué espera conseguir a cambio. Los problemas vienen cuando no sabes que estás siendo rastreado, sobre todo si los datos se usan para manipularte. La regulación puede ayudar a construir esa relación de confianza.
-Si le encargaran a usted escribir el primer borrador de una ley en este sentido, ¿por dónde empezaría?
Fundamentalmente, en el conocimiento y el consentimiento. Saber para qué se va a usar mi información, si estoy de acuerdo y si tengo derecho a cambiar de opinión. Es un buen punto de partida. En todo caso, creo que debe ser un proceso gradual. Espero que las leyes sean cada vez más específicas, en lugar de tratar de abarcar toda la problemática, no me parece que sea una cuestión que se pueda resolver de una sola vez porque los sistemas cambian, se adaptan y se refinan. Intentar hacerlo de esa manera no merece la pena.