Ricardo Baeza-Yates, premio nacional de Ciencias Aplicadas y Tecnológicas: “Ya no existe la verdad digital”
El director de investigación en el Instituto de Inteligencia Artificial Experiencial de la Universidad Northeastern, en Silicon Valley, advierte de los claroscuros que ve en las tecnologías-desde el uso de redes sociales en política a la llegada de la IA generativa-y entrega pistas de cómo escapar del ruido de un mundo cada vez más hiperconectado.
Ricardo Baeza-Yates, Premio Nacional de Ciencias Aplicadas y Tecnológicas 2024, cuenta que pasa la mayor tiempo en LinkedIn y Twitter para estar al día, y ocasionalmente Instagram. Pero confiesa que decidió no participar en nuevas plataformas, como TikTok. “Creo que es la procrastinación más fuerte que uno puede tener. Es muy difícil tener la voluntad de no estar ahí. Entonces he decidido que la mejor forma de tener esa ‘droga’ digital es no estar ahí”, dijo a La Tercera.
El chileno de 63 años es reconocido por su contribución al desarrollo de tecnologías que han revolucionado el campo de la computación, destacando también su trabajo en la reflexión ética sobre el uso de datos y la Inteligencia Artificial. Actualmente, es director de investigación en el Instituto de Inteligencia Artificial Experiencial de la Universidad Northeastern en Silicon Valley, y profesor en la Universitat Pompeu Fabra en Barcelona y la Universidad de Chile.
Quien fuera también presidente -en dos ocasiones- de la Sociedad Chilena de Ciencia de la Computación, presidente del Centro Latinoamericano en Estudio Informática y coordinador internacional del Programa Iberoamericano de Cooperación en Ciencia y Tecnología (CYTED), entrega pistas de cómo, en un mundo hiperconectado, vuelve a los inicios de la experiencia humana. A escapar del ruido.
Hace unos años dijo que Twitter (ahora X) era la élite digital en Chile y que el 58% de sus usuarios eran “mirones”, 40% comentadores y sólo el 2% influía en la opinión pública. ¿Cómo ha cambiado el panorama en Chile?
No tengo los números actuales, porque ese es una investigación que tiene que ver con Twitter. Yo creo que ha cambiado un poco, porque esas son cosas que venían de hace mucho tiempo. De hecho, yo diría que posiblemente con los cambios que ha habido en X, como se llama ahora, es posible que mucha gente que estuviera en esta plataforma se haya ido. Y yo diría que tal vez hay menos personas influyentes. En otras cifras, que en el momento del estudio no tenía, pero que saqué después, ese número (de influyentes) era aún más pequeño, como 0,5%. Hay que recordar que estamos hablando solamente de los usuarios activos, uno no sabe mucho de los inactivos, así que esto es una estimación.
Se habla mucho de los dos lados de las redes sociales: que por un lado dan la posibilidad de conectarse, su inmediatez, pero también que polarizan y exacerban diferencias. ¿Cómo lo ve? ¿Tienen más beneficios o desventajas?
Es una pregunta muy difícil. No soy experto en sociología, pero creo que tiene sus lados positivos y sus lados negativos. Un lado positivo para mí es la percepción de que hay gente más parecida a uno de lo que uno cree. La polarización, que es negativa en muchos sentidos, tiene algún aspecto positivo, que es saber el otro extremo de lo que yo pienso y ver el espectro completo. Por ejemplo, en política sería de extrema derecha a extrema izquierda o, en otros temas, estar completamente a favor del aborto o completamente en contra. La parte negativa de la polarización es que nos hace pensar que el mundo es binario cuando no lo es. Esa es la parte negativa de estos sistemas. No nos ayuda mucho a encontrar el consenso, porque muestra algo que es exactamente lo que tú piensas y usa el sesgo de confirmación para creer en ello, aunque pueda ser falso.
Hoy en día uno no puede creer cualquier medio digital, porque se puede inventar lo que tú quieras, la persona que tú quieras hablando, con la voz de esa persona y diciendo lo que tú quieras. Ya no existe la verdad digital. Hay que tener cuidado con eso. Entonces, creo que ese es el gran tema: cómo usamos la polarización a nuestra ventaja para entender que lo que tenemos que hacer es tratar de hacer consenso y eso significa ser activo, intervenir, dar la opinión y tener, como se dice en Chile, piel de chancho. Esa es la única forma de lidiar con las noticias falsas y con la manipulación. Algo muy interesante que dijo (Yuval Noaḥ) Harari, que no estoy siempre de acuerdo con él en la parte tecnológica, pero sí estoy de acuerdo cuando dijo que las personas más fáciles de manipular son las personas que creen que no pueden ser manipuladas.
Este efecto negativo de la polarización, ¿se refleja en una falta de diálogo entre actores políticos, por ejemplo, y una incapacidad de llegar a acuerdos? Y no sólo en la política, sino en la capacidad de diálogo en general de la población en temas como el que mencionó, el aborto…
En el tema del aborto, con Eduardo Graells-Garrido hicimos un análisis en Argentina y Chile para ver, por ejemplo, cómo la opinión masculina tenía preponderancia en un tema que debería ser significativamente femenino. Y es porque en Twitter hay más hombres que mujeres, por ejemplo. Ahí uno ve la deformación de la opinión, porque la gente que está activa en redes sociales no es representativa de todo Chile. Ahora en lo que tú preguntas es muy cierto, yo creo que la polarización no ayuda a generar acuerdos. Pero también mencionaría otro factor: la pregunta es, si no existieran (las redes), ¿llegarían a acuerdos? Yo no estoy seguro. Creo que mucha gente no quiere llegar a acuerdos, da lo mismo el sistema, da lo mismo la plataforma. Yo no sigo mucho la política en Chile, pero hay políticos que utilizan acusaciones constitucionales para temas banales. Ahí estamos instrumentalizando el sistema para cosas que no son llegar a acuerdos. La responsabilidad es de los políticos que, independiente de cualquier plataforma social, el trabajo de ellos es llegar a acuerdos. Entonces, creo que hay un tema más de fondo, que no es de las redes sociales, y no sólo en Chile, en todo el mundo.
En vista de cómo la inteligencia artificial, las redes sociales y sus algoritmos han tomado un papel muy relevante en casi todos los aspectos de la vida, ha dicho desde hace varios años que uno de los grandes problemas es que estos sistemas tienen sesgos. ¿Se han logrado reducir o corregir? ¿Es posible eliminarlos por completo?
No se pueden eliminar por completo, se pueden siempre mitigar, en parte porque hay muchos de estos sesgos que no conocemos hasta que encontramos un caso de una persona afectada por el mismo. Ahora, no sé si los algoritmos han podido mejorar mucho, porque al mismo tiempo que van mejorando aparecen nuestro malos actores que hacen más ruido, hacen más daño. Pero creo que hay más conciencia del problema. Entonces, por lo menos en el diseño mismo, se consideran más de estos tipos de sesgos. En temas políticos sí se han hecho acciones. Por ejemplo, antes que Elon Musk comprara Twitter, para una de las elecciones presidenciales de Estados Unidos decidieron no aceptar propaganda política. Dijeron que la única manera de tratar el problema de noticias falsas en política era no tener política. Esto fue una decisión muy difícil, pero si lo piensas, muy ética. Pero ese tipo de acciones, que significan pérdidas económicas, es difícil que otra gente las tome. Creo que es importante decir también que muchas veces estas redes sociales amplifican el ruido. Me refiero a los ruidos de eventos que tal vez no son tan importantes y que se convierten en importantes, porque otra persona está tratando de tapar, de hacer una nube de humo, sobre otros eventos que están ocurriendo y que no quiere que se hablen. Uno de los expertos en hacer eso es Donald Trump. Durante su gobierno muchas veces cuando hacía una declaración controversial, lo más seguro era que ese mismo día iba a firmar una orden ejecutiva de un tema que él no quería que se discutiera. Esto yo creo que está pasando mucho en todo el mundo. En muchas partes incluso se han fabricado estas noticias para desviar la atención.
Especialmente en un año muy cargado electoralmente…
Este es el año que hay más elecciones en el mundo y es el año de las noticias falsas por esa razón. Comenzó muy fuerte en India, muchas noticias falsas de los dos partidos principales. Está continuando en Estados Unidos y seguro que ha ocurrido en todos los países donde ha habido elecciones. Se inventan eventos que no existen, o se agregan rumores para hacer estas cortinas de humo, en vez de los temas que realmente debemos estar conversando.
Si pudiera enumerar las sombras o ruidos que identifica actualmente en estas tecnologías, redes sociales, inteligencia artificial, ¿cuáles serían?
En el caso de la IA hay mucho ruido en lo que en inglés se llama hype o la sobrevalorización de la tecnología. Un ejemplo simple: en el último modelo de ChatGPT, como es más sofisticado y tarda más tiempo en generar la respuesta, ponen “pensando” mientras se genera la respuesta. Eso da la sensación de que ChatGPT está efectivamente pensando, lo que no es cierto, sino que está tardando más tiempo en generar la solución, pero esto lo humaniza. Ese tipo de cosas no son éticas y están manipulando a la gente, que después ve una respuesta increíble y dice “guau, realmente piensa”. Lo que pasa es que imitarnos a nosotros, los humanos, no es tan difícil. Lo que hemos descubierto con la IA generativa es que dominar el lenguaje, por ejemplo, no era tan difícil como parecía y que la estadística permitía dominar el lenguaje, imitarnos casi a la perfección. Pero el que tenga sentido lo que está generando la IA, no significa que sea cierto. Por decirte, la IA te pone algo que parece cierto, pero que no ha ocurrido todavía o que nunca va a ocurrir, pero si tú no lo sabes, tú crees que ocurrió, porque te lo está diciendo de una forma tan bien escrita que la gente cree que esa imitación es realidad.
¿Cómo escapar de eso? Hay gente que tiene, por decirlo, el ojo más entrenado, pero para el usuario básico, ¿cómo enfrentar esto? ¿Cómo no humanizar la inteligencia artificial?
Es un tema que creo que no está resuelto, pero puedo dar algunas sugerencias. La primera es que hoy en día cualquier cosa puede estar falsificada de una manera que es posible que no te des cuenta. Un ejemplo de esto pasó en febrero este año: en una reunión por videoconferencia en Hong Kong, con gente de Estados Unidos, un trabajador entendió que tenía que transferir 15 millones de dólares de una cuenta a otra, de un cliente externo. Él lo hizo, porque eso es lo que le habían dicho en la reunión. Después de eso, la persona se dio cuenta que toda la gente en la reunión era falsa. Habían inventado al gerente financiero, con la cara correcta, la voz correcta y tal vez la persona notó algo, pero pensó que había un problema en Internet y por eso los bordes se veían distintos. Es el ejemplo más avanzado que conozco de que cómo se puede engañar a una persona para que haga algo que perjudica una compañía. Entonces, lo primero que diría es no creer en nada de lo que veas. Sobre todo si dice exactamente lo que tú quieres escuchar. Porque ahí lo que estás confirmando son tus creencias y, lamentablemente, las creencias de las personas, las verdades personales, no son la realidad. Es algo muy importante que yo creo que hay que distinguir: verdad con realidad. La verdad es lo que tú crees, la realidad es otra siempre. Y la segunda recomendación que yo haría es tratar de verificar la fuente. Hay muchos servicios de noticias que hacen eso.
¿Cómo enfrenta usted, en lo personal, estos ruidos? ¿Se desconecta?
Yo no. Creo que no hay que desconectarse, sino que lo que hay que desconectar son tus creencias de tus emociones. El problema que tenemos hoy en día es que no separamos las creencias de las emociones, la gente se enoja, se pone triste, y lo que pasa es que cuando tú haces eso básicamente refuerzas tus creencias. Ya sean falsas o no. Entonces no puedes hacer este análisis reflexivo, este análisis crítico, que cada vez nos falta más, de decir incluso: “mira, esta persona no piensa como yo, pero la voy a tratar de escuchar. Tal vez tiene razón en algunas cosas”, y llegar a esos puntos de consenso que dijimos que había que llegar. Ahora, no hay muchas personas que intentan hacer este tipo de conversación, como decíamos antes, donde no es para convencerte, es para llegar a acuerdos.
¿Cómo ve el futuro? Pensando en el rápido avance de las tecnologías, y los problemas que conllevan…
Si soy realista, no lo veo muy bien. Lo veo oscuro porque, tal vez sin mala intención, el sistema no ayuda a tener los incentivos correctos para cambiar la dirección a donde vamos. Lo que pasa es que se hacen cosas rápido que vendan más, para tener más dinero, sin pensar en las consecuencias a largo plazo de estas tecnologías que, como cualquier herramienta, pueden usarse en forma positiva o negativa. Tal vez deberíamos hacer más pruebas de cómo tratar de evitar estos problemas. Tampoco tenemos regulación todavía del uso de estas tecnologías. No es la mejor forma de hacerlo, pero es mejor tener regulación del uso de estas tecnologías que no tener ninguna. Y ahí estamos avanzando lento, cuando lleguemos a una solución probablemente va a ser muy tarde o va a ser obsoleta, como pasó con la propuesta europea, que entró en vigor en agosto de este año. Pero si soy optimista, si tratamos de ejercer nuestra humanidad, creo que esa es nuestra defensa.
-En cuanto a la comunicación a buscar este punto de encuentro pese a la polarización negativa, ¿estas herramientas nos podrán acercar más o nos terminarán alejando?
Tal vez necesitamos más reuniones entre personas, volver a la parte social. Somos animales tribales y la tribu es una cosa importante, y tal vez estamos aislándonos con estas tecnologías. Me gusta que algunos restaurantes de Santiago dicen “no tenemos Wi-fi, conversen entre ustedes”. Tenemos que reforzar la parte humana. Por ejemplo, a mí me gustó mucho cuando mi celular me empezó a decir cuánto tiempo lo ocupaba en la semana, porque así me controlo. Creo que la tecnología sí nos puede ayudar, y como alguna vez dije, ser nuestro Pepito Grillo. Ser nuestra conciencia digital.