MERCADOS

En una larga y discontinua conversación digital durante varios días, Carissa Véliz defiende que redes neuronales y algoritmos, creaciones humanas a fin de cuentas, no son el enemigo. Cualquier desarrollo tecnológico implica riesgos, pero también una potencia civilizadora si se orienta en la dirección adecuada. Son el afán de lucro y la falta de escrúpulos de la moderna economía de datos los que socavan esa privacidad en la que centra gran parte de su reflexión. De hecho, es un campo apenas explorado por la filosofía, además de un instinto compartido con la mayoría de especies animales y un derecho universal que las sociedades no siempre preservan.

Mexicana de nacimiento, española y, desde 2020, británica, Véliz empezó a interesarse por ese derecho como estudiante de grado en Salamanca, cuando en los archivos universitarios recabó una gran cantidad de datos que desconocía sobre su familia, empezando por sus abuelos. Quizá esos familiares, como cualquiera de nosotros, hubiesen preferido mantener algunos de esos datos en una órbita privada, ajena al dominio público.

Véliz, que trató en profundidad estas cuestiones en su ensayo Privacidad es poder. Datos, vigilancia y libertad (Debate, 2021), sostiene que el tablero donde nos jugamos el futuro “se transforma cada día, cada hora, porque no dejan de producirse pequeños y grandes acontecimientos que modifican continuamente lo que entendemos por IA y sus implicaciones éticas y prácticas”.

Entrevistarla ha resultado una experiencia peculiar. Predica con el ejemplo y propone dos condiciones. La primera, un ritmo de conversación pausado y reflexivo, más filosófico que periodístico. La segunda, hablar a través de Signal, la aplicación de mensajería instantánea que, desde su punto de vista, mejor preserva la privacidad de sus usuarios.

¿Cómo y por qué se despertó su interés por la inteligencia artificial?

Estaba escribiendo mi tesis doctoral sobre la privacidad y quise ir un poco a los fundamentos, a su historia y sus orígenes, recurriendo tanto a la etimología como a la antropología, pero también me interesaba el estado actual de la cuestión, cómo la privacidad se articula en el presente. Y ahí me asomé a un gran campo de estudio que tiene que ver con la economía de datos, la inteligencia artificial y las implicaciones éticas del uso de información sensible que hacen los medios digitales. En el ámbito de la IA, el sistema dominante en la actualidad es el autoaprendizaje profundo o machine learning, que se nutre de gran cantidad de datos. Una parte sustancial de esos datos son personales y comprometen de manera directa la privacidad de muchos seres humanos.

La tecnología no es un destino divino ni una fuerza de la naturaleza. Si la diseñamos mal, tenemos que asumirlo y corregirla

¿Cómo ha evolucionado su opinión con el tiempo?

La fui adquiriendo de manera gradual. Cuando empecé a interesarme por la privacidad, el uso de la IA no era aún tan prominente, pero ya me llamó la atención que las redes neuronales se basasen en la acumulación indiscriminada de datos. Así que, aplicando la máxima de las investigaciones periodísticas follow the money [sigue el rastro del dinero], me propuse seguir el rastro de esos datos. Los riesgos actuales no existían hace 20 años. Para empezar, ha cambiado incluso lo que definimos como IA. Algunas tecnologías, al generalizarse su uso, han perdido ese carácter casi mágico que tendemos a atribuirles cuando son incipientes. Es el caso de los traductores digitales, en su día fueron una de las manifestaciones de IA más espectaculares, pero hoy apenas nos llaman la atención porque nos hemos acostumbrado a ellos. Con la adopción universal por parte de personas e instituciones, que es lo que ha ocurrido en los últimos años, aparecen los riesgos sistémicos.

¿Algún acontecimiento concreto ha transformado, o matizado al menos, su percepción sobre la estrecha interacción entre tecnología digital y privacidad?

Un punto de inflexión importante fue el escándalo de Cambridge Analytics, demostró lo sensibles que son los datos personales y cómo pueden tener un efecto político. Hasta entonces, gran parte de la sociedad tendía a pensar que la exposición digital de la privacidad era algo trivial o anecdótico. ChatGPT también ha tenido un enorme impacto. Cuando apareció, dediqué mucho tiempo a jugar con él y tratar de entender cómo funciona. Pronto llegué a la conclusión de que ese sistema confabula, tiene un sesgo que le conduce a hacerlo. Y lo interesante es plantearse por qué ese sesgo, por qué confabula, y qué cambios se deberían introducir en los generadores de lenguaje natural para que no lo hagan.

¿Y ahora? ¿Aprecia algún nuevo punto de inflexión que pasa desapercibido?

Por supuesto. Cada día cambian los algoritmos, aparecen nuevas empresas tecnológicas, cambian las regulaciones en algún lugar del mundo, y todo eso modifica las reglas del juego. Mientras converso contigo, veo que medios de comunicación como The New York Times han interpuesto una demanda contra OpenAI por nutrir sus sistemas con informaciones que les pertenecen. En paralelo, también veo que OpenAI está llegando a acuerdos con algunos de esos medios, El País entre ellos. También me llama la atención que cada vez más gobiernos muestran su disposición a invertir en modelos de lenguaje generativo, lo que debería darnos una pista muy clara sobre lo importantes que han llegado a ser.

Ha formado parte del equipo de expertos reunido por el Gobierno español para elaborar una Carta de Derechos Digitales…

Ha sido una experiencia muy positiva. Los esfuerzos de regulación democrática siempre son complicados, forma parte de la lógica de las democracias que la elaboración de leyes sea siempre un proceso largo, hay que escuchar muchas voces y llegar a acuerdos que impliquen hacer concesiones. La democracia es imperfecta, pero es el mejor sistema político que conocemos. El solo hecho de reunir a gente muy válida, de gran cantidad de disciplinas distintas, para debatir en qué consisten los derechos digitales y qué puede hacerse para garantizarlos, ya me resultó muy interesante. Al final, nos pusimos de acuerdo en una definición de la privacidad como derecho digital que no llega a lo ya previsto en la Ley General de Protección de Datos. Yo era partidaria de ir bastante más allá: una de mis propuestas fue que los datos personales no se pudiesen comprar ni vender. No prosperó, pero lo fundamental es que nos pusimos de acuerdo en algo tan esencial como que existen derechos digitales fundamentados en principios éticos. A partir de ahí, hay más preguntas que respuestas, es lógico y bueno que así sea.

Dada la velocidad de los desarrollos tecnológicos, ¿esos esfuerzos legislativos, tan prudentes, pueden acabar en intentos de ponerle puertas al campo?

Esa frase me resulta muy interesante. Decimos que no se puede poner puertas al campo cuando la realidad es que sí se puede. El campo está lleno de puertas, bardas y límites. Es normal que el desarrollo tecnológico vaya mucho más deprisa que el legislativo, porque la fábrica democrática implica pensar las cosas con calma, incluir a mucha gente en la conversación y buscar acuerdos satisfactorios para todos. Todo eso es normal. No se podría hacer de otra manera. Además, de la experiencia se aprende. Poco a poco se va legislando con mayor precisión y afinando los detalles.

En última instancia, ¿de qué depende que sea una oportunidad de desarrollo humano o una amenaza?

De los seres humanos, por supuesto. Demasiado a menudo se asume que la tecnología es algo inevitable, que es nuestro destino y solo se puede desarrollar de una manera determinada, la que han decidido sus impulsores. Pero es un invento humano y podemos diseñarla como nos vaya mejor. Va a depender, sobre todo, de que las personas encargadas de diseñarla no piensen solo en su propio beneficio, sino en el de todos. En consecuencia, resulta imprescindible incluir la ética en la formación de todos los profesionales, pero muy especialmente en la de ingenieros, científicos de datos e informáticos. También dependerá de que haya suficiente competencia, porque así tendremos empresas que vean en la defensa de la privacidad una posible ventaja competitiva y nos ofrezcan mejores opciones. Es importante que los gobiernos la regulen para asegurarse de que apuntale la democracia y no la erosione. Y dependerá, además, de los ciudadanos, de nuestra capacidad de presionar a las empresas para que respeten nuestros derechos. Y de elegir bien cuando tengamos alternativas.

¿Cuáles son los principales obstáculos a los que nos enfrentamos?

Por una parte, que la IA esté diseñada para ahorrar dinero y solo se vea a través de un prisma económico. También es un obstáculo muy serio la falta de visión histórica. Estamos comprando el relato de la grandes tecnológicas, y es un relato interesado. El producto que nos están vendiendo no tiene nada de excepcional. Nuestros padres y abuelos ya regularon en su día industrias como las farmacéuticas y las automovilísticas, y ahora nos toca a nosotros regular las tecnológicas.

Decimos que no se puede poner puertas al campo cuando la realidad es que sí se puede. El campo está lleno de puertas, bardas y límites

¿Algún avance sustancial en ese camino? ¿Hay motivos para la esperanza?

Hay grandes motivos para la inquietud, sin duda. Ahora mismo, Rusia y China están usando ChatGPT como potenciador de sus operaciones de hackeo. Pero los trabajos regulatorios en la Unión Europea marcan el camino y son muy esperanzadores. Y se ha incrementado el nivel de conciencia entre el gran público de los riesgos que generan la hiperconectividad y el comercio de datos. Se empiezan a plantear debates como si deberíamos prohibir los móviles en las escuelas o incluso restringir de manera drástica su uso entre los niños. Es positivo que estemos empezando a hablar de ello más allá de las reglas que acabemos consensuando.

¿La tecnología puede ser parte de la solución?

Por supuesto. Pero debemos empezar por entender el desarrollo tecnológico de otra manera. Hoy llamamos desarrollo a cualquier novedad, pero algunas implican una regresión ética. Si una tecnología sesgada viola los derechos humanos, estamos hablando de las consecuencias de un mal diseño. La tecnología no es un destino divino ni una fuerza de la naturaleza. Si la diseñamos mal, tenemos que asumirlo y debemos corregirla.

Hoy que tanto se habla del fin de la privacidad, ¿qué pueden hacer los ciudadanos por preservarla, por resistirse a esa deriva?

Dedico a ello todo un capítulo en mi libro. No se trata de resistir, como si fuésemos soldados en una guerra. Es todo más sencillo. Ve al baño e intenta colarte en el cubículo de tu vecino y ya verás como él no renuncia a su privacidad e insiste en protegerla. La privacidad es contextual, no se tiene o se pierde. A todos nos interesa no incurrir en comportamientos que faciliten la suplantación de nuestra identidad o que perdamos nuestro trabajo. Siempre hay recursos, como con las dietas: que no en todas las situaciones sea posible llevar una dieta óptima no implica renunciar a la salud o atiborrarnos por sistema de grasas y azúcar. Lo mismo ocurre con la privacidad. Siempre hay recursos para conservarla, o al menos para no perderla del todo.

¿Por ejemplo?

Estamos teniendo esta conversación por Signal porque WhatsApp recolecta decenas y decenas de datos. Signal solo conserva dos: tu número de teléfono y la última vez que te conectaste. Lo mismo ocurre con Google Research, con Gmail o Dropbox: existen alternativas que no comercian con tus datos o lo hacen en menor medida. Búscalas. Y luego, apaga el WiFi o el Bluetooth cuando no los necesites. No es tan difícil. Cada esfuerzo cuenta, cada hoja de lechuga que te comes va a ser mejor para tu salud que una gominola. Yo, cuando quiero tener una buena conversación con mis alumnos, les pido que apaguemos móviles, ordenadores y cámaras. Y si organizo una buena fiesta en casa, va a ser mejor si todos los invitados suben sin sus dispositivos digitales y nos centramos en disfrutar la compañía de los otros.

¿Existe algún reducto de actividades genuinamente humanas en las que centrarnos si no queremos que un robot nos sustituya?

Esta pregunta pide una respuesta especulativa, porque ni siquiera sabemos a qué vamos a llamar IA dentro de 50 años. Se habla de sus progresos recientes a la hora de emular la creatividad humana, pero lo cierto es que a día de hoy alcanzan niveles mediocres, muy alejados de lo que pueden hacer los individuos verdaderamente creativos. Además, creo que la experiencia humana no puede reducirse a conceptos y tareas. La empatía, la atención, la verdadera comunicación, el contacto humano, nos convierten en irremplazables en aspectos que nada tienen que ver con el trabajo. Ya veremos cómo organizamos el mercado laboral en el futuro. Pero la gran tarea del presente es, en mi opinión, darle a la tecnología una orientación ecológica, porque sin medio natural no hay futuro para nadie, y respetuosa con los derechos humanos. El resto es secundario y vendrá solo. Pero, como reflexión final, a mí siempre va a interesarme el tipo de producción cultural creativa, pongamos una novela, en la que un ser humano comparte conmigo el valor de su propia experiencia. Ningún robot puede ofrecerme eso, de la misma manera que nos siguen interesando los Juegos Olímpicos porque nos muestran a seres biológicos con un cuerpo parecido al nuestro haciendo cosas extraordinarias, aunque existan máquinas que corran mucho más que cualquier ser humano.

Exit mobile version