Las humanidades no son un adorno del progreso, sino su brújula, algo que tiene muy claro Cristina Aranda, filóloga y consultora tecnológica y cofundadora de Mujeres Tech y Big Onion. La experta visitó la Universidad de La Laguna para hablarnos de emprendimiento científico, la IA y de retos que aún no vislumbramos. Lo hizo en el marco del programa TEKNE, que impulsa el emprendimiento basado en conocimiento.
El camino de Cristina Aranda hacia el mundo tecnológico no fue planificado, llegó a ese cruce entre palabras y máquinas por necesidad, y su primer paso fue inscribirse a un curso de posicionamiento SEO. Aquello que parecía una salida práctica, se convirtió en un momento clave en el que encontró una conexión entre su tesis, que abordó la creación de palabras y nombres de marca, con el funcionamiento de los buscadores. “No hay nada más filológico que las palabras», dice Aranda.
Este descubrimiento la llevó a formarse en Internet Business y a trabajar en empresas tecnológicas. “Fue ahí donde empecé a involucrarme en proyectos de procesamiento natural”, explica, una rama de la inteligencia artificial profundamente ligada a la lingüística. Comenzó con tareas de preventa y, más tarde, colaborando directamente con los equipos de desarrollo, donde encontró el modo de aplicar su mirada filológica a los sistemas automáticos de interpretación y generación de lenguaje.
Para Cristina Aranda, una de las claves para formar profesionales capaces de enfrentarse a los retos tecnológicos actuales está en recuperar el pensamiento crítico desde la base, y eso pasa, irremediablemente, por devolver a las aulas las humanidades, y en especial, la filosofía. “Es urgente que volvamos a enseñar a cuestionar, a analizar, a no dar por válida cualquier información que nos llega a través del móvil”, subraya.
La falta de filtros en el entorno digital tiene consecuencias directas, especialmente, entre los más jóvenes. Aranda alerta sobre los efectos de las redes sociales en la salud mental, en la autoestima y en la construcción de la identidad: vidas perfectas y falsas, estímulos constantes, comparaciones sin contexto. “Sin espíritu crítico, sin autoestima, sin herramientas para interpretar lo que ven, muchos adolescentes están completamente perdidos”, puntualiza.
Esto también se traslada al ámbito profesional, ya que la inteligencia artificial exige una formación que no se limite a lo técnico. “La IA no decide sola, quienes decidimos qué hacer con ella somos las personas”, recuerda. Por eso, defiende que debemos formar a la ciudadanía para que sea capaz de comprender su funcionamiento, sus límites y sus implicaciones éticas.
Los riesgos de la IA
La inteligencia artificial no es cosa del futuro: está ya integrada en nuestra vida cotidiana. Desde el teléfono que usamos hasta el tren automático que conecta terminales en un aeropuerto, esta tecnología opera en silencio, tomando decisiones que nos afectan a diario. Por eso, Aranda argumenta que es imprescindible incorporar perfiles de humanidades en su desarrollo: “Somos las personas quienes usamos estas herramientas y también quienes decidimos cómo se diseñan y a quién benefician”.
Uno de los mayores riesgos de la IA es la reproducción de sesgos existentes. Si un sistema se entrena con datos discriminatorios, sus decisiones también lo serán. “La máquina no distingue lo bueno de lo malo, solo detecta patrones y si los datos están sesgados, el resultado también lo estará”, explica. Por eso, insiste en que los perfiles humanistas son clave para detectar, corregir esas distorsiones y “hackear” la desigualdad desde dentro.
Además, apunta que muchas decisiones automatizadas ya están teniendo consecuencias vitales: pueden determinar si una persona accede a una beca, si recibe antes una operación médica o si obtiene un crédito bancario. “Son decisiones trascendentales que deben pensarse desde una mirada humana, diversa e inclusiva”, señala. Para lograrlo, hace falta algo más que programadores, se necesitan equipos en los que convivan distintas formas de ver el mundo. “La tecnología no puede construirse solo desde la ingeniería; necesitamos diversidad también en cómo pensamos”, concluye.
Aranda transmite un mensaje claro al estudiantado de Humanidades: “No se preocupen, vivimos en una sociedad donde las personas siempre querrán estar con personas y ahí, quienes venimos de las Humanidades, tenemos un valor enorme”.
El auge de los modelos de lenguaje demuestra que, precisamente, las competencias de quienes estudian Filología, Lingüística o Psicología son más valiosas que nunca. “El procesamiento del lenguaje natural ha revolucionado la IA, ya no hace falta saber programar para comunicarse con una máquina, basta con usar nuestro lenguaje y quienes entienden cómo funciona el lenguaje tienen mucho que aportar”.
La consultora está convencida de que la gran automatización que se avecina pondrá en valor algo profundamente humano: la capacidad de emocionar, de conmover. “Las máquinas no pueden hacerte sentir lo que se siente con una gran obra de teatro o con una pieza musical tocada con alma. Eso no se automatiza”, dice.
Una IA justa, inclusiva y humana
El futuro del trabajo estará marcado por la automatización, pero Aranda hace hincapié en que la inteligencia artificial no va a quitar el trabajo a las personas: lo hará quien sepa utilizarla mejor. Para ella, muchas empresas aún están en pañales en este ámbito, “hablan de IA, pero ni siquiera saben dónde tienen sus datos o cómo estructurarlos”.
Sin embargo, cuando la automatización se consolide muchas tareas rutinarias desaparecerán. “Por eso es importante capacitar a las personas, la IA no es más que una herramienta, es como una calculadora, lo importante es saber qué hacer con el resultado”, señala. En ese contexto, dominar la IA será tan básico como saber inglés, “quien quiera acceder a empleos cualificados va a tener que entender cómo funciona y cómo utilizarla, aunque no sepa programar”, afirma.
La filóloga también ha asesorado a instituciones públicas en la integración de tecnologías emergentes y, aunque reconoce que aún queda camino por recorrer, se empieza a escuchar a gente experta en el ámbito. Entre los proyectos que destaca con entusiasmo está el Plan Director de Inteligencia Artificial para el Turismo en Tenerife: “Me emociona porque no solo se hizo bien, sino que ya se han activado cosas”. De él destaca la creación de un sandbox, un entorno de pruebas aislado para ejecutar código de software sin dañar el sistema principal.
Por otra parte, subraya la importancia de la inversión pública para innovar en España, ya que la mayoría de empresas son pymes o microempresas, lo cual dificulta el progreso, especialmente en emprendimiento científico o en spin-offs tecnológicas.
Dado que la innovación y la creatividad van de la mano, una duda que pasa por la cabeza de muchas personas es si la IA limita lo segundo, pero la filóloga lo tiene claro: “La IA amplifica lo que ya eres”. Cuenta el ejemplo de cómo una persona, pese a tener mucha creatividad, la falta de técnica le impide dibujar, pero, gracias a la inteligencia artificial, puede dar instrucciones y ver cómo sus ideas toman forma. “Esto no es distinto a lo que pasó con AutoCAD en arquitectura o Photoshop en diseño, es progreso”, afirma. “Quien se resiste es porque no quiere evolucionar”. Por eso defiende el potencial de estas tecnologías como aliadas, especialmente en la educación. “La IA permite enseñar de forma transversal, más original, más personalizada y quienes sean creativos, van a saber sacarle partido”.
Lo que realmente debería preocuparnos
Los datos son fundamentales porque, en esencia, no mienten: tienen un componente objetivo que muchas veces desarma la subjetividad. “Si te digo, por ejemplo, que el 80% de las personas que desarrollan inteligencia artificial son hombres blancos, heterosexuales, sin discapacidad y formados en las mismas universidades, ya puedes imaginar el sesgo sistémico que hay detrás. Esa es la potencia del dato bien usado, revela estructuras, desigualdades, verdades incómodas”.
El gran reto está en que el 80% de los datos que se generan hoy no están estructurados, son conversaciones en redes sociales, comentarios y publicaciones. Aranda indica que es ahí donde se entra en terreno complejo porque “el lenguaje humano es maravillosamente imperfecto, tiene matices, ironías, contextos, dobles sentidos. A las máquinas, por mucho que hayan avanzado, todavía ‘les falta calle’, les falta semántica, pragmática y contexto real”.
Las inteligencias artificiales actuales son capaces de procesar información a velocidades increíbles, pero a veces son asombrosamente torpes; “les falta criterio, comprensión del entorno, y también ética”. ¿A qué se debe? La consultora tecnológica específica que “muchas han sido entrenadas con miles de textos tomados de internet sin filtrar, sin respeto por la propiedad intelectual, sin citar a autoras y autores”.
Para construir historias transformadoras a partir de datos, se necesita algo más que tecnología: es necesario tener criterio, ética, comprensión lingüística y capacidad narrativa. “Lo importante no es solo tener los datos, sino saber qué historia cuentan y cómo contarla con sentido, con rigor y con impacto”, recalca.
Ahora, a raíz de situaciones como el regreso de Donald Trump a la presidencia estadounidense, se empieza a hablar de soberanía tecnológica, de reducir esa dependencia. “El problema es que las grandes tecnológicas han impuesto una narrativa peligrosa: que regular es frenar la innovación”. Sobre esa afirmación, su posicionamiento es claro: “Prefiero salvaguardar a la ciudadanía, a saber qué haces con mis datos, cómo eso impacta en la democracia, en la salud mental, en nuestra vida cotidiana…”.
Este tipo de narrativas, menciona Aranda, se construyen para evitar afrontar las verdades incómodas “porque ser transparente implica asumir responsabilidades y por eso es necesario regular”, dejando clara la obligación de las entidades a ser claras y a pagar lods impuestos correspondientes. “La IA no es mala por sí misma, es una herramienta y, como toda herramienta, su impacto depende de cómo se use”.
En su libro Vidas futuras aborda cambios profundos gracias a las nuevas tecnologías y la IA, como en el ámbito de la salud, donde todo apunta hacia una medicina más preventiva basada en datos, con innovaciones como tener un microchip que monitoriza en tiempo real qué se ha comido o cuánto tiempo se ha dormido, y que esa información llegue directamente al médico de cabecera no para controlar, sino para anticipar enfermedades y cuidar mejor.
Otro sector que menciona Aranda es la educación, pues el Big Data va a permitir una personalización real: “Si tengo necesidades especiales, el contenido se adapta a mí, si tengo altas capacidades, también. Avanzaré al ritmo que necesito, sin estar atada a un sistema único”, aclara.
En el ámbito laboral, nos dirigimos a una automatización masiva, por lo que muchos trabajos desaparecerán pero surgirán otros nuevos “como especialistas en ética aplicada a la tecnología, porque estos sistemas se van a tener que auditar, supervisar y revisar constantemente”, explica.
“Esta tecnología nos ha obligado a detenernos como humanidad y preguntarnos cosas que antes ni nos planteamos: ¿Qué pasa cuando muera? ¿Pueden replicar mi conciencia en una realidad paralela? Si creo una IA con conciencia, ¿será una conciencia occidental u oriental?”, así como cuestiones referidas a las aplicaciones sociales como, por ejemplo, combatir la soledad en personas mayores.
No todo son beneficios y, por ello, la especialista muestra preocupación por el tiempo de ocio que tendrán las personas, ya que no todo el mundo sabe disfrutarlo. “Cuando una persona con malas intenciones tiene tiempo libre, puede hacer mucho daño”. De este modo, vuelve a mencionar su libro para recalcar la importancia de necesitar sistemas de contención, de supervisión y de entretenimiento. “Estamos repitiendo la historia: fake news, propaganda, pandemia, recesión y auge de extremismos… Todo esto pasó hace cien años y no existía la IA”, detalla. Por eso, menciona que no hay que temer la inteligencia artificial, “lo que debe preocuparnos es la estupidez y la maldad humana, porque a la inteligencia artificial la puedes desconectar, ¿pero, qué hacemos con las personas?”.
La IA y el Big Data están remodelando la vida de las personas, pero aún queda mucho por aprender. Estas tecnologías ofrecen oportunidades para mejorar el mundo, pero también existen desafíos éticos, sociales y políticos que, en última instancia, somos los seres humanos quienes decidimos cómo utilizar estas herramientas para que el futuro que construyamos sea justo, inclusivo y, sobre todo, responsable.
Gabinete de comunicación