Cómo funciona una IA, sin matemáticas

Un niño pregunta:
"¿La IA sabe cosas o se las inventa?"
El adulto duda.
Porque la respuesta honesta es incómoda:
A veces parece que sabe. A veces acierta. A veces razona. A veces inventa. Y muchas veces suena igual de segura en todos los casos.
Ese es el punto de partida.
Si vamos a usar la IA con los niños, ayudar a desmontar dos imágenes mentales es importante. La primera: que la IA es mágica. La segunda: que la IA es solo una calculadora algo más lista. Ninguna de las dos es exacta.
La IA no es magia. Tampoco es solo una calculadora tonta. Es una máquina de patrones muy potente que necesita contexto, límites y comprobación.
No es una persona dentro del ordenador
El primer modelo mental a desmontar es el más común: pensar que dentro de la IA hay alguien.
No lo hay.
No hay una persona pensando detrás. No hay intención humana. No hay comprensión como la de un niño o un adulto cuando conversan.
Pero cuidado, también es importante no caer en el extremo opuesto: decir "la IA no entiende nada" y quedarse tan a gusto. Eso tampoco es exacto.
Lo que pasa por dentro es algo más raro. Y precisamente entender un poco qué pasa ayuda a usarla mejor.
Se parece a un autocompletado gigante
Una analogía útil para empezar.
Cuando escribes en el móvil, el teclado predice la siguiente palabra. Si escribes "voy a ir al", te sugiere "colegio", "trabajo", "super". Has visto miles de mensajes parecidos y el teclado lo aprovecha.
Una IA hace algo relacionado, pero a una escala enorme y con patrones muchísimo más complejos. Ha visto cantidades inmensas de texto y ha aprendido a continuarlo de forma plausible.
Por eso puede:
- escribir un poema;
- explicar un concepto;
- traducir una frase;
- resumir un texto;
- generar código;
- responder una pregunta.
Pero hay un problema, y es el centro de este artículo:
Que una continuación sea probable no significa que sea verdadera.
Una IA puede continuar un texto con algo que suena bien, encaja en el contexto, parece informado, y sin embargo es falso. No miente a propósito. Es que la verdad no es una de sus prioridades internas; la coherencia y la plausibilidad sí.
Aprendió de muchos ejemplos
Antes de poder responder, la IA fue entrenada con enormes cantidades de texto, código, conversaciones y otros materiales. De ahí aprendió patrones: cómo se escriben las respuestas, cómo suelen conectarse las ideas, qué palabras aparecen juntas, cómo se explica un concepto, qué forma tiene una receta o un cuento o una explicación científica.
Eso es lo que llamamos datos de entrenamiento. No hace falta entrar en los detalles técnicos para entender la idea: la IA sabe lo que ha visto.
De aquí salen tres consecuencias prácticas para padres y niños:
- Si algo no estaba en sus datos, puede no saberlo, o puede inventar una respuesta plausible.
- Si algo cambió después de su entrenamiento, puede no estar al día.
- Si un tema aparece poco o aparece sesgado en los datos, sus respuestas reflejarán ese hueco o ese sesgo.
Por qué puede equivocarse
Las razones, en lenguaje simple:
- puede no tener información suficiente sobre el tema;
- puede mezclar cosas que se parecen y producir una versión confusa;
- puede inventar un dato que suena probable pero no existe;
- puede no saber que algo cambió desde su entrenamiento;
- puede interpretar mal la pregunta;
- puede responder con seguridad aunque no tenga base sólida para hacerlo.
Es la última la que más confunde. Una IA puede equivocarse con la misma confianza con la que acierta. No tiene un "indicador de seguridad" que el lector pueda mirar.
Por eso hace falta lo que veremos en otro artículo: aprender a comprobar.
Por qué parece que razona
Aquí hay que ser cuidadoso.
Muchas veces la IA puede seguir pasos, comparar opciones y resolver problemas. Para muchos efectos prácticos, parece razonar.
Pero no debemos confundir eso con entender exactamente como entiende una persona. Su forma de "pensar" sigue siendo, en el fondo, predecir continuaciones plausibles. A veces eso produce un razonamiento útil. A veces produce un razonamiento que parece bueno pero no lo es.
La idea para niños:
Puede hacer razonamientos útiles, pero hay que comprobar el camino y el resultado.
No basta con que la respuesta suene lógica. Hay que mirar si los pasos llevan de verdad al resultado.
Qué cambia cuando la usamos para aprender
Sabiendo todo lo anterior, ¿para qué sirve una IA en un contexto educativo?
La IA puede:
- explicar un concepto de varias maneras hasta encontrar una que el niño entienda;
- dar ejemplos a medida;
- hacer preguntas que ayuden a pensar;
- corregir un texto y comentar por qué;
- proponer retos en lugar de respuestas;
- generar código que el niño puede modificar;
- simular conversaciones (un personaje histórico, un experto, un amigo);
- resumir un texto largo en algo manejable.
Pero el niño debe aprender a:
- pedir contexto, no solo respuestas;
- comprobar lo que recibe;
- hacer preguntas mejores cuando algo no encaja;
- detectar errores aunque suenen seguros;
- no copiar sin entender.
Tres pruebas para entender mejor la IA
Una actividad práctica:
1. Hazle la misma pregunta de dos formas distintas.
2. Pídele que explique su respuesta para un niño más pequeño.
3. Pídele un ejemplo y luego intenta comprobarlo.
Después comparad:
- ¿cambió la respuesta entre las dos formas?
- ¿qué versión se entiende mejor?
- ¿qué parte habría que comprobar?
- ¿inventó algo en el ejemplo?
Es media hora de actividad y enseña más sobre IA que cualquier curso de prompt.
Preguntas para acompañar
- ¿La IA está explicando o solo respondiendo?
- ¿Qué parte parece dato?
- ¿Qué parte parece opinión?
- ¿Qué parte puede haber inventado?
- ¿Qué información le faltaba?
- ¿Cómo podríamos pedirlo mejor?
- ¿Qué ejemplo nos ayuda?
- ¿Cómo comprobamos que no se ha equivocado?
- ¿Qué entiende la IA y qué estamos poniendo nosotros?
La idea importante
Entender un poco cómo funciona la IA no sirve para apagar la curiosidad.
Sirve para usarla mejor.
Cuando un niño descubre que la IA no es magia, puede dejar de obedecerla y empezar a dialogar con ella.
