@if seo.ogType == 'article' @endif
pensamiento computacional

Cómo funciona una IA, sin matemáticas

Madre y niña descomponiendo la respuesta de una IA en tarjetas de palabras conectadas por cordeles, junto a una libreta titulada Patrones de lenguaje

Imagen generada con IA

Un niño pregunta:

"¿La IA sabe cosas o se las inventa?"

El adulto duda.

Porque la respuesta honesta es incómoda:

A veces parece que sabe. A veces acierta. A veces razona. A veces inventa. Y muchas veces suena igual de segura en todos los casos.

Ese es el punto de partida.

Si vamos a usar la IA con los niños, ayudar a desmontar dos imágenes mentales es importante. La primera: que la IA es mágica. La segunda: que la IA es solo una calculadora algo más lista. Ninguna de las dos es exacta.

La IA no es magia. Tampoco es solo una calculadora tonta. Es una máquina de patrones muy potente que necesita contexto, límites y comprobación.

No es una persona dentro del ordenador

El primer modelo mental a desmontar es el más común: pensar que dentro de la IA hay alguien.

No lo hay.

No hay una persona pensando detrás. No hay intención humana. No hay comprensión como la de un niño o un adulto cuando conversan.

Pero cuidado, también es importante no caer en el extremo opuesto: decir "la IA no entiende nada" y quedarse tan a gusto. Eso tampoco es exacto.

Lo que pasa por dentro es algo más raro. Y precisamente entender un poco qué pasa ayuda a usarla mejor.

Se parece a un autocompletado gigante

Una analogía útil para empezar.

Cuando escribes en el móvil, el teclado predice la siguiente palabra. Si escribes "voy a ir al", te sugiere "colegio", "trabajo", "super". Has visto miles de mensajes parecidos y el teclado lo aprovecha.

Una IA hace algo relacionado, pero a una escala enorme y con patrones muchísimo más complejos. Ha visto cantidades inmensas de texto y ha aprendido a continuarlo de forma plausible.

Por eso puede:

Pero hay un problema, y es el centro de este artículo:

Que una continuación sea probable no significa que sea verdadera.

Una IA puede continuar un texto con algo que suena bien, encaja en el contexto, parece informado, y sin embargo es falso. No miente a propósito. Es que la verdad no es una de sus prioridades internas; la coherencia y la plausibilidad sí.

Aprendió de muchos ejemplos

Antes de poder responder, la IA fue entrenada con enormes cantidades de texto, código, conversaciones y otros materiales. De ahí aprendió patrones: cómo se escriben las respuestas, cómo suelen conectarse las ideas, qué palabras aparecen juntas, cómo se explica un concepto, qué forma tiene una receta o un cuento o una explicación científica.

Eso es lo que llamamos datos de entrenamiento. No hace falta entrar en los detalles técnicos para entender la idea: la IA sabe lo que ha visto.

De aquí salen tres consecuencias prácticas para padres y niños:

  1. Si algo no estaba en sus datos, puede no saberlo, o puede inventar una respuesta plausible.
  2. Si algo cambió después de su entrenamiento, puede no estar al día.
  3. Si un tema aparece poco o aparece sesgado en los datos, sus respuestas reflejarán ese hueco o ese sesgo.

Por qué puede equivocarse

Las razones, en lenguaje simple:

Es la última la que más confunde. Una IA puede equivocarse con la misma confianza con la que acierta. No tiene un "indicador de seguridad" que el lector pueda mirar.

Por eso hace falta lo que veremos en otro artículo: aprender a comprobar.

Por qué parece que razona

Aquí hay que ser cuidadoso.

Muchas veces la IA puede seguir pasos, comparar opciones y resolver problemas. Para muchos efectos prácticos, parece razonar.

Pero no debemos confundir eso con entender exactamente como entiende una persona. Su forma de "pensar" sigue siendo, en el fondo, predecir continuaciones plausibles. A veces eso produce un razonamiento útil. A veces produce un razonamiento que parece bueno pero no lo es.

La idea para niños:

Puede hacer razonamientos útiles, pero hay que comprobar el camino y el resultado.

No basta con que la respuesta suene lógica. Hay que mirar si los pasos llevan de verdad al resultado.

Qué cambia cuando la usamos para aprender

Sabiendo todo lo anterior, ¿para qué sirve una IA en un contexto educativo?

La IA puede:

Pero el niño debe aprender a:

Tres pruebas para entender mejor la IA

Una actividad práctica:

1. Hazle la misma pregunta de dos formas distintas.
2. Pídele que explique su respuesta para un niño más pequeño.
3. Pídele un ejemplo y luego intenta comprobarlo.

Después comparad:

Es media hora de actividad y enseña más sobre IA que cualquier curso de prompt.

Preguntas para acompañar

La idea importante

Entender un poco cómo funciona la IA no sirve para apagar la curiosidad.

Sirve para usarla mejor.

Cuando un niño descubre que la IA no es magia, puede dejar de obedecerla y empezar a dialogar con ella.