Hablamos con ella, le pedimos consejos y hasta le confiamos decisiones. Pero ¿qué es realmente la inteligencia artificial? Ni magia ni ciencia ficción: es estadística aplicada a escala masiva. Desde que herramientas como ChatGPT, Gemini o Copilot se volvieron de uso cotidiano, la inteligencia artificial pasó de ser un concepto técnico a una presencia diaria en celulares, trabajos y hogares. Sin embargo, la mayoría de las personas —y muchos periodistas— la describen con términos que no se corresponden con lo que realmente ocurre: «la IA piensa», «la IA entiende», «la IA decidió». Ninguna de esas frases es técnicamente correcta. Una IA del tipo que usamos hoy —conocida como modelo de lenguaje grande, o LLM por sus siglas en inglés— no piensa ni entiende en ningún sentido humano del término. Lo que hace es predecir, con altísima precisión estadística, cuál es la próxima palabra más probable dado un contexto. Nada más. Nada menos.
¿Cómo aprende una IA?
El proceso se llama entrenamiento. Un modelo de lenguaje lee —en realidad, procesa matemáticamente— cantidades enormes de texto: libros, artículos, páginas web, foros, código de programación. Durante ese proceso, ajusta millones (o miles de millones) de parámetros numéricos hasta que puede predecir correctamente qué palabra sigue a otra en millones de contextos distintos. El resultado es un sistema que puede responder preguntas, redactar textos, traducir idiomas o escribir código, no porque «entienda» esas tareas, sino porque aprendió patrones estadísticos profundamente complejos sobre cómo el lenguaje humano funciona. Es una diferencia conceptual enorme con implicancias prácticas igual de grandes.
Qué puede y qué no puede hacer
Las IAs actuales son extraordinariamente buenas para tareas donde existe un patrón lingüístico claro: resumir documentos, reformular textos, generar código a partir de instrucciones en lenguaje natural, traducir con matices. También pueden sorprender con respuestas creativas o análisis aparentemente profundos. Pero fallan de maneras que ningún humano fallaría: inventan hechos con total confianza (un fenómeno llamado «alucinación»), no tienen memoria entre conversaciones a menos que se programe explícitamente, y no tienen acceso a información más reciente que su fecha de entrenamiento. Saben escribir sobre física cuántica, pero no saben si llovió ayer en Neuquén.
IA en la Patagonia: más cerca de lo que parece
En la provincia del Neuquén, la IA ya opera en ámbitos concretos. El sector petrolero utiliza algoritmos de machine learning para optimizar la extracción en Vaca Muerta, predecir el mantenimiento de equipos y analizar datos sísmicos. En salud, algunos hospitales públicos de la región exploran herramientas de diagnóstico asistido por imagen. En educación, la Universidad Nacional del Comahue incorpora discusiones sobre IA en carreras de ingeniería y sistemas. El desafío no es técnico sino cultural: aprender a usar estas herramientas con criterio, entender sus límites y no delegarles decisiones que requieren juicio humano, ético y contextual.
| Lo que la IA hace (y lo que no) |
| → Hace: predice texto con alta precisión estadística basándose en patrones aprendidos. |
| → No hace: pensar, razonar, entender ni tener conciencia de ningún tipo. |
| → Riesgo principal: «alucinaciones», es decir, inventar datos con aparente seguridad. |
| → Usos reales en Neuquén: optimización petrolera, diagnóstico médico asistido, educación. |
M.T.



